Chimie et technologies de l'information 9782759816439

L’intrusion des nouveaux outils de communication – smartphones, tablettes – modifie la vie de tout le monde. À force de

175 58 56MB

French Pages 236 [226] Year 2014

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Chimie et technologies de l'information
 9782759816439

Citation preview

Chimie et technologies de l’information

1

Cet ouvrage est issu du colloque « Chimie et technologies de l’information », qui s’est déroulé le 6 novembre 2013 à la Maison de la Chimie.

« COLLECTION CHIMIE ET ... » Collection dirigée par Bernard Bigot Président de la Fondation internationale de La Maison de la Chimie

Chimie et technologies de l’information Ian Cayrefourcq, Isabelle Chartier, Bertrand Demotes-Mainard, Sébastien Février, Jean-Charles Flores, Lionel Hirsch, Anatole Lécuyer, Yannick Le Tiec, Didier Lévy, Lionel Presmanes, Patrice Simon, Vincent Thulliez, Michel Valache Coordonné par Minh-Thu Dinh-Audouin, Danièle Olivier et Paul Rigny

chimie_techno_Liminaires.indd 3

17/06/14 11:39

Conception de la maquette intérieure et de la couverture : Pascal Ferrari et Minh-Thu Dinh-Audouin Images de la couverture, en page 1 : Cellules solaires, vue au microscope d'une anode, zoom sur un écran avec pixel (BASF), micro-batterie 3D étirable (S. Xu et al., 2013, Stretchable batteries with self-similar serpentine interconnects and integrated wireless recharging systems, Nature Communication, vol. 4). Iconographie : Minh-Thu Dinh-Audouin Mise en pages et couverture : Patrick Leleux PAO (Caen)

Imprimé en France

ISBN : 978-2-7598-1184-7

Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal.

© EDP Sciences 2014

EDP Sciences 17, avenue du Hoggar, P.A. de Courtabœuf, BP 112 91944 Les Ulis Cedex A, France

Ont contribué à la rédaction de cet ouvrage :

Ian Cayrefourcq Directeur des technologies émergentes du groupe Arkema Isabelle Chartier Responsable des programmes électroniques organiques imprimés Laboratoire d’Innovation pour les Technologies des Énergies Nouvelles et les nanomatériaux (LITEN), CEA Responsable des relations industrielles de la plateforme d’impression PICTIC Bertrand Demotes-Mainard Vice-président Recherche et Technologie Matériels de la Direction technique du groupe Thales Sébastien Février Chercheur Institut XLIM de l’Université de Limoges, UMR CNRS 7252 Jean-Charles Flores Chercheur, spécialiste Électronique organique BASF Lionel Hirsch Directeur de recherche au CNRS Laboratoire de l’Intégration des Matériaux au Systèmes (IMS) à l’Université de Bordeaux.

Anatole Lécuyer Directeur de recherche, Responsable de l’équipe Hybrid de l’Institut National de Recherche en Informatique et en Automatique (INRIA) Yannick Le Tiec Université Grenoble Alpes CEA, LETI, MINATEC Campus (Grenoble) LETI (Laboratoire d’Électronique et des Technologies de l’Information)

Vincent Thulliez Responsable du groupe Nanomatériaux fonctionnels Solvay - Recherche avancée et innovation technologique Michel Valache Directeur Général Adjoint de Veolia Propreté France Président de la Fédération Nationale des Activités de la Dépollution et de l’Environnement Président de l’Association Alliance Chimie Recyclage (2ACR)

Didier Lévy Advanced R&D Program Manager STMicroelectronics Lionel Presmanes Chargé de recherche au CNRS Centre Inter-universitaire de Recherche et d’Ingénierie des MATériaux (Institut Carnot CIRIMAT) UMR CNRS 5085 (Université Paul Sabatier de Toulouse) Patrice Simon Professeur à l’Université Paul Sabatier Laboratoire Centre Interuniversitaire de Recherche et d’Ingénierie des MATériaux (CIRIMAT). Directeur Adjoint du Réseau sur le Stockage Électrochimique de l’Énergie, FR CNRS n° 3459

Équipe éditoriale : Minh-Thu Dinh-Audouin, Danièle Olivier et Paul Rigny

5

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Sommaire Avant-propos : par Danièle Olivier et Paul Rigny

9

Préface : par Bernard Bigot..............................

13

Partie 1 Le futur et la gestion du futur Chapitre 1 : Commander « par la pensée » avec les interfaces cerveau-ordinateur ? d’après la conférence d’Anatole Lécuyer ....

17

Chapitre 2 : La faible longévité des supports d’information numérique : un défi technologique d’après la conférence de Franck Laloë ........

35

Chapitre 3 : Faire du déchet une ressource, un enjeu pour l’industrialisation des filières et des territoires en France par Michel Valache .......................................

41

Partie 2 Smartphones et tablettes : un condensé de chimie Le point de vue des industriels

Chapitre 4 : Les matériaux avancés, moteurs de l’innovation en électronique d’après la conférence de Vincent Thulliez ...

53

Chapitre 5 : Les multiples contributions de la chimie dans la conception des tablettes et des Smartphones par Jean-Charles Flores ..............................

67

Chapitre 6 : Les polymères se réveillent pour l’électronique ! d’après la conférence de Ian Cayrefourcq ...

77

Chapitre 7 : De la chimie au radar du Rafale d’après la conférence de Bertrand DemotesMainard .........................................................

93

7

Chimie et technologies de l’information

Chapitre 8 : Les nouveaux matériaux, moteurs de l’amélioration de la performance en microélectronique silicium d’après la conférence de Didier Lévy ........... 103

Partie 3 Électronique et composants Chapitre 9 : L’électronique organique imprimée. Une nouvelle branche de l’électronique par Isabelle Chartier .................................... 121 Chapitre 10 : La chimie au cœur des (nano)transistors par Yannick Le Tiec....................................... 133 Chapitre 11 : Microsystèmes pour le stockage électrochimique de l’énergie par Patrice Simon ......................................... 155

Partie 4 Optique et capteurs Chapitre 12 : Les diodes électroluminescentes organiques : des sources « plates » de lumière d’après la conférence de Lionel Hirsch ....... 183 Chapitre 13 : La fibre optique : Internet dans un grain de sable d’après la conférence de Sébastien Février 199 Chapitre 14 : Micro-capteurs à semiconducteurs pour la détection du CO2 par Lionel Presmanes .................................. 217

8

Un ouvrage pour comprendre le futur en marche ! Le rôle – souvent même majeur – de la chimie n’apparaît guère à première vue aux yeux de ses utilisateurs. C’est l’une des raisons d’être essentielles de cette collection Chimie et…, comme on le voit dans les titres de la collection tels que La chimie et le sport, Chimie et transports, etc., car le sportif ou l’usager des transports sont bien loin de réaliser tout ce qu’ils doivent à la chimie en profitant des progrès de la technique qu’ils pratiquent. Chimie et technologies de l’ information, ce nouveau membre de la collection Chimie et… est emblématique sous ce rapport. Emblématique parce que le citoyen du X XI e siècle est en quelque sorte pris par le tourbillon des nouveaux appareils : ils lui apportent de nouvelles possibilités qui tout d’abord l’étonnent et l’émerveillent, puis qu’il assimile au point de les « trouver normales ». Il en modifie sa façon de vivre et de communiquer avec son entourage puis attend comme « normaux » les perfectionnements… comme si une nouvelle loi naturelle, une « loi du

progrès éternel », lui devait une nouvelle génération d’appareils chaque printemps. Ce processus est si rapide que l’usager ne se pose pas un instant la question technique correspondante : comment ces progrès sont-ils possibles ? Qu’on songe pour illustrer la vitesse de ces évolutions aux engins volumineux et lourds, au regard des critères d’aujourd’hui, qu’étaient les premiers téléphones portables, et aux attentes qui se sont manifestées vis-à-vis de « la nouvelle génération », puis de la « 4G », etc., des premières versions de la WiFi puis de sa banalisation… Derrière la naissance de ces appareils puis de ces évolutions, se trouve un mot clé : la miniaturisation. Comment dans les années 1970 on pouvait mettre 10 000 transistors sur une plaquette de silicium d’1 cm², et comment aujourd’hui on sait en mettre un milliard. C’est véritablement époustouflant si l’on veut bien y songer (ce qui n’est d’ailleurs pas si facile tant l’énormité de ce nombre, un milliard, dépasse l’imagination). Cela vient entre autres de la technique de la lithographie pour laquelle on a su développer des polymères

Danièle Olivier et Paul Rigny Fondation de la Maison de la Chimie

Avantpropos

Chimie et technologies de l’information 10

photosensibles, des sources de lumière suffisamment fines, des conditions de marquage appropriées… invention de matériaux polymères, de procédés photochimiques. Et comment les substrats minéraux, du silicium d’abord, d’autres composés minéraux mixtes aujourd’hui, ont pu être conçus et fabriqués avec des degrés de pureté qui dépassent, eux aussi, l’imagination (voir les chapitres de J.-C. Flores, I. Cayrefourcq, V. Thulliez, D.Lév y et de B. Demotes-Mainard) ! Un autre mot clé s’impose : le stockage de l’énergie. Car l’usager moyen ne va peut-être pas y penser : mais tous ces appareils, ces capteurs ou ces voyants, s’ils sont capables de fonctionner pour ainsi dire « tout seuls », n’est-ce pas là aussi miraculeux ? Tout appareil réclame de l’énergie. D’origine humaine ou animale naguère, elle ne pouvait permettre qu’une mobilité limitée aux appareillages. Le pétrole puis l’électricité, depuis le début du XXe siècle, ont bien changé la situation en donnant naissance au transport automobile. Mais on voit que les téléphones se sont affranchis d’être reliés aux fils électriques, et verrait-on les usagers emporter une réserve d’essence comme si un téléphone pouvait marcher avec un briquet ? Les progrès réalisés dans le silence des laboratoires pour l’invention, le développement et la mise au point de piles avec toujours plus d’heures d’autonomie et de puissance réservée, et qui ont permis l’essor des nouvelles technologies, sont absolument fascinants

(comme l’aborde le chapitre de P. Simon). Pour dominants qu’ils soient dans la vie quotidienne du citoyen du X X e siècle, il ne faut pas limiter les applications des nouvelles technologies aux tablettes et Smartphones. Des techniques que l’on croyait classiques adoptent de nouvelles versions : de nouveaux capteurs pour contrôler l’environnement, de plus en plus pour servir de contrôle médical rapproché, de nouveaux dispositifs d’éclairage par OLED, des positionnements de capteurs à l’extrémité de fibres optiques (voir les chapitres de L. Presmanes, L. Hirsch et S. Février). Cette révolution technique enclenchée voilà quelques décennies, et dont on voit déjà qu’elle révolutionne nos vies, n’est pas finie. La génération actuelle des dispositifs repose à la base sur les substrats silicium ou sur des composés minéraux nouveaux découverts par les laboratoires de chimie du solide. Mais voici que le domaine de la chimie organique se met à être exploré par les laboratoires, avec sa quasi-infinité de composés réalisés ou réalisables. Cela ouvre des perspectives d’autant plus brillantes que la science chimique sait de mieux en mieux préciser le produit qu’il va lui falloir pour obtenir telle ou telle propriété fonc tionnelle recherchée pour le but poursuivi. Ainsi déjà, grâce à la chimie organique, s’annoncent au niveau du laboratoire de nouveaux usages qu’on croyait réservés à la science fiction : écrans souples, pliants, enroulables,

Le présent ouvrage fera mieux comprendre aux lecteurs l’arrière-plan technique qui a permis la naissance et l’essor, puis pour les années qui viennent, le développement des appareils de communication, dont on réalise à quel point ils conditionnent nos existences. Il n’élude pas quelques questions plus terre à terre, mais qu’on aurait bien sûr grand tort de négliger : comment recycler les déchets de cette industrie de technologie nouvelle en atténuant aussi le risque de manquer de ressources minérales néces-

saires ; comment s’y prendre pour conserver les informations archivées sur support informatique – une question qui n’a pas encore trouvé de solution aussi performante que les supports papier ! Et les « rêveurs » ou les futuristes pourront réfléchir à la lecture du chapitre introductif (A. Lécuyer) qui montre l’ordinateur gouverner la pensée d’un opérateur.

Avant-propos

surfaces permettant la fabrication de circuits électroniques par impression, panneaux muraux activés, panneaux solaires souples, etc. (chapitre d’I. Chartier).

Danièle Olivier, Vice-présidente de la Fondation de la Maison de la Chimie. Paul Rigny, Conseiller scientifique auprès du président de la Fondation de la Maison de la Chimie

11

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

L’objectif de cette collection, dont cet ouvrage est le dixième exemplaire, est de faire prendre conscience aux lecteurs non spécialistes de l’apport positif de la chimie dans la vie quotidienne de chacun, et cela tout particulièrement en direction de la partie la plus jeune des lecteurs, c’est-à-dire en direction des lycéens et des étudiants. Nous voulons contribuer à préparer l’avenir, à développer leur intérêt pour les sciences et les technologies, à les aider à devenir des citoyens éclairés et responsables. Nous voulons les encourager à s’orienter vers l’industrie et la recherche, et contribuer ainsi au développement d’une industrie chimique innovante, respectueuse de l’environnement, compétitive et porteuse d’emplois. Cette collection est l’une des pièces maîtresses de cet objectif : les thèmes transdisciplinaires choisis ont toujours une grande importance sociale, économique ou culturelle et correspondent à la volonté de mettre la Science au service des Hommes et de leur qualité de vie. Les auteurs s’efforcent de répondre avec franchise et toute la rigueur scientifique souhaitable, en

parfaite transparence, aux questions et parfois même aux inquiétudes que suscitent les sciences de la chimie. Nous souhaitons aussi montrer aux jeunes étudiants et aux familles l’intérêt et la diversité des domaines d’application et des emplois de tout niveau qu’elles recouvrent. Comment mieux intéresser les jeunes aux sciences et technologies, notamment à celles de la chimie, qu’en leur permettant, au travers des exemples concrets, de mieux connaître et de mieux comprendre un domaine qui, par l’usage quotidien qu’ils en font, leur est familier et qu’il apprécient tout particulièrement : celui des Smartphones, des tablettes, et plus généralement des technologies de l’information et de la communication ; c’est pourquoi nous l’avons choisi pour thème de ce dixième ouvrage. En téléphonant, en surfant sur votre tablette ou sur votre Smartphone, en écoutant un CD, en regardant la télévision, vous n’avez sans doute jamais eu l’impression de faire appel aux ressources qu’offre la chimie. Et pourtant, vous découvrirez dans ces chapitres qu’elle est partout présente et que son rôle est prépondérant

Bernard Bigot Président de la Fondation Internationale de la Maison de la Chimie

Préface

Chimie et technologies de l’information

dans les fulgurants progrès techniques des objets de communication dont beaucoup n’existaient pas encore il y a dix ans. Quelques-uns des meilleurs experts scientifiques et industriels du domaine ont accepté de vous en convaincre et de faire le difficile exercice de vous informer sur les progrès les plus récents de manière accessible, tout en demeurant passionnante, pour le large éventail de lecteurs. Vous serez informés non seulement sur les procédés et les produits existants mais aussi sur ceux qui vont très probablement émerger dans les prochaines années. Avec eux, vous découvrirez la richesse du dialogue transdisciplinaire, et le fait que les plus belles innovations résultent bien souvent, et tout particulièrement dans ce domaine, de la synergie des collaborations possibles entre des chimistes, des physiciens, des biologistes et des mathématiciens. C’est pourquoi le premier chapitre portera sur un thème qui vous fera fantasmer, mais dont nous voyons déjà les premières applications concrètes, je veux parler des interfaces entre nos cerveaux et les ordinateurs. Mais à cette vision enthousiasmante du futur, il faut pragmatiquement associer deux problèmes importants qui ne sont encore que partiellement résolus : la faible longévité des supports d’information numérique et la gestion des déchets issus de ces supports.

14

Deux chapitres vous montreront pourquoi le caractère durable des procédés et des

produits doit être maintenant au cœur des préoccupations des scientifiques universitaires et industriels. Dans les chapitres suivants, cinq exper t s industr iel s appar tenant aux gr ands groupes internationaux – trois chimistes et deux utilisateurs de la chimie – vous expliqueront où et comment la chimie sert à fabriquer et à faire fonctionner Smartphones et tablettes d’aujourd’hui et de demain. La troisième par tie sera consacrée aux progrès de la micro-électronique et aux écrans flexibles de grande surface résultant des progrès de l’électronique organique imprimée. La dernière partie dédiée aux nouveaux écrans, capteurs et fibres optiques, vous donnera non seulement un aperçu des nouveaux produits existants et de ceux qui vont émerger, mais vous permettra de comprendre leur fonctionnement et le rôle qu’y joue la chimie. Je vous souhaite une excellente lecture.

Bernard Bigot Président de la Fondation Internationale de la Maison de la Chimie Administrateur Général du CEA

« par la

pensée

avec les

»

interfaces

cerveau-

ordinateur ? Anatole Lécuyer est directeur de recherche à l’Institut National de Recherche en Informatique et en Automatique (Inria)1, dont il est responsable de l’équipe Hybrid du centre de recherche de Rennes. Spécialiste de la réalité virtuelle, ses principaux travaux et recherches portent sur l’interaction en trois dimensions avec les environnements virtuels, les interfaces haptiques et les interfaces cerveau-ordinateur, thème de ce chapitre. Il est impliqué dans de nombreux programmes de recherche collaborative. Il est éditeur associé à plusieurs revues dans ce domaine, et membre du comité d’administration de l’Association Française de Réalité Virtuelle.

Pour découvrir le domaine de la réalité virtuelle et ses technologies, entrons dans la salle immersive appelée Immersia, toute dernière génération de réalité virtuelle, du Centre de Recherche de Rennes (Figure 1A). L’une des plus grandes au monde, elle mesure dix mètres de large, quatre mètres de haut, et quasiment quatre mètres de 1. www.inria.fr

profondeur. On peut y être immergé dans un monde 3D en stéréoscopie2 avec un effet holographique saisissant. Tout s’y passe comme si vous aviez un écran de cinéma en 3D en face, mais aussi à droite, à gauche et sous vos pieds, et vous voyez en relief tout autour de vous.

2. Impression du relief dans des images à deux dimensions.

D’après la conférence d’Anatole Lécuyer

Commander

Chimie et technologies de l’information

A

B

Figure 1 A) La salle immersive Immersia (Inria/IRISA, Rennes) ; B) exemples d’applications de la réalité virtuelle : en médecine, dans la conception industrielle, pour le divertissement…

18

C

D

Il est de plus possible d’interagir avec cet environnement virtuel, avec des interfaces à retour d’effort3, c’est-à-dire à retour tactile, pour sentir ou toucher des objets virtuels, avec du son spatialisé qui accompagne.

pièces d’avions. Les technologies de réalité virtuelle permettent de réaliser des maquettes virtuelles en échelle 1 avant de passer sur des maquettes réelles. La Figure 1D montre une application dans le domaine du divertissement

Citons quelques applications de la réalité virtuelle et de ses technologies. La Figure 1B donne un exemple en médecine, dans le domaine des simulateurs médicaux, qui permettent à des chirurgiens de s’entraîner sur des patients virtuels avant d’aller opérer un patient réel. La Figure 1C donne une application industrielle avec la simulation de l’assemblage pour la conception d’automobiles ou de

On trouve encore bien d’autres domaines d’applications tels que la conception en architecture ou en urbanisme, avec la visite de bâtiments virtuels, ou encore la création artistique, notamment dans les jeux vidéo. Il existe dès à présent de nombreuses manières d’interagir avec ces mondes virtuels.

3. Les interfaces à retour sensoriel ou retour d’effort permettent de ressentir la position et les mouvements, les forces exercées (collisions, poids, viscosité), à l’aide de capteurs proprioceptifs situés dans les muscles et les tendons.

Ce chapitre porte sur les interfaces cerveau-ordinateur (Figure 2F), mais mentionnons qu’il existe de nombreuses

Le domaine de la réalité virtuelle donne lieu à plusieurs axes de recherche par l’équipe Hybrid de Rennes (Figure 2)4.

4. www.inria.fr/equipes/hybride

A

D

corps (Figure 2C). Ce dernier type d’interface, illustré par le dispositif JOYMAN, où le corps est directement utilisé pour interagir en se penchant vers la droite, la gauche, en avant, en arrière, permet de naviguer facilement et simplement

B

C

Commander « par la pensée » avec les interfaces cerveau-ordinateur ?

autres manières d’interagir avec un monde virtuel. On peut par exemple interagir avec ses yeux via une interface visuelle (Figure 2A), avec ses mains via l’interface haptique (qui concerne la sensibilité cutanée, Figure 2B), avec son

E

F

Figure 2 Exemples de recherche en réalité virtuelle : le FlyVIZ (A), un siège haptique (B), une interface de locomotion JOYMAN (C), simulation et interaction haptique avec des liquides (D), interaction en environnements collaboratifs (E) et interface cerveau-ordinateur (F).

19

Chimie et technologies de l’information

dans le monde virtuel. Cette application a été développée et brevetée par notre équipe de recherche ; elle peut être utilisée dans le domaine de la réhabilitation ou de la rééducation motrice, dans des conditions contrôlées et sécurisées, pour ré-entraîner à la posture ou travailler le sens de l’équilibre. Notons qu’elle peut aussi être utilisée pour s’amuser à faire du ski virtuel. Ces interfaces permettent aussi de collaborer à distance (Figure 2E). On appelle un système « CAVE » notre espace immersif dédié à la recherche dans le domaine de la réalité virtuelle à Rennes. Le CAVE de Rennes peut être en interaction en temps réel avec le CAVE d’une équipe partenaire à Londres, avec deux utilisateurs immergés dans un monde virtuel utilisant un effet stéréoscopique, c’est-à-dire avec des images en relief sur l’écran (comme au cinéma 3D) grâce à des lunettes. On peut ainsi travailler en équipe à distance sur des applications de visualisation scientifiques, interagir sur des données complexes en interaction avec des données scientifiques.

1

Les interfaces cerveau-ordinateur

1.1. Le fonctionnement

Figure 3

20

Principe d’une interface cerveauordinateur ou Brain-Computer Interface.

La particularité de l’interface cerveau-ordinateur (« Brain Computer Interface », BCI en anglais) est que dans ce type d’interaction, le sujet peut rester immobile, totalement statique, et l’interaction se fait uniquement via l’activité

cérébrale. Une interface cerveau-ordinateur est donc un système de communication, de transmission d’informations, dans lequel les messages, les commandes ou les informations sont envoyés uniquement à partir de l’activité cérébrale (Figure 3). Dans l’activité cérébrale, c’est l’activité électrique qui est utilisée ; elle correspond aux échanges de courant électrique entre les neurones du cerveau. Cette activité électrique neuronale varie selon les régions du cerveau en fonction de l’activité cognitive, et selon les fonctions cognitives qui sont impliquées : les courants et localisations sont différents selon que l’on utilise les aires visuelles, les aires auditives ou les aires motrices du cerveau. Cette activité électrique est mesurée à la surface du crâne en utilisant les systèmes d’électroencéphalographie utilisés en médecine (EEG) : ce sont des électrodes réparties sur la surface du crâne avec un bonnet à électrodes. Les signaux électriques enregistrés à la surface correspondent indirectement à ce qui se passe à l’intérieur du crâne dans l’activité électrique du cerveau. 1.2. Analyse de l’activité cérébrale : signaux et traitements des signaux EEG La Figure 4 montre un exemple de signaux obtenus par EEG, selon les zones cérébrales concernées. La Figure 4A représente une tête, en vue de dessus avec six électrodes C3, C4, P3, P4, O1, O2, qui sont

C

50 C3 0 50 0 50

500

1000

1500

2000

2500

500

1000

1500

2000

2500

500

1000

1500

2000

2500

500

1000

1500

2000

2500

500

1000

1500

2000

2500

2000

2500

C4 0

A2

A1 C3 P3 O1

C4

50 0 50 P3 0 50 0 20

P4

P4 0

O2

20 0 20

B

O1 0 20 0 20 O2 0 20

Yeux ouverts

Yeux fermés

disposées au niveau des aires corticales (C3, C4), pariétales (P3, P4) et occipitales (O1, O2) de la tête. Sur la Figure 4B sont représentés les signaux électriques EEG, enregistrés en temps réel à la surface du crâne. Sur les différentes zones, on observe des différences obser vables visuellement en fonction des endroits où l’on place les électrodes. Les courants sont extrêmement faibles (l’unité est le microvolt), et nécessitent un bon amplificateur pour pouvoir les observer. La Figure 4C montre l’influence de l’ouverture et de la fermeture des yeux sur l’EEG. Les yeux sont ouverts au début du tracé ; quand les yeux se ferment, apparaît un phénomène oscillant à 10 hertz, c’est-à-dire dix fois par seconde sur le signal électrique. Ce phénomène sinusoïdal s’appelle l’onde alpha. Ce type d’ondes a été découvert dans les années 1930 par Hanz Berger. Elles

0

500

peuvent révéler un état de relaxation. 1.3. Les différentes étapes de la création d’une interface cerveau-ordinateur La Figure 5 donne les différentes étapes qui vont permettre d’utiliser les signaux électriques résultant de l’activité cérébrale pour la réalisation d’une interface cerveauordinateur La première étape est la mesure l’activité électrique du cerveau, à partir des systèmes EEG que nous venons de décrire. Il faut ensuite filtrer ces signaux parasités par beaucoup de bruits environnants, mais aussi par des bruits provenant de l’activité cérébrale. Puis on se focalise sur une information pertinente, c’est-à-dire que l’on extrait de ces signaux très complexes (issus parfois de 200 à 300 électrodes reparties sur la surface du crâne) une partie de signal ayant des caractéristiques pertinentes des signaux émis par le cerveau,

1000 1500 Samples (250 per second)

Figure 4 Influence des zones cérébrales concernées sur les tracés électroencéphalographiques (EEG). A) Disposition des électrodes à la surface du crâne ; B) signaux mesurés par les différentes électrodes ; C) EEG enregistré lors de l’ouverture/fermeture des yeux.

Commander « par la pensée » avec les interfaces cerveau-ordinateur ?

A

21

Chimie et technologies de l’information

6

1

Retour sensoriel

Mesure de l’activité cérébrale

2

Traduction en une commande

4

Filtrage 3

Classification

Extraction de caractéristiques

Figure 5 Étapes du fonctionnement d’une interface cerveau-ordinateur.

22

5

comme par exemple la bande de fréquence autour de 8 à 10 hertz du rythme alpha signalé précédemment, et l’on se concentre sur cette information. Enregistrée en temps réel, celle-ci est envoyée à un algorithme de classification (c’est-à-dire un ensemble d’opérations mathématiques et d’instructions préalablement mis au point), qui va permettre d’identifier la classe d’activité cérébrale qui peut y être associée. Par exemple, pour le rythme alpha, s’il est très élevé, un tel algorithme va pouvoir détecter que le sujet a peut-être les yeux fermés, ou au contraire qu’il a les yeux ouvert si le rythme alpha est très bas. On peut ainsi traiter d’autres types d’activités cérébrales, par exemple l’imagination de mouvements. Selon que l’on imagine un mouvement de la main droite ou un mouvement de la main gauche, deux zones différentes du cortex moteur sont activées : l’activation est contra latéralisée, c’est-àdire qu’un mouvement imaginaire de la main droite active le cortex moteur à gauche et vice versa. On place donc des électrodes à gauche et à droite au sommet du crâne

et on enregistre les activités cérébrales correspondantes, puis on les classifie comme précédemment grâce à un algorithme, comme un mouvement imaginaire soit de la main droite soit de la main gauche. Une fois que ces types d’activités cérébrales sont identifiés et classifiés, elles peuvent être associés et traduites en commandes pour l’ordinateur. Par exemple l’imagination de mouvements de la main gauche ou de la main droite peut être associée à la commande : bouger un curseur de souris vers la gauche ou vers la droite. La dernière étape de la boucle d’interaction est le retour sensoriel vers l’utilisateur, qui peut être visuel, auditif ou tactile. Il permet de vérifier que le système a non seulement bien détecté l’activité, mais aussi compris qu’elle était associée à un mouvement imaginaire de la main à gauche ou à droite (dans notre exemple). Cette dernière étape est fondamentale pour entrer dans une boucle d’apprentissage. En effet, nous avons pu observer que l’entrainement conduisait à un meilleur contrôle de l’activité cérébrale ; mais pour apprendre à mieux contrôler progressivement son activité cérébrale, un retour sensoriel est indispensable. 1.4. Le vocabulaire mental Quelle activité cérébrale peut-on aujourd’hui détecter, et à quel vocabulaire mental arrive-t-on à l’associer pour l’utiliser et interagir avec une inter face cer veau-ordinateur ?

Ce vocabulaire est encore limité à des tâches mentales simples, faciles à expliquer et à contrôler comme imaginer un mouvement de la main gauche ou de la main droite. Il est aussi nécessaire que les signaux électriques associés à ces tâches soient relativement faciles à détecter dans les EEG. On classe les activités mentales en deux types, endogènes et exogènes. 1.4.1. Les activités mentales endogènes

Commander « par la pensée » avec les interfaces cerveau-ordinateur ?

Le « vocabulaire mental » utilisable et le nombre de commandes mentales restent aujourd’hui encore relativement limités, et nécessitent une implication, une motivation et une concentration souvent très fortes du sujet intervenant pour que les activités mentales et les tâches mentales qui y sont associées soient détectées dans les signaux EEG de la surface du crâne.

des mains gauche et droite. Les études montrent que lorsque le sujet imagine un mouvement de la main droite, le cortex moteur est activé à gauche, alors que pour un mouvement de la main gauche c’est le cortex moteur droit qui s’allume. On peut réussir, après un certain apprentissage du sujet, et en utilisant des algorithmes de classification efficaces, à détecter jusqu’à 90 à 95 % des mouvements imaginés mentalement. Malheureusement, plus généralement on n’en détecte encore que 60 à 70 %. Les signaux électriques identifiés sont ensuite utilisés pour interagir avec un ordinateur comme on peut le voir sur la Figure 6. Dans cet exemple, le sujet est équipé d’un casque à électrodes EEG, et les signaux sont utilisés pour une application à un jeu de handball où il faut envoyer la balle ou à gauche ou à droite. Une flèche rouge apparaît sur l’écran qui indique au joueur de se concentrer sur un mouvement

Figure 6 Jeu de handball en réalité virtuelle basé sur l’imagination de mouvements des mains droite et gauche.

Prenons comme premier exemple celui de la famille des activités cérébrales dites endogènes, c’est-à-dire celles qui viennent du sujet, de l’utilisateur. On retrouve dans cette famille le calcul mental, la rotation mentale de figures géométriques (comme imaginer faire tourner un objet en 3D), et également l’imagination de mouvements. Le nombre de tâches associées à cette famille que l’on peut détecter dans les signaux EEG est encore peu important (quatre ou cinq tâches maximum). Prenons l’exemple de l’activité cérébrale associée à l’imagination de mouvements

23

Chimie et technologies de l’information

de la main gauche ou droite pour envoyer la balle dans la direction correspondante. L’image est stéréoscopique et le joueur est équipé de lunettes adaptées. 1.4.2. Les activités mentales exogènes La seconde famille d’activités mentales qui peut aujourd’hui être utilisée et exploitée pour des interfaces cerveau-ordinateur est celle des tâches dites exogènes. Dans ce cas, les activités mentales du sujet sont des réponses ou des réflexes de son cerveau à des stimulations extérieures (exogène = « de l’extérieur »). Le sujet est stimulé, le plus souvent visuellement, mais également via d’autres modalités sensorielles, et son cerveau va réagir. Dans l’exemple étudié ici, la stimulation est visuelle, les signaux cérébraux que l’on retrouve après cette stimulation sont ce qu’on appelle des « potentiels évoqués du type SSVEP », que nous allons expliquer dans ce qui suit.

24

Si le sujet observe un objet ou un fl ash lumineux qui clignote à une certaine fréquence, par exemple de 7 hertz (7 fois par seconde), quand on place des électrodes sur la partie arrière de son crâne, près de ses aires visuelles, au-dessus de son cortex visuel, et que l’on analyse la fréquence des ondes électriques émises par son cerveau, on retrouve des signaux de fréquence 7 hertz. La fréquence des ondes lumineuses captées par l’œil est donc passée via le nerf optique dans le cortex visuel, et on la retrouve dans l’activité électrique du cortex visuel que

l’on mesure via les électrodes. Dans ce cas, sur l’EEG du cortex visuel de la Figure 7, on peut voir clairement une forte augmentation de la puissance de la bande de fréquence 7 hertz. On y observe aussi les fréquences harmoniques à 14 et 21 hertz. Ce signal peut donc ensuite être utilisé pour concevoir des interfaces cerveau-ordinateur basées sur la réponse cérébrale à une stimulation extérieure modulée en fréquence. Un exemple d’application est donné par le jeu vidéo « Mineshooter » développé entre 2009 et 2013 par notre équipe dans le cadre d’une recherche soutenue par l’Agence Nationale de la Recherche (ANR), en collaboration notamment avec la Société de jeu vidéo UBISOFT (Figure 8). Ce jeu vidéo est contrôlé par l’activité cérébrale SSVEP (« Steady State Visually Evoked Potentials ») résultant d’une stimulation visuelle (fl ashs). Le joueur doit se concentrer sur des cibles lumineuses qui clignotent à trois fréquences différentes, par exemple 5, 7 et 8 hertz. Si le joueur se concentre sur l’une de ces cibles, la fréquence correspondante se retrouve dans les ondes émises par son cerveau, et il peut à partir de ce signal activer une commande vers la cible qu’il regarde, par exemple, dans le cas de notre jeu inspiré du célèbre « Space Invaders » : aller à gauche, aller à droite et tirer sur une vaisseau spatial ennemi. L’entraînement permet assez rapidement au joueur de bien contrôler son activité mentale et d’être efficace.

Stimulation visuelle exogène : potentiels évoqués visuels et EEG associé.

Figure 8 Jeu vidéo « Mineshooter » contrôlé par l’activité cérébrale de type SSVEP.

Applications et enjeux des interfaces cerveau-ordinateur

2

2.1. Applications En dehors des applications ludiques prises précédemment pour exemples dans les deux grandes familles d’activités mentales, quelles sont les applications possibles de ces interfaces cerveau-ordinateur ? Historiquement les applications de ces interfaces ont été recherchées pour le domaine du handicap, que ce soit pour retrouver un moyen de communication pour des patients paralysés prisonniers de leur enveloppe corporelle, ou pour retrouver une motricité avec des fauteuils roulants, des prothèses, des orthèses, pilotés par l’activité cérébrale, et notamment celle des aires motrices (Figure 9). Aujourd’hui, il existe de nombreux prototypes dans cette

Commander « par la pensée » avec les interfaces cerveau-ordinateur ?

Figure 7

ligne de recherche ; quelques systèmes sont même commercialis é s , not amment des éditeurs de textes pilotés par l’activité cérébrale. Des vidéos très impressionnantes sur des prototypes de ce type sont consultables sur Internet. Le domaine du multimédia et du divertissement, avec les jeux vidéo ou la réalité virtuelle, s’est intéressé aux applications de cette nouvelle manière d’interagir avec des ordinateurs qui introduit une manière de jouer, et une sensation de jeu différentes. Mais la possibilité d’interagir sans bouger, uniquement à partir de l’activité cérébrale, a aussi été utilisée pour contrôler une multitude d’objets tels que des robots, des véhicules, des téléphones portables, etc., même si aujourd’hui on est encore très loin des performances obtenues avec un clavier ou une souris.

25

Chimie et technologies de l’information

Figure 9 Exemples d’applications des interfaces cerveau-ordinateur : pour le handicap (communication, motricité), le multimédia (jeux, réalité virtuelle) ou le contrôle (robot, véhicule, téléphone).

26

2.2. Évolution du matériel Deux types de systèmes sont actuellement utilisés : − les systèmes non invasifs, qui sont les systèmes précédemment présentés, utilisant des électrodes posées à la surface du crâne pour enregistrer les signaux électriques (Figure 10) ; − les systèmes invasifs utilisés uniquement dans certains cas et dans certains contextes, notamment pour des patients sévèrement paralysés, pour lesquels les électrodes sont à l’intérieur du crâne. Ces techniques ont déjà été utilisées dans d’autres contextes, par exemple pour la maladie de Parkinson ou pour l’épilepsie. Dans ce cas, l’objectif est de mettre les capteurs (électrodes)

parfois très profondément à l’intérieur du cerveau, au plus près de l’activité électrique, pour avoir moins de parasites, moins de bruits que dans la captation de l’activité électrique à la surface du crâne. Les électrodes doivent alors résister à un certain nombre de réactions de l’organisme. On utilise plus fréquemment les systèmes non invasifs, non implantés. La tendance actuelle est d’augmenter le nombre de capteurs, avec des systèmes EEG pouvant aller jusqu’à deux cents, parfois cinq cents capteurs, c’est-àdire cinq cents électrodes réparties à la surface du crâne. Une autre tendance, est d’évoluer vers des systèmes à électrodes sèches, alors que

Une autre évolution notable depuis quatre ou cinq ans est le développement des systèmes de casques grand public qui peuvent être achetés directement sur Internet, qui correspondent à un système EEG conçu dans une optique de jeux vidéo. Ces systèmes sont un peu plus fragiles, un peu moins confi gurables qu’un casque médical, et la qualité des signaux est moins bonne. Cependant le prix de ces casques est beaucoup moins élevé (250 €) que celui des casques médicaux – qui peuvent coûter jusqu’à quinze, vingt ou trente mille euros –, et cela permet aujourd’hui d’envisager la diffusion de ces technologies vers le grand public. D’autres techniques d’analyse de l’activité cérébrale sont en cours d’exploration utilisant d’autres types de capteurs que ceux qui captent l’activité électrique du cerveau.

On utilise par exemple l’IRM, l’imagerie par résonance magnétique ou les techniques de spectroscopie infrarouge. Ces techniques s’intéressent à la réponse hémodynamique, c’est-à-dire résultant d’autres changements (oxygénation et désoxygénation) du cerveau, qui sont révélatrices de manière indirecte de l’activité cérébrale.

Figure 10 Évolution du matériel utilisé pour les interfaces cerveau-ordinateur.

Commander « par la pensée » avec les interfaces cerveau-ordinateur ?

toutes les électrodes jusqu’à présent sont utilisées avec du gel pour assurer la conductivité et la bonne captation de l’activité électrique. Quelques systèmes à électrodes sèches commencent à diffuser sur le marché.

L’avenir des interfaces cerveauordinateur : les défis scientifiques

3

3.1. Les défis scientifiques Il faut d’abord mieux connaître le cerveau, mieux comprendre son activité électrique pour encore enrichir le vocabulaire mental. Ces travaux de recherche en neurosciences concernent l’électrophysiologie, la neurophysiologie5 et

5. L’électrophysiologie est l’étude de l’activité bioélectrique des tissus vivants, en particulier des tissus nerveux et musculaires ; la neurophysiologie est la discipline qui étudie le fonctionnement des éléments nerveux et de leurs ensembles.

27

Chimie et technologies de l’information

aussi la neurochimie cérébrales. Il faut ensuite améliorer les capteurs, les électrodes, les systèmes matériels, dont nous avons vu quelques exemples, pour les rendre plus efficaces, moins encombrants, plus faciles à utiliser, et avec un ratio signal sur bruit plus élevé. Ces recherches concernent l’électronique et la microélectronique du système embarqué, dans laquelle la chimie joue elle aussi un rôle. Il faut aussi améliorer l’identification et la classification des signaux cérébraux , ce qui nécessite des recherches dans le domaine du traitement du signal, pour mieux filtrer, mieux extraire et mieux classifier les signaux électriques du cerveau, car aujourd’hui on arrive rarement à avoir des systèmes qui reconnaissent 100 % du temps et 100 % des fois la bonne activité cérébrale de l’utilisateur. De plus, nous avons vu que l’on ne sait encore récupérer que deux, trois ou quatre commandes mentales, ce qui est encore peu. Il faut concevoir des systèmes intelligents, des simulations, des robots, des fauteuils roulants qui soient eux-mêmes intelligents et qui compenseront le faible nombre de commandes mentales dont nous disposons. Ces recherches relèvent du domaine de l’interaction homme-machine, pour rendre aussi l’usage plus intelligent.

28

Enfin, il faut développer les applications, notamment le transfert vers les patients, vers les utilisateurs qui en ont réellement besoin, les personnes handicapées. Il faut

donc beaucoup de recherches cliniques en collaboration avec des médecins pour valider et transférer ces technologies vers le patient. 3.2. Les interfaces cerveauordinateur en France Les projets dans le domaine des interfaces cerveau-ordinateur en France ont commencé vers 2005, et notre équipe de Rennes y a participé activement. Le premier projet collaboratif sur les interfaces cerveauordinateur en France est le programme OpenViBE que j’ai piloté, qui a démarré en 2005 et qui s’est terminé en 2009. Il portait sur l’application de ces technologies à l’handicap et l’assistance aux personnes handicapées, et avait pour objectif de déboucher sur un logiciel « open source », libre et gratuit pour la communauté scientifique (Figure 11). Il rassemblait plusieurs équipes p ar tenair e s , not amment celles du CEA, de l’INSERM, du GIPSA-Lab6, de Orange (à l’époque France Télécom), ainsi que l’association française contre les myopathies, qui se sont associés pour la première fois afin d’étudier ces technologies de manière collaborative. Ce programme coopératif a débouché sur la réalisation d’un logiciel appelé OpenViBE, devenu depuis un standard mondial dans la communauté scientifique C’est un des logiciels les plus utilisés dans ce domaine, et c’est notre équipe à l’Inria qui l’entretient et le 6. Grenoble Images Parole Signal Automatique.

Utilisation du logiciel Open-ViBE.

développe pour la communauté scientifique internationale. Ce logiciel téléchargeable est en accès libre et gratuit, et son utilisation ne nécessite que de disposer d’un casque à électrodes. Il permet donc de démarrer une activité scientifique dans ce domaine. Il faut acquérir des connaissances de base relativement complexes, mais il est possible de démarrer avec les exemples d’OpenViBE, qui est un logiciel relativement simple à utiliser avec une interface (Figure 12). Le deuxième projet scientifique qui a pris le relais était OpenViBE2, dont l’objectif était de tester ces technologies dans le domaine également

extrêmement contraint du jeu vidéo. Ce programme associe à nouveau l’Inria avec le CEA, l’INSERM, le GIPSA-Lab, le laboratoire CHART, CLARTE, et cette fois des industriels du jeu vidéo pour tester le potentiel de ces technologies. Il s’agit d’Ubisoft, qui est l’un des grands éditeurs mondiaux et français du domaine, ainsi que deux studios de développement de jeux vidéo : Black Sheep Studio et Kylotonn Games.

Commander « par la pensée » avec les interfaces cerveau-ordinateur ?

Figure 11

Dans ce contexte, nous avons développé des jeux, d’abord amusants puis des jeux sérieux, les « serious games », qui sont par fois des jeux à vocation thérapeutique. Par exemple nous avons

Figure 12 Interface graphique du logiciel Open-ViBE.

29

Chimie et technologies de l’information

développé un jeu sérieux pour soigner des enfants qui souffrent de déficit attentionnel ou d’hyperactivité, syndrome bien connu des psychiatres et difficile à traiter dans bien des cas.

Dans un autre contexte, pour voir dans ce cas son dessin animé, il lui faudra se concentrer et augmenter son rythme cérébral dû à l’attention, sinon le dessin animé est flouté et il perdra la visibilité sur le film.

Dans ce dernier exemple, nous utilisons des techniques de « neurofeedback », c’est-àdire que l’activité cérébrale du cerveau de l’enfant est captée et ensuite utilisée pour entraîner l’enfant à corriger les activités à priori « anormales » de son activité électrique cérébrale en temps réel.

À la fin de ce programme, nous avons souhaité aller plus loin dans l’évaluation clinique, médicale de ces technologies. Nous avons donc engagé un programme transdisciplinaire appelé HEMISFER (expérimenté à Rennes), où nous travaillons sur le neurofeedback et la rééducation cérébrale. Des médecins de réadaptation et des psychiatres collaborent à ce programme pour le tester sur certains types de pathologies, comme des déficiences motrices mais aussi des troubles psychiatriques. L’utilisation de la réalité virtuelle, de l’EEG, de l’IRM et le neurofeedback pour soigner ces déficiences mentales et motrices, ainsi que les troubles psychiatriques, sont un grand défi du projet HEMISFER à venir.

La Figure 13 montre comment cela se passe : l’enfant équipé d’un casque à électrodes est immergé dans une classe virtuelle (développée avec CLARTE). Dans cette classe virtuelle, l’enfant pratique un certain nombre d’exercices pour s’entraîner à se concentrer, et à développer son attention à travers quelques jeux. Par exemple, ici il faut qu’il se concentre ou développe son rythme cérébral attentionnel pour soulever des objets virtuels par la force de la pensée.

Figure 13 30

Classe virtuelle créée pour le projet Open-ViBE2.

Il faut aussi mentionner qu’en 2012 a été créée la première

Des résultats récents et des perspectives d’avenir

4

4.1. Des interfaces cerveauordinateur multiutilisateurs Un premier axe concerne la possibilité de coupler des interfaces cerveau-ordinateur entre elles, donc de connecter les cerveaux de plusieurs personnes. La Figure 14 montre une des toutes premières interfaces cerveau-ordinateur multiutilisateurs, où plusieurs utilisateurs connectés vont interagir ensemble avec leurs cerveaux, dans une optique soit de compétition soit de collaboration. Par exemple deux utilisateurs s’affrontent ici dans un « duel

Commander « par la pensée » avec les interfaces cerveau-ordinateur ?

start-up française pour développer ces technologies appelées « Mensia Technologies ». Cette start-up travaille en coopération avec le laboratoire Inria Rennes. Elle est localisée actuellement à l’Inria Rennes ainsi qu’à l’hôpital la Salpêtrière à Paris et l’Institut du cerveau et de la moelle épinière (ICM). Cette société se focalise sur les principales applications médicales et de santé des interfaces cerveauordinateur, ainsi que de l’EEG temps réel pour soigner des troubles comme ceux du sommeil ou de l’attention.

mental », dans un jeu semblable à celui précédemment présenté du « handball virtuel », où il faut aller marquer des buts à gauche ou à droite. Mais ici, on joue soit ensemble, soit l’un contre l’autre. Quand on joue l’un contre l’autre, l’utilisateur de gauche doit par exemple envoyer la balle à gauche tandis que l’utilisateur de droite doit l’envoyer à droite. Il faut donc mobiliser l’imagination du mouvement de sa main gauche ou de sa main droite en fonction de la direction où l’on veut tirer : un mouvement de la main gauche vers la gauche pour tirer à gauche, puis l’inverse pour la droite. Les deux utilisateurs s’affrontent donc mentalement. 4.2. L’interface cerveauordinateur comme outil d’assistance Un autre axe de développement présente de très belles perspectives, celles de ne plus utiliser l’interface cerveau-ordinateur pour piloter un ordinateur directement, mais d’exploiter l’activité du cerveau pour l’utiliser de manière indirecte. Dans ce cas, on va surveiller et mesurer le cerveau, regarder son activité pour détecter des activités cérébrales qui seront par exemple révélatrices d’une charge cognitive très élevée,

Figure 14 Couplage des interfaces cerveauordinateur de deux utilisateurs dans un jeu de handball virtuel. Source : Bonnet L., Lotte F., Lécuyer A. (2013). Two Brains, One Game: Design and Evaluation of a Multi-User BCI Video Game Based on Motor Imagery, IEEE Transactions on Computational Intelligence and AI in Games.

31

Chimie et technologies de l’information

Figure 15 Simulateur médical « adaptatif » par interface cerveauordinateur. Source : Lécuyer A., George L., Marchal M. (2013). Toward Adaptive VR Simulators Combining Visual, Haptic, and Brain-Computer Interfaces, IEEE Computer Graphics & Applications, 33(5) : 18-23.

ou d’une fatigue mentale, afin d’en tenir compte et d’adapter l’interaction. Cette autre direction de recherche sur les interfaces cerveau-ordinateur dites « passives » ou « implicites » est illustrée sur la Figure 15, qui représente un simulateur médical « adaptatif » pour des chirurgiens qui vont s’entraîner sur des gestes chirurgicaux, ici en l’occurrence pour une biopsie. Il faut chercher une tumeur dans un foie avec une aiguille. Dans ce cas, l’objectif est de surveiller l’activité cérébrale du chirurgien (l’apprenant), et si une surcharge cognitive ou une fatigue mentale est détectée, un système d’assistance visuelle ou haptique est activé, dans le cas présent un guidage pour faciliter la tâche de l’utilisateur. Dès que la charge cognitive redescend, l’assistance est désactivée. L’objectif est de faciliter l’entraînement en intégrant cette dimension adaptative à un système de formation. C’est une première preuve de concept, publiée cette année, de la possibilité de monitorer l’activité du cerveau et l’utiliser en temps réel dans un simulateur de formation en réalité virtuelle. 4.3. Immersion et réalité virtuelle

32

On sait aujourd’hui que la notion de retour sensoriel

est fondamentale dans les systèmes d’interfaces cerveau-ordinateur, et qu’il faut proposer des situations et du retour sensoriel riches, porteurs d’informations et motivants pour le sujet, afin de lui donner envie de continuer à développer ses capacités de contrôle cérébral. Dans ce cadre, nous avons recréé, à l’échelle 1, dans notre système immersif de Rennes (Figure 1) une situation très ludique de la guerre des étoiles inspirée du film L’Empire contre-attaque (Figure 16). Dans cette séquence, le héros Luke Skywalker doit se concentrer, mobiliser ses capacités télékinésiques, pour soulever un vaisseau spatial par la force de sa pensée. Le sujet est immergé dans notre système de réalité virtuelle stéréoscopique et doit se concentrer pour soulever par la force de sa pensée le vaisseau spatial à l’échelle 1, crée par effet holographique. Le système dans son ensemble est très immersif, avec d’autres personnages, un cadre de marécages, avec un son spatialisé. Le sujet est équipé d’un casque portable BlueTooth sans fil à seize électrodes, et sa tâche consiste à se concentrer, ou dans certains modes à l’inverse à se relaxer, afin de mobiliser de façon contrôlée son énergie pour soulever le vaisseau spatial virtuel.

Séquence de La Guerre des Étoiles dans la salle immersive de Rennes. Source : Lécuyer A., George L., Marchal M. (2013). Toward Adaptive VR Simulators Combining Visual, Haptic, and Brain-Computer Interfaces, IEEE Computer Graphics & Applications, 33(5) : 18-23.

Les interfaces cerveau-ordinateur, au cœur de recherches à l’échelle mondiale Les technologies d’interfaces cerveau-ordinateur ne sont donc plus du domaine de la science fiction. Il existe des prototypes impressionnants, utilisant différents types d’activités cérébrales, dans différents contextes applicatifs. Il y a un vrai défi scientifique à relever, car les systèmes ne sont pas encore complètement opérationnels. Si l’on prend comme point de comparaison les systèmes de reconnaissance vocale qui aujourd’hui fonctionnent pour la plupart très bien, on est a peu près à la même étape du processus de développement qu’avaient ces systèmes il y a vingt ou trente ans, où un certain temps de calibration et d’entraînement était nécessaire, et où la performance n’était pas de 100 %. Ce défi scientifique est pluridisciplinaire : il fait intervenir les neurosciences (et la neurochimie), l’électronique, le traitement du signal et l’interaction homme-machine.

Commander « par la pensée » avec les interfaces cerveau-ordinateur ?

Figure 16

33

Chimie et technologies de l’information 34

Les domaines d’applications attendus sont très nombreux : le domaine médical, le handicap, la rééducation avec le neurofeedback, le multimédia et le contrôle d’engins variés. Ce domaine de recherche est mondialement extrêmement actif, particulièrement aux ÉtatsUnis, en Autriche, au Japon et de plus en plus en France, où notamment le logiciel OPEN VIBE fait figure de grand succès, et des projets collaboratifs d’envergure se développent sur la durée.

des

longévité

supports

information numérique : un défi d’

technologique Ancien diplômé de l’École Polytechnique, Franck Laloë a été chercheur au CNRS au Laboratoire Kastler Brossel au Département de physique de l’École Normale Supérieure (ENS). Il est président du GIS-DON (maintenant appelé GIS-SPADON), pôle de recherche sur la conservation des données sur disques optiques numériques, et est auteur de livres sur la mécanique quantique ainsi que sur la longévité de l’information numérique.

L’utilisation des moyens numériques pour la création de documents, textes ou images, s’est généralisée au point de devenir quasi universelle. Elle s’est imposée à côté de l’utilisation des supports papier qu’elle est peut être en passe de remplacer. Se pose alors la question de la conservation de ces productions à travers

les années, voire les siècles. Quand on réalise tout l’apport que les documents issus de temps anciens pouvant remonter jusqu’à l’antiquité égyptienne ou assyrienne, on reconnaît l’importance cruciale de la question. Elle a fait l’objet d’un rapport à l’Académie des Sciences et à l’Académie des Technologies en 20102, le rapport PSN (Encart : « Les recommandations du rapport PSN »).

1. Voir aussi l’article : Laloë F. et Spitz E. (2013). La quête d’un support numérique durable, Pour la Science, 433.

2. Rapport PSN (Pérennité des Supports Numériques), 2010, Eric Spitz, Jean-Charles Hourcade et Franck Laloë.

Sauvegarde et archivage des documents1

1

D’après la conférence de Franck Laloë

La faible

Chimie et technologies de l’information

LES RECOMMANDATIONS DU RAPPORT PSN (PÉRENNITÉ DES SUPPORTS NUMÉRIQUES) 1. Débloquer les études sur le sujet Les laboratoires et équipes qui font des propositions de recherche dans ce domaine doivent pouvoir trouver un soutien financier ; il faut impérativement éviter de voir leurs projets rejetés par les agences de moyens. Lancer rapidement un appel à projets ambitieux visant à remplacer la technologie d’enregistrement optique actuelle (CDR et DVDR), basée pour le moment sur des processus physico-chimiques complexes et mal contrôlés, par des technologies plus robustes et prévisibles. 2. Éviter la perte des compétences dans le privé et le public Recenser les compétences publiques et privées dans le domaine et prendre les mesures urgentes nécessaires à la préservation des compétences clés, avant qu’elles n’aient complètement disparu d’Europe. 3. Favoriser l’innovation et l’apparition d’une offre industrielle de qualité Soutenir vigoureusement les quelques entreprises qui ont déjà effectué des avancées vers la réalisation de Disques Optiques Numériques enregistrables de très bonne longévité. Ce soutien peut prendre la forme de contrats ou de commandes de dispositifs réellement innovants par les organismes publics concernés par l’archivage à long terme. 4. Élaborer une véritable politique d’archivage numérique S’assurer au sein de chaque ministère que les données numériques importantes (documents officiels, examens médicaux conservés dans les hôpitaux, etc.) sont bien l’objet du suivi indispensable à leur survie.

36

À vrai dire, il ne s’agit pas de garder tous les documents sans discernement. On veut garder des données personnelles, des documents médicaux, scientifiques, administratifs ou encore les documents constituant un patrimoine artistique ou documentaire… et tout cela ne représente en fait que quelques pourcents de toute la production documentaire. Seule une petite proportion devra ainsi en être conservée sur le long terme, des décennies, voire des siècles. À ce stade, il convient de distinguer la sauvegarde des documents, qui concerne la protection à court terme des données pour se prémunir par exemple du risque d’incendie, de vol, etc.,

de l’archivage, qui implique un classement des documents en permettant l’exploitation à long terme. Les réflexions de ce chapitre concernent les supports les plus répandus dans tous publics que sont les « disques optiques enregistrables », mais pas les disques pressés utilisés dans les milieux professionnels spécialisés et qui sont beaucoup plus fiables. Attention d’abord aux allégations des constructeurs sur la supposée durée infinie de ces supports : les Figures 1 et 2 illustrent d’une part ces allégations publicitaires et d’autre part l’existence de détériorations matérielles liées au vieillissement.

Extrait d’une publicité des années 2000 et de ses allégations. Source : www.philips.com/dvdr

Le bon sens suggère deux méthodes de conser vation des données (archivage) sur le long terme : une stratégie active et une stratégie passive.

Outre que cette stratégie suppose la continuité historique de la civilisation (qui n’aurait pas permis la conservation depuis l’antiquité), elle est extrêmement coûteuse car elle implique la construction et l’exploitation de grands centres de données.

La stratégie active consiste à changer le disque support du document chaque fois qu’on lui observe une faiblesse. C’est la « recopie éternelle » qu’il faut mettre en œuvre tous les deux ou trois ans ; cette technique peut même être assurée automatiquement par des robots. Les « fermes » du CERN fonctionnent suivant ce principe.

La stratégie passive peut être qualifiée de « stratégie de la boîte à chaussures dans l’armoire normande », ce qui la dispense de toute définition théorique. En fait, comme le montre la Figure 2, cette stratégie ne semble pas facilement applicable au support de données numériques qui, matériellement, ne traversent

2

L’archivage à long terme

La faible longévité des supports d’information numérique : un défi technologique

Figure 1

Figure 2 Traces de détérioration observées sur des disques (CD) conservés dans des conditions standards. On observe des délitements des couches par diffusion des molécules d’eau, des moisissures, des cloques…

37

Chimie et technologies de l’information

pas le temps sans subir des dommages. Pour étudier de façon précise les propriétés des supports numériques par rapport à leur résistance au vieillissement et proposer les meilleures solutions, un réseau de laboratoires s’est créé en France sous le nom de GIS-SPADON (Groupe d’Intérêt Scientifique sur les Supports Pérennes d’A rchivage de DOnnées Numériques). Ce réseau est essentiellement une structure pour échanges d’idées et d’informations ; il anime un site Internet pour diffuser ses réflexions (Encart : « Le GIS-SPADON »). Partie prenante de ce réseau, le Laboratoire National

LE GIS-SPADON (GROUPE D’INTÉRÊT SCIENTIFIQUE SUR LES SUPPORTS PÉRENNES D’ARCHIVAGE DES DONNÉES NUMÉRIQUES) Équipes constitutives du GIS – Équipe Lutheries, Acoustique, Musique de l’Institut Jean Le Rond d’Alembert – Laboratoire de Photochimie Moléculaire et Macromoléculaire (Univ. Blaise Pascal) – Laboratoire National de Métrologie et d’Essais (LNE) – Institut de Chimie de Clermont-Ferrand – Institut National de l’Audiovisuel (INA) – Institut d’Optique théorique et appliquée – Laboratoire Ondes et Matière d’Aquitaine (Bordeaux) – Laboratoire de l’Intégration du Matériau au Système (Bordeaux) – Université Paris Sud, Groupe matériaux avancés pour la photonique Site Internet du GIS http://www.lne.fr/fr/r_et_d/gis-don/conservationdonnees-numeriques-gis-don.asp 38

d’Essais de métrologie (LNE) a établi des données rigoureuses sur le vieillissement, qui font prendre conscience de la très grande fragilité des disques optiques numériques. La mesure des effets du vieillissement peut se faire « directement », c’est-à-dire en observant les détériorations en fonction du temps qui passe. Évidemment cette stratégie ne peut porter sur le très long terme. On utilise donc aussi, en parallèle, une stratégie d’accélération en imposant à l’échantillon des conditions qui en précipitent la détérioration par l’environnement (chauffage, irradiation ultraviolet, humidité) ; cette technique permet d’obtenir des informations pertinentes pour le comportement à long terme – quoique la validation de la similitude des effets « accélérés » et « réels long terme » reste partiellement hypothétique. Ces travaux ont apporté des conclusions indiscutables, montrant par exemple sur certaines archives départementales que les dommages du temps les rendaient inexploitables après une conservation de dix années. Les observations montrent que les disques optiques sont devenus très inhomogènes ; les supports ne restent sans défauts que pour une seule année pour certains, cinq ans pour d’autres, jamais plus.

3

Le disque en verre

Il existe cependant un support de qualité, c’est le « disque en verre » que l’on réalise en gravant les informations

La Figure 3 schématise les étapes de la fabrication du disque. Une lithographie par plasma est mise en œuvre sur une galette de verre puis recouverte d’une couche métallique. Le disque est lisible sur les lecteurs standards ; grâce aux propriétés d’inertie du verre, le DVD en verre passe tous les tests de longévité et pourrait tenir plusieurs siècles. Le principal inconvénient du disque en verre est qu’il présente est une trop faible capacité de stockage (5 Go) qui entraîne un important volume des équipements – qui reste cependant modeste par rapport à celui d’un film. Par

Disque en verre Ø 120 mm

Gravure ionique réactive sur verre 

Revêtement photosensible

Décapage de résines photosensibles

Enregistrement séquentiel de faisceau laser

Or/autre placage de métal

Développement de résine photosensible

Finition

ailleurs, son prix est élevé : environ 150 € pour un DVD. Cependant, la Figure 4 reproduit les résultats d’une comparaison économique élaborée par le cabinet Syylex qui montre que sur le long terme, le disque en verre se révèle performant.

Figure 3 Principe de la fabrication d’un disque en verre. La gravure ionique réactive sur verre est une technique de gravure qui fait intervenir un gaz à l’état de plasma.

La faible longévité des supports d’information numérique : un défi technologique

dans du verre trempé. Inventé en France il y a une vingtaine d’années, il n’a pas alors connu de diffusion commerciale mais continue à être pris en considération. Le disque en verre a fait l’objet d’études de vieillissement accéléré au LNE ; il a montré un excellent comportement.

RAID 500 GB de données

Coût [a.u.]

Bande  Disque en plastique

Figure 4 Disque en verre

0

5

10

15

Années

20

25

Comparaison des différents supports numériques (coût de la conservation en fonction de la durée). RAID (appelé aussi « mirroring ») désigne une fonction intégrant deux disques durs et disponible sur certains modèles.

39

Chimie et technologies de l’information 40

Une conclusion mitigée La conservation des données numériques est devenue une activité importante et est bien évidemment appelée à une forte croissance. Elle consomme aujourd’hui environ 4 % de la production mondiale d’électricité alors qu’elle n’en consommait que moins de 1 % il y a cinq ans. C’est la stratégie de l’archivage actif qui est seule mise en œuvre actuellement. Elle présente cependant plusieurs inconvénients : son coût élevé – coût financier mais aussi coût environnemental puisqu’elle consomme une grande quantité de supports –, mais peut-être surtout, elle souffre de risques relatifs à la confidentialité qui peuvent inquiéter. Le stockage à distance est en effet moins sûr qu’un coffre fort à portée de la main. En fait, on ne voit poindre aucune solution miracle, compte tenu de ce que le DVD en verre n’a pas encore la maturité industrielle requise pour qu’il soit généralisé. Cette situation appelle un effort concerté de l’État et du privé pour faire mûrir cette technique. Il s’agirait d’un effort de recherche vers des améliorations fondamentales du principe (comme par exemple le développement de techniques de gravure femtoseconde au cœur du verre), de favoriser l’innovation et l’apparition d’une offre industrielle de qualité, et bien sûr d’élaborer une véritable politique pour l’archivage numérique.

Faire du une un

ressource,

enjeu

pour

l’industrialisation des

filières et des

territoires en France Michel Valache est Directeur Général Adjoint de Veolia Propreté France, président de la Fédération Nationale des Activités de la Dépollution et de l’Environnement (FNADE), et président de l’Association Alliance Chimie Recyclage (2ACR)1.

Cet ouvrage présente les progrès fulgurants des technologies de l’information et de la communication, et l’impact du secteur de la chimie dans ce développement. Ce chapitre sera complémentaire et peut être un peu en décalage avec les autres. Sans véritablement nous en rendre compte, nous sommes passé du Télex dans les années 1970 au Fax, et trente ans plus tard à Internet, sans 1. www.2acr.eu

oublier la phase intermédiaire mais extraordinaire en France du Minitel.

1

Le contexte actuel

1.1. Les outils numériques font partie du « panier de la ménagère » Il est devenu si facile de communiquer aujourd’hui avec la panoplie des outils numériques et logiciels mis à notre disposition qu’ils sont devenus le prolongement de nous

Michel Valache

déchet

Chimie et technologies de l’information

Figure 1 Télex, minitel, Internet (PC, tablette, Smartphone)… les technologies de l’information et de la communication ont connu des progrès fulgurants en quarante ans. Sources : Télex : Wikipédia, Licence CC-BY-SA-3.0, Liftarn ; minitel : Wikipédia, GFDL & CCby-2.5, Deep Silence.

même et souvent le reflet de notre image personnelle. Les dépenses associées à ce mode de fonctionnement ont bouleversé l’économie du « panier de la ménagère », y compris la hiérarchie des besoins dans la famille, sans oublier l’impact très important sur le mode de gestion du monde économique Ces dépenses associées p o s ent aujour d ’ hui de s contraintes, notamment dans toutes les familles extrêmement modestes, parce qu’il faut être au goût du jour, et cela malgré l’effort des opérateurs marketing pour diminuer les coûts.

Figure 2

42

Le traitement des déchets (ici, des déchets informatiques) est un sujet majeur qui bouleverse l’économie et la société.

1.2. Les déchets ont un coût (Figure 2) Examinons parallèlement l’évolution du coût du déchet : tout le monde le trouve toujours très cher puisque ce coût est supporté au quotidien par chaque citoyen. Pourtant, le coût du traitement des déchets est extrêmement modeste par rapport au coût de l’utilisation des technologies de l’information, pour les ménages. Le traitement du déchet est donc un vrai sujet, un vrai bouleversement de société dans lequel le monde de la chimie est fortement impliqué. Le

1.3. Le lien avec la croissance mondiale La réflexion est liée à la croissance fulgurante de la population et à l’émergence de puissances économiques nouvelles. C’est par exemple le cas du Brésil ou de l’Asie (qui représentera dans moins de quinze ans 50 % du PIB mondial), et d’ou viennent dès à présent beaucoup de ces produits issus du numérique. L’Afrique, avec un taux de croissance intéressant (un peu plus de 5 % par an), est aussi un des pays à opportunités de développement. En 2025 ces pays arriveront à un niveau de vie comparable à celui des pays occidentaux. Ils seront peut-être aussi plus compétitifs en termes de formations, notamment d’ingénieurs, et donc peut-être plus performants en innovation. Tout cela nous conduit à la conviction que les systèmes d’informations, de la connaissance, vont encore accélérer le changement dans le monde social et économique. Le numérique sera un élément fondamental de la gestion de données pour l’élaboration de nouveaux matériaux, et continuera à bouleverser notre quotidien. L’industrie chimique est étroitement associée à cette évolution ; il faut s’en féliciter, mais la partie n’est pas gagnée. En

effet, la population mondiale croît beaucoup, elle va passer de sept milliards à plus de huit milliards d’individus en 2030 ; la durée de vie s’allonge, l’urbanisation va progresser, et tout cela va déséquilibrer les modes de consommation ainsi que les ressources. L’équilibre entre consommation et ressources va se rompre ; nous nous orientons vers la raréfaction des matières premières, et ce que l’on appelle « un monde fini » (qui n’a rien à voir avec le réchauffement climatique par ailleurs). Ce sont des faits, et ils ne sont pas discutables en l’état de nos connaissances. Nous devons donc passer d’un monde de l’abondance à celui de la rareté, de la sobriété, ce qui ne signifie nullement une ère obligatoire de décroissance. La rareté de la ressource peut conduire à deux situations : celle de l’intelligence et de l’innovation pour apporter des solutions et des réponses, ou celle du conflit entre nations pour conquérir les ressources restant encore disponibles.

Faire du déchet une ressource, un enjeu pour l’industrialisation des filières et des territoires en France

traitement des déchets est effectivement en marche grâce aux efforts de recherche, mais aussi grâce aux réflexions menées sur les évolutions démographiques, sociologiques, et leur impact sur l’économie.

Économie de la fonctionnalité, des ressources et éco-conception

2

2.1. L’économie des ressources Ce contexte et ces constats étant établis, je ne veux pas vous faire partager des inquiétudes ni véhiculer des incertitudes, mais simplement mettre en évidence le fait que les problèmes qui se présentent vont devenir extrêmement importants et qu’il va

43

Chimie et technologies de l’information

falloir prendre des décisions assez rapidement. Parler de décroissance est un non-sens et n’est certainement pas la réponse au monde qui nous entoure ; il n’empêche que la rareté des ressources peut conduire à des évènements majeurs. Le premier est positif, si l’on fait toujours confiance en l’homme, à son inventivité, à sa capacité de recherche pour trouver des solutions. Le second, négatif, serait que les hommes rentrent en confl it pour récupérer les solutions ou garder leurs ressources, mais nous n’en sommes pas là heureusement, car il existe des solutions. La sobriété sera certainement un préalable à toute solution innovante, en évoquant l’écoconception et l’économie de la fonctionnalité (service dédié à la mise en commun d’un investissement). L’écoconception n’est pas encore suf fis amment pr atiquée, même si tous les fabricants, tous les groupes concernés par les matériaux (matériaux de voitures, produits électroniques…), commencent à faire des efforts dans ce domaine. L’économie de la fonctionnalité est davantage une gestion de l’utilisation des matériels qu’une question d’économie : beaucoup de matériels pourraient fonctionner en partage. Ce n’est pas une utopie car des exemples existent déjà : la marque Xerox2, qui fonctionne

44

2. Xerox est une entreprise américaine, basée dans le Connecticut, principalement connue comme l’inventeur du photocopieur xérographique (sur papier ordinaire) et la fabrication d’imprimantes.

en économie de la fonctionnalité, a bien compris qu’il était possible de fournir un service plutôt que de vendre du matériel. Il existe d’autres exemples de cette économie de la ressource à mettre en avant, et le recyclage en fait partie. Cela est d’autant plus vrai que les individus sont maintenant davantage tournés dans les métropoles vers l’écologie et la santé. 2.2. Comment retrouver des ressources ? L’innovation doit faire partie de la réponse à cette question. Mais on ne trouvera pas les ressources nouvelles dans les matériels que l’on a détruits ou qui deviennent obsolètes. L’innovation doit répondre aux attentes de notre société, de notre monde, en termes de sauts technologiques, mais aussi écologiques, et veiller à l’exercice de ce fameux « développement durable » dont tout le monde se saisit sans en réaliser les fondements. Chaque nouvel enfant, dans moins de quinze ans, deviendra un homme ou une femme qui voudra avoir les valeurs écologiques de tri, de valorisation, et qui sociologiquement fonctionnera comme dans notre société actuelle. Il faut donc bien se dire que certains matériels utilisés et appréciés aujourd’hui, parce qu’ils sont bien packagés, ne correspondront plus au citoyen de demain qui voudra être en adéquation avec le monde qu’il a envie d’avoir devant lui. Au plan sanitaire, il sera encore plus préoccupé par sa santé et sa qualité de

3

La lutte contre le monde fini

3.1. Le déchet ressource Ces évolutions seront possibles en croyant en notre monde de la connaissance, à la recherche et au potentiel du secteur de la chimie. En ces termes, l’écologie et l’environnement véhiculent des valeurs importantes pour répondre à la raréfaction des ressources. En effet, nous pouvons agir sur les biens de consommation grâce l’éco-conception, mais grâce aussi au recyclage avec la création de nouvelles matières premières, et ainsi lutter contre ce monde fini. N o u s a v o n s e n Fr a n ce 600 millions de tonnes de déchets dont environ 100 millions de tonnes non inertes qui posent problème, c’est-àdire que l’on ne peut pas les remettre innocemment dans la nature sans les avoir traités ou recyclés. Dans le monde, le déchet est un repoussoir depuis la nuit des temps. Ce que l’on appelait autrefois immondices, gadoues, est un sujet que socialement les citoyens repoussent, et cette nouvelle appellation de déchets n’y change rien. Si leur abondance et la conséquence environnementale ont émergé il y a plus de cinquante ans, force est de constater que le déchet est passé au second rang des préoccupations dans les pays modernes,

qui considèrent qu’il y a eu un vrai progrès sur leur mode de collecte et de traitement, ce qui est vrai, et cela, face à la prise de conscience du réchauffement climatique, de la qualité de l’air et surtout de leur impact sur la santé. La mise en place d’une politique publique de tri dans les années 1990 a été un véritable souffle positif, mais en même temps, elle a déculpabilisé, dédouané le citoyen consommateur, qui aujourd’hui considère que c’est un problème réglé. En effet, il trie, ses déchets sont évacués régulièrement, et ses préoccupations en la matière se résument à la propreté des villes. Il n’a pas tout à fait tort si l’on se réfère à la qualité environnementale avec laquelle la France traite ses déchets ; n’en déplaisent aux statistiques présentées par la communauté européenne qui sont chaque année erronées et placent la France à un rang modeste, alors que, dûment rectifiés, ces chiffres replacent la France dans le peloton de tête. Toutefois, et pour revenir à la question du monde fini, il appar tient d’appor ter une réponse différente de la dépollution, cette réponse est liée au concept du « déchet ressource »

Faire du déchet une ressource, un enjeu pour l’industrialisation des filières et des territoires en France

vie et sera donc sur ce point extrêmement exigeant. Les entreprises devront collectivement apporter une réponse à cette exigence.

3.2. L’économie du déchet Le déchet ressource est une réponse différente de la dépollution, plus aboutie, plus performante, qui peut créer une véritable économie du recyclage, industrialisée et synonyme d’économie circulaire pour notre pays.

45

Chimie et technologies de l’information

Comment peut-on faire du déchet une ressource sur le territoire français, sachant qu’aujourd’hui, 51 % des déchets sont triés et recyclés, et qu’environ la moitié sont exportés, à défaut de trouver preneur en France au plan industriel ? Il faut entrer dans un nouveau modèle économique dans lequel les industriels manufacturiers seront convaincus que les ressources produites par le recyclage sont partie de la solution. Figure 3 Concept du « déchet ressource ». Il faut progresser dans le tri des déchets, leur transformation, leur conditionnement et leur recyclage, afin que le déchet devienne une ressource. Source : Wikipédia, Licence CCBY-SA, 3.0, siehe unten.

Pour cela, il faut progresser dans le tri des déchets, leur reconnaissance, la robotisation, et – ce sera l’un des plus grands sauts – les transformer, les conditionner selon les caractéristiques et les besoins exprimés par les fabricants (Figure 3).

Cela commence dans le cas des écrans plats, pour lesquels une industrie du recyclage a trouvé des solutions de démantèlement puis de dépollution, de séparation des composants, d’extraction des matières plastiques, des métaux précieux et des terres rares. Ce résultat est le fruit de travaux de recherche sur des procédés nouveaux et sur l’identifi cation des nouvelles matières premières issues des déchets pouvant convenir à un autre industriel consommant ce produit selon les normes, la qualité et la quantité qu’il entend. C’est cet accord entre le monde de l’industrie du recyclage et le monde de l’industrie classique qu’il faut concilier, car lorsqu’on parle à un industriel d’une matière première issue du recyclage, s’il a accès à la matière première classique à peu près au même prix, il choisira la matière première classique pour ne pas prendre de risque, alors que nous utiliserons dans vingt ans des produits que nous ne connaissons pas encore. Cette industrie nouvelle du recyclage que nous proposons correspond pour la France à un potentiel de création de 20 000 à 30 000 emplois, la profession du déchet recyclage en comptant 120 000 aujourd’hui. La production de ces nouvelles matières premières que nous n’aurions plus à importer serait de l’ordre de 50 millions de tonnes.

46

Par ailleurs, un monde fi ni n’est pas seulement un monde où la matière première est rare, mais l’énergie y est aussi rare. Dans toute action de tri des déchets, il

4

Objectifs et projets

Reprenons l’exemple des écrans plats : ils sont aujourd’hui traités dans une usine spécialement construite pour cela. Ils y sont démantelés automatiquement, on sépare les aimants, le reste est broyé et traité pour récupérer le verre, qui repart en termes de matériau, et extraire les métaux stratégiques comme l’indium et les terres rares telles que le néodyme, qui sont spécifiquement demandées par l’industrie. Malheureusement, cette usine n’est pas française. En France, on en est encore au balbutiement pour organiser la collecte. Deux ou trois usines reçoivent les appareils démantelés, et s’il y a beaucoup de gens qui font du broyage, l’extraction des matériaux (sauf pour le silicium) se fait dans des usines à l’étranger : les cartes électroniques par exemple sont traitées en Hollande. Ce traitement permet, en plus de dépolluer, de ne pas remettre dans la nature les produits

chimie_techno_partie_1.indd 47

qui sont nocifs pour l’environnement. Toute cette industrie est encor e nais s ante, et l a mise au point de la méthodologie pour démonter les écrans plats, et trouver les solutions pour v alor iser chaque matière qui en est ex tr aite, représente cinq ans de recherche, ainsi que la construction d’une usine complète qui emploie 150 salariés… Les solutions existent donc, mais elles ont un coût qu’il faut partager. Aujourd’ hui, vu le modèle économique, il faut collectivement réussir à partager la valeur entre celui qui fabrique les produits et celui qui doit les détruire. La responsabilité du déchet appartient au dernier détenteur, donc en premier lieu aux fabricants. Il faut donc respecter la réglementation et aussi trouver des solutions conciliables technologiquement, d’abord pour récupérer les matières, ensuite pour en maîtriser le coût, le tout sachant que l’usine de traitement des écrans précédemment décrite a coûté environ 25 millions d’euros.

Faire du déchet une ressource, un enjeu pour l’industrialisation des filières et des territoires en France

y a une résultante de produits non recyclables comme matière première, mais dont les caractéristiques peuvent en faire d’excellents combustibles. Le déchet a donc aussi sa place dans la transition énergétique en substitut des matières fossiles : nous produisons aujourd’hui en France plus d’énergie à partir des déchets que le photovoltaïque et l’éolien réunis, et nous pouvons très rapidement plus que doubler cette production.

Il faut en plus assurer la durabilité de l’ensemble du procédé, et pour cela il faut trouver des partenaires qui accompagnent dans la reprise des produits pendant à peu près la même durée. Ces difficultés expliquent que l’utilisation de ce type de déchets n’en soit encore qu’au balbutiement. L’utilisation des matières premières récupérées par les fabricants ne se fait aujourd’hui qu’en petites quantités. Mais

47

20/06/14 11:00

Chimie et technologies de l’information 48

il faudrait la surmultiplier, notamment dans le cas des terres rares ou des métaux stratégiques, car les mines

ne sont pas en France ; pour les terres rares, elles sont plutôt en Chine, qui en détient le monopole

Rien ne pourra se réaliser sans volonté collective La chimie est partout présente pour apporter des réponses dans l’industrie du recyclage, mais rien ne pourra se réaliser sans volonté collective de parvenir au changement, par l’impulsion et la réalisation industrielles, mais aussi par une volonté politique garante de la visibilité réglementaire, fiscale, ainsi qu’avec la mise en place de leviers incitatifs pour créer les conditions de démarrage indispensables. Concernant les industriels de la chimie et du recyclage regroupés au sein de l’Association Alliance Chimie Recyclage (A2CR), il faut organiser collectivement un modèle économique innovant dans lequel le partage de la valeur responsabilise chaque acteur de la filière et crée ainsi la compétitivité des entreprises. Il faut travailler sur la réalité des territoires et bassins de vie pour industrialiser ceux qui ont des atouts et qui peuvent bénéficier des matières recyclées et de l’énergie pouvant être récupérée. Dans ce cadre, les collectivités locales et leur politique publique jouent un rôle essentiel, et ce, d’autant plus avec la modification de la loi sur la décentralisation. Il faut aussi que l’État organise des leviers pour catalyser les démarches industrielles dans le sens de cette économie circulaire. La création de 2ACR révèle une véritable prise de conscience collective de l’industrie, une volonté d’imprimer le changement au travers de ces nouvelles économies de la matière, de la fonctionnalité et de l’énergie… et surtout de

Faire du déchet une ressource, un enjeu pour l’industrialisation des filières et des territoires en France

l’innovation et de la recherche, deux critères indispensables du succès et de la compétitivité. Il faut apporter des réponses, et c’est ce que fait notre industrie du recyclage. 2ACR est une association qui rassemble l’ensemble des entreprises du recyclage, le secteur de la chimie, mais également d’autres industriels qui sont arrivés depuis. Le but est d’être catalyseur, de lever les freins, les verrous avec l’État, car il y a là aussi la fiscalité et le poids réglementaire qui pèsent dans l’aboutissement de cette industrie. Il faut trouver les modèles économiques ; on travaille à cela ensemble aujourd’hui, et il n’y a qu’à ce prix collectif – c’est-à-dire qu’il ne faut pas raisonner en silos avec l’industrie de la chimie, du numérique et du recyclage – que l’on y arrivera. Malheureusement, on ne peut pas le faire sans les conditions de l’État : celui-ci doit comprendre à un moment donné il faut qu’il ouvre la porte réglementaire, la porte de la simplification à certaines choses pour que cela se fasse. Il faut aussi que les collectivités locales, qui ont l’intérêt de développer leur territoire, mordent à l’hameçon pour que l’on crée cette économie circulaire localement, c’est-à-dire que l’on construise des usines là où le besoin se présente, au lieu de délocaliser. On dispose des moyens pour le faire si on veut s’en donner la peine, et il n’y a qu’à ce prix en jouant collectif que l’on y arrivera. C’est pour cela que je suis heureux de présider cette association 2ACR que je voulais vous faire connaître. Il faut accomplir chaque jour qui passe le devoir de la faire connaître, à force de faire se rencontrer les gens qui ont du déchet et les gens qui ont besoin de ressources, pour que l’on ait de jours meilleurs et que surtout on ne soit pas à la rupture de ce monde fini.

49

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

moteurs de l’ en

innovation

électronique

Diplômé de l’École polytechnique de Louvain, Vincent Thulliez travaille depuis vingt-cinq ans dans la Recherche & Développement du groupe Solvay. Il est actuellement responsable du groupe nanomatériaux fonctionnels après avoir travaillé pendant huit ans sur des projets de Recherche & Développement dans le domaine de l’électronique imprimée et des diodes électroluminescentes organiques (OLED).

E ntr o n s au c œ ur de l a chimie des tablettes et des Smartphones, qui fait partie du métier du groupe chimique Solvay, dont les ac ti v ité s sont r appelée s dans l ’Encart « Solvay et la chimie ». Ce chapitre

complète le Chapitre de J.-C. Florès, de l’ouvrage Chimie et technologies de l’information (EDP Sciences, 2014), et entre plus en détail dans l a chimie des matér iaux pour comprendre comment marchent ces technologies.

SOLVAY ET LA CHIMIE Cap sur la chimie Le groupe Solvay a fêté en 2013 ses 150 ans. Tout a démarré en 1863 lorsqu’Ernest Solvay a développé un nouveau procédé de fabrication du carbonate de soude alors principalement utilisé dans l’industrie du verre. Très vite, la Société créée s’est développée internationalement et Solvay a été l’une des premières entreprises multinationales présentes à la fois aux États-Unis et en Europe. Au début du XXe siècle, a eu lieu la grande révolution des matières plastiques, et Solvay se diversifie en deux pôles : la chimie et les plastiques. Plus récemment, dans les années 1970, Solvay s’est investi dans la chimie pharmaceutique, et cela a duré une trentaine d’années. Il y a quelques années, le groupe dû faire face à un choix difficile : ne pouvant tout faire, Solvay a choisi

D’après la conférence de Vincent Thulliez

Les matériaux avancés,

Chimie et technologies de l’information

de continuer de croître préférentiellement dans la chimie en revendant son secteur pharmaceutique et en faisant l’acquisition du groupe Rhodia afin de constituer un grand groupe chimique compétitif à l’international, et actif dans de nombreux domaines. Une chimie diversifiée La Figure 1 résume les domaines d’applications de la chimie dans lesquels intervient Solvay, avec un chiffre d’affaires de douze milliards d’euros et trente mille employés répartis maintenant dans le monde entier, avec encore une dominance en Europe, mais également un développement aux États-Unis et en Asie. Le marché de la consommation représente son plus gros marché (28 %). L’automobile et la construction sont deux domaines d’applications où l’on retrouve de nombreux produits chimiques et également des polymères. Viennent ensuite l’électricité et l’électronique, thèmes de ce chapitre, qui ne représentent actuellement que 7 %, puis on trouve l’énergie, l’environnement, l’agriculture et le papier. Solvay travaille donc avec un portefeuille très diversifié d’applications.

Figure 1 Solvay : un exemple de la diversité des marchés d’un grand groupe de la chimie.

Un leader en chimie pour répondre aux défis planétaires Solvay, n’étant pas le plus grand des groupes chimistes mondiaux, doit choisir les domaines d’applications dans lesquels il souhaite être parmi les leaders. La Figure 2 résume quelques exemples de solutions innovantes du groupe face aux défis mondiaux. Dans le domaine des polymères, Solvay fabrique des polymères barrières utilisés dans les emballages agroalimentaires pour protéger les aliments de l’oxygène, des polymères de hautes spécialités et des polymères techniques. La silice est une autre spécialité du groupe : elle est utilisée dans la fabrication des pneus pour améliorer leurs propriétés d’adhérence et diminuer ainsi la consommation des véhicules1. 1. Au sujet des pneus, voir l’ouvrage Chimie et transports, Chapitre de D. Aimon, coordonné par M.-T. DinhAudouin, D. Olivier et P. Rigny, EDP Sciences, 2014. 54

Le groupe est également bien placé dans la fabrication des produits grand public, notamment les tensioactifs utilisés dans les shampooings, et il a une position de leader mondial dans les produits chimiques de base, comme le carbonate de sodium pour l’industrie verrière, ou l’eau oxygénée qui est utilisée notamment pour le blanchissement de la pâte à papier.

Les matériaux avancés, moteurs de l’innovation en électronique

Les terres rares, utilisées typiquement dans les néons, mais maintenant aussi dans les éclairages à diodes électroluminescentes (LED), sont aussi un domaine important de la R&D.

Figure 2 Les domaines dans lesquels Solvay figure parmi les trois premiers leaders mondiaux.

Le Tableau 1 résume la politique de recherche et innovation face aux grandes tendances et aux défis mondiaux qui sont liés aux changements climatiques, aux ressources qui deviennent de plus en plus difficiles à exploiter, au nombre de consommateurs qui augmente particulièrement en Asie, et au domaine de la santé. Les programmes de recherche du groupe s’alignent sur toutes ces grandes tendances. Tableau 1 Les réponses de Solvay aux défis actuels. Grandes tendances de la croissance en produits chimiques Changement climatique

Raréfaction des ressources

Plus d’un milliard de nouveaux consommateurs

Santé & bien-être

Domaines majeurs d’innovations de Solvay

Quelques réponses actuelles

Chimie renouvelable

Épichlorohydrine bio-sucrée Epicerol®

Matériaux avancés & formulations

Spécialités polymères pour dispositifs intelligents Développement de piles à combustibles

Énergie soutenable Électronique organique Procédés écologiques Produits chimiques de consommation

Nouvelle génération d’OLED Recyclage de terres rares Réduction d’acide gras et de sucre grâce à l’arome vanille

55

Chimie et technologies de l’information

Le domaine de l’électronique Le domaine de l’électronique ne représente actuellement que 7 % du chiffre d’affaires de Solvay, mais c’est un marché en forte croissance au sein duquel le groupe souhaite se développer. Historiquement, Solvay en tant que groupe chimique, a toujours vendu des produits chimiques à des industries utilisatrices (Figure 3) : par exemple, on en a besoin pour la fabrication des semi-conducteurs ; les industriels de ce domaine sont donc clients de Solvay et pas uniquement pour fabriquer leurs semi-conducteurs, mais aussi pour la fabrication de leurs usines qui utilisent des tubes en plastiques, des vannes, etc., fabriqués par le groupe. Cependant, une usine ne se construit pas tous les jours ; pour pouvoir augmenter le potentiel dans ce domaine, Solvay s’oriente maintenant davantage vers les produits de consommation. C’est ainsi que le groupe se retrouve dans les tablettes et les Smartphones…

Figure 3 Solvay vend au fabricant, pas au consommateur, mais ce modèle va évoluer.

La chimie et les constituants des tablettes et Smartphones

1

Où sont les produits de la chimie ? Il existe peu de différences entre les tablettes et les Smartphones sur ce point

( Figure 4). Prenons le s exemples d’Apple (IPad et IPhone) et de Samsung. Chez Samsung, il est vraiment très compliqué de dire où commence la tablette et où se termine le Smartphone. Il en est de même au niveau technologique. Par contre, chez Apple,

Figure 4 56

Tablettes et Smartphones : on ne voit plus la différence !

chimie_techno_partie_2.indd 56

19/06/14 08:36

Le Tableau 2 résume les grandes tendances du marché des tablettes et des Smartphones. Les utilisateurs veulent toujours plus de performances, mais aussi du matériel qui soit plus fin et plus léger, et l’on voit qu’il y a certaines contradictions dans ces demandes que les fabricants essayent de résoudre. On veut aussi des appareils incassables et évidemment moins chers. Quelles sont les technologies qui permettent d’atteindre ces performances ? Ty piquement, passer du LCD (« Liquid crystal display ») à l’OLED (« Organic Light-Emitting Diode », voir le Chapitre de L. Hirsch de Chimie et technologies de l’information) permet d’avoir une meilleure qualité d’image, et également de faire des écrans plus fins, plus légers et naturellement compatibles avec des écrans flexibles. Les nouvelles batteries représentent un élément très important de la R&D, y compris du point de vue du rapport poids/ volume, etc. La substitution

des métaux par des plastiques permet aussi de gagner en poids, et la substitution du verre par des plastiques permet de gagner en résistance aux chocs et en flexibilité. Enfin, alors que l’on associe actuellement l’électronique à des procédés sous vide qui nécessitent des équipements très chers et très lourds, l’objectif dans le futur est de pouvoir fabriquer certaines de ces pièces par impression. Bien que ces technologies d’impression, à priori, soient plus adaptées pour de grandes surfaces, et malgré les problèmes à résoudre, c’est un large domaine de recherche (qui est traité dans le Chapitre d’I. Chartier de Chimie et technologies de l’information).

Les matériaux avancés, moteurs de l’innovation en électronique

entre un IPhone et un Ipad, il y a un rapport de surface de un à cinq, ce qui pour un chimiste veut dire l’utilisation de cinq fois plus de matériaux.

De la fonctionnalité recherchée au matériau

2

La Figure 5 représente la vue éclatée d’une tablette, Samsung à gauche et Apple à droite, avec toutes les pièces qu’on y trouve, auxquelles sont associées des fonctionnalités. Concentrons-nous sur trois fonctionnalités importantes : l’écran, les pièces mécaniques et la batterie.

Tableau 2 Les grandes tendances dans le domaine des tablettes et des Smartphones. • Plus performant

• Substitution LCD

• Plus fin

• Nouvelles batteries

• Plus léger

OLED

• Substitution métal

plastique

• Incassable (voire flexible)

• Substitution verre

plastique

• Moins cher

• Substitution dépôt sous vide

impression

57

Chimie et technologies de l’information

Tablette Samsung

Tablette Apple Écran tactile

Pièces mécaniques

Caméra secondaire

Assemblage écran tactile Fenêtre d’affichage/ Écran tactile Module d’affichage

Support d’antenne/ antenne Support d’antenne/ antenne Batterie Carte de circuit imprimé interface audio Carte de circuit imprimé bouton Enceinte, bas Carte de circuit imprimé affichage d’interconnexion

Couverture protectrice de l’écran Caméra primaire Caméra secondaire Couverture du modulee Principale carte Caméra secondaire de circuit imprimé Enceinte, haut Carte de circuit Carte de circuit imprimé LED imprimé microphone Batterie Enceinte, centre Transporteur de haut-parleur/ Haut-parleur Enceinte principale, bas Transporteur de haut-parleur/ Antenne WLAN Haut-parleur Module d’affichage

Caméra primaire Bouton de volume/ verrouillage Principale carte de circuit imprimé Antenne BT Haut-parleur, droite Haut-parleur, gauche

Connecteur I/O

Batterie

Figure 5 Vues éclatées d’une tablette Samsung Galaxy (à gauche) et d’une tablette Apple iPad Mini (à droite). Source : d’après IHS Electronics and Media.

2.1. L’écran tactile 2.1.1. Principe de l’affichage La première fonction de l’écran est de fournir l’image, ce qui fait intervenir de nombreux composants (Figure 6), dont le principe de fonctionnement est expliqué plus en détail dans les Chapitres d’I. Chartier et de L. Hirsch (Chimie et technologies de l’information). Au niveau d’un écran LCD (Figure 6A), la lumière est générée, historiquement par des sortes de petits néons, maintenant par des diodes électroluminescentes ; puis elle passe ou ne passe pas à travers des cristaux liquides1, selon leur orientation qui dépend du voltage appliqué. Cela signifie que dans chaque petit pixel, un transistor permet d’appliquer un voltage et d’orienter les cristaux liquides qui laissent ou ne laissent pas passer la lumière (au sujet des transistors, voir le Chapitre

58

chimie_techno_partie_2.indd 58

1. Un cristal liquide est intermédiaire entre un liquide et un solide cristallisé.

de Y. Le Tiec). Cette lumière, lorsqu’elle passe, traverse ensuite des filtres colorés, rouges, verts, bleus, les trois couleur s fondament ale s qui permettent de recréer l’image. L’ensemble constitue un assemblage très complexe. Un autre point important est qu’il y a beaucoup de perte de luminosité, et que la lumière qui traverse l’écran ne représente finalement que quelques pourcents de celle qui est générée de l’autre côté de l’écran. Pour un écran OLED, le principe est plus simple (Figure 6B) car la lumière est vraiment générée dans chaque pixel. On utilise pour chaque pixel des matériaux électroluminescents qui, lorsqu’on leur applique un courant, génèrent de la lumière, et il existe des pixels de trois couleurs : rouge, vert, bleu. En pratique, il y a bien sûr encore d’autres contraintes qui expliquent que les écrans OLED ont nécessité des recherches assez longues avant d’apparaître sur le marché. Samsung a été pionnier pour l’utilisation des OLED

19/06/14 11:36

Polariseur avant Filtre de couleur sur verre Électrode transparente

B Verre avec absorbeur d’humidité

Couche d’alignement

Cathode

Cristaux liquides et espaceurs Couche d’alignement Plaque de transistors en couches minces sur verre

Couche émettrice de lumière Couche tampon

Polariseur arrière Film d’amélioration de la luminosité

Polariseur

Guide de lumière Rétro-éclairage

au niveau des téléphones, et dans la gamme Samsung Galaxy, les écrans OLED ont clairement envahi le marché. Au niveau des écrans de télévision, après de nombreux problèmes au démarrage, les écrans OLED démarrent à un coût encore très élevé (8 000 €), mais on peut s’attendre à une diminution drastique d’ici quelques années. 2.1.2. Les matériaux de l’affichage Pour les écrans LCD, Solvay prépare des pâtes pour fabriquer les filtres colorés. Lors de la fabrication comme lors de l’utilisation, on doit éliminer les décharges électriques qui abiment les circuits, et donc éviter l’accumulation de poussières sur l’écran. Solvay fabrique des produits antistatiques pour éviter ces phénomènes. Il faut en effet savoir que dans un écran haute définition, on a deux millions de points constitués de chaque fois trois couleurs, ce qui fait six millions de pixels, et il faut que ces six millions de pixels fonctionnent sans défaut. Il faut donc être très strict sur

les conditions de fabrication : la moindre particule est à éviter car si une particule métallique par exemple vient se déposer sur un pixel, elle provoque un court-circuit qui détruira le pixel. Pour tout ce qui concerne le décapage, la fabrication, etc., il faut donc fournir des produits ultrapurs (voir aussi le Chapitre de J.-C. Flores de Chimie et technologies de l’information). Pour cela, Solvay fournit des produits comme de l’acide fluorhydrique ou de l’eau oxygénée, sous forme de grades spéciaux, calibrés pour l’industrie électronique. Solvay fournit aussi des produits qui servent au polissage. Les écrans OLED se développent, et notamment, pour les futures générations d’affichage, on verra apparaître les écrans OLED flexibles réalisés sur des films plastiques qui s’enroulent sur une petite bobine. Cette technologie n’est encore qu’au niveau du prototype et il reste de nombreux problèmes à résoudre pour arriver en fabrication, mais cela arrivera un jour.

Figure 6 A) Schéma d’une vue éclatée d’un écran LCD (A) et d’un écran OLED (B).

Les matériaux avancés, moteurs de l’innovation en électronique

A

59

Chimie et technologies de l’information

Figure 7 De nouvelles encres sont développées pour l’affichage d’OLED imprimées. Source : Solvay.

Si le but ultime est un écran entièrement flexible, il est dès à présent intéressant d’avoir un écran simplement résistant aux chocs. C’est l’un des principaux problèmes des utilisateurs de tablettes et Smar tphones. Dans ce cadre, Solvay développe des matériaux pour les structures OLED qui pourraient être imprimés sur des films plastiques (Figure 7). L’idée à terme est de pouvoir faire des écrans de plus grande dimension qu’on pourrait dérouler ou enrouler dans sa poche sans qu’ils ne s’abiment lors de l’utilisation. Un autre domaine est le domaine du « papier électronique », typiquement les livres électroniques de type Amazon Kindle, qui utilisent une autre technologie d’écran qui a l’avantage de consommer beaucoup moins de courant, mais qui par contre n’existe pour le moment qu’en noir et blanc. On utilise actuellement des transistors classiques au silicium, qui pourraient être remplacés par des matériaux organiques pouvant être utilisés pour imprimer les transistors. Dans ce domaine, Solvay propose d’une part des matériaux semi-conducteurs mais également des matériaux diélectriques, le gros avantage A

Figure 8

60

A) Le retour tactile utilise un matériau piézoélectrique (schéma du fonctionnement : B).

étant de combiner différents matériaux pour proposer un package complet. 2.1.3. La fonction tactile Le retour tactile est une autre fonction importante de l’écran, notamment pour le clavier virtuel. Ce n’est pas le cas chez tous les fabricants, mais cer tains proposent ce qu’on appelle le retour haptique, c’est-à-dire que lorsqu’on touche une touche, on a un retour de vibrations qui permet de confirmer que l’information a bien été enregistrée. Cela est actuellement réalisé avec de petits moteurs qui vibrent. Le problème est que ces moteurs prennent de la place, augmentent le poids et consomment beaucoup d’énergie. Pour pallier à ce problème, Solvay propose des matériaux polymères piézoélectriques, c’est-à-dire qu’une pression sur les matériaux génère un voltage (Figure 8), et l’inverse est également vrai : quand on applique un voltage, ils peuvent se déformer et donc créer une vibration. Cette vibration peut donc se faire uniquement sur la lettre qui a été touchée. Toutes les tablettes font appel à un écran tactile pour pouvoir B

Les matériaux avancés, moteurs de l’innovation en électronique

besoin d’un matériau à la fois conducteur et transparent. Le problème est que si les meilleurs conducteurs sont les métaux, ils ne sont pas transparents, et à l’inverse, les matériaux transparents comme les polymères ou le verre ne sont pas conducteurs d’électricité du tout. Certains oxydes mixtes permettent cependant d’avoir à la fois la conductivité et la transparence. Le plus utilisé actuellement est un oxyde mixte d’étain et d’indium (ITO, Figure 9).

interagir avec l’utilisateur. La Figure 9 donne le schéma de fonc tionnement d’un écran tactile. Actuellement, il existe au-dessus du LCD un ensemble de couches représentées en bleu sur la Figure 9A qui constituent un réseau XY finement quadrillé d’électrodes séparées par une couche isolante (en rose). Lorsque l’on touche un endroit de la couche de surface (en jaune), le positionnement du doigt est détecté, ce qui permet d’envoyer l’information à l’interface. La Figure 9B représente la détection du positionnement du doigt : il y a, entre chacune des deux électrodes du réseau XY, un champ électromagnétique qui est perturbé par le contact du doigt avec la couche de surface. Comme le réseau XY est finement quadrillé, on peut repérer avec précision l’endroit où le champ a été perturbé. Mais comme ces électrodes du réseau XY sont positionnées devant l’écran, il faut qu’elles soient transparentes.

Tous les écrans LCD ou les écrans OLED ont des électrodes transparentes en ITO, mais elles sont préparées par dépôt sous haut vide. Donc le dépôt d’ITO sur toute la surface de la couche support doit ensuite être retiré aux endroits où l’on n’en a pas besoin afin de constituer le réseau XY d’électrodes. Pour éviter cette étape délicate à réaliser, Solvay a développé des encres à base d’ITO qui permettent de déposer ce matériau par impression et uniquement à l’endroit où l’on en a besoin ; mais la transparence n’est jamais parfaite.

Solvay a développé des matériaux et des procédés adaptés à la fonction tactile. Pour les électrodes du réseau XY, on a

Figure 9 La fonction tactile : A) schéma des couches superposées de la couche supérieur de l’écran et du dispositif LCD ; B) schéma du fonctionnement d’un écran tactile. ITO : oxyde d’étain et d’indium.

A

Polariseur haut

Couches écran tactile Verre support des filtres de couleur

ITO (colonnes) Isolant ITO (lignes) Filtre de couleur

LCD

Cristal liquide Verre support des transistors en couche mince

B

Surface tactile

Surface tactile

Électrode X

Électrode X

Électrode Y

Électrode Y Écran capacitif

Zone de transistors en couches minces

61

Chimie et technologies de l’information

Figure 11 A) Courbes de déformation de l’ITO en fonction de la tension appliquée ; B) courbe de résistance du polymère en fonction du pourcentage d’additif ; C) ajout de nanofils d’argent : évolution de la résistance et de la conductivité en fonction de sa concentration massique d’argent.

200

100 80

100

60

50 0 0,01

62

A

40 0,02

0,03 ε

0,04

Pour aller plus loin encore, on peut envisager l’utilisation du graphène (voir le Chapitre de P. Simon, de Chimie et technologies de l’information). Le graphène est un plan de carbone : quand on écrit avec une mine de crayon sur une feuille papier, on y dépose des plans de graphène. Le graphène est un plan unique d’atomes de carbone, qui p os s è de de s pr opr iété s électroniques merveilleuses

Additifs

120 Tension

R (ohms/square)

ΔR/R

150

Pour pallier cette fragilité, nous proposons des solutions à base de polymères conducteurs (la Figure 11B donne la résistance, qui est inver sement propor tionnelle à la conductivité), qui résultent d’une combinaison de deux produits (fabriqués par d’autres sociétés), permettant d’obtenir des fonctionnalités intéressantes. Par

Une autre solution, en cours de développement, a été envisagée : elle utilise des nanofils d’argent (Figure 11C). L’argent est métal très bon conducteur mais pas transparent. Mais si l’on arrive à fabriquer des nanofils d’argent déposés uniformément sur la surface, ils n’empêchent que très peu le passage de la lumière. On peut alors conserver 90 % de la transparence avec une conductivité suffi sante pour l’application.

100

B

PEDOT:PSS/DMSO

1

168 Ω/

0,1 0,01

20

PEDOT:PSS/EMMTCB

10

50 Ω/ 0

300

2 4 6 8 10 Pourcentage massique d’additif

C

100

200 50 100 0 0 0 10 20 30 40 Concentration massique de nanofil d’argent sur film séché

Transmittance (%)

Les matériaux pour la fonction tactile : oxyde mixte d’étain et d’indium (ITO). À droite, une image en microscopie électronique d’un réseau imprimé en ITO.

Même si l’ITO donne satisfaction, nous avons déjà vu qu’il présente certaines limitations : d’abord son prix est variable, et sa disponibilité à long terme n’est pas tout à fait assurée. Mais surtout, il est assez fragile. La courbe de déformation de la Figure 11A montre que lorsque qu’on dépasse 3 % de déformation, la tension augmente fortement, et le matériau, qui fondamentalement est une céramique (donc peu flexible), craque. Dans ce cas, l’électrode transparente se fissure, elle n’est plus conductrice et l’écran ne répond plus.

R (ohms/square)

Figure 10

exemple, par ajouts d’additifs, on peut beaucoup augmenter la conductivité de polymères initialement peu conducteurs. Mais les additifs classiques ne donnent pas de bons résultats, et des recherches de formulation ont étés nécessaires. Ensuite, ces « polymères additivés » peuvent être facilement imprimés sur les écrans.

2.2. Les pièces mécaniques L’av ant, l ’ar r ièr e et le s quelet te intér ieur de s Smartphones sont des pièces mécaniques généralement réalisées en polymère renforcé. On ne peut détailler les polymères utilisés dans les téléphones actuels (qui sont nombreux selon les fonctionnalités recherchées), pour des raisons de confidentialité industrielle. Mais nous pouvons étudier un ancêtre, le fameux Nokia 3210, qui fut le premier Smartphone avec un squelette en matière plastique, l’IXEF, polymère fabriqué par Solvay. Ce polymère permet d’obtenir une bonne rigidité, et c’est un isolant électrique qui évite des courts-circuits dans le téléphone. Solvay propose toute une gamme de polymères, que l’on peut classer sur une pyramide, selon les propriétés recherchées (Figure 12) : cela va des polymères classiques

Les matériaux avancés, moteurs de l’innovation en électronique

que nous investiguons, mais il faudra encore quelques années de recherche avant l’application.

comme le polyéthylène, le PVC, etc., que l’on trouve dans les emballages, dans la construction, etc., jusqu’aux polymères de très hautes performances. Plus le niveau des performances est élevé et adapté à la fonctionnalité recherchée, plus ils sont généralement difficiles à travailler, et également plus chers à cause de leur complexité. Prenons l’exemple des polyamides. L’aspect haute température est apporté par le noyau aromatique qui permet de rigidifier la chaîne polymère. Mais les propriétés dépendent aussi de la nature des charges. Le polymère IXEF, utilisé dans le téléphone Nokia, représentait alors le meilleur produit par rapport au cahier des charges. Depuis lors, nous avons développé d’autres grades pour accompagner le développement des fabricants de téléphones, afin notamment d’optimiser le processus de fabrication par injection. Mais les téléphones sont de plus en plus diversifiés avec des pièces propres à chaque fabricant : il faut pouvoir

Produits anodisants résistants Produits structurants Produits structurants haute température

ES

ÈR

AM OR PH E

A

OM ST

/ÉL

ES

SEMI-CRISTALLIN

D UI FL

Figure 12 Les matériaux pour les pièces mécaniques des Smartphones.

63

Chimie et technologies de l’information

offrir des matériaux adaptés à chaque demande. Les principales propriétés recherchées sont : − la rigidité (mais associée à une certaine déformabilité) et l’optimisation des prix. Quand on injecte le polymère fondu dans le moule, une petite partie a tendance à sortir du moule, créant des bavures qu’il faut éliminer manuellement, ce qui comporte un coût ; − la productivité à améliorer : quand une pièce refroidit, elle peut se déformer, alors que la tablette doit rester plate ; − la résistance au feu est aussi très importante, surtout quand on évolue vers des écrans plus grands, où les quantités de matière deviennent importantes ; − l’aspect bio-sourcé est un point qui prend de plus en plus d’importance : fabriquer les matières plastiques à partir de ressources naturelles et non plus à partir du pétrole. La résolution de ce cahier des charges nécessite donc des compromis dans le choix des matériaux selon la nature des pièces mécaniques et leur utilisation (Figure 13).

2.3. La batterie Le fonctionnement des batteries étant expliqué dans le Chapitre de Y. Le Tiec de Chimie et technologies de l’information, nous nous focaliserons sur le rôle de la chimie dans la fabrication des composants. Le principe de fonctionnement des batteries lithium-ion est rappelé sur la Figure 14A. La place des éléments de la batterie est respectivement schématisée dans la Figure 14B pour les batteries cylindriques, et la Figure 14C pour les batteries plates. Solvay a mis au point des matériaux pour améliorer les propriétés des trois principaux éléments constituant les batteries (Figure 15) : − les électrodes : un liant à base de fluorure de polyvinylidène (PVDF) permet la cohésion des revêtements d’électrodes, leur adhérence au substrat, ainsi que la capacité de stockage du lithium, la stabilité électrochimique et la conductivité ; − le séparateur : différents copolymères ont été mis au point pour améliorer la tenue mécanique et la conductivité

Rigidité et résistance Faible absorption d’humidité Séries Kalix® 5000

64

Les nouveaux développements de matériaux pour les pièces mécaniques.

Haute fluidité

Faible gauchissement

Séries Kalix® 3000

Ductilité Séries Kalix® 2000

Classement d’inflammabilité

Figure 13

Séries Kalix® 9000

Bio-sourcé

Résistant aux taches

Réduction des bavures

B Boîte

e

Liant en PVDF

Électrode positive Électrode négative Séparateurs

Liant en PVDF

Couche de charge

e–

e–

Li+ Li+

e



e– +

Li e–

LixCx Collecteur de courant négatif en cuivre

Électrolyte conducteur Li+

ionique des séparateurs (au sujet des copolymères, voir le Chapitre de I. Cayrefourcq de Chimie et technologies de l’information) ; − l’électrolyte : l’inflammabilité des électrolytes est un gros problème qui a conduit à des accidents comme par exemple des batteries de Boeing Dreamliner qui ont

Collecteur de courant négatif Anode Membrane

e–

Li+

Cathode Collecteur de courant positif

Li(xx)MOx Collecteur de courant positif en aluminium

récemment pris feu. Nous avons mis au point des additifs qui permettent à la fois de diminuer ce problème et d’améliorer la conductivité ionique (Figure 15). Après le passage de la pile standard à la pile cylindrique, puis à la pile plate pour mieux exploiter la forme des téléphones, les nouveaux

C

Les matériaux avancés, moteurs de l’innovation en électronique

A

Figure 14 A) Schéma de fonctionnement d’une batterie lithium-ion ; B) vue éclatée d’une batterie cylindrique ; C) vue éclatée d’une batterie plate. PVDF : polyfluorure de vinylidène. Source : Solvay.

Figure 15 De nouveau matériaux pour améliorer les batteries.

65

Chimie et technologies de l’information

développements vont vers les batteries de plus en plus flexibles, pour les intégrer dans les moindres recoins, et à terme les batteries

imprimables. En ce sens, un prototype de batterie plate et flexible a été mis au point dans le cadre d’une collaboration entre Solvay et le CEA.

La chimie conditionne les tablettes et Smartpones de demain Ces exemples montrent que dans le domaine des tablettes et des Smartphones comme dans beaucoup d’autres, la chimie est à la base de toute technologie moderne. Bien que ses contributions soient souvent bien cachées, et qu’il faille aller au fin fond des pièces pour en prendre conscience, elles sont essentielles au bon fonctionnement des appareils qui nous entourent. Solvay développe dans ce domaine une large gamme de produits, non seulement pour les besoins actuels mais aussi pour les besoins futurs.

66

contributions de la

chimie

dans la

conception

tablettes et des Smartphones des

Jean-Charles Flores est spécialiste de l’électronique organique au sein de la société BASF1 (Figure 1).

Figure 1 De nouvelles technologies de l’information sont en essor : où se trouve la chimie ? Source : BASF.

L’information est partout : dans les bibliothèques, les journaux, les laboratoires, les musées... et même dans notre cerveau2. De l’intérêt de faire transiter ces informations en des endroits de plus en plus éloignés à des vitesses toujours plus grandes, de l’intérêt de traiter un nombre croissant de données de plus en plus complexes, sont nées les technologies de l’information. 1. www.basf.com 2. Ce point est abordé dans le Chapitre d’A. Lécuyer dans l’ouvrage Chimie et technologies de l’information, coordonné par M.-T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2014.

Jean-Charles Flores

Les multiples

Chimie et technologies de l’information

Le circuit intégré : des produits ultrapurs pour des composants ultra-petits

1.

Figure 2 Une tablette et ses constituants. Source : BASF.

Quelle est la contribution d’un leader mondial de l’industrie chimique comme BASF 3 au développement des technologies de l’information ? Pour répondre à la question, prenons l ’exemple d’une tablette tactile, symbole des technologies de l’information (Figure 2), et examinons ses principaux constituants : − l’écran, interface entre l’utilisateur et l’information ; − les batteries, qui permettent d’avoir l’information, où que nous soyons ; − les contrôleurs et les bobines, indispensables au bon fonctionnement de ces machines ; − les circuits intégrés qui traitent les informations. Où est la chimie dans une tablette ? Nous allons voir que la chimie est présente à chaque étape de leur longue et complexe fabrication.

68

3. Le groupe BASF, dont le siège social est basé à Ludwigshafen, en Allemagne, emploie plus de cent dix mille personnes dans tous les domaines de la chimie, de la chimie de base issue du pétrole à la chimie fine.

Le circuit intégré présent à l’intérieur de la tablette (Figure 3A) est à base de silicium. Bien qu’il soit le second élément le plus abondant dans la croûte terrestre après l’oxygène, la forme sous laquelle on le trouve est absolument impropre à son utilisation pour l’électronique. Il faut le raffi ner et le purifi er. Ce sont des procédés chimiques de purification extrêmement complexes qui permettent d’obtenir les plaquettes de silicium ultra-pures à partir desquelles sont fabriqués les circuits intégrés. Via des procédés toujours aussi complexes, ces plaquettes sont ensuite recouvertes de résines photo-polymérisables, placées sous un masque et exposées à des rayons ultraviolets. Seules les parties éclairées au travers du masque polymérisent et demeurent sur la plaquette après nettoyage4. Sur la partie qui n’est plus recouverte par ces résines, on peut alors réaliser des traitements chimiques nécessaires pour parvenir à ces assemblages extrêmement complexes de circuits intégrés qui font quelques dizaines de nanomètres (Figure 3B). À cette échelle de taille, la moindre particule se déposant sur les plaquettes lors du procédé, même de la taille d’un virus, peut anéantir 4. De plus amples explications concernant ces procédés sont fournies dans le Chapitre de I. Cayrefourcq dans Chimie et technologies de l’information, EDP Sciences, 2014.

A) L’intérieur d’une tablette ; B) schéma du dispositif d’impression d’un circuit imprimé sur une plaquette de silicium, avec zoom sur la plaquette imprimée. Source : BASF.

B Laser UV Masque

Partie illuminée

Plaque de silicium

le bon fonctionnement du circuit intégré. Il faut donc les fabriquer dans des salles blanches, expurgées de toutes ces particules et n’utiliser que des produits chimiques ultrapurs (solvants, gaz, réactifs…) (Figure 4). Dans ce cadre, BASF, comme beaucoup d’industries chimiques 5 , est un grand producteur de produits ultrapurs tels que :

née, eau de Javel…), des acides (acide sulfurique, acide phosphorique, acide nitrique…) et des solvants (acétone, hexaméthyldisilazane, N-méthyl2-pyrrolidone et autres acétates et alcools).

Les multiples contributions de la chimie dans la conception des tablettes et des Smartphones

Figure 3

A

Pour réaliser le circuit intégré, il faut pouvoir graver différents types de matériaux. Ce sont des composés tels que

− des gaz (chlorure d’hydrogène, ammoniac…) ; − des agents nettoyants pour les plaquettes de silicium tels que des oxydants (eau oxygé5. Voir aussi le Chapitre de V. Thulliez de Chimie et technologies de l’information, coordonné par M.T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2014.

Figure 4 Les manipulations se font dans des salles blanches avec le soin le plus extrême pour éviter la moindre impureté dans les circuits intégrés. Source : BASF.

69

Chimie et technologies de l’information

Figure 5 Plaquettes où seront gravés les circuits intégrés. Elles sont nettoyées avec des solvants ultra-purs, gravées avec des produits chimiques, et polies au nanomètre près grâce à des agents de polissage mécaniques et chimiques. Source : BASF.

Figure 6 Dans les bobines des téléphones portables, un noyau de fer est ajouté pour stabiliser le courant (A). Ce noyau de fer est préparé à partir de poudre (B) de morphologie parfaitement contrôlée (C : vue microscopique) pour supporter les hautes fréquences. Source : BASF.

A

70

l’acide chlorhydrique, l’acide fluorhydrique, l’ammoniac, le fluorure d’ammonium que l’on utilise pour graver le silicium. On utilise également d’autres produits pour graver l’aluminium, le cuivre, le chrome, le molybdène, le nickel, ainsi que l’oxyde d’indium et d’étain qui sont couramment employés dans l’industrie de l’électronique. Enfin, il faut aussi que ces plaquettes obtenues soient parfaitement plates : la variation d’épaisseur d’un bout de la plaquette à l’autre ne doit pas dépasser un ou deux nanomètres, ce qui, à l’échelle d’un terrain de football, représenterait une variation d’épaisseur plus petite qu’un cheveu. Le polissage est donc contrôlé au nanomètre près grâce à des agents de polissage mécaniques et chimiques (Figure 5).

Les bobines : une poudre de fer carbonyle pour des composants électriques

2

Les différents composants d’une tablette tactile (circuits intégrés, disques durs…) travaillent à différents voltages, et, pour adapter la tension d’un élément à un autre, on utilise des bobines. Le défaut majeur

B

de ce dispositif qui fonctionne à très autre fréquence est de délivrer une tension pouvant fluctuer au cours du temps. Ce défaut peut-être compensé par l’ajout d’un noyau de fer à l’intérieur de la bobine qui stabilise la tension par effet inductif. La pureté du fer présent dans ces bobines doit être la plus grande possible, et sa morphologie doit être parfaitement contrôlée. BASF développe depuis plus de quatre-vingts ans un procédé où de la poudre de fer, chauffée en présence de monoxyde de carbone dans des conditions de très hautes températures et pressions, est convertie en un complexe de fer-pentacarbonyle. C’est une huile d’aspect jaunâtre qui peut être purifiée par distillation pour atteindre un très haut degré de pureté. Ce complexe est ensuite chauffé et se décompose, d’un coté, en fer de haute pureté, et de l’autre, en monoxyde de carbone qui est recyclé au début du procédé. La morphologie du fer obtenue est parfaitement contrôlée : ce sont des sphères de cinq micromètres de diamètre qui sont enduites d’un mélange isolant de phosphate de fer. Plus leur forme est ronde et régulière, plus

C

il est facile de les recouvrir d’isolant et meilleurs seront leurs effets pour réduire les pertes d’énergie qui ont lieu dans les bobines (Figure 6). Ce fer de haute pureté et à morphologie contrôlée est non seulement utilisé dans les bobines mais aussi dans certaines parties plastiques des appareils électroniques pour protéger les différents composants des interférences provoquées par les radiations électromagnétiques.

Des batteries performantes pour des applications exigeantes

3

Du fait d’une plus grande mobilité, nous avons besoin d’avoir des batteries toujours plus performantes pour des applications plus gourmandes en énergie. Ces dernières années, la demande de batteries de technologie lithium-ion pour les téléphones portables et les tablettes a augmenté de 10 % par an. Le cœur du problème est de les produire à des coûts toujours plus maîtrisés tout en améliorant leur autonomie et leur sécurité. BASF, ainsi que d’autres industries chimiques, s’est engagé dans cette bataille pour produire des matériaux plus performants nécessaires à l’élaboration de ces

chimie_techno_partie_2.indd 71

B

nouvelles batteries (Figure 7). Très actif dans le domaine des matériaux pour les cathodes, les électrolytes, les membranes et les liants, le groupe travaille en collaboration avec de nombreuses universités et de petites compagnies sur les nouvelles technologies de batteries : lithium-soufre, lithium-air6.

C

Figure 7 Vue éclatée d’une batterie plate (A) ; vue au microscope d’une anode (B) ; schéma représentant le déplacement des ions au travers d’une membrane dans une batterie lithium-ion (C). Source : BASF.

Des écrans lumineux pour des utilisateurs radieux

4

4.1. La technologie LCD La plupart des écrans de télévisions ou d’ordinateurs actuels fonctionnent grâce à la technologie LCD (« Liquid Cristal Display »)7. En effectuant un agrandissement de l’écran, on peut alors voir qu’il est composé d’une multitude de petits pixels rouges, verts et bleus (Figure 8). C’est la lumière traversant ces pixels contrôlés par des transistors qui prend leur couleur. 6. Au sujet des batteries lithiumair, voir l’ouvrage Chimie et Transports, Chapitre de D. Larcher et F Darchis, coordonné par M.-T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2014. 7. Cette technologie est également décrite dans le Chapitre de V. Thulliez dans Chimie et technologies de l’information.

Les multiples contributions de la chimie dans la conception des tablettes et des Smartphones

A

Figure 8 Le zoom sur un écran fait apparaître des pixels. Source : BASF.

71

19/06/14 08:36

Chimie et technologies de l’information

QU’EST-CE QUE LA LUMIÈRE POLARISÉE ? La lumière est une onde électromagnétique dont les oscillations se font transversalement par rapport au sens de propagation. Ainsi, ces oscillations appartiennent au plan perpendiculaire à la direction de propagation, appelé plan de polarisation. Elles peuvent donc être dans de très nombreuses directions. Une polarisation est définie par une ou la superposition de plusieurs directions de polarisation. Un polariseur est un filtre de lumière qui ne laisse passer que la lumière possédant une certaine direction de polarisation.

La Figure 9 montre la vue éclatée des différents constituants d’un pixel. Le dispositif de rétroéclairage fournit une lumière blanche non polarisée (voir l’Encart « Qu’est-ce que la lumière polarisée ? ») qui traverse le premier polariseur du pixel, se polarisant selon le plan de polarisation de celui-ci, comme figuré en blanc sur la Figure 9A. L’onde électromagnétique traverse ensuite la couche de cristaux liquides 8 qui, du fait de leur morphologie intrinsèque, dévie le plan de polarisation de la lumière de 90°. Elle traverse également un filtre de couleur, le rouge par exemple, prenant la couleur de celui-ci. Elle arrive enfin sur un second polariseur dont le plan de polarisation est parallèle au sien ; elle peut donc le traverser, et l’utilisateur voit sur son écran le pixel rouge allumé. Quand les cristaux liquides sont soumis à une différence de potentiel entre les deux couches

72

chimie_techno_partie_2.indd 72

8. Un cristal liquide est intermédiaire entre un liquide et un solide cristallisé.

d’alignement (Figure 9B), leur morphologie est modifiée, et dans ce cas, le plan de polarisation de la lumière n’est plus dévié lors de leur traversée. La lumière prend la couleur rouge à la traversée du filtre de couleur, mais son plan de polarisation est dans ce cas perpendiculaire à celui du deuxième polariseur et elle ne peut plus le traverser. L’utilisateur voit alors sur son écran le pixel rouge éteint. Si le principe de fonctionnement semble simple, il reste néanmoins de nombreux problèmes à résoudre dont les solutions feront appel à la chimie. En effet, lorsque la lumière polarisée traverse le filtre de couleur, les pigments qui le composent ont une certaine taille de grain qui est voisine de la longueur d’onde de la lumière. Cela conduit a des effets de diffusion donnant lieu à une dispersion du plan de polarisation de la lumière dans tous les sens. Le deuxième polariseur voit alors sont rôle de filtre amoindri car une partie de cette lumière arrive à traverser le dernier fi ltre polariseur. Le

19/06/14 11:36

Lumière blanche non polarisée

B

Lumière blanche non polarisée

C

Polariseur Couche d’alignement Cristaux liquides Couche d’alignement Filtre de couleur Polariseur

dernier fi ltre polariseur. Le contraste de l’écran est diminué (Figure 9C). Il faut donc rendre ces pigments plus performants afin d’augmenter ce contraste. 4.2. Amélioration des performances des filtres de couleur Il faut d’abord microniser les pigments bruts afin d’atteindre des tailles de grains extrêmement petites, de l’ordre 50-70 nanomètres. C’est un

procédé extrêmement complexe pour lequel BASF a acquis une compétence unique, en particulier pour le pigment rouge. Après des traitements de surface de grains, le pigment est mélangé à des dispersants pour être mis en solution. On ajoute alors à cette solution des photo-initiateurs et des monomères qui permettent de fixer la résine lorsqu’elle sera appliquée sur les plaques de verre utilisées comme substrat pour les écrans (Figure 10).

Figure 9 Schéma du trajet d’une lumière blanche non polarisée à travers les différents constituants du pixel : sans voltage (A), avec voltage (B) appliqué sur les cristaux liquides ; lumière blanche traversant le filtre de couleur possédant des pigments peu performants (C). Source : BASF.

Les multiples contributions de la chimie dans la conception des tablettes et des Smartphones

A

Figure 10 Schéma des différentes étapes de synthèse de la résine pour filtre coloré. Source : BASF.

73

Chimie et technologies de l’information

Figure 11 L’amélioration des contrastes par les filtres de couleurs BASF au cours des années.

L a chimie inter v ient de manière impor tante dans chacune des étapes de la fabrication d’une résine colorée performante : chaque dispersant, chaque liant, chaque photo-initiateur a nécessité une mise au point. La Figure 11 résume l’historique des recherches menées par BASF pour fabriquer des filtres colorés performants. Les recherches, commencées dans le milieu des années 1990 9, ont permis la sortie en 1997 d’un premier filtre de couleur rouge très performant et de longue durée de vie. Ce pigment rouge est toujours utilisé dans les téléphones et les moniteurs bas de gamme. En 2005 une deuxième génération de filtres de couleur rouge est sortie des laboratoires de BASF dans lequel le rapport de contraste est doublé. Elle est

74

9. Ces recherches ont été entreprises dans les laboratoires de CIBA qui fait partie intégrante du groupe BASF depuis 2009.

abondamment utilisée dans les mobiles, ordinateurs portables et les télévisions. Enfin, il y a deux ans, le groupe a sorti un nouveau pigment : ce fi ltre de couleur de dernière génération, dont l’étape cruciale de micronisation est effectuée en France, est utilisé dans quasiment toutes les télévisions haut-de-gamme et dans les tablettes. La chimie au service de l’amélioration des performances des écrans LCD ne se limite pas aux filtres colorés. D’autres composés chimiques interviennent dans la fabrication des constituants d’un écran LCD comme on le voit sur la Figure 12. Pour réaliser les différentes couches, différents types de produits sont utilisés : des photo-initiateurs, des photo-stabilisants (pour éviter l’altération des matériaux des composants sous l’impact de la lumière), des cristaux liquides polymérisables, des colorants et des dispersants.

Les objectifs et avantages de la technologie OLED (« Organic Light-Emetting Diode »),10 sont de remplacer les filtres de couleur par des émetteurs de couleur, c’est-à-dire de faire émettre aux petits pixels leur propre lumière pour supprimer le rétroéclairage. Dans ce cas, les cristaux liquides ne sont plus nécessaires, ni les polarisants, ni les transistors, et l’on économise ainsi beaucoup de place. Cette technologie existe déjà et elle est utilisée dans les téléphones Samsung Galaxy, ainsi que dans les dernières générations de télévisions géantes, encore très coûteuses, mais qui seront d’ici quelque temps beaucoup plus abordables. Il faut rappeler également que la technologie

OLED est aussi en passe d’être largement utilisée pour l’éclairage. Elle offre véritablement beaucoup de nouvelles possibilités (la Figure 13 permet d’en comprendre le principe de fonctionnement). Sur un substrat transparent (qui peut être flexible) est déposée une couche anodique transparente, qui est généralement de l’oxyde d’indium et d’étain. On ajoute alors la couche émettrice de couleur et une couche métallique qui sert de cathode. Quand

Substrat transparent 10. Voir à ce sujet le Chapitre de I. Cayrefourcq dans Chimie et technologies de l’information.

Anode transparente

Figure 12 Vue éclatée des différentes couches d’un écran et les différents produits de BASF. Source : BASF.

Les multiples contributions de la chimie dans la conception des tablettes et des Smartphones

4.3. La technologie OLED

Figure 13 Schéma d’un pixel OLED.

Cathode métallique Couche émettrice

75

Chimie et technologies de l’information

on établit une différence de potentiel entre les deux électrodes, la couche émettrice crée de la lumière. BASF et beaucoup d’autres entreprises chimiques travaillent énormément à l’amélioration

des performances de cette couche émettrice. L’industrie chimique est un réel moteur de cette technologie innovante dans laquelle sont investis des efforts financiers importants en recherche.

Les technologies de l’information et de la communication aiment la chimie ! La contribution de la chimie aux technologies de l’information, bien que cachée, leur est pourtant essentielle et participe activement à leur essor. La chimie est intimement liée à l’industrie de l’électronique et aux nouvelles technologies. Toute l’industrie chimique s’attache à élaborer des produits toujours plus purs, toujours plus robustes, toujours plus performants et toujours plus innovants pour des applications qui sont toujours plus exigeantes.

76

polymères

se réveillent pour l’

électronique !

Ian Cayrefourcq est directeur des technologies émergentes du groupe Arkema1.

1

Les polymères dans la microélectronique

1.1. Un usage quotidien Dans la microélectronique, les polymères sont quasiment partout. Ils peuvent être visibles sur le packaging, le boîtier d’un téléphone ou d’une tablette, mais peuvent aussi être beaucoup moins visibles, par exemple de nouveau sur le packaging, pour lequel on utilise énormément d’adhésifs d’enrobage pour protéger les surfaces ou pour les isoler du monde extérieur, et donc pour constituer des barrières à l’eau ou à l’humidité afin d’assurer une durée de vie suffisante aux composants qu’ils contiennent (Figure 1). La chimie est aussi indispensable dans la fabrication des circuits intégrés. Elle intervient dans la lithographie, technologie permettant la définition des diverses parties 1. www.arkema.fr

des transistors 2, qui constituent les circuits électroniques. Les progrès conjugués de l’optique et de la chimie (des résines photosensibles) ont permis à l’industrie des semi-conducteurs de réduire les dimensions critiques de ces composants permettant l’augmentation de leurs performances (augmentation des vitesses de commutation, diminution de la consommation électrique), tout en diminuant le coût unitaire des circuits. L’augmentation de la vitesse de commutation des transistors, si elle permet d’améliorer la puissance de nos ordinateurs en augmentant le nombre de calculs par seconde, induit de nouvelles

2. Pour entrer dans le détail du fonctionnement des transistors, voir le Chapitre de Y. Le Tiec de l’ouvrage Chimie et technologies de l’information, EDP Sciences, 2014 et : Sze M. (1969). Physics of Semiconductor Devices, WileyInterscience.

D’après la conférence de Ian Cayrefourcq

Les

Chimie et technologies de l’information

quelques mm² (Figure 2B). Le premier circuit utilisant un transistor a été fabriqué par Kilby chez Texas Instrument au début des années 1960 (Figure 2C) ; il ne comportait à côté du transistor qu’une capacité et une résistance – on peut tout juste parler d’électronique à ce stade là.

Figure 1 Les polymères sont présents dans de nombreux composants électroniques : dans les enrobages (époxy, polyuréthane, silicones), adhésifs (époxy, cyanoacrylates), les underfills (résines anhydres chargées de silice), substrats et diélectriques (polyester, époxy, polyimide, benzocyclobutène, bismaléimide triazine, fluorocarbone), les filtres pour cartes imprimées (aramide, verre), les photomasques (polymères photosensibles) et les protections (époxy, polyuréthane, élastomère silicone, pérylène).

difficultés techniques. La fréquence des commutations des processeurs actuels se situe dans le régime du gigahertz (soit le milliard de commutations par seconde). À ces fréquences, des phénomènes de couplage entre les lignes connectant les divers transistors des circuits apparaissent et peuvent entrainer des pertes d’informations et des dysfonctionnements des circuits. Ici encore, la science des matériaux a permis de contourner ce problème en réduisant la constante diélec tr ique des matér iaux dans lesquels les lignes de connections sont noyées afin de mieux les isoler. 1.2. Retour historique

78

C’est le physicien William Bradford Schockley (19101989) (Figure 2A), juste après la Seconde Guerre mondiale, qui a démontré le phénomène transistor sur un dispositif de

Les premiers vrais circuits électroniques et les premiers microprocesseurs sont apparus au début des années 1970. La Figure 3 donne l’exemple d’un des premiers microprocesseurs (de Texas Instruments) ; il comportait 2 000 transistors. Le pentium4 (fin des années 1990-début des années 2000) en comporte cinquante millions. Le microprocesseur i7 d’Intel, actuellement le plus performant pour les équipements grand public, comporte un milliard et demi de transistors ! On utilise aujourd’hui des microprocesseurs qui comportent jusqu’à deux milliards de transistors : on est ainsi passé de 2 000 à 2 milliards en quelques décennies (Figure 3). En une trentaine d’années, on a su réduire la taille du transistor, l’élément de base de l’électronique, de quelques microns – la taille d’un globule rouge – à des dimensions critiques de quelques dizaines de nanomètres – la taille d’un virus. Les puissances des microproces seur s aujour d’hui n’ont ainsi rien à voir avec ce qui se faisait dans le passé. C’est ce qui permet d’avoir des ordinateurs, tablettes ou téléphones assez puissants pour naviguer sur Internet par exemple. Mais la diffusion de

B

C

Figure 2 William Bradford Schockley (A) et le premier transistor 5 mm (Bell labs, 1947) (B) ; premier circuit (Kilby, TI, 1958) (C).

103

106

109

Les polymères se réveillent pour l’électronique !

A

1012

10

Dimensions critiques µm

Nombre de transistors/processeur

1

0,1

0,01 1975

1980

1985

1990

1995

2000

2005

2010

2015

2020

2030

Année

ces équipements n’a été possible que grâce à la réduction en échelle, qui a permis de réduire les coûts de fabrication de façon presque proportionnelle. Fabriquer un million de transistors dans les années 1970 coûtait environ 70 000euros, le prix d’une maison ; aujourd’hui, on est à moins d’un centime d’euros. La clé, derrière ces progrès considérables qui ont permis l’essor des technologies de l’information, c’est la lithographie.

2

Les progrès de la lithographie

En ce qui concerne les structures composant les circuits imprimés, sur les plaques de silicium (appelées « wafer », Figure 4), passer d’une taille micrométrique à nanométrique paraissait tout à fait impossible, et pourtant cela a été réalisé en quarante ans, grâce aux progrès qualitatifs dans la technique de gravure utilisée, qui est la lithographie.

Figure 3 Évolution du nombre de transistors par microprocesseurs selon la loi de Moore.

79

Chimie et technologies de l’information

Source de lumière UV

Masque

Wafer en silicium

Figure 4 La lithographie pour imprimer des circuits sur une plaque de silicium (wafer) à l’aide d’une source de lumière et d’un masque.

À la base, la lithographie est issue de la photographie, et donc soumise à la loi toute simple selon laquelle la résolution que l’on peut obtenir est de l’ordre de grandeur de la longueur d’onde de la lumière utilisée3. Pour atteindre des dimensions nanométriques, il faudrait donc de la lumière à l’UV dur ou même à des rayons X. Dans la course aux courtes longueurs d’ondes, on a commencé à employer du bleu-vert (436 nanomètres), puis on est descendu dans l’UV proche du bleu profond (365 nm puis 248 nm). Aujourd’hui on est à 193 nm, ce qui théoriquement permet de dessiner des structures de 148 nm au maximum. Dans les faits, aujourd’hui, on est bien en dessous, grâce à plusieurs ajustements de la technique : on a joué sur l’ouverture numérique et on a pu l’augmenter ; puis on a fait de la lithographie par immersion pour jouer sur la réfraction. La limite réelle devrait être aux alentours de 90 nm. On arrive à diminuer encore les dimensions en jouant sur des corrections de proximité par lesquelles on corrige les déformations dues au fait que l’on pousse les performances aux limites physiques. De nouveaux perfectionnements ont pu être apportés à ces procédés, comme l’utilisation d’une technique de « multi-patterning » (Figure 5) qui permet de multiplier la résolution par

80

3. Pour un instrument optique d’ouverture circulaire de diamètre D, la résolution en radian est donnée par la formule 1,22*λ/D, où λ est la longueur d’onde.

deux ou trois. Cette technique apparaît cependant comme trop coûteuse. L’objectif fixé à l’industrie est d’atteindre l’échelle de 10 nm qui est techniquement problématique, même si aujourd’hui on maîtrise l’échelle des 30 nm. Une technique qui fait l’objet de nombreuses recherches est l’utilisation de l’ultraviolet très profond. Des efforts pour réaliser une source de lumière à 13,6 nm sont prometteurs mais buttent sur la nécessité d’obtenir une puissance suffisante à un coût acceptable. Avec le savoir-faire actuel, une machine utilisant cette technique au rythme d’une centaine de wafers par heure coûterait entre cent et cent cinquante millions de dollars. Une usine complète atteindrait le coût prohibitif de cinq à six milliards de dollars ! 2.1. Une résine aux propriétés modulables C’est la chimie qui permet d’atteindre l’objectif en proposant un changement complet de la technique de la lithographie. Au lieu d’avoir une résine passive qui réagit en fonction des zones que l’on a illuminées puis que l’on développe comme une photo, la « Directed Self Assembly » définit le motif grâce à l’autoassemblage de copolymères 4 blocs (« copo-blocs ») le long de guides de résolutions inferieures préalablement défi nis par une lithographie classique. Dans cette technique, 4. Un copolymère est un polymère issu de la polymérisation d’au moins deux types de monomères.

Ouverture du tricouche

on agit sur le design du polymère ; on définit au stade de sa fabrication une structure périodique (lamellaire ou cylindrique) définie par sa composition dont la période et les dimensions critiques sont définies par les masses moléculaires des blocs en présence. La technique utilise les propriétés des copolymères blocs (voir l’Encart : « L’étrange comportement des copolymères blocs : l’auto-organisation ») mettant en jeu les caractéristiques d’immiscibilité des constituants moléculaires. On étale une solution bien choisie de ces copolymères, la résine, sur les surfaces de wafers afin d’obtenir une couche uniforme de l’ordre de 20 à 50 nm. On apporte ensuite un peu d’énergie au système (on chauffe la couche entre

A

Dépôt des espaceurs

Amincissement des espaceurs et retrait du SOC (Spin on Carbon)

150 et 250 °C en fonction du matériau) afin que le polymère s’organise, et afin de diminuer l’énergie libre du système. Ces copolymères seront donc, selon les conditions, adaptés à la formation de petits trous arrangés périodiquement si leurs structures internes présentaient des cylindres, ou de petites lignes périodiques dans le cas où elles seraient en forme de lamelles. Ce sont les deux structures principales rencontrées lors de la fabrication des microprocesseurs. Une maîtrise précise de la physico-chimie des copolymères, telle que la société A r kema l ’a acquise, est nécessaire à la maîtrise de ces procédés (Figure 6). Une étape chimique ultérieure élimine l’un des deux blocs, selon l’objectif, conduisant à

B

Figure 5 Multiplication de la résolution à partir d’une lithographie donnée.

Les polymères se réveillent pour l’électronique !

Lithographie

Figure 6 Du copolymère à une structure à trous. A) Un mélange de copolymères blocs à deux composants est étalé dans un moule ; B) un chauffage conduit le polymère à s’orienter de manière à ce qu’un composant soit tourné vers l’intérieur ; C) ce composant peut être enlevé par décapage, laissant une matrice de trous nanométriques.

C

81

Chimie et technologies de l’information

L’ÉTRANGE COMPORTEMENT DES COPOLYMÈRES BLOCS : L’AUTO-ORGANISATION Les mélanges de composés moléculaires liquides non-miscibles sont intriguants, et comme tels, ils intéressent les scientifiques, physico-chimistes ou physiciens. Le prototype en est le mélange d’eau et d’huile. Les molécules d’eau, très polaires (où les électrons des atomes d’hydrogène sont entraînés vers les atomes d’oxygène, très avides d’électrons, qui deviennent électriquement négatifs, ce qui rend les atomes d’hydrogène électriquement positifs), n’ont que peu d’affinité pour les molécules d’huile (hydrocarbures d’hydrogène), où les atomes restent électriquement neutres, alors qu’elles se fixent volontiers avec leurs congénères molécules d’eau. Le résultat est d’expérience courante : le mélange donne naissance à des gouttes d’huile dans l’eau ou, selon la quantité des composants, d’eau dans l’huile. La structure du mélange sépare les deux composants à l’échelle microscopique en minimisant leurs surfaces de contact. Cette situation prototype se rencontre dans de nombreux cas, mais elle est particulièrement intéressante quand elle s’applique aux polymères. Ces derniers, on le sait, sont généralement de longues chaînes linéaires de molécules, identiques ou différentes, attachées les une aux autres en colliers de perles. Si l’on a affaire à un couple de molécules non miscibles (comme le sont l’eau et l’huile du cas prototype), et si l’on forme un polymère en liant une chaîne de A à une chaîne de B, puis de nouveau à une chaîne de A puis à une chaîne de B, et ainsi de suite de nombreuses fois, on obtient ce qu’on appelle un copolymère bloc : on le schématise par A-B-A-B-A-B-… Mais la longue chaîne formée placée dans un solvant a tendance à se replier, comme le font tous les polymères dans un solvant. Compte tenu de leurs affinités réciproques, les molécules A d’une même chaîne vont se regrouper autant que faire se peut, ainsi que les molécules B. Le résultat en est une structuration du polymère en figures géométriques qui minimisent leurs surfaces d’interactions. Cela conduit à la formation d’empilement lamellaires par exemple pour des concentrations 50 %/50 % (Figure 7A), ou cylindriques pour des concentrations 70 %/30 % (Figure 7B), ou d’autres figures, selon les rapports des concentrations. On parle alors d’auto-organisation. Après évaporation du solvant, ces structures périodiques (si les successions de A et de B sont régulières) se maintiennent et donnent naissance à des phases condensées à structures régulières. La surface des couches correspondantes fait apparaître soit des lignes (lamelles vues de côté) soit des trous (cylindres vus de dessus).

A

L0

B

fA =

NA NA + NB

fA

A

L0 : échelle de longueur caractéristique du domaine N : nombre de segments de chaîne

B

Figure 7 A) Évolution de la structure en fonction de la composition du copolymère ; B) différents types de structures, lamellaires ou cylindriques. La structuration de la résine ne se fait plus via son illumination à travers un masque mais est définie par les caractéristiques intrinsèques du matériau : période, dimensions, structure, orientation, masse molaire, composition, énergie de surface. 82

Les dimensions obtenues par ce type de technique sont définies lors de la synthèse des copolymères, en choisissant la longueur des blocs qui détermine les périodes de l’organisation des chaînes polymères. L a Figure 8A donne des exemples avec des cylindres de 20 à 50 nm, et des lignes de 19 à 30 nm ; des démonstrations ont pu être faites jusqu’à 10 nm de période, ce qui nous assure qu’on saura remplir les objectifs encore pour les vingt

Les polymères se réveillent pour l’électronique !

la formation d’un masque utilisé dans les étapes suivantes du procédé de fabrication des transistors. Les masques polymères sont ensuite transférés sur support silicium.

prochaines années de développement de l’électronique… La Figure 8A montre qu’un degré de désordre persiste : on a une périodicité sur de petits secteurs, puis on a des défauts sur certaines zones qui ressemblent à des empreintes digitales. La Figure 8B est une photo agrandie d’une des structures cylindriques à dimension critique d’environ 20 nm, dont on peut apprécier la régularité des figures obtenues par l’utilisation des propriétés des copolymères blocs (les « polymères intelligents »), ainsi que par la technique de leur transfert sur support silicium.

Figure 8 A) Évolution de la disposition des cylindres (les deux premières rangées) et des lignes (rangée du bas). B) Photo agrandie d’une structure cylindrique transférée sur plaque silicium. Source : CEA-LETI.

A

Période du cylindre

22 nm

24 nm

26 nm

23 nm

33 nm

51 nm

47 nm

45 nm

43 nm

36 nm

B

Période du copolymère bloc lamellaire

83

Chimie et technologies de l’information A

Figure 9 A) Exemples de structures nanométriques réalisées par utilisation des copolymères blocs : au laboratoire CEA-LETI (A) et au laboratoire américain de P. Nealey (B).

B

2.2. Application de la résine en microélectronique Ces figures nanométriques que permet la chimie des polymères sont mises à profi t pour la fabrication des circuits microélectroniques dans le cadre d’un procédé en deux étapes. On commence par une lithographie classique avec une résolution de 100 à 180 nm. Les dessins qui résultent de cette lithographie, inscrits sur le wafer, servent de guides et sont ensuite remplis par la résine copolymère, qui permet ainsi d’augmenter la résolution des structures définies sur les wafers. La Figure 9A montre des exemples qui concernent la structure en lignes. Ils sont issus d’une collaboration entre l’entreprise Arkema et le CEA-LETI5. Cela donne une occasion de souligner qu’il est absolument critique que les chimistes (Arkema en l’occurrence) s’allient avec les électroniciens (le LETI en l’occurrence) afin de bien définir les spécifications et d’optimiser le couple matériaux/procédé.

84

5. LETI : Laboratoire d’électronique et de technologie de l’information (www-leti.cea.fr).

Autre exemples : P. Nealey aux États-Unis a pu construire des lignes segmentées, des coudes, localement créer une forme de T, des arcs de cercles des figures circulaires (Figure 9B). Les designers de microélectronique peuvent ainsi libérer leur imagination pour concevoir de nouveaux circuits en sachant qu’on saura les fabriquer ! Les mêmes techniques ont été appliquées avec succès à un autre problème, celui de la réduction de la taille des contacts (au CEA-LETI). Puisque la taille des transistors diminue, il faut bien que les contacts qui les relient aux lignes conductrices en cuivre diminuent également. Dans la Figure 10, une lithographie a d’abord permis de réaliser des cercles d’environ 120 nm de diamètre ; on a ensuite rempli les cercles du copolymère bloc pour arriver à un diamètre critique de 15 nm (Figure 10A). En répétant le processus plusieurs fois, on augmente la densité des nano-contacts. On peut aller plus loin en jouant sur la forme des guides et réussir à multiplier encore les contacts. Dans une structure d’environ 120 nm, on peut placer deux puis trois contacts au lieu d’un seul ; en jouant sur les formes on peut les éloigner les uns des autres si on le souhaite (Figure 10A). La Figure 10B montre la maturité à laquelle les techniques de fabrication sont parvenues : on effectue la manipulation sur l’ensemble de la surface d’un wafer de 300 mm, on forme ainsi des milliards de trous que l’on caractérise ensuite pour évaluer le nombre de défauts

Auto-assemblage de copolymère bloc

A rencontrés, la variation des dimensions, de leur positionnement, etc. Sur quelques 25 000 trous, l’observation a montré que seuls cinq des trous attendus manquaient. Pourtant, ce rendement de 99,9 % n’est pas suffisant pour l’industrie : il faut en rajouter encore quelques neuf ! Une fois de plus, ce n’est qu’à travers une étroite collaboration entre chimistes, instituts tels que le CEA-LETI, industriels tels que STMicroelectronics, que la microélectronique parvient à un tel contrôle de sa technologie.

Une nouvelle génération d’équipements : l’électronique sur support flexible

3

Les polymères se réveillent pour l’électronique !

Moule lithographique 193 nm

Transfert du motif défini par les copolymères blocs

B par les travaux des chimistes qui ont su maîtriser les copolymères blocs. Mais la chimie apporte encore bien d’autres bouleversements. En particulier la maîtrise de la chimie organique et le développement de matériaux conducteurs et semi-conducteurs organiques ouvrent la voie à une nouvelle électronique : l’électronique imprimée. Le caractère organique de ces matériaux permet de les formuler sous forme d’encres et d’envisager ainsi des techniques de fabrication de composants plus proches de l’impression papier que de l’industrie du semi-conducteur classique.

3.1. Les technologies existantes

Ce changement constitue une véritable rupture technologique et ouvre de nouveaux champs tant il permet d’envisager la réalisation de systèmes sur de très larges surfaces, des substrats souples à de très bas coûts.

On vient de voir quels progrès spectaculaires sont apportés

C e s te c h n o l o gi e s co m mencent à apparaitre, et des

Figure 10 A) Évolution des diamètres critiques en fonction de la diminution de la taille des contacts ; B) wafer de 300 millimètres, rendement 99,95 %.

85

Chimie et technologies de l’information

premiers produits entrent sur le marché. Les années à venir verront l’apparition de nombreuses nouvelles applications (luminaire OLED, panneaux photovoltaïques transparents, détecteurs de présence…). Certains de ces nouveaux dispositifs sont déjà en phase de mise sur le marché, d’autres sont encore dans les laboratoires. L’un des plus connus de ces dispositifs est l’écran OLED (« organic light emitting diode », voir le Chapitre de J.-C. Flores de Chimie et technologies de l’information, EDP Sciences, 2014), produit que l’on trouve maintenant régulièrement sur nos téléphones portables et qui entre de plus en plus dans nos salons. Outre une qualité d’image supérieure aux écrans LCD, cette technologie permet aux designer d’inventer de nouvelles formes d’écrans, très fins, courbés… augmentant encore l’expérience ressentie par l’utilisateur. La Figure 11 montre divers types d’application OLED allant de l’illumination aux écrans de toutes formes et tailles démontrant ainsi la maturité industrielle de la technologie OLED.

Figure 11 OLED, OPV… les technologies de l’électronique grande surface. Source : A) Wikipédia Licence CCBY-2.0, RDECOM ; B) Wikipédia Licence CC-BY-2.0.

A

86

B

On entend par ailleurs beaucoup parler du photovoltaïque organique (OPV), technologie déjà pratiquement mûre mais

pas encore disponible sur le marché. Pour les utilisations classiques du photovoltaïque, il sera probablement difficile de concurrencer le silicium ; par contre, sur des applications flexibles transparentes, por tables, il y a de gros avantages au photovoltaïque organique. Avec une société qui va de plus en plus vers le nomade, il est clair qu’il y aura un marché pour ce genre de technologie. Le « lighting », une technique d’éclairage high-tech faite à partir d’une technologie de chimie organique pour améliorer les actuelles diodes électroluminescentes, est également proche de la mise sur le marché. On ne se penchera pas ici sur ces applications mais sur une autre qui est de répondre au besoin largement exprimé dans la société de se construire un « environnement intelligent ». 3.2. Vers des capteurs avancés 3.2.1. Vers de nouvelles demandes pour la microélectronique Une demande encore peu exprimée mais en croissance chez les consommateurs est de vivre dans un

C

Un matériau piézoélectrique est avant tout un matériau ferroélectrique, c’est-à-dire composé de domaines affectés de moments dipolaires (dipôles), qui créent intrinsèquement un petit champ électrostatique*.

Axe de polarisation

À priori, tous les dipôles sont dans des orientations aléatoires, et le matériau en entier n’est producteur d’aucun champ. Quand on lui applique une tension électrique, on oriente tous les dipôles qui prennent alors une résultante non-nulle, et le matériau crée un champ électrique. Les matériaux ferroélectriques ont la propriété suivante : lorsqu’on enlève la tension électrique appliquée, les domaines restent orientés ; il reste donc un champ permanent (Figure 11).

Les polymères se réveillent pour l’électronique !

LES MATÉRIAUX PIÉZOÉLECTRIQUES

A

B

C

Figure 11 Champs électriques au sein d’un matériau ferroélectrique. A) Orientation aléatoire de domaines polaires avant polarisation ; B) polarisation en champ électrique de courant continu ; C) polarisation rémanente après suppression du champ électrique.

Cette propriété est à l’origine du phénomène d’hystérésis (Figure 12) : on part d’un matériau désorienté, on applique une tension qui l’oriente, on enlève la tension, un champ rémanent demeure. Pour le supprimer, il faut appliquer une tension dans le sens inverse pour faire tourner les domaines. Un ferroélectrique constitue ainsi un système bistable et peut être utilisé pour faire des mémoires : on met une tension dans un sens, c’est un 1, dans l’autre sens, un 0. Le piézoélectrique possède cette même propriété, mais en plus, sa maille cristalline se déforme par application du champ électrique. On peut ainsi le faire vibrer en lui appliquant une tension électrique alternative. Symétriquement, il réagit à une contrainte mécanique en créant un champ électrique. La première propriété est par exemple utilisée pour faire un haut-parleur (qui transforme le courant électrique de la radio en son en faisant vibrer une membrane). La seconde est utilisée pour faire un microphone (qui transforme la vibration de la membrane actionnée par la voix en courant électrique pour aller actionner un haut-parleur). Charge

Figure 12

Pr

–Ec

Ec

Graphe de principe de fonctionnement d’un hystérésis.

Champ EI

*Un dipôle possède un pôle positif et un pôle négatif. Au sein d’un dipôle il existe donc une différence de potentiel V. Ainsi, avec E =-grad(V), le dipôle possède un champ électrique intrinsèque E. 87

Chimie et technologies de l’information

environnement rassurant, qu’on peut appeler « un environnement intelligent » ; on veut être capable de connaître la qualité de l’air, la température du lieu où l’on vit, le nombre de personnes qui passe à tel endroit etc., en bref on a besoin de capteurs partout. Bien évidemment, ces besoins ne pourront être satisfaits par des dispositifs électroniques que si ceux-ci peuvent être produits à très bas coût. La solution envisagée pour y parvenir est de faire appel à l’électronique imprimée – substituant une technologie de production de masse à bas coût à la technologie coûteuse de la lithographie. Les techniques de l’imprimerie de livres ou journaux, tellement répandues depuis si longtemps et tellement bon marché, peuvent en effet être adaptées au problème posé. L’électronique organique, en permettant la fabrication d’encres actives, permet donc de faire rentrer l’électronique dans le monde de l’imprimerie. La fabrication des ces capteurs de pression repose sur

l’utilisation de matériaux piézoélectriques qui ont la propriété de se déformer sous l ’application d’un champ électrique (voir l’Encart « Les matériaux piézoélectriques »), et inversement de produire un champ électrique lorsqu’on les déforme. La Figure 13 schématise le parti que l’on peut tirer de ces propriétés. On peut les utiliser comme « capteurs » (quand on les touche, ils envoient un signal électrique. Ils peuvent par exemple détecter la présence ou le passage d’un individu), ou comme « actuateurs » – quand on leur applique une tension électrique, ils répondent par un signal mécanique (une légère déformation). 3.2.2. Les polymères fluorés Pour combiner la piézoélectricité d’un matériau et sa facilité de mise en forme, les laboratoires se sont tournés vers les matériaux polymères. Le matériau de référence considéré est le PVDF (polydifluorovinylidène). Le monomère de départ, le difl uorovinylidène (VF2), est

Actuateur : un stimulus (par exemple une tension) induit une déformation en sortie

V

V>0

Entrée : stimulus

Sortie : déformation

p. ex. une tension

Capteur : stimulus (par exemple une déformation) induit un signal en sortie

Entrée : déformation

Figure 13 88

Schéma de principe matériaux piézoélectriques.

V>0

p. ex. déformation mécanique

Sortie : signal p. ex. une tension

F=0 F>0

Les polymères se réveillent pour l’électronique !

constitué de deux atomes de carbone, dont l’un porte deux atomes d’hydrogène (électropositifs) et l’autre deux atomes de fl uor (électronégatifs). Il porte donc un dipôle électrique. Quand on le polymérise, on dispose ces monomères (qui sont des dipôles) en chaîne les uns derrière les autres, les dipôles des monomères étant quasi parallèles les uns aux autres et conférant un dipôle résultant à la chaîne entière. En phase condensée, on peut avoir plusieurs situations : les dipôles des différentes chaînes sont orientés aléatoirement les uns par rapport aux autres et le composé fi nal ne présente pas de dipôle résultant ; ou bien les chaînes ont leurs moments dipolaires orientés parallèlement les uns aux autres – c’est la phase β (la Figure 14 résume cette situation). Dans cette phase, on peut envisager d’agir sur les moments dipolaires en appliquant un champ électrique et

de modifier ainsi l’orientation des chaînes. Cette phase β présente ainsi des propriétés piézoélectriques. L’utilisation de cette propriété toutefois nécessite que la phase β soit mise sous forme de film, ce qui est une opération compliquée. On peut contourner cette difficulté en utilisant des PVDF dont le taux de cristallinité ne dépasse pas 50 %, mais une solution plus efficace est le recours à la copolymérisation. En polymérisant les monomères de VF2 avec un autre monomère, on peut réaliser un copolymère capable de cristalliser directement en phase β permettant la réalisation d’une encre et de procéder à l’impression de dispositifs piézoélectriques – détecteurs ou actuateurs. Dans des développements récents, Arkema a mis au point un « ter-polymère » (on rajoute donc un troisième monomère) qui permet de vraiment faire l’ingénierie

Figure 14 Principe de fonctionnement du procédé utilisant le PVDF.

Sphérulite

Unité structurale de PVDF

Molécule Noyau

Lamelle cristalline Région amorphe

1

VF2

PVDF

2

3

4

Extrusion film phase α

Élongation film phase β

Dépôt d’électrodes —> film piézoélectrique

Polarisation (orientation dipôle) 89

Chimie et technologies de l’information

de la structure cristalline et d’optimiser les performances notamment pour les utilisations en actuateur. On a pu augmenter le module d’Young6 du matériau tout en gardant une déformation importante (7 à 10 %), ce qui permet d’obtenir des actuateurs très performants ». La plupart des polymères sont trop mous, si bien que leur déplacement au toucher ne transmet pas de sensation ou ne permet pas de déplacer ou appréhender un objet ; à l’inverse, les céramiques sont très dures, se déforment trop peu (moins de 0,1 %) et vibrent trop rapidement pour faire de bons actuateurs. Avec les ter-polymères, on a le bon équilibre (des modules d’Young de 1 à 1,5 Gigapascal et des déformations qui vont jusqu’à 10 %). 3.3. Les applications À quoi ces nouveaux dispositifs peuvent-ils servir ? La parole est à l’imagination. Pour les applications de la fonction « capteur », beaucoup de propositions concernent le domaine du soin hospitalier : − certains les utilisent pour faire des microphones par contact qui pourraient ainsi détecter des apnées, un trouble dangereux fréquent chez les enfants ou les personne âgées ; − on peut aussi en faire des capteurs de mouvements pour

Figure 15 Circuit imprimé. 90

Source : Arkema.

6. Le module d’Young est ce qui lie la contrainte que l’on applique à un matériau et sa déformation. Plus le module d’Young est fort, plus il faut d’énergie pour déformer ce matériau.

la surveillance des enfants du premier âge ; − une autre application serait de faire, grâce à ces dispositifs, des « lits intelligents » qui détectent l’état, la température où les mouvements d’un malade pour déclencher une alerte et prévenir une infirmière. Mais cette liste d’applications n’est pas exhaustive ! En ce qui concerne la fonction « actuateur », pour laquelle l’utilisation d’un ter-polymère apporte des progrès décisifs (voir plus haut), un travail de développement est en cours avec le Laboratoire d’Innovation pour les Technologies des Énergies Nouvelles et les nanomatériaux (CEA-LITEN). On a démontré qu’on était capable de faire une encre aux fonctions d’actuateurs et de les imprimer, l’objectif clé puisqu’il s’agit bien de développer des solutions compatibles avec les techniques de l’impression pour avoir des systèmes peu onéreux (Figure 15). Un autre exemple de l’utilisation de ces polymères vient de la société Novasensis, aux États-Unis, qui a fabriqué avec ces ter-polymères un clavier complètement plat. En utilisant la fameuse tablette de Microsoft avec le petit clavier incorporé dans l’ouverture, on n’a pas l’impression de taper sur un clavier mais juste sur une surface plane. Ici, quand on active le clavier, de petites bosses se forment sur les lettres (Figure 16), et quand on tape sur une touche, on a l’impression d’un véritable clavier avec un retour de force. C’est l’avenir des claviers, ils sont

D’autres applications touchent à d’autres domaines. C’est le cas d’une lentille autofocus qui comporte une cavité remplie de liquide et fermée par une membrane. La tension appliquée sur cette dernière modifie la focale de la lentille. Cette intéressante application, que les fabricants

de téléphones portables voudraient inclure dans leurs appareils, est aujourd’hui bloquée par son coût excessif. Elle fait l’objet d’études d’adaptation à la technique de l’impression qui pourrait réaliser des millions et des millions de lentilles de ce type sur quelques centaines de mètres carrés et permettre à cette application optique de voir le jour pour le grand public.

Figure 16 Clavier plat et déformation d’une touche du clavier. Source : www.novasentis.com

Les polymères se réveillent pour l’électronique !

très fins (2 mm), mais quand on les utilise, on a l’impression d’un vrai clavier.

La chimie au cœur de la microélectronique On comprend que les domaines abordés dans ce chapitre et les exemples d’application de la chimie qui ont été présentés ne sont qu’une petite sélection parmi les nombreux travaux de recherche en cours dans le monde. On comprend aussi que les solutions de matériaux nouveaux apportés par la chimie des polymères ouvrent des possibilités toutes nouvelles. L’utilisation de matériaux flexibles pour les dispositifs sera ainsi une véritable révolution pour les utilisateurs. Et si la chimie est déjà au cœur de l’électronique, elle en conditionne aussi les évolutions futures. Car elle recèle évidemment d’autres possibilités que celles qui sont identifiées aujourd’hui, au vu de la quasi-infinité du

91

Chimie et technologies de l’information 92

nombre des molécules qu’elle est capable de concevoir et de réaliser, et de la richesse des combinaisons qui leur confèrent des propriétés nouvelles. Pour tirer parti de ces possibles techniques, il faut mobiliser toutes les compétences – celles des chimistes n’en étant qu’une partie. La recherche en partenariat, entre disciplines, entre fondamentalistes et réalisateurs, entre dispositifs et procédés et même plus généralement entre scientifiques, ingénieurs, industriels et commerciaux, est devenue un incontournable impératif.

du

Rafale

D’après la conférence de Bertrand Demotes-Mainard

chimie radar

De la au

Bertrand Demotes-Mainard est diplômé de l’École Polytechnique et de l’École Nationale Supérieure des Techniques Avancées (ENSTA). Il est vice-président Recherche et Technologie Matériels de la Direction technique du groupe Thales. Ce groupe est spécialisé dans les technologies de l’information, l’aérospatiale et la défense.

Des « émetteurs-récepteurs » se trouvent dans le radar d’un Rafale, comme dans les satellites de télécommunication et dans les téléphones portables. Les équipements de haute technologie progressent au rythme soutenu auquel progressent ces composants essentiels. La chimie joue un rôle clé dans leur conception comme dans leur réalisation : c’est ce qu’aborde le présent chapitre, qui traite en particulier de ce qui a été fait pour l’avion Rafale. 1. www.thalesgroup.com

chimie_techno_partie_2.indd 93

1

Les matériaux semiconducteurs2

1.1. Les enjeux actuels Les émetteurs-récepteurs radiofréquences se trouvent partout, dès que les fonctions de télécommunication sont sollicitées. 2. Un semi-conducteur est un matériau dont la conductivité électrique se situe entre celle d’un isolant et celle d’un conducteur. Dans l’usage courant, le terme « semi-conducteur » désigne plus fréquemment tout composant fabriqué avec des matériaux semiconducteurs.

19/06/14 08:36

Chimie et technologies de l’information

A

B

Figure 1

On en trouve au moins un dans chaque téléphone portable ou Smartphone, voire trois si l’on compte wifi et Bluetooth. Ils sont de la catégorie « un dixième de watt », très concentrés et à très faible consommation électrique (Figure 1A).

Des émetteurs-récepteurs sous toutes les formes, à toutes les échelles : téléphone portable (A), satellite (B) et radar (C).

Dans un satellite comme celui de la constellation Iridium (Figure 1B) actuellement en développement, la puissance est d’une dizaine de watt par émetteur-récepteur ; pour faire une antenne active qui pointe directement la Terre (une antenne intelligente), on en met quelques centaines. Dans le cas du radar du Rafale (Figure 1C), où il va falloir également pointer couramment et de façon « intelligente », et avoir une bonne portée, puisque c’est cela qui donne la qualité du radar, on en met des milliers. Cela exige une très forte densité

Figure 2

94

Le silicium, principal composant des semi-conducteurs, figure entre le carbone et le germanium dans la colonne IV du tableau périodique de Mendeleïev. Et si l’on essayait des éléments des colonnes III et V (arséniure de gallium (GaAs), phosphure d’indium (InP), nitrure de gallium (GaN), etc.) ?

C

d’énergie et une bonne efficacité. L’efficacité énergétique est toujours une préoccupation. Ce qui limite très souvent les performances (dans un satellite comme dans un avion), c’est la capacité d’emporter suffisamment d’énergie pour le fonctionnement de tous ces matériels. 1.2. La famille des semiconducteurs « III-V » À côté du silicium, le matériau emblématique des hautes technologies de la communication, se développe une autre famille, celle des composés semi-conducteurs dits « III-V », capables de supplanter le silicium comme « matériau de base » pour un certain nombre d’applications. Dans l’acronyme III-IV, III et V font référence aux colonnes III et V du tableau périodique de Mendeleïev (Figure 2). Le silicium figure dans la colonne IV entre le carbone et le germanium. À l’instar du carbone, dont la forme cristalline diamant est l’une des plus stables qui existent, le silicium cristallise sous une forme très stable, et c’est une propriété – en complément de ses propriétés électriques, bien sûr – qui explique son adaptation à la microélectronique.

Les structures électroniques des éléments assurant la qualité de leur liaison chimique, il faut encore considérer la qualité du cristal qu’ils forment et la géométrie de la maille3 (Figure 3). Quand on a affaire à un élément unique, comme le carbone, on obtient une maille régulière. Dans un composé binaire, les structures sont moins simples que la structure idéale du produit monoatomique. Si l’on va plus loin en considérant un mélange de mélanges, on peut avoir des tensions dans les structures telles qu’il n’est pas facile de réaliser un cristal bien ordonné ; des procédés spécifiques peuvent être mis au point pour certaines des compositions de mélanges. Pour la microélectronique, il est nécessaire de réaliser des composés ultra-purs et bien cristallisés, ce qui demande le choix des mélanges et le développement de procédés adaptés. Comment réaliser ces mélanges et comment les faire de façon pure, 10 -6 au moins en pureté, c’est-à-dire 99,9999 % ? La chimie est là pour y parvenir.

3. La maille d’un cristal est une partie finie de l’espace par translation de laquelle le motif cristallin infini peut être obtenu à nouveau.

LA RICHESSE DE LA CHIMIE AU SERVICE DE SUBSTITUTS DU SILICIUM L’atome de silicium possède quatre électrons périphériques. La liaison entre deux atomes de silicium met donc en jeu huit atomes et obéit ainsi à la règle de l’octet qui correspond aux liaisons chimiques particulièrement stables. Cela explique la stabilité du métal silicium que l’on peut comparer à la phase isoélectronique* du carbone, le diamant, bien connu pour son exceptionnelle stabilité chimique.

De la chimie au radar du Rafale

Les associations III-V présentent des propriétés comparables à celles du silicium et peuvent le remplacer dans une certaine mesure, mais elles présentent aussi des différences qui peuvent se révéler intéressantes (voir l’Encart « La richesse de la chimie au servie de substituts du silicium »).

Pour enrichir le choix en matériaux isoélectroniques, on a étudié systématiquement les composés d’un atome de la colonne III (aluminium, gallium, indium) avec un atome de la colonne V (azote, phosphore, arsenic, antimoine) (Figure 2). Le plus adapté à la fabrication de transistors s’est révélé être l’arséniure de gallium (GaAs ou AsGa), mais l’antimoniure d’indium (SbIn) peut être également utilisé ; le nitrure de gallium (GaN) est par ailleurs prometteur pour certaines applications, en particulier dans les diodes pour l’éclairage. La combinaison entre un élément de la colonne II et un de la colonne VI respecte elle aussi la règle de l’octet. Les composés correspondants peuvent présenter des propriétés électroniques intéressantes pour quelques applications de niche, mais soufrent d’une instabilité chimique trop grande pour être promises à un grand avenir. *Deux atomes ou molécules sont dites isoélectroniques quand ils possèdent le même nombre d’électrons.

Figure 3 La maille cristalline de InGaAs.

1.3. Les semi-conducteurs IIIIV peuvent faire plus que le silicium Grâce à la combinaison d’éléments chimiques, on peut obtenir des performances très

95

Chimie et technologies de l’information

intéressantes. Ainsi on observe dans les composés III-V une mobilité des électrons beaucoup plus forte que dans le silicium. Cette propriété permet au transistor de fonctionner à des fréquences beaucoup plus hautes. Par ailleurs, contrairement au silicium, les III-V ont des propriétés performantes pour l’émission et la réception de la lumière. On peut ainsi les utiliser comme matériau laser – ce qui est impossible avec le silicium. Dans toutes les applications où l’on trouve un laser solide (lecture de DVD, CD, pointeurs lumineux, etc.), on sait qu’un composé III-V est utilisé. Une autre propriété importante est leur haute densité de puissance ; le nitrure de gallium par exemple offre une densité de puissance plus de mille fois plus élevée que celle du silicium. Quand on cherche la performance – en l’occurrence la miniaturisation – plus que le prix, on fait donc appel aux matériaux III-V dont on sélectionne le plus adapté à l’application visée.

Du gaz au lingot : comment synthétiser des semiconducteurs III-V ?

2

2.1. La création du matériau massif par croissance du lingot

Figure 4 96

Lingot d’arséniure de gallium (AsGa) monocristallin.

Les matières de départ de la fabrication du composé semiconducteur III-V sont l’arsine (AsH3) sous forme gazeuse et le gallium sous forme de métal. En utilisant une méthode bien éprouvée en chimie du

solide (d’ailleurs utilisée pour la fabrication de lingots de silicium), qui est le procédé Czochralski, on peut faire croître des lingots d’arséniure de gallium (Figure 4). Il s’agit d’un procédé de construction très progressive du lingot, couche atomique par couche atomique, réclamant un grand contrôle de la température et de la pression (Figure 5). Il permet d’obtenir un cristal très pur, presque sans défaut et de grande dimension, pouvant mesurer plusieurs mètres de longueur en restant monocristallin. 2.2. L’épitaxie, pour une croissance ultra-contrôlée Le lingot obtenu dans la première phase de la fabrication n’a pas les performances (en pureté et en qualité du cristal) requises pour son utilisation en semi-conducteur. Une nouvelle croissance est nécessaire. Elle se fait à partir du lingot préalablement découpé en plaques, par une méthode dénommée épitaxie, d’un mot grec qui veut dire « croissance par le dessus ». Dans le cas du GaAs, on va faire croître l’arséniure de gallium sur un support d’arséniure de gallium ; dans le cas du nitrure de gallium on va le faire croître par exemple sur du carbure de silicium ou sur du silicium. Ce sont les problèmes d’accord de maille entre le support et la couche en croissance qui vont entrer en jeu pour permettre la croissance d’une couche ultra-fine répondant aux objectifs. En fait, pour l’utilisation en électronique, ce ne sont que les quelques microns ou

Système utilisé dans le procédé de Czochralski pour la croissance de monocristaux. Système de tirage de cristal Isolation

De la chimie au radar du Rafale

Figure 5

Cristal en croissance partielle Creuset Oxyde borique Charge fondue Chauffe-graphite Isolation Système de support de creuset

même nanomètres du dessus qui nous intéressent. Le reste n’est qu’un support mécanique. La technique de dépôt par épitaxie se fait par l’une ou l’autre des deux méthodes suivantes. Une première e s t l a MO V CD (« Met al Or ganic Vapor Chemic al Deposition »), une croissance à partir de la phase gazeuse. On part de l’arsine, par exemple mélangée avec un composé de gallium gazeux, le triméthylgallium (Figure 6). Les gaz se décomposent sur les plaques chauffées, les débits et les températures doivent être soigneusement contrôlés, et la couche de GaAs se forme à la surface de la plaque. L’autre technique est dite « dépôt sous vide ». La Figure 7 représente une cuve dans laquelle le vide est maintenu,

avec les entrées de vapeurs des éléments chimiques constitutifs de la couche à fabriquer. Quand le clapet d’entrée est ouvert, quelques atomes entrent dans la cuve et vont se condenser sur la plaque que l’on veut épitaxier ;

Figure 6 Réaction en phase vapeur (MOCVD) : Ga(CH3)3 (trimétylgallium) + AsH3 (arsine) → GaAs (arséniure de gallium) + 3CH4.

Figure 7 Cuve sous vide pour la synthèse de plaques semi-conductrices III-V par épitaxie.

97

Chimie et technologies de l’information

Figure 8 Chambres blanches où sont effectués les traitements chimiques des plaques de semi-conducteurs : lithographie, gravure, dépôt de matériaux conducteurs ou isolants et passivation pour stabiliser le composant. Photos : Peter Allan.

98

le processus est utilisé pour le nombre de couches atomiques souhaité. 2.3. Du matériau au composant électronique Les techniques de fabrication des circuits électroniques pour parvenir au composant sont les mêmes pour les III-V et pour le silicium. Elles sont évoquées dans d’autres chapitres de l’ouvrage Chimie et technologies de l’information (EDP Sciences, 2014) : il s’agit la lithographie 4 avec résines photosensibles 5 , de la gravure à base d’attaques chimiques, du dépôt des matériaux conducteurs et des isolants sur le circuit. Une dernière phase, la passivation, permet d’éviter la poursuite des réactions chimiques au-delà de ce que l’on peut 4. La lithographie est une technique qui utilise un faisceau d’électrons pour tracer des motifs sur une surface. Voir le Chapitre de Y. Le Tiec de Chimie et technologies de l’information, coordonné par M.-T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2014. 5. La photosensibilité est la propriété de certains matériaux à réagir à la lumière.

tolérer et d’éviter l’oxydation parasite ultérieure6 (Figure 8).

Ouverture vers une innovation : les lasers à cascade quantique

3

Une épitaxie complexe crée en quelque sorte un matériau ar tificiel puisque la maille cristalline du dépôt est imposée par le support. Il devient possible de choisir son matériau en fonction de la propriété que l’on recherche. Voici un exemple : la réalisation d’un laser dit « à cascade quantique ». Le principe généralise celui d’un laser à solide. Dans celui-ci, on fait passer, par excitation, un électron d’un niveau d’énergie d’un atome constituant le solide à un niveau supérieur. En retombant dans son état fondamental, le système émet une lumière (un photon) dont l’énergie (qui détermine la longueur d’onde) correspond à la différence 6. Cette oxydation ultérieure fait référence à l’attaque du métal par l’oxygène de l’air environnent : c’est le phénomène de corrosion. La passivation sert à protéger les métaux de la corrosion.

Les longueurs d’onde des rayonnements émis par ce processus sont données par les atomes mis en jeu dans la matrice solide ; elles ne peuvent pas être modifiées à volonté. La création de « matériaux artificiels » ouvre de nouvelles possibilités. Par dépôt sous vide (Figure 7), on obtient des structures quasi périodiques qui évoquent un mille feuilles (Figure 9). On peut en réaliser toute une variété en jouant sur la composition chimique de la couche – on utilise souvent des matériaux ternaires (« à trois éléments chimiques »). On peut même différencier les compositions couche par couche. Si la pureté du dépôt est suffisante – ainsi qu’on est capable de l’assurer par le contrôle de l’épitaxie –, le parcours de l’électron dans

De la chimie au radar du Rafale

entre les deux niveaux électroniques, excité et fondamental. Le cristal placé dans une cavité optique appropriée constituera un laser.

le dépôt est assez grand pour qu’il « voie » la moyenne des couches du dépôt. L’émission se fait alors à une énergie qui est la moyenne de celle qui correspond séparément aux différentes couches. Ces techniques ouvrent un grand choix de longueurs d’ondes accessibles. Un travail de modélisation des longueurs d’ondes en fonction de la nature et de la succession des couches atomiques permet de définir le dépôt à réaliser pour définir les zones « injecteur » (chemin des électrons amenant l’énergie) et « puits quantiques actifs » (zone où les électrons, devant passer d’une couche de puits quantique à l’autre, vont émettre des photons à la longueur d’onde défi nie par l’épaisseur et la nature de la couche) (Figure 10). La détection sélective de molécules gazeuses, par exemple pour la surveillance de l’environnement, devient aisément réalisable à l’aide de

Figure 9 Enchaînement de couches périodiques dans un « laser à cascade quantique ».

chimie_techno_partie_2.indd 99

99

19/06/14 08:36

Diagramme de l’énergie en fonction de la direction de croissance.

0,8

Énergie (eV)

Chimie et technologies de l’information

Figure 10

0,6

Mini bande

0,4

Mini bande 0,2

Zone Émission

Injecteur –600

Injecteur –200

Direction de croissance (Å)

ces lasers à cascades quantiques. On construit, par les méthodes citées plus haut, un laser émettant une longueur d’onde infrarouge absorbée par la molécule recherchée. Grâce à l’utilisation de lasers à cascades quantiques, qui

permettent de choisir toute longueur d’onde infrarouge – au moins dans une large gamme – des détecteurs de gaz variés, adaptés à de nombreuses molécules sensibles, sont actuellement en développement.

La chimie doit mettre au point les matériaux III-V de demain

100

chimie_techno_partie_2.indd 100

Les éléments III-V sont déjà largement utilisés dans les dispositifs électroniques d’aujourd’hui. Ils entrent dans la composition des téléphones portables, en particulier dans les Smartphones, et seront certainement encore plus présents demain – tout en restant certainement dans l’ombre de l’industrie du silicium. Également, ils constituent les lasers à état solide qui sont montés dans nombre de dispositifs d’usage courant, comme les CD et les DVD. Ils sont également à la base du développement de l’Internet mondial à haut débit, qui a pu voir le jour grâce aux répéteurs optiques permettant de traverser des océans quasiment

19/06/14 08:36

7. Voir l’ouvrage La chimie et l’habitat, coordonné par M.-T Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2011.

De la chimie au radar du Rafale

sans limite de débit. Ainsi, les III-V comptent parmi les matériaux qui ont changé l’économie de l’information et notre vie quotidienne. À relativement court terme, les III-V seront utilisés pour l’éclairage à très faible consommation et très grand rendement. Ils le seront aussi pour les alimentations électriques compactes dont on a besoin pour les ordinateurs. L’utilisation du nitrure de gallium pour la fabrication de panneaux solaires7 est également très prometteuse pouvant conduire à une meilleure qualité et un meilleur rendement. Ces développements ne sont pas encore tous accessibles. De nombreux obstacles apparaissent pour que les procédés de fabrication soient adaptés, et c’est la chimie à laquelle il revient d’identifier les verrous techniques et de les résoudre. Les techniques de fabrication sous vide, la nécessité de puretés extrêmement élevées pour les matériaux et d’excellentes qualités de cristallisation, posent des conditions incontournables. Il faudra réussir à extrapoler les procédés actuels. Aujourd’hui, on travaille sur des quantités se chiffrant en kilogrammes, sur des surfaces de centimètres carrés. Mais il faudra passer à l’échelle de la tonne et aux surfaces de mètres carrés. Il faudra également réussir des débits de fabrication de milliers de composants. La technique de croissance cristalline se prête mal à ces extrapolations. Une bonne partie des coûts de fabrication vient en effet du temps passé par les composants dans les réacteurs où les processus de croissance demandent de nombreuses heures – la vitesse de croissance étant de l’ordre de quelques microns par heure. Il sera nécessaire d’augmenter cette vitesse si l’on ne veut pas rester dans des « applications de niche », et

101

Chimie et technologies de l’information 102

développer les applications types hauts rendements pour tous (panneaux solaires, etc.). Un autre impératif pour développer cette technologie et la faire changer d’échelle est de contourner le recours, aujourd’hui nécessaire, aux matériaux rares comme le gallium, et faire appel à d’autres éléments aussi. C’est une autre demande énergiquement adressée aux chimistes…

matériaux,

moteurs de l’amélioration de la en microélectronique

performance

silicium Didier Lévy est ingénieur diplômé de l’École Nationale Supérieure de Chimie de Strasbourg, titulaire d’un Doctorat en Physique des Semi-conducteurs. Après de nombreuses années passées en Recherche et Développement dans les technologies silicium au sein du groupe STMicroelectronics1(Encart : « L’entreprise STMicroelectronics »), où il a travaillé en particulier sur la miniaturisation des transistors, il coordonne aujourd’hui les relations de STM avec le CEA-LETI de Grenoble2.

L’utilisation de matériaux nouveaux est nécessaire pour permettre l’amélioration des performances des dispositifs de communication basés sur l’électronique silicium. Sur la Figure 1 indiquant l’évolution du nombre de matériaux utilisés dans l’industrie des semi-conducteurs 3, on peut 1. www.st.com 2. www-leti.cea.fr 3. Un semi-conducteur est un matériau dont la conductivité électrique se situe entre celle d’un isolant et celle d’un conducteur. Dans l’usage courant, le terme « semi-conducteur » désigne plus fréquemment tout composant fabriqué avec des matériaux semi-conducteurs.

voir que les seuls matériaux utilisés dans les années 195060 étaient le silicium, l’oxyde de silicium et l’aluminium. Depuis les années 2000, on assiste à une véritable explosion du nombre de matériaux qui mettent en jeu la chimie à plusieurs stades de leur fabrication : la chimie est présente lors de l’élaboration de ces nouveaux matériaux, mais aussi lors de leur intégration, et enfin lors de leur caractérisation. Après quelques éléments de contexte, nous passerons en revue les matériaux utilisés en technologie dans les usines de production d’aujourd’hui, avant d’aborder ceux de demain.

D’après la conférence de Didier Lévy

Les nouveaux

Chimie et technologies de l’information

Ge SiGe Ta2O5 HfO2 ZrO2

Si3N4

WSi2

HSQ

CoSi2

Polymère Siliciures

ZrSixOy Matériaux à faible RuO2 permittivité diélectrique Pt IrO2

TiSi2

TiN

SiO2

MoSi2

TaN

Si

TaSi2

Cu

PZT

W

BST

Al

Al

SiO2 Si

1950

Poly Si

PtSi2

Air

1970

1980

Semi-conducteurs

Matériaux à forte permittivité diélectrique

Matériaux d’électrodes

Y1 Métaux

1990

2000

Matériaux ferroélectriques

2010

Figure 1 Évolution au cours du temps du nombre de matériaux, faisant ressortir une forte augmentation depuis soixante ans. Source : Sze, based on invited talk at Stanford University, August 1999.

L’ENTREPRISE STMICROELECTRONICS STMicroelectronics (ST) est une société franco-italienne dont le chiffre d’affaire était de huit milliards et demi de dollars en 2012. No 1 en Europe et n° 9 dans le monde, elle compte 48 000 employés dont 11 000 en Recherche et Développement, douze sites de production dont trois en France : Crolles dans la banlieue de Grenoble, Tours et Rousset dans la banlieue d’Aix en Provence. Sur le tableau ci-dessous, on reconnaît, dans la liste des fabricants de semi-conducteurs classés par taille, plusieurs acteurs connus du grand public : Intel, Samsung, Texas Instruments et STMicroelectronics, qui sont des sociétés dites « intégrées », c’est-à-dire qu’elles contrôlent toute la chaîne de valeur des composants allant du design jusqu’à la production, en passant par les différents stades de R&D. D’autres sociétés sont moins connues du grand public. C’est le cas de TSMC, société Taïwanaise, qui est ce que l’on appelle une « fonderie » ou « mega-usine » de fabrication, et son pendant, la société Qualcomm, le plus important fournisseur mondial de processeurs, société exclusivement de design, et qui sous-traite entièrement sa production à d’autres entreprises (TSMC entre autres). Tableau Top 10 des fabricants de semi-conducteurs en 2012.

104

1

Intel

États-Unis

6

Toshiba

Japon

2

Samsung

Corée

7

Renesas

Japon

3

TSMC

Taïwan

8

Hynix

Corée

4

Qualcomm

États-Unis

9

STMicroelectronics

France/Italie

5

Texas Instrument

États-Unis

10

Micron

États-Unis

Le contexte

1.1. Les circuits intégrés sont partout Les circuits intégrés sont utilisés dans notre vie courante un peu partout comme l’indique la Figure 2 : à la maison, au travail, en voiture ou ailleurs. Deux chiffres importants sont à retenir : une personne utilise couramment chaque jour 250 circuits électroniques correspondant à environ un milliard de transistors (Figure 2). 1.2. Les transistors

ailleurs : Distributeur de billets, téléphone mobile

40 80

au travail : Imprimantes, scanners, PC…

à la maison : machines à laver, PC, TV, box, DVD

40 70 en voiture : ouverture de portes GPS, ABS, air-bag, radio…

« métallisation5 », ou « backend » (Figure 3E). Ces bandes de métal permettent de relier les transistors les uns avec les autres. À une échelle encore inférieure, apparaissent les transistors proprement dits (Figure 3F), ces transistors constituant le cœur des composants électroniques. Ils sont entourés de leurs « contacts », qui font le lien avec la métallisation.

Quand on démonte un téléphone portable, la première chose qui apparaît est un boîtier4 (Figure 3A), qui correspond aux produits finis qu’achètent les clients de STMicroelectronics. Au démontage du boîtier, on découvre une puce, la partie qui renferme les fonctions élec troniques reliées au monde extérieur grâce à ses connexions (Figure 3B). En allant plus loin dans l’investigation du contenu du boîtier et en détachant les connexions, on voit apparaitre la puce proprement dite (Figure 3C). Cette puce provient du sciage d’une plaquette de silicium de 300 mm (Figure 3D) qui contient entre 100 et 1 000 puces. L’utilisation d’un microscope électronique permet d’aller plus loin dans l’investigation, et de visualiser l’intérieur de la puce, et d’abord la

L’ensemble des étapes de procédés de fabrication, situé entre la réception de la tranche de silicium ultra-pur en provenance du fournisseur et l’élaboration du contact, constitue la première partie du procédé et est appelé « Front-end ». La Figure 3G montre un transistor avec une échelle de 50 nm. À titre de comparaison, l’ordre de grandeur de l’épaisseur d’un cheveu est de 50 microns. La taille minimale d’un transistor

4. Les boîtiers correspondent aux enveloppes protégeant un ou plusieurs composants, et comportant des traversées pour le raccordement à l’extérieur.

5. La métallisation est une mince couche de métal déposée sur une tranche afin de permettre l’interconnexion des éléments d’un circuit intégré.

Figure 2 Les applications des circuits intégrés. Une personne utilise chaque jour environ 250 circuits électroniques. Source : STMicroelectronics.

Les nouveaux matériaux, moteurs de l’amélioration de la performance en microélectronique silicium

1

105

Chimie et technologies de l’information

A

B

C

D

F

E

G

Figure 3 Du circuit au transistor : le circuit en boîtier (A) ; la puce avec connexions (B) ; la puce (C) ; la plaquette de silicium 300 mm (D) ; la métallisation ou « back-end » (E) ; zoom sur la métallisation (F) ; zoom sur un transistor (G). Source : STMicroelectronics.

est par conséquent mille fois plus petite que l’épaisseur d’un cheveu (Encart : « La dimension caractéristique de la technologie »). L’ordre des différentes étapes de la fabrication des composants est bien évidemment inversé par rapport à ce que nous venons d’aborder en démontant le composant. On démarre en production par le « Frontend », puis le « Back-end » avant la mise en boîtier finale. Fabriquer des objets répondant à des caractéristiques précises, et de dimensions si faibles, relève du prodige. Un prodige évidemment maîtrisé à l’échelle industrielle par les fabricants.

106

Un exemple du principe d’une étape de procédé de fabrication, la définition de la grille, est schématisé sur la Figure 6. Sur un substrat de silicium

ultra-pur, on fait croître un isolant appelé « diélectrique » 6, généralement une couche de silice SiO2, représentée ici en rose, avant de déposer une couche conductrice, généralement du silicium polycristallin. Une couche de résine photosensible, qui permettra l’impression du dessin recherché grâce à sa réactivité chimique à la lumière, est ensuite déposée, puis exposée à un rayonnement ultraviolet à travers un masque qui détermine les zones que l’on voudra graver. La résine photosensible est insolée sur certaines zones et pas sur d’autres. La phase suivante consiste à 6. Un matériau est diélectrique s’il ne contient pas de charges électriques susceptibles de se déplacer de façon macroscopique : c’est un milieu qui ne peut pas conduire le courant électrique.

La Figure 4 résume le fonctionnement simplifié d’un transistor. Partant de trois électrodes, appelées la source, la grille et le drain, des charges négatives sont introduites sous la source et le drain. Au repos, aucun courant ne passe entre les trois électrodes (Figure 4A). Par contre, à partir d’une certaine tension appliquée sur la grille, la polarité du silicium est inversée. Du courant peut alors passer entre la source et le drain (Figure 4B).

A

B

Figure 4 Schéma de fonctionnement d’un transistor sans courant (A) et avec courant (B). Source : STMicroelectronics.

La Figure 5A montre une coupe en microscopie électronique à transmission (MET) où l’on reconnaît ces trois éléments clés : la source, le drain et la grille. Grâce à une nouvelle technique de microscopie électronique à transmission couplée avec l’analyse chimique (« Energy Dispersive X-ray spectrometry », EDX), on peut remonter à la visualisation d’un groupement d’atomes, voire d’atomes individuels. C’est ainsi que, sur la Figure 5B, on peut distinguer, dans certaines zones, les atomes d’arsenic (en orange). La dimension caractéristique d’une technologie corresponds à la distance L représentée sur la Figure 5B : il s’agit de la plus petite distance séparant la « zone source » et la « zone drain ». Cette distance L est de l’ordre de 60 nm sur la Figure 5B. Aujourd’hui, l’industrie est en train de mettre au point de manière industrielle la « technologie 14 nm », soit quatre fois plus petite que la grille représentée ci-dessous.

A

Grille

MET BF

Les nouveaux matériaux, moteurs de l’amélioration de la performance en microélectronique silicium

LA LARGEUR DE LA GRILLE, DIMENSION CARACTÉRISTIQUE D’UNE TECHNOLOGIE

B MET-EDX

Source

Drain

40 nm

Figure 5 A) Coupe d’un transistor au microscope électronique à transmission ; B) image d’un transistor jusqu’au niveau de l’atome (L est la dimension caractéristique de la technologie). Source : STMicroelectronics. 107

Chimie et technologies de l’information

Exposition à travers le masque grille Résine photo-sensible Empilement de grille Diélectrique

B

Développement Gravure plasma de la grille Retrait résine Nettoyage

Substrat silicium

A

Figure 6 Schéma de fabrication d’un transistor. Exemple simplifié du module de grille. A) Empilement des couches et exposition à la lumière ; B) définition du motif de grille après gravure plasma et retrait de la résine photosensible. Source : STMicroelectronics.

développer la résine, c’està-dire à éliminer les parties non irradiées par les UV. Sur le motif ainsi dégagé, on procède ensuite à une gravure plasma7, qui permet de délimiter l’empilement de grille. Il ne reste plus ensuite qu’à retirer la résine et nettoyer les surfaces exposées pour définir notre motif et continuer le procédé. 1.3. L’augmentation de la densité des transistors selon la loi de Moore G o r d o n M o o r e, b r il l ant Docteur en chimie et cofondateur de la société Intel, avait prédit, dès l’année 1965, que la densité 8 de transistors que l’on pourrait graver sur un support silicium allait doubler tous les ans. Cette affirmation, baptisée « Loi

108

7. La gravure au plasma est une technique de gravure sèche utilisée en microélectronique consistant à faire subir à un échantillon (wafer ou galette. Ici, la plaque de semi-conducteur) un bombardement de gaz ionisé (plasma) afin d’en retirer une ou plusieurs couches de matériaux. 8. La densité mesure le rapport entre le nombre de composants intégrés dans un circuit intégré et sa taille.

de Moore », a été revue à la baisse une première fois en 1975 (doublement de la densité en deux ans au lieu d’un), puis une deuxième fois dans les années 2010 (doublement tous les trois ans). Sur la Figure 7, où est représenté le nombre de transistors par puce en fonction de l’année de réalisation, apparaît la gamme des 86 d’Intel (86, 286, 386 dans les années 1980) puis celles des Pentiums dans les années 1995 à 2005. Cette courbe est déterminante pour toute industrie du semiconducteur, mais également pour toutes les industries qui se sont automatisées depuis les quarante dernières années : les immenses gains de productivité obtenus suivent exactement la même tendance. Une autre façon de représenter la loi de Moore est illustrée sur la Figure 8. La surface de la puce dessinée en technologie 120 nm (longueur caractéristique L = 120 nm) a été divisée par seize quand on est passé en technologie 32 nm. Par contre, dans le même temps, le nombre d’étapes nécessaires à la fabrication n’a augmenté que d’un facteur 1,5. On comprend

1010 Données de 1965 109

Puces MOS

108

Projections pour 1975

Données de 1975

256 M

1M

10

256 K 64 K

5

10

80286

104 1K 103

4G

Itanium™ Pentium® 4 Pentium® III Pentium® II

4M

Microprocesseur 6

4K

2G

128 M 64 M 16 M

Mémoire

107

1G 512 M

16 K

Pentium® i486™

i386™

8086

8080 4004

2

10

101

G. Moore, 1965

100 1960

1965

1970

1975

1980

1985

1990

1995

2000

2005

2010

Figure 7 Courbe de prévision établie par Gorden Moore en 1965, représentant la loi de Moore, prévoyant que la densité de transistors par puce doublerait tous les deux ans. MOS = semi-conducteur en oxyde de métal (« Metal Oxide Semiconductor »). Source : STMicroelectronics.

Figure 8 Photo d’une puce 120 nm. La densité augmente plus vite que le nombre d’étapes de fabrication. Entre le 120 nm et le 32 nm, la surface est divisée par seize et le nombre d’étapes multiplié par seulement 1,5. Ce qui montre l’intérêt économique de la course aux dimensions. Source : STMicroelectronics.

donc pourquoi les industriels préfèrent aller vers la réduction des dimensions, car ils peuvent intégrer, sur une même surface de silicium, davantage de puces sans grande pénalité sur les coûts qui sont eux proportionnels au nombre d’étapes de fabrication.

2

Les nouveaux matériaux, moteurs de l’amélioration de la performance en microélectronique silicium

Transistors par filière

Les matériaux aujourd’hui

2.1. Les matériaux utilisés dans l’industrie La Figure 9 représente l’évolution des matériaux utilisés dans la fabrication des

109

Évolution du nombre de métaux utilisés dans l’industrie depuis les années 1960. On assiste à un accroissement lié à des ruptures technologiques, avec les siliciures (métal-silicium). Source : STMicroelectronics.

années 2000

années 1990

années 1970 Al-Cu

Co

Cu

Ta/TaN

Ta/TaN

SiCOH

Al-Cu Al-Cu

Cu

Al-Cu

SiCOH

SiCOH

W

W

W

SiCOH Ti/TiN

W Ti/TiN Pt

NiSi(Pt)

SiGe:B/SiC:P TiN/Poly

Ti/TiN

Ti/TiN

Ti/TiN

WSi2

TiSi2

TiSi2

CoSi2

TiN/Poly

Al

Poly

Poly

Poly

Poly

Poly

HfSiON/La/Ai

HfO2

SiO2

SiO2

SiO2

SiO2

SiO2

SiON

SiON

SiON

Si

Si

Si

Si

Si

Si

Si/siGe

Si/siGe

Les ruptures technologiques sont entourées en rouge sur la Figure 9. En « Front-End », la 1ère rupture a été l’introduction des siliciures dans les années 1980 : WSi 2 , TiSi 2 . Les siliciures sont toujours utilisés aujourd’hui (NiSi puis NiSi(Pt), en rose sur la Figure 9. La deuxième rupture technologique est plus récente : il s’agit de l’utilisation des matériaux à forte constante diélectrique, également appelés « high k »

Isolant Canal

Ti/TiN Al-Si

Grille

années 1960

Cu/Mn Al-Cu

W

années 1980

transistors depuis les années 1960. Ceux qui figurent en dessous du trait noir sont utilisés au début du processus de fabrication (« FrontEnd ») ; les matériaux audessus de la ligne noire, sont utilisés lors de la partie de métallisation (« Back-End »). La troisième partie, la mise en boîtier conçu pour protéger le composant actif, mais aussi pour assurer des connexions avec l’extérieur, est généralement sous-traitée dans les usines d’assemblage en Asie et n’est pas considérée dans ce chapitre.

110

2013 Al-Cu

Métallisation

Chimie et technologies de l’information

années 2010

Figure 9

dans le jargon technique, plus isolants que l’oxyde de silicium SiO2 qu’ils ont remplacé. Il s’agit d’oxynitrure de hafnium (HfSiON), associée ou non à de fines couches de lanthane et d’aluminium, utilisées pour le nœud technologique 32/28nm, puis HfO 2 (dioxyde d’hafnium) pour le nœud 20 nm. Dans le « BackEnd », la grande révolution date du milieu des années 1990 : il s’agit de l’introduction du cuivre à la place de l’aluminium, ainsi que celle des isolants à faible permittivité diélectrique dénommés « low k poreux ». Enfin, plus récemment, le cobalt et le manganèse ont été introduits pour améliorer l’ « électromigration », c’est-à-dire la fiabilité des composants.

2.2. La chimie, présente dans de nombreuses étapes de fabrication La fabrication des puces fait étroitement inter venir la chimie. Un premier exemple

Pour la technologie 28 nm, la complexité a considérablement augmenté. En effet, il convient, pour cette technologie avancée, de graver onze couches de matériaux successifs et d’utiliser treize gaz

et six produits chimiques versus quatre couches, cinq gaz et quatre produits chimiques pour la technologie 65 nm (Figure 10). Le deuxième exemple qui sera présenté concerne l’électrodéposition 9 du cuivre pour la métallisation. Les cavités à remplir, par la technique d’ élec troly se du cui v re, sont de plus en plus fines : de l’ordre de 20 nm pour la technologie 32 nm, de l’ordre de 7 nm pour la technologie 16 nm. La Figure 11 représente la métallisation d’un seul motif, sachant qu’il y en a un grand nombre identiques à tr aiter simultanément. Quand le cuivre est déposé, il est « conforme », c’est-à-dire qu’il suit les irrégularités de hauteur de l’échantillon (en bas à gauche sur la Figure 11). Figure 10 9. Il s’agit du dépôt d’une couche mince de matériau isolant ou conducteur sur la plaque de semiconducteur.

Les étapes pour la gravure de la grille dans les technologies 65 nm et 28 nm. Source : STMicroelectronics.

Résine SiO2 Carbone amorphe

Les nouveaux matériaux, moteurs de l’amélioration de la performance en microélectronique silicium

est illustré ici pour la gravure de la grille. Pour la technologie 65 nm, l’empilement des couches à graver (Figure 10.1) est constitué d’une fine couche d’oxyde (SiO2) sur laquelle a été déposé du silicium polycristallin, puis une couche de carbone amorphe, une nouvelle couche d’oxyde et enfin la résine photosensible. La gravure se fait en une succession de six étapes de gravure assistée par un plasma, décrite entre les Figures 10.2 et 10.6. La dernière séquence consiste à nettoyer les résidus de polymères par un ensemble de nettoyages avec l’acide fluorhydrique (HF) connue pour graver SiO2, ou avec un mélange d’acides appropriés.

Si Poly SiO2 1. Ajustement résine avec O2 2. Gravure SiO2 : CF4/CH2F2

3. a-C : O2/HBr

4. Poly 1 : CF4

5. Poly 2 : SF4/CH2F2/HBr/O2

6. a-C : O2

Résine SiO2 Carbone amorphe Si Poly SiO2

65 nm

TiN HfSiON IL SiON

TiN Al TiN SiGe

LaO Si substrate N

P

28 nm

7. Nettoyage HF H2SO4/H2O2 H2O2/NH4OH/H2O2

111

Chimie et technologies de l’information

Trous Remplissage en cuivre de cavités nanométriques 20 nm

14 nm

7 nm

Cathode = plaquette

Générateur

90 nm 180 nm

130 nm 22 nm

32 nm

Cu2+ + 2e– — > Cu

OK

45 nm

32 nm 22 nm Logic generation

16 nm

Sans additif

Figure 11 Les étapes de l’électrodéposition du cuivre. Source : STMicroelectronics.

112

Électrolyse avec des additifs chimiques

Anode en cuivre

Avec additif

Pour obtenir un dépôt beaucoup plus « conforme », donc plus plat (en bas à droite sur la Figure 11), on utilise des additifs chimiques qui permettent de ralentir la cinétique du dépôt et d’obtenir le résultat voulu. La nature des additifs et le détail des conditions opératoires résultent d’essais successifs. Les mises au point sont effectuées dans des centres de recherche comme le CEA-LETI10 qui réunissent en leur sein des laboratoires de chimie, de caractérisation et de qualification, et où convergent les principaux résultats en provenance des laboratoires propres des fournisseurs de chimie. Cette collaboration permet de réduire les délais de mise au point de ce type de procédé. 10. LETI : Laboratoire d’électronique et de technologie de l’information.

Comme troisième exemple d’utilisation de la chimie en technologie, nous présentons ici l’étape de nettoyage après gravure dans les étapes de métallisation. L’objectif de cette étape est d’enlever des résidus de polymères et de cuivre (Figures 12 et 13). Nous avons mis au point, dans notre usine de ST Crolles, un procédé de nettoyage en deux étapes : une première étape où les métaux sont complexés avec un acide, l’acide glycolique dans ce cas-ci, une deuxième où les résidus sont décrochés par l’action de l’acide fluorhydrique très pur qui grave de la matière. La principale difficulté de la mise au point de ces deux étapes est de trouver le compromis entre un nettoyage efficace, donc qui grave le matériau, mais pas trop : ne pas élargir les cavités au-delà des spécifications demandées par la technologie.

Nettoyage en phase liquide dans la métallisation. Source : STMicroelectronics.

Figure 13 Photo avant et après nettoyage. Source : STMicroelectronics.

Ces exemples illustrent parfaitement le fait que la chimie est présente dans plusieurs étapes de procédés de fabrication des semiconducteurs. D’une manière plus générale, nous avons regroupé par famille, sur la Figure 14, les principales spécialités mettant en jeu ces procédés chimiques (en orange). Il s’agit des dépôts d’isolants par voie physique et chimique (1), des dépôts de couches conductrices (2), des gravures par voie gazeuse assistée plasma ou par voie liquide (3), des nettoyages

par voie chimique liquide (4), mais également la sélection de résines de la lithographie (5), un domaine tout à fait spécifique (voir le Chapitre de I. Cayrefourcq de Chimie et technologies de l’information). La chimie est également au centre des développements des procédés de polissage mécano-chimique (6), très dépendants des consommables chimiques liquides appelés « slurries », mais également pour l’élaboration des gaz utilisés pour recuire les matériaux (7), et enfin les implantations ioniques ser vant à

Les nouveaux matériaux, moteurs de l’amélioration de la performance en microélectronique silicium

Figure 12

113

Chimie et technologies de l’information

1. Dépôts isolants voie physique et chimique

2. Dépôts conducteurs par voie physique et chimique

3. Gravures par voie gazeuse assistée plasma 4. Nettoyage et gravure par voie chimique liquide

11. Environnement : rejets liquides et gazeux

5. Résines organiques

10. Matières premières : Si, gaz, produits chimiques liquides

9. Caractérisation physique et chimique

6. Le polissage mécano-chimique

8. Implantation d’ions

7. Recuit sous atmosphère gazeuse Procédés

Fonctions Support

tous les métiers liés au respect de l’environnement (11) : une usine de composants émet des rejets chimiques sous forme gazeuse et liquide, et est soumise à la législation européenne qu’il convient de suivre à la lettre, voire d’anticiper.

3

Les matériaux de demain

3.1. Continuité de la loi de Moore Figure 14 La chimie est présente dans la plupart des étapes de fabrication, mais aussi dans les fonctions de support. Source : STMicroelectronics.

114

« doper » le silicium, donc à le rendre conducteur (8). Outre les étapes de fabrication elles-mêmes, les chimistes interviennent également dans les fonctions dites de « supports » à la R&D et à la production, comme la caractérisation des matériaux et des dispositifs (9). L’écosystème du bassin grenoblois bénéficie d’une base installée en outils de caractérisation, et en expertise humaine qui va de pair, unique en Europe. Ces outils se retrouvent d’une part dans les salles blanches des laboratoires industriels et universitaires (par exemple les dernières générations de microscopie électronique à balayage avec analyse chimique permettant de remonter jusqu’aux atomes), ou dans des sites dédiés (ESRF ou « Synchrotron », par exemple). Les autres métiers de la microélectronique mettant en jeu des processus chimiques sont ceux liés à l’élaboration des matières premières (10). Citons par exemple Air Liquide, leader mondial français de fabrication de gaz industriels et spéciaux. Enfin,

La Figure 15 présente les grandes tendances de l’évolution des technologies en microélectronique. Fin 2013, les usines des principaux fabricants de semi-conducteurs ont mis sur le marché à l’échelle industrielle les technologies 45 nm et 28 nm (taille de grille minimale de 45 nm et 28 nm respectivement). Les grandes avancées technologiques ont porté sur la mise au point des techniques de contraintes (« strain »), les matériaux de grilles à base de matériaux à fort coefficient d’isolation (« high k ») et grilles métalliques. Les centres de Recherche et Développement des grands groupes industriels mettent au point, en ce début 2014, les technologies des « nœuds » 22 nm au 14 nm. Les principales avancées en matériaux, donc en chimie, portent sur l’élaboration de substrats à base d’isolant sur silicium (« Silicium on Insulator », SOI) et de nouvelles architectures à base de grilles multiples. Après le développement de structures à base d’épitaxie SiGe pour le nœud 10 nm, la prochaine

0,9-1,0 V

Contrainte et ingénierie avancée de l’empilement de grille

Contraintes liées à la source et au drain

Grille métallique + diélectrique à fort coefficient d’isolation

0,8-0,9 V

0,7-0,8 V

Canal totalement déplété pour gagner en électrostatique

Isolant sur silicium ultra-mince

Transistors à effet de champ multi-grilles

0,6-0,7 V

0,5-0,6 V

Ingénierie du canal pour amélioration des transports des charges Canaux à haute mobilité

Nouveaux matériaux/ nouveaux transports de charges/électrostatiques extrêmes

Grille enrobante, nanofils/ transistors à effet tunnel

32/28 nm

45 nm

gr ande r upture techno logique est attendue pour le nœud 7 nm avec l’arrivée des matériaux III-V : ils apparaissent dans les colonnes III et V du tableau périodique de Mendeleïev comme InGaAs et InP, par exemple. Viendront ensuite les nanofils et autre « grilles entourées », actuellement à l’état de recherches avancée dans les laboratoires universitaires. 3.2. Puces en 3D et échanges thermiques Aujourd’hui, dans un téléphone portable, les puces sont disposées les unes à côtés des autres. Des recherches très actives dans l’industrie portent sur la superposition de deux puces, de manière à gagner en surface comme sur le schéma de la Figure 16. L’idée est de n’utiliser les technologies avancées, donc chères, que pour les applications où

14 nm 22/20 nm

Matériaux 2D

Dispositifs quantum/spin

graphène bicouche

(SiGe, Ge IIIV)

Nœud technologique

< 0,5 V

7 nm 10 nm

de la vitesse est requise, et d’utiliser une technologie plus relâchée, donc moins chère, là où elle n’est pas strictement nécessaire. Une importante question pour valider ce type d’architecture appelé architecture « 3D » (trois dimensions), et qui reste ouverte à ce jour, concerne le contrôle des échanges thermiques entre la puce du haut et celle du bas. Pour cela, des modèles de fiabilité et de design sont à l’étude, l’effi cacité de l’évacuation de la chaleur apparaissant comme un facteur limitant du progrès en miniaturisation. Ces nouvelles architectures mettent en jeu de nouveaux concepts, et des matériaux qui autrefois n’étaient présents que dans les sites d’assemblage11, 11. Le packaging, ou conditionnement, est le processus permettant d’incorporer la puce dans un matériau destiné à le protéger de l’environnement.

5 nm

Figure 15 Activités du centre de R&D de l’Institut de microélectronique et composants (IMEC). Source : centre de recherches belge « IMEC ».

Les nouveaux matériaux, moteurs de l’amélioration de la performance en microélectronique silicium

Vdd 1,0-1,1 V

115

Chimie et technologies de l’information

A

B Puce 1

Interconnexions entre puces

Puce 2

BGA

2D

Figure 16 Évolution de la technologie en 2D où les puces sont reliées par des lignes d’interconnexions externes (A) vers la technologie en 3D où les puces sont superposées (interconnexions internes, B). Source : STMicroelectronics.

3D

comme par exemple l’or et l’étain, utilisés pour certaines connections et soudures. Ces nouveaux matériaux demandent bien évidemment de l’expertise et des moyens en dépôt, gravure, et autres

nettoyages, mais également de la compétence en contamination croisée. Ces matériaux sont en effet connus pour détériorer la performance des transistors, s’ils sont utilisés à mauvais escient.

Des priorités pour la recherche

116

La conclusion de ce chapitre va en reprendre le titre : elle veut insister sur l’importance de disposer de matériaux nouveaux pour la poursuite de la course aux performances. Nous avons montré que la chimie, qui est au cœur de l’utilisation de ces nouveaux matériaux, intervient lors de leur élaboration, leur intégration et enfin leur caractérisation. D’autres défis, peu abordés dans ce chapitre, attendent les nombreux chimistes impliqués dans le monde du silicium. Le premier concerne le rôle des interfaces entre les différents matériaux, interfaces dont l’impact croît avec la réduction en dimension. Les techniques d’analyses physico-chimiques de plus en plus sophistiquées vont aider à relever ce défi de manière raisonnable. La maîtrise de la

Figure 17 Photo de la salle blanche à Crolles. Source : Artechnique – STMicroelectronics.

Les nouveaux matériaux, moteurs de l’amélioration de la performance en microélectronique silicium

contamination croisée, quand un grand nombre d’éléments chimiques sont en présence dans un même site, constitue un deuxième grand défi pour les chimistes. Ces contaminations croisées peuvent venir des plaquettes elles-mêmes par diffusion à la surface de la plaquette, mais également par diffusion de la face avant vers la face arrière : effet « mémoire » sur un équipement contaminé. Enfin, tous ces nouveaux développements s’inscrivent dans le contexte de commerce international soumis à des normes environnementales strictes que les chimistes doivent anticiper. Et demain ? Les principaux axes de recherche en cours dans les laboratoires universitaires et industriels proches de la microélectronique concernent les résines photosensibles de nouvelle génération, l’introduction des matériaux III-V, les précurseurs de chimie

117

Chimie et technologies de l’information 118

compatibles avec des épitaxies12 basse température. Nous terminerons en montrant une photo de la salle blanche de Crolles 300, l’usine la plus récente de STMicroelectronics (Figure 17). On reconnaît la petite boîte orange emblématique et dimensionnée pour transporter les tranches de silicium de 300 mm de diamètre. Ces boîtes, comportant vingt-cinq tranches, sont acheminées par des robots montés sur des rails au plafond. Une fois placé au-dessus de l’équipement choisi, un petit ascenseur permet à la boîte jaune de descendre et d’être traitée avec la recette demandée, préalablement envoyée sur l’équipement par le système de production informatique central. Tout cela doit se faire bien évidemment dans la plus grande propreté. Pour donner un ordre de grandeur, cette salle blanche est entre cent et mille fois plus propre qu’une salle d’opération.

12. L’épitaxie est une technique de croissance orientée, l’un par rapport à l’autre, de deux cristaux possédant un certain nombre d’éléments de symétrie communs dans leurs réseaux cristallins. Au sujet de l’épitaxie et des matériaux III-V, voir le Chapitre de B. Demotes-Mainard dans Chimie et technologies de l’information, coordoné par M.-T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2014.

organique imprimée Une nouvelle branche de l’électronique Diplômée de l’Institut d’Optique, Isabelle Chartier est responsable des programmes électroniques organiques imprimés au LITEN – le Laboratoire d’Innovation pour les Technologies des Énergies Nouvelles et les nanomatériaux du CEA1. Elle est également responsable de la plateforme d’impression PICTIC.

Au cours des dernières décennies, les chimistes ont synthétisé des matériaux organiques – polymères ou constitués de « petites » molécules – permettant le déplacement de charges électriques, créant ainsi des matériaux organiques conducteurs ou semiconducteurs12.

mémoires, capteurs 4 . C’est l’émergence d’une « électronique organique », une nouvelle branche de l’électronique qui est venue au cours des dernières années prendre place à côté de l’électronique traditionnelle basée sur des matériaux inorganiques dont le principal est le silicium.

Ces matériaux ont été utilisés entre autres pour la réalisation de composants électroniques actifs : transistors, diodes émettrices de lumières (« Organic LightEmitting Diode », OLED 3 ),

Ces matériaux organiques sont évidemment très différents des métaux ou des semi-conducteurs inorganiques – comme le silicium –, et les composants qu’on en tire ne sont pas identiques. Ils présentent tous deux des avantages et des inconvénients qui les font choisir en fonction des utilisations recherchées.

1. www-liten.cea.fr 2. Un semi-conducteur présente une conductivité électrique intermédiaire entre celle d’un isolant et celle d’un conducteur. 3. Au sujet des OLED, voir les Chapitres de I. Cayrefourcq, J.-C. Flores, L. Hirsch et V. Thulliez de l’ouvrage Chimie et technologies de l’information, coordonné par M.-T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2014.

4. Au sujet des capteurs, voir le Chapitres de L. Presmanes, dans Chimie et technologies de l’information, EDP Sciences, 2014.

Isabelle Chartier

électronique

L’

Chimie et technologies de l’information

Comparaison entre le silicium et l’électronique organique

1

Le succès du silicium monocristallin tient à ses propriétés électriques qui permettent la réalisation de semi-conducteurs à fortes mobilités de charges. Cela autorise la mise en œuvre de variations électriques rapides, comme le demandent, par exemple, les applications aux transmissions radiofréquences. Le silicium permet aussi des technologies de fabrication de circuits de dimensions extrêmement petites (motif transistor inférieur à 100 nm), par gravures de couches submicrométriques ou nanométriques et par empilement de nombreuses couches. L’objectif de la technologie silicium est, depuis plusieurs décennies, la course à la miniaturisation. Celle-ci est décrite par la Loi de Moore5, qui indique que les dimensions des circuits gravés sont divisées par deux tous les dix-huit mois. La quantité de transistors atteint aujourd’hui le nombre extraordinaire de plusieurs milliers sur une puce de quelques mm² (par exemple pour une puce RFID6), et de plusieurs milliards pour les microprocesseurs complexes ou les dispositifs portables. Les dimensions des atomes vont apporter une limite absolue à cette course

122

5. Au sujet de la loi de Moore, voir le Chapitre de D. Lévy, dans Chimie et technologies de l’information, EDP Sciences, 2014. 6. Radio-Frequency Identification Devices : dispositifs d’identification par radiofréquence.

à la miniaturisation. Dans un autre ordre d’idées, les propriétés macroscopiques du silicium ne sont pas bonnes : c’est un métal fragile et non transparent, ce qui interdit certaines utilisations, en particulier lorsqu’on a besoin de fonction électronique sur une surface de grande dimension. C’est par exemple le cas pour les écrans qui alors utilisent une technologie de silicium amorphe réalisée sur des substrats de verre. En face de la solution silicium, la chimie organique offre un nombre de produits pratiquement infini compte tenu de la richesse des arrangements possibles entre atomes pour former de « petites » molécules ou des polymères ; les produits intéressants sont choisis par ingénierie moléculaire. Les propriétés de transport des produits organiques correspondent à des mobilités de charges électriques beaucoup plus faibles que celles du silicium. Ils ne sont donc pas des substituts de ce dernier pour les applications de l’électronique rapide ou complexe, mais doivent être envisagés pour les très nombreuses applications qui n’exigent pas de grande rapidité électrique ; nous y reviendrons ultérieurement. En revanche, à la différence des matériaux inorganiques, les matériaux organiques peuvent et doivent être mis en œuvre à basse température, ce qui permet alors de les déposer sur des substrats plastiques qui sont souples, flexibles, aisément formables, robustes et peuvent aussi être transparents.

2.1. Les procédés de fabrication des circuits en électronique organique imprimée Les matériaux organiques pour l’électronique peuvent être synthétisés à basse température, et cela ouvre la voie à des procédés inimaginables en électronique silicium, comme les procédés d’impression, qui sont comparativement de très bas coûts, ce qui permet des usages de grande diffusion. Dans certains cas, ces matériaux organiques actifs peuvent être formulés sous forme d’encres et permettre de réaliser les circuits par impression d’une manière tout à fait analogue à ce que l’on fait dans l’imprimerie. On remplace la technologie très sophistiquée des salles blanches et des installations sous vide et à hautes températures nécessaire au silicium par des technologies simples, éprouvées, beaucoup plus classiques et à basse température. Les motifs élémentaires obtenus par les technologies d’impression ont des dimensions minimales d’environ dix microns et peuvent couvrir des supports de grandes surfaces – des décimètres ou mètres carrés. Les circuits peuvent être déposés sur toute une variété de supports, plats ou non, films plastiques, papier…, qui peuvent être flexibles, transparents, robustes, recyclables, etc. On a toute latitude pour choisir le substrat

à utiliser pour empiler les couches qui vont constituer le composant recherché. Les motifs réalisables en électronique organique imprimée ne sont pas aussi petits que ceux de l’électronique silicium. L’imprimerie de Gutenberg descend à cent microns, l’électronique organique à dix microns, mais pas au 0,1 micron de l’électronique silicium. Elle permet en revanche de couvrir de très grandes surfaces telles que des sols ou des toits.

Une nouvelle branche de l’électronique

L’électronique organique apporte une rupture en termes d’applications

2

Les technologies d’impression et de mise en œuvre à basses températures changent profondément la logique de conception et d’utilisation des dispositifs ; les matériaux organiques ouvrent ainsi la voie à des applications non accessibles à la technologie silicium. Un autre facteur qui gouverne le champ d’applications des matériaux organiques est la simplicité de la fabrication par les procédés de l’électronique imprimée : l’investissement pour une usine est de l’ordre de cent fois inférieur à celui d’une usine pour puces silicium. Le démarrage de la fabrication est aussi beaucoup plus rapide : à partir d’un dessin il suffit d’un mois pour disposer du composant électronique imprimé sur substrat plastique. 2.2. Les types d’applications ouvertes à l’électronique imprimée La possibilité de faire des dispositifs sur grandes surfaces est une des propriétés déterminantes de l’extension de l’électronique organique.

123

Chimie et technologies de l’information

On sait placer des fonctions distribuées pour rendre de grandes surfaces sensibles ou actives, permettant par exemple de faire une cartographie thermique en disposant plusieurs capteurs répartis. Ces surfaces pourront être disposées sur des supports flexibles pour une bonne intégration au produit final, et leurs propriétés garantissent la robustesse du fonctionnement : la logique d’intégration de l’électronique organique est complètement nouvelle. Étant par ailleurs de coûts relativement peu élevés, ces dispositifs ont potentiellement de nombreuses applications (Figure 1). Citons le domaine de la santé où les capteurs peuvent être introduits dans des dispositifs commodes pour l’usager (pièces moulées par exemple). Plus généralement, l’électronique organique imprimée est utilisée pour la réalisation d’écrans OLED des téléphones por tables (Smar tphones), d’inter faces homme/machine, qui doivent bien sûr être adaptées à la dimension des mains des opérateurs, de matrices de capteurs sur de grandes surfaces. Citons également les dispositifs de mesures à faire sur des sols,

Figure 1 Dispositifs réalisables par l’électronique organique : A) surface de mesure étendue ; B) écran flexible ; C) emballage intelligent ; D) panneaux photovoltaïques.

A

124

B

C

des lits d’hôpitaux, etc. Les grands marchés de l’électronique imprimée sont les écrans flexibles et les écrans OLED pour l’éclairage (une grande surface émettrice de lumière est plus intéressante qu’une surface équipée de nombreuses petites sources) comme, évidemment, pour l’électronique photovoltaïque7 qui peut faire usage d’équipements en plastique montés sur les toits (avantage de la souplesse, de la légèreté et de la robustesse).

Des systèmes hybrides – électronique organique/ électronique silicium

3

Si les signaux de base peuvent être recueillis par des dispositifs organiques, leur traitement réclame, pour remplir des fonctions complexes (microprocesseurs, traitement du signal, communication), davantage de rapidité que les dispositifs organiques ne 7. Au sujet des panneaux photovoltaïques organiques, voir le Chapitre de D. Lincot de l’ouvrage La chimie et l’habitat, coordonné par M.-T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2011.

D

Une nouvelle branche de l’électronique peuvent en fournir. On développe alors des systèmes hybrides, mariant l’électronique organique (pour bénéficier de grandes surfaces et de bas coûts) avec la technologie silicium. C’est là un des axes de développement actuellement importants : l’hybridation des technologies « sur fl ex ». Il s’agit d’intégrer cette « nouvelle » électronique avec la « vieille », insérant les composants silicium directement sur éléments plastiques (Figure 2). La Figure 3 donne un exemple de réalisation hybride : écran « électrophorétique » qui offre les mêmes fonctions qu’un écran de « kindle 7 », mais sur support plastique donc beaucoup plus robuste et pratique à l’utilisation. L’écran et son électronique de visualisation sont organiques, mais les fonctions qui nécessitent de la rapidité, comme

la communication Wi-Fi pour télécharger les dossiers sur la tablette, sont en électronique silicium. Il ne s’agit là que d’exemples : les domaines d’applications concer né s s o nt innom brables : systèmes d’éclairage (OLED), écrans souples, photovoltaïque organique, robotique, etc.

Figure 2 Intégration hybride des technologies. Un même dispositif peut comporter des éléments en électronique organique (batterie photovoltaïque (OPV), détecteur organique (PCB flex) et chip silicium de traitement de signal. Dans l’exemple donné, le dispositif est monté sur support souple).

Innovation matériaux et procédés technologiques

4

4.1. Les choix technologiques Les technologies de production des dispositifs de l’électronique organique, comme indiqué plus haut, empruntent à celles de l ’imprimerie (Figure 4). On retrouvera, transposées, la technique « roll to roll » utilisée pour l’impression des journaux, le « feuille à feuille » qui sert à

Figure 3 Écran de liseuse sur support souple réalisé par intégration hybrides des technologies.

125

Chimie et technologies de l’information

A

Figure 4 Les techniques de l’impression ont été transposées pour l’électronique organique : A) installation d’impression roll to roll (motifs minimum de 100 μm) ; B) équipements « feuille à feuille » adaptés à la fabrication d’écrans LCD (« liquid crystal display » ; motifs minimum de 10-50 μm) ; C) système sur wafer adaptés à des motifs à forte densité (1 μ).

B

C

faire les magazines, et une technique « wafer 8 » (dépôt d’une couche sensible sur un support, suivi d’une gravure par photolithographie) pour les travaux de précision.

(transistors, diodes, émettrices, absorbantes, etc.) sont identiques : ils se font par empilement de couches successives (Figure 5). Les matériaux employés pour l’électronique organique sont extrêmement variés, mettant à contribution tous les domaines de la chimie (voir l’Encart : « Les matériaux à la base de l’électronique organique »). À chaque objectif, il faut définir les procédés et les flux de matière associés.

Les technologies « feuille à feuille » sont très répandues ; elles ont les mêmes standards que les équipements LCD (substrat, batch), des dimensions élémentaires minimum de 10-50 μm. Dans les cas où la performance en résolution prime sur le coût, on peut faire appel à des procédés sous vide au lieu des procédés liquides de l’imprimerie. Les choix dépendent du type d’application, des contraintes de volume de production, du coût, des performances visées. 4.2. La réalisation des composants Si les couches actives sont réalisées de façons différentes en électronique organique et en électronique silicium, la nature et le principe de réalisation des composants

126

8. Un « wafer » est une galette de silicium très pur utilisée pour la fabrication de circuits intégrés ; c’est cette galette qui supportera les millions de transistors qui composent le dispositif.

4.3. L’imprimerie pour l’électronique Les technologies utilisées pour l’imprimerie pour l’électronique sont à la convergence des industries graphiques et des besoins de l’électronique. Le principe de la manipulation des encres est le même, mais au lieu d’avoir quatre couleurs (rouge, vert, bleu, noir), on a en électronique quatre encres fonctionnelles (conductrice, semi-conductrice, isolante, électroactive). La composition chimique précise des encres doit concilier plusieurs contraintes (viscosité, résistance au vieillissement, séchage, facilité de manipulation) ; elle résulte d’un travail de formulation spécialisé. Les motifs fabriqués par impression sont d’environ

Une nouvelle branche de l’électronique

LES MATÉRIAUX À LA BASE DE L’ÉLECTRONIQUE ORGANIQUE Les conducteurs Ils peuvent être des polymères (polyanalynine, polypyrroles, etc.) ; des métaux en suspension (argent, nanoparticules, nanofils, cuivre, carbone) ou des solides inorganiques comme des métaux, dispersés sur feuilles de plastiques. Les semi-conducteurs Ils peuvent être des polymères, de petites molécules organiques ou des composés inorganiques (oxydes, silicium). Les matériaux électroactifs (capteurs, conducteurs ioniques pour batteries) Ce sont souvent des cristaux ferroélectriques ou piezoélectriques. Les isolants Ce sont en général des polymères fluorés ou du PMMA (polyméthylmétacrylate). Les supports (substrats) Ils sont particulièrement variés – verre, plastique, papiers, films métalliques…

Figure 5

Devices

OTFT

OLED

OPV

Light emission

Light absorption

20-50 microns au lieu de 100 pour le graphique, les couches sont d’épaisseurs contrôlées entre 100 nm et 10 μm. Par ailleurs, afin d’assurer une bonne conduction électrique entre les couches, il est nécessaire d’adapter, par des traitements de surface adéquats, chaque interface.

Comme en électronique silicium, les composants en électronique organique se font par empilements de couches successives. (OTFT = transistor organique sur film mince ; OLED = diode organique émettrice de lumière ; OPV = élément photovoltaïque organique).

Les principaux modes de fabrication utilisés sont : − la sérigraphie, technique simple et bon marché dont le principe est résumé sur la Figure 6 ; − la flexogravure, faisant intervenir un rouleau « tampon » comportant la forme à

127

Chimie et technologies de l’information

raclette maille de l’écran encre châssis

substrat

plaque de base (stationnaire)

Figure 6 Principe de la sérigraphie. Le motif est tracé sur un textile qui fait pochoir. L’encre est poussée à travers le textile au moyen d’une racle. Ce procédé permet un coût peu élevé pour des motifs d’au moins 70 μm de dimension.

imprimer, permet une résolution meilleure que la sérigraphie pour des motifs plus complexes ;

5

− L’héliogravure, qui en est une variante, permet de déposer l’encre sur des motifs en creux. Cette technique permet de bonnes résolutions, jusqu’à 10 μm ;

Récemment définis par les laboratoires, très prometteurs en ce qui concerne les applications, très diversifiés aussi, les principes, les technologies et les possibilités d’applications de l’électronique organique constituent un domaine de recherche en plein foisonnement. Non seulement les laboratoires proposent de nouvelles idées de composants et de systèmes, mais de nouvelles entreprises (startup) se créent pour définir et mettre au point des procédés de fabrication à grande échelle et en grands volumes, proposer de nouveaux dispositifs.

− il faut aussi citer la technique de l’impression digitale sans contact, qui est celle des imprimantes à jets d’encre de la bureautique. Elle présente l’avantage de ne pas nécessiter la préparation de forme (puisque l’information est digitale), de pouvoir s’appliquer sur des substrats non plans et de réaliser des dépôts qui n’endommagent pas la couche précédente. Cette technique demande une formulation des encres qui tienne compte de l’utilisation de buses9. Ainsi le développement de composants électroniques imprimés nécessite des équipes plurdisciplinaires alliant les équipementiers, les chimistes (formulateurs), les spécialistes des procédés d’impression et des électroniciens qui conçoivent et caractérisent les circuits et les composants. Le choix du procédé d’impression à utiliser dépend des caractéristiques du composant à réaliser – type de composant donc d’empilement des couches –, de la sélection des encres, qui dépend elle-même des performances demandées et des contraintes en matière de rendement et de reproductibilité du résultat.

128

9. La buse est une aiguille très fine située dans la tête d’impression et qui projette l’encre sur le papier.

Du composant aux systèmes : exemples de démonstrateurs produits

De vastes mouvements de collaboration sont à l’œuvre entre laboratoires de spécialités différentes et entre laboratoires et industriels ; c’est le cas en région grenobloise où sont réunis autour du Laboratoire d’innovations technologiques pour les énergies nouvelles (LITEN) des par tenaires universitaires, des industriels de la chimie comme Arkema et des petites entreprises comme ISORG. Les Figures 7, 8, 9 et 10 donnent quelques exemples de dispositifs issus de telles collaborations et aujourd’hui en phase de démonstration. La Figure 10 représente un prototype d’interface utilisateur sans contact (écrans « touchscreen touchless »), une technologie révolutionnaire. Cette énumération n’est bien entendu pas exhaustive. Ainsi, le photovoltaïque déjà cité est particulièrement prometteur.

Photodiodes organiques sur plastique

A

Exemples d’applications en développement industriel : A) dispositifs pour imagerie médicale transportables ; B) photodiodes organiques sur plastique pour imagerie.

B

Une nouvelle branche de l’électronique

Figure 7 Transistors à couches minces amorphes ou organiques

Agencement du système Étagère 1

Étagère 2

Étagère 0

BUS Électronique

Module

Figure 9 bus câblé

Source de courant

Figure 8 Équipement d’étagères pour gestion logistique automatisée.

Pilulier intelligent. L’électronique organique fait la détection de la rupture de piste (signalant une case vide : absence de pilule), et le silicium traite l’information correspondante (par exemple : commande automatique de recharge).

Figure 10 Prototype d’interface utilisateur sans contact réalisé en système hybride par la société ISORG.

129

Chimie et technologies de l’information

Les panneaux peuvent être en plastique (on privilégie la robustesse) ou en verre (on veut conserver la transparence). L’entreprise Disa Solar, qui travaille en collaboration avec le CEA-LITEN, ou l’entreprise Heliatek, par exemple, ont des produits OPV (« Organic Photovolatic ») phares en démonstration. L’essor industriel de l’électronique organique se prépare par toutes ces activités. Il est remarquable qu’elles soient conduites dans le cadre de larges collaborations interorganismes, comme l’illustre la création de la plateforme PICTIC où les laboratoires mettent à disposition d’industriels appareillages et compétences de pointe (voir l’Encart :

« La plateforme PICTIC). Ces collaborations s’étendent d’ailleurs au-delà des frontières, et un réseau européen COL AE (« Commercialising organic and Large Area Electronics ») est là pour le montrer. Pour réussir l’entrée dans la grande consommation, de nouvelles alliances industrielles doivent être montées : papetiers, imprimeurs, plasturgistes doivent apprendre à se mobiliser ensemble sur ces perspectives. Au niveau français, la filière est maintenant bien structurée avec l ’A ssociation Fr ançaise d’Élec tronique Imprimée pour les industriels (AFELIM) et le GDR « Organique Électronique » pour le monde académique.

LA PLATEFORME PICTIC* Un laboratoire rassemblant les équipements et les compétences nécessaires à leur bonne utilisation a été créé à Grenoble par le CEA-LITEN. Principalement destiné aux utilisateurs extérieurs, en particulier industriels, il porte le nom de plateforme PICTIC (Plateforme d’Impression de Composants électroniques pour les Technologies de l’Information de la Communication). Sa raison d’être est : – d’accélérer à l’industrialisation des technologies électroniques imprimées issues des laboratoires français ; – de stabiliser les procédés d’impression et de les transférer sur des lignes pilotes industrielles ; – de mettre à disposition des industriels un outil de prototypage en petites séries pour tester leurs applications sur le marché. Elle est équipée : – de 650 m² de salle blanche dédiée à l’impression ; – d’un parc équipement d’impression pour feuilles de grandes dimensions (320 mm x 380 mm) adaptable à plusieurs types de procédés et de produits. *Site : /www-liten.cea.fr/fr/plateformes_technologiques/pictic.htm 130

L’électronique imprimée, filière en émergence, est promise à un avenir industriel important. Son développement constitue un objectif exigeant pour toute la branche industrielle. Des matériaux et des procédés nouveaux doivent être préparés, de nouvelles applications qui seront certainement au rendez-vous, compte tenu des attraits très nouveaux offerts par ces technologies, doivent être identifiées : les domaines de la santé, de la logistique, de l’habitat, du transport, l’énergie, le sport, les loisirs, sont des pistes possibles. La chimie, dans tous les efforts appelés par cette nouvelle filière, est sollicitée au premier plan (Encart : « La chimie conditionne le progrès de l’électronique organique »). La durée de vie des composants fabriqués est un facteur essentiel de leur succès : elle nécessite les études de leur vieillissement qui demande une modélisation performante des phénomènes de transport de charge dans le matériau. Et les procédés actuels bénéficieront directement de la mise au point de nouveaux matériaux, de nouvelles encres, de nouvelles formulations. Ces efforts sont entrepris dans tous les pays développés autour de la planète. C’est une remarque – optimiste – à faire : les laboratoires européens, et en particulier français, sont engagés dans ces voies nouvelles avec de nombreux atouts.

LA CHIMIE CONDITIONNE LE PROGRÈS DE L’ÉLECTRONIQUE ORGANIQUE L’histoire de l’électronique organique est loin d’être finie ! Les chimistes continuent à travailler sur la compréhension et sur la modélisation des phénomènes : comprendre le vieillissement et l’évolution des matériaux, stabiliser les matériaux, trouver de nouvelles formulations qui rendent le procédé plus robuste.

Une nouvelle branche de l’électronique

Une filière émergente promise à un avenir important

Le procédé final ne sera pas bon si les chimistes ne continuent pas à accompagner le domaine : il faut des solvants plus « eco-friendly », tester de nouveaux matériaux pour de nouveaux objectifs (par exemple remplacer l’oxyde l’indium par un conducteur transparent réellement flexible, tester le graphène, les nanofils d’argent, etc.

131

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Yannick Le Tiec est docteur-ingénieur, diplomé de l’École Nationale Supérieure de Chimie de Montpellier (ENSCM) puis de l’Institut National Polytechnique de Grenoble (INPG). En 1995, il a démarré ses travaux de recherche au CEA-LETI 1 et en 2009, il rejoint l’alliance IBM-ST-LETI à Albany (NY) aux États-Unis pour y optimiser les filières les plus avancées de la microélectronique.

1

Le transistor

1.1. Qu’est-ce qu’un transistor ? Un transistor est composé de trois éléments essentiels : la source, le drain et la grille (Figure 1). La grille joue le rôle d’un robinet autorisant le passage de porteurs (des électrons pour les transistors de type n ou des trous pour les transistors de type p). Dans un état normal, à 0 V, aucun courant ne passe entre les deux zones clés : la source et le drain. En présence d’une tension électrique suffisante, un courant, appellé ION, passe entre la source et le drain : 1. Laboratoire d’électronique et des technologies de l’information (LETI), www-leti.cea.fr

c’est le « courant à l’état passant ». Lorsque le transistor est fermé, on parle d’un courant de fuite, appelé IOFF, le « courant à l’état bloqué ». Le marché des transistors est principalement orienté sur deux familles : − les transistors « haute performance », que l’on associe principalement aux microprocesseurs. Les courants ION y prennent des valeurs de centaines de microampères, voire de quelques milliampères ; le IOFF est dans la gamme des 10-7 ampères ; − les transistors « basse consommation », employés pour des applications mobiles : les téléphones portables, les lecteurs MP3 ou encore les tablettes. On les construit pour avoir un IOFF le plus faible pos-

Yannick Le Tiec

chimie cœur

La des au (nano)transistors

0 Volt

contact

Chimie et technologies de l’information

Entrée

Grille

Source

Sortie

Drain Silicium

Entrée

1 Volt

Sortie

Grille courant Silicium

Figure 1 Schéma de fonctionnement d’un transistor. Un transistor réagit comme un interrupteur électrique : le courant ne passe dans le canal que si une tension suffisante est appliquée sur la grille.

134

sible, dans la gamme des 10-9 ampères, afin de minimiser la consommation et améliorer l’autonomie. Un transistor réagit comme un interrupteur électrique : le courant ne passe dans le canal (la zone située entre la source et le drain) que s’il y a une tension suffisante. Le monde d’aujourd’hui tend à faire converger ces deux familles sur le même produit. On voit ainsi que la tablette tient à la fois du PC et du téléphone portable : on apprécie la performance du produit et l’on apprécie aussi le fait que le composant consomme très peu d’énergie, retardant le besoin d’être rechargé. La définition des transistors de l’avenir est discutée par

plus d’un millier d’experts de différents pays regroupés au sein d’une organisation dénommée l’International Technology Roadmap for Semiconductors (ITRS)2 . Dix-sept groupes de travail échangent sur différents secteurs de la fabrication d’un transistor : matériaux, interconnexions, design, modélisation, packaging, etc. 1.2. Les transistors au fil des années Les technologies maîtrisées les plus avancées en 2013 sont celles des transistors « 22-32 nm ». La Figure 2 représente à côté du transistor classique en silicium, dénommé le « bulk », de nouvelles familles de transistors : des structures, toujours planaires, représentées dans la partie basse de la figure, comportent une couche supplémentaire jaune d’oxyde de silicium (SiO2) enterré et une couche de surface (en vert sur la figure) d’épaisseur très faible, qui ne dépasse pas une dizaine de nanomètres de silicium. On parle de SOI (« Silicon On Insulator », en anglais), c’est-à-dire « Silicium sur Isolant », un empilement judicieux Si/SiO2 /Si où le silicium (Si) de surface présente l’épaisseur adéquate (la zone active) du transistor et l’oxyde de silicium (SiO2) enterré joue un rôle essentiel d’isolation pour diminuer le courant de fuite dans la verticalité de la structure. Les tr ansistor s peu vent être de deux types, n ou p, et ce qui nous intéresse en 2. www.itrs.net

Matériau à forte mobilité InGaAs ; Ge

Si + contrainte

Anticipation possible

Bulk

Multi-grille (sur Si ou SOI)

Structure (Contrôle électrostatique)

Technologie SOI partiellement déplété 2009 ITWG Table Timing:

2017

2009 IS ITRS Flash Poly : 2009 IS ITRS DRAM M1 :

54 nm 45 nm 68 nm

MPU/hpASIC “Node” :

“45 nm”

“32 nm”

2013

2012

32 nm 45 nm “22 nm”

Technologie SOI totalement déplété planaire vs. Transistor « 3D » (en forme d’ « aileron de requin »)

m i c r o é l e c tr o n i q u e c’e s t d’avoir les meilleurs de chaque type. Les porteurs de charge sont les électrons pour le type n, et les trous (absence d’électron) pour le type p. Le but est de faire passer ces porteurs de charge dans une zone active très confinée, que l’on délimite par des tranchées d’isolation, réalisées typiquement en oxyde de silicium. Pour réaliser des schémas d’intégration plus futuristes, on voudrait accélerer davantage les électrons et les trous. Cela nous amène vers l’étude de matériaux dits à for te mobilité (μ), pour lesquels les matériaux de type III-V (constitués d’un élément de la colonne III et d’un élément de la colonne V du tableau de Mendeleïev. Voir le Chapitre de B. Demotes-Mainard de l’ouvrage Chimie et technologies de

Retard possible

Technologie SOI totalement déplété

2010

2009

22 nm 32 nm “16 nm”

Aujourd’hui

l’information, EDP Sciences, 2014) fournissent des solutions, comme les alliages de type arséniure de gallium (AsGa) ou encore phosphure d’indium (InP). L’utilisation de couches stressées (couche en tension ou en compression, selon la contrainte) peut aussi améliorer la performance des transistors individuels, ce qui fait l’objet de nombreuses recherches actuellement.

La chimie au cœur des (nano)transistors

Matériau du canal

2016

2015

16 nm 22 nm

2019

2018

22 nm

11 nm 16 nm 16 nm

Matériaux III-V Al, Ga, In – P, As, Sb

Figure 2 Évolution des architectures de transistors au fil des années. SOI : Silicium sur isolant (Si/SiO2/ Si) ; ITWG : Groupe de travail d’ITRS ; ITRS : International Technology Roadmap for Semiconductors ; Flash Poly : Mémoire type flash (à grille en Si) poly(cristallin) ; DRAM : Mémoire dynamique ; MPU : Unité multi-processeurs (hpASIC : composant intégré (pour la haute performance)).

1.3. La fabrication d’une puce, étape par étape (Figure 3) Comment fabrique-t-on une puce, qui est une cohabitation de milliards de transistors ? Au départ, on utilise une plaquette de silicium « Si ultra-pur » (ou une plaquette de SOI dans des technologies plus récentes), sur laquelle on dépose une résine. On met

135

Chimie et technologies de l’information

Figure 3 Les étapes de fabrication d’un composant en microélectronique.

Silicium

Choix des matériaux, des équipements, des gaz/liquides réactifs

Épitaxie ou Dépôt

Résine

Lithographie

Gravure

Stripping

Diffusion Implantation

Polissage

Contrôles : Inspections (microscope optique, microscope électronique, etc.) Mesures (épaisseur, résistivité, contamination, etc.)

Test électrique

Découpe

Connexion

Encapsulation

Test/Durcissement

Livraison

ensuite en œuvre une opération de lithographie3 et de gravure pour définir des zones d’isolation entre des zones actives sur lesquelles seront élaborés les transistors. Par un nouveau jeu d’étapes Lithographie-Gravure, on définit les zones de source et drain, pour les transistors de type n ou p successivement, en ajustant le nombre et le profil des dopants par des étapes spécifiques d’implantation ionique. On construit ensuite l’empilement de grille, considéré comme le cœur du transistor, en prenant le plus grand soin à élaborer l’oxyde de grille, l’acteur majeur dans le processus d’ouverture et fermeture de la grille. Une fois ces motifs finalisés, l’ensemble est recouvert d’une couche isolante, qui épouse la topologie de surface, avant

136

3. La lithographie est une technique qui utilise une longueur d’onde spécifique (ou un faisceau d’électrons) pour tracer des motifs sur une surface au travers d’un masque (sorte de pochoir). Voir le Chapitre de I. Cayrefourcq dans Chimie et technologies de l’information, coordonné par M.-T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2014.

d’être soumise à un polissage mécano-chimique pour permettre de planariser la surface et ainsi démarrer la construction de nouveaux étages d’interconnexions, selon des techniques semblables (lithographie, gravure, nettoyage, préparation de surface, dépôts de couches barrières métalliques (Ti, TiN, Ta, TaN), de métal (W, Cu), ou d’isolant (SiO 2 , SiOC, SiON), polissage pour récupérer une nouvelle surface plane afin de définir les étages supérieurs. Tout au long de ces étapes de fabrication, inter vient un contrôle en continu – au moyen de mesures, d’inspections – pour contrôler la présence de particules, les épaisseurs des éléments réalisés, pour vérifier que l’on est bien là où l’on doit être. In fine, intervient le test électrique (découper, connecter et mettre en boîtier) et les tests de durcissement. Ces derniers permettent d’assurer la fiabilité des composants sur leur durée d’utilisation ; on les place dans des conditions d’humidité et de température élevée afin de simuler en quelques dizaines d’heures

F

I

1.4. Les défis scientifiques Le schéma de la Figure 4 donne les différentes zones du transistor : la source, le drain et la grille, qui doivent toutes être réalisées de façon très précise. On va s’intéresser tout d’abord au matériau semi-conducteur4 : le silicium (ou selon une variante, le silicium sur isolant « SOI »), selon l’application visée, il est plus ou moins dopé. Un impératif de fabrication est alors de respecter des objectifs d’isolation électrique entre les différents transistors individuels que comporte le composant. On est en effet en train de fabriquer des milliards de transistors les uns à coté des autres ; on a besoin de les isoler entre eux, et de s’assurer de leurs performances individuelles sans aucune interférence (il faut désormais tenir compte de l‘impact possible de l’auto-échauffement, de plusieurs dizaines de degrés Celsius, d’un transistor à l’état passant sur son transistor voisin, à l’état bloqué par exemple). Au-delà de l’isolation, on doit réaliser l’empilement de grille de façon rigoureuse, car on n’acceptera qu’une fuite extrêmement réduite entre la source et le drain ; puis le dopage des éléments du transistor, réalisé par épitaxie (voir le paragraphe 2.4.) : on 4. Un semi-conducteur est un matériau dont la conductivité électrique se situe entre celle d’un isolant et celle d’un conducteur.

C

G

D E

J H

B

A A : Substrat de départ B : Isolation C : Zone de dopage D : Préparation de surface du canal E : Dopage et contrainte du canal F : Empilement de grille (flash inclus) et espaceur

définit ainsi des zones dopées surélevées. Après avoir fabriqué les transistors unitaires (niveau 0 du composant), on les assemble, on les interconnecte par un réseau de lignes, à travers un empilement d’étages successifs (treize étages dans les composants les plus récents fabriqués en 2013).

G : Jonction de la zone d’extension et halo H : jonction de contact source et drain I : Contacts et jonctions surélevés J : Mémoire dynamique, mémoire à changement de phase et mémoire ferroélectrique

La chimie au cœur des (nano)transistors

les dommages correspondant à dix années de durée de vie par exemple.

Figure 4 Description des principaux défis techniques au niveau d’un transistor.

1.5. Les niveaux d’interconnexions Dans les années 1970, on empilait deux niveaux de couches de transistors ; on est ensuite passé à quatre niveaux, et aujourd’hui treize niveaux d’inter connexions, aboutissant donc à des puces très complexes. Il s’agit de construire non plus un bâtiment à deux ou trois étages mais un bâtiment à treize étages ; il faut imaginer les ascenceurs et les escaliers à l’intérieur de ce petit bâtiment miniature à base ultra réduite, pour que le signal puisse circuler et que les milliards de transistors qui le composent puissent être correctement interconnectés (Figure 5).

Figure 5 Schéma d’une coupe latérale d’un transistor.

137

Chimie et technologies de l’information

Un chiffre est intéressant à retenir : 1 à 2 milliards de transistors dans les microprocesseurs les plus avancés. Mais dans les composants de type « mémoires », comme développés par Samsung ou Toshiba, il s’agit de 30 et 40 milliards de transistors sur des surfaces réduites de l’ordre du centimètre carré – vraiment de l’« ultra-densité » ! La Figure 6 reproduit une coupe latérale d’un transistor, prise en microscopie électronique à balayage. On y voit les connexions, les différents étages et les lignes qui permettent d’interconnecter les différentes parties les unes sous les autres. Sur une autre photo (Figure 7), on observe quatre niveaux de couches métalliques, dénotées « métal 1, 2, 3 ou 4 ». On doit ainsi créer treize étages pour que, depuis la « base ou niveau 0 », on puisse interconnecter tous les transistors entre eux. La complexité est naturellement d’éviter les

Figure 6 Vue latérale d’un transistor au microscope électronique à balayage (MEB). Source : CEA-LETI.

Lignes Conducteurs

MÉTAL 4

Figure 7

138

Vue de dessus des nombreuses interconnexions au sein d’un transistor au MEB. Source : CEA-LETI.

MÉTAL 2 MÉTAL 3 MÉTAL 3 MÉTAL 1

0

5 μM

10 μM

courts-circuits, ainsi que de faire en sorte qu’il n’y ait pas de problèmes d’électromigration.

Zoom « chimie » : au coeur des nanotransistors

2

La chimie intervient au coeur de la fabrication des transistors. Illustrons ici ce point fondamental. 2.1. La chimie des matériaux : les substrats SOI Le CEA-LETI, à travers le brevet de Michel Bruel déposé en Septembre 1991, a proposé une technologie appelée « Smart CutTM » (Figure 8). À partir de deux substrats A et B monocristallins et à travers un jeu d’oxydation et d’implantation d’hydrogène (l’étape clé du procédé), on réalise un collage direct moléculaire entre les deux surfaces. Un recuit5 à haute température cause la diffusion de l’hydrogène, ce qui, du fait de la pression opérée par le wafer 6 (les substrats A et B encore collés l’un à l’autre), entraîne la formation d’un plan de scission au niveau de l’hydrogène implanté et permet de séparer

5. Le recuit d’une pièce métallique ou d’un matériau consiste en une montée graduelle en température suivie d’un refroidissement contrôlé. Cette procédure permet de modifier les caractéristiques physiques du matériau. 6. Un wafer est une plaque ou galette de silicium très pure, utilisée pour la fabrication de circuits intégrés ; c’est sur cette galette que seront gravés les milliards de transistors qui composent le circuit.

Présentation de la technologie Smart CutTM et du collage moléculaire de deux substrats A et B.

deux matériaux : le premier substrat « B » se voit recouvert d’une fine couche qui appartenait précédemment au substrat « A » : c’est la réalisation d’un matériau SOI. Sur la Figure 8, on voit le silicium substrat B massif 500 microns classique (en vert), puis la couche (en orange) qui est un oxyde de silicium qui nous intéresse pour ses propriétés très isolantes. En surface, on a reporté (en bleu) une couche fi ne de silicium et finalisé le SOI : Si/SiO2 /Si. Il reste encore à optimiser la surface, après ce transfert de couche mince, pour en faire un substrat pertinent pour l’industrie, à savoir ayant

La chimie au cœur des (nano)transistors

Figure 8

une rugosité appropriée (de l’ordre de 0,1 nm RMS7 pour une surface scannée de 30 x 30 μm) et un écart d’épaisseur de l’ordre de 0,5 nm maximum (pour une épaisseur à livrer de 12 nm). Si le substrat A est un substrat semi-conducteur de germanium, on fabrique un substrat appelé GeOI (ou « Germanium On Insulator »). On peut ainsi réaliser une diversité d’empilements à partir des matériaux A et B comme Si, SiC, Ge, GaN, etc. 7. RMS : Root Mean Square, est une valeur moyenne (de rugosité) sur une surface précisée (ici 30 x 30 μm).

139

Chimie et technologies de l’information 140

chimie_techno_partie_3.indd 140

PDSOI 80 nm SI/145 nm SiO2

FDSOI (ET-SOI) 10 nm SI/145 nm SiO2

FDSOI (UTBB-SOI) 5 nm SI/10 à 25 nm SiO2

Figure 9 Évolution sur quelques années des substrats SOI (Si/SiO2/Si) à partir desquels sont élaborés les transistors les plus avancés. De la technologie « partiellement déplétée » (PDSOI) à la technologie « totalement déplétée » (FDSOI) : les seuls 5 nm de silicium en surface définissent au mieux le canal des transistors et le passage des porteurs. PDSOI : Technologie SOI partiellement déplété ; FDSOI : Technologie SOI totalement déplété ; ET-SOI : Matériau SOI extra fin ; UTBB-SOI : Couches SOI (Si et SiO2) peu épaisses.

Commencer la fabrication du transistor sur un matériau SOI à la place d’un silicium permet d’augmenter considérablement les caractéristiques physiques : la couche SOI présente en effet l’avantage d’avoir l’épaisseur de canal idéale pour la performance du transistor et d’être isolée parfaitement du substrat ou support, ce qui permet de limiter très fortement les fuites à travers la verticalité de la structure.

le transistor construit (sur la face avant), et en particulier sa tension de passage de l’état bloqué à l’état passant (Figure 9). Cette option récente d’intégration permet de fabriquer de manière très contrôlée des transistors de longueurs de grilles de 10 à 20 nm, bien isolés, pour garantir d’excellentes performances.

Les épaisseurs des empilements SOI ont été successivement optimisées : l’épaisseur de silicium a ainsi été réduite de 80 nm (technologie dite « PDSOI ») à 10 nm puis 5 nm dans les technologies les plus avancées (dites « FDSOI »), alors que l’épaisseur d’oxyde enterré SiO 2 a été diminuée de 145 nm (standard proposé par IBM il y a quelques décennies) à 25, voire 10 nm afin de bénéficier d’un atout supplémentaire très intéressant qui est d’appliquer une tension sous l’oxyde enterré (en face arrière donc), afin d’influencer, à travers cet oxyde aminci,

Le phénomène du « collage moléculaire » est un procédé clé permettant la réalisation du SOI : il s’agit de mettre en contact deux surfaces idéalement préparées (rugosité adaptée, hydrophilie spécifique, minimum de particules) et de bénéfi cier d’un mécanisme de surface lié à la présence de liaisons hydrogène. Celles-ci sont extrêmement sensibles aux conditions de préparation, de température (Figure 10), et il faut donc une extrême maîtrise pour obtenir un collage moléculaire réussi permettant aux deux substrats d’être parfaitement

2.2. La chimie des surfaces et des interfaces : le séchage

19/06/14 08:39

Si Si O

H H

0,7 nm

H

O

0,35 nm Interface H H de collage (moléculaire) O O

O

O

H

H

H

H

H

H

O H

H

O H

H O Si

H O H

Si H O

0,16 nm

H

O

O Si

T > 700 °C

Si

T ~ 200 °C

H

Température ambiante 2) Modèle : surface rugueuse (Rieutord, 2001)

La chimie au cœur des (nano)transistors

1) Modèle initial (Stengl, 1989)

z (nm)

3

3

~7Å

2 1

1 0

(ρSi – ρ) ρSi

ρ/ρSi (ρ est la densité électronique)

Figure 10 A) Mécanismes proposés pour le processus de collage moléculaire en fonction de la température : la liaison hydrogène joue un rôle essentiel à température ambiante ; les aspérités et les définitions précises des surfaces sont aussi essentielles pour affiner la compréhension de ces phénomènes aux interfaces. B) La mesure de la densité électronique (ou son ratio vis-à-vis du matériau Si) selon la valeur nous indique le positionnement (en z) de Si, SiO2 ou du vide (chute de la densité électronique). La technique nous a permis de mesurer cette interface de collage (évaluation de la zone de vide) et donc de savoir sous quelles conditions on a pu la fermer/sceller au mieux. 1 : matériau silicium ; 2 : matériau SiO2, 3 : interface de collage (« vide »). Sources : R. Stengl et coll. (1989). J. J. Appl. Phys., 28 ; F. Rieutord et coll. (2001)., Phys. Rev., B 63 ; F. Rieutord et coll. (2006).

scellés. La structure chimique des surfaces – et donc leur réactivité, qui intervient dans le collage moléculaire – a été étudiée avec les techniques les plus modernes, comme l’utilisation du Synchrotron de Grenoble8 appelé E.S.R.F. (E u r o p e a n S y n c h r o t r o n Radiation Facility) ; cela a permis de connaître l’effet des recuits en température ou les 8. Au sujet du sychrotron, voir La chimie et l’art, le génie au service de l’homme, Chapitre de K. Janssen, coordonné par M.-T. Dinh-Audouin, R. A. Jacquesy, D. Olivier et P. Rigny, EDP Sciences, 2010.

conditions de la formation de liaisons Si-O-Si. Pour réussir le collage moléculaire, il faut entre autres appliquer une gestion rigoureuse de l’eau. À l’échelle nanométrique, intervient en effet un phénomène similaire qu’à grande échelle lorsqu’on veut coller un film plastique sur une surface : on doit éviter toute présence d’eau résiduelle qui confinerait des bulles et empêcherait un collage de qualité. La Figure 11A schématise le cas d’un collage entre deux oxydes de type SiO2. Si une certaine quantité d’eau est présente en

141

Chimie et technologies de l’information

A

évidence la formation de ces nanocavités, à l’interface de deux oxydes thermiques collés, de 3 et 7 nm d’épaisseur respectivement. Pour éviter ces défauts, il convient d’optimiser précisément l’étape de séchage.

Si

Interface

SiO2

T ~ 250 °C

de SiO2

collage

Si

Si SiO2

B

Si

10 nm

Figure 11 A) Représentation schématique de l’apparition de cavités à une interface de collage lors d’un recuit (cas du collage direct SiO2SiO2) ; B) cavités nanométriques observées dans le cas d’un collage direct SiO2-SiO2 (3 nm-7 nm) après un recuit de 2 h à 300 °C. Source Fig. 11A : C. Ventosa et coll. (2009). Electrochemical and Solid State Letters, 12(10). Source Fig. 11B : D. Lafond et A-M. Papon, CEA-LETI.

(nm) 5

surface avant le collage moléculaire, elle va être encapsulée et générer des nanocavités lors de la montée en température. On observe (au moyen du rayonnement synchrotron) que la largeur de l’interface s’ouvre à partir d’environ 200 °C (voir la Figure 12) et l’on y détecte (en microscopie électronique à transmission, MET) la présence de nanocavités. La Figure 11B met bien en

On peut sécher une surface par différentes approches techniques : soit par le vide, soit par un courant gazeux, soit par le chauffage ou encore par l’utilisation de solvants à faible tension de surface. Pour trois conditions différentes de procédé, de pression ou de température, on observe par micoscopie acoustique à balayage l’interface des deux surfaces collées, et l’on qualifie la réponse de cette interface par la présence de défauts (Figure 13). Cela permet de définir les conditions de procédé optimales ; le résultat de ces mises au point est un collage quasiment parfait à l’échelle de cette technique de caractérisation.

Largeur d’interface (par XRR) Si-Si SiO2-SiO2

4 3 2 1

Séchage #1 (P1, T1)

Température de recuit (°C) 0 0

100

200

300

400

Séchage #3 (P3, T3)

500

Figure 12

142

Séchage #2 (P2, T2)

Évolution de la largeur d’interface en fonction de la température de recuit selon les matériaux collés. On observe une augmentation de la largeur d’interface avec la température, à partir de 200 °C, dans le cas SiO2-SiO2.

Figure 13 Optimisation du séchage : observation par microscopie acoustique à balayage de deux substrats collés. Dans des conditions optimales de séchage, il est possible de limiter la défectivité à l’interface de collage des deux matériaux.

L’application représentée sur la Figure 14 est celle de la préparation de surface d’un SOI. On subit généralement une pollution de la surface du SOI par une couche d’oxyde natif (typiquement de l’ordre de 0,8 à 1,5 nm), ou bien l’intégration globale a imposé à ce stade de fabrication un oxyde thermique plus épais (typiquement de l’ordre de 3 à 6 nm) qu’il convient d’éliminer pour réaliser une couche ultérieure (un contact métallique, ou encore une couche épitaxiée9 dopée par exemple). La complexité de l’étape réside dans le fait qu’il faut retirer la couche d’oxyde de surface SiO2 en impactant au minium l’espaceur du transistor (en vert sur la figure) qui est généralement en nitrure de silicium Si3N4 . Sans précaution, on obtient une sélectivité d’environ un pour un, c’est-à-dire que lorsqu’on enlève 1 nm verticalement d’oxyde, on enlève simultanément 1 nm de niture latéralement. Cela est devenu inacceptable dans les technologies avancées où l’espaceur ne mesure que 5 à 10 nm ; il faut développer un procédé de nettoyage adapté, et pour cela faire appel à la chimie. Un procédé chimique intéressant s’appelle le BOE (« Buffered Oxide Etching ») et utilise un mélange d’acide fluorhydrique (HF) et de fluorure d’ammonium (NH4F). En variante du BOE dit commercial (on achète un mélange préparé HF+NH4F), on se propose d’élaborer notre propre 9. Voir le paragraphe 2.4. sur l’épitaxie.

Éliminer le SiO2 en surface du SOI

Minimiser la perte de Si3N4 SOI

SOI

SiO2

SiO2

Substrat Silicium

Substrat Silicium

BOE, dit co-injecté, par ajout de NH3 ou d’hydroxyde d’amminium NH4OH, qui est une représentation de (NH3,H2O) sur une solution de HF mis en excès, de sorte que l’ensemble de NH 3 est transformé en NH4F par une réaction quasitotale de l’acide sur la base, et l’excès de HF judicieusement choisi permet de formuler le mélange final HF/NH4F.

La chimie au cœur des (nano)transistors

2.3. La chimie des liquides : la gravure HF/BOE

Figure 14 Optimisation de la chimie de préparation de surface pour une gravure sélective entre SiO2 et Si3N4.

Dans le mélange BOE, se retrou vent huit espèces chimiques principales : les molécules HF et H2F2, et les ions F- et HF 2- provenant de l’ionisation de l’acide fluorhydrique, et à partir du fluorure d’ammonium, la molécule d’ammoniaque (NH 3) et les ions H+ et OH- ainsi que l’ammonium NH4+. Toutes ces espèces entrent dans de nombreux équilibres chimiques, résumés sur la Figure 15. Les équations chimiques qui gouvernent ces équilibres peuvent être simulées sur ordinateur, et dans les conditions chimiques retenues, le mélange a un pH de l’ordre de 2,9 ; les concentrations des espèces fl uorées présentes sont données par le calcul, les résultats de cet exemple sont présentés sur les tableaux de la Figure 16. La condition

143

Chimie et technologies de l’information

Figure 15 La chimie BOE (« Buffered Oxide Etching ») : un système de huit équations à huit inconnues. Réf. : Le Tiec et coll. (2011), SPCC.

Espèces chimiques (8 espèces/8 équations)

[F–][H3O+] [HF] [NH3][H3O+] Ka2 = 10–9,2 = [NH4+] Ke = 10–14 = [H3O+][OH–] Ka1 = 10–3,16 =

F– + H3O+

(1) HF + H2O (2) NH+4 + H2O (3) 2H2O

HF, F–, H2F2, HF2– NH3, NH+4 H3O+, OH–

NH3 + H3O+

OH– + H3O+

(4) Électro-neutralité

[H3O+] + [NH+4 ] = [OH–] + [F–] + [HF2–]

(5) Conservation de masse de F

[HF] + [F–] + 2[HF2–] + 2[H 2F2] = constante A

(6) Conservation de masse de N

[NH3] + [NH+4 ] = constante B

(1) HF + F–

2HF2–

(8) HF + HF

H2F2

Kd1 = 3,963 =

[HF2–] [HF][F–]

Kd2 = 2,7 =

[H2F2] [HF]2

Figure 16

144

Tableau du haut : simulation pour : 50cc NH4OH + 100cc HF 49 % dans 1800 cc d’eau. Les huit concentrations théoriques sont évaluées. Tableau du bas : suivi de la neutralisation de HF par l’ammoniaque pour une simulation. Y. Le Tiec et coll. (2011), SPCC.

« BOE Xl1 »

[HF]

[H2F2]

[F–]

[HF2–]

pH

10

0,13

28 %

63 %

2 %

7 %

2,04

20

0,28

26 %

57 %

4 %

13 %

2,34

40

0,63

23 %

45 %

8 %

24 %

2,72

60

1,08

20 %

33 %

14 %

33 %

3,00

80

1,68

17 %

23 %

20 %

40 %

3,24

90

2,07

15 %

18 %

24 %

43 %

3,36

100

2,53

13 %

14 %

29 %

44 %

3,49

110

3,1

12 %

11 %

33 %

44 %

3,62

120

3,82

10 %

8 %

39 %

43 %

3,75

140

5,99

7 %

3 %

51 %

39 %

4,05

160

10,48

4 %

1 %

67 %

28 %

4,40

180

25,05

2 %

0 %

84 %

14 %

4,89

190

60,43

1 %

0 %

92 %

7 %

5,32

195

173,6

0 %

0 %

97 %

3 %

5,79

A

pH 6

pH = f(V-NH4OH)

5 4 3 V(NH OH)(cc) 4

2 0

40

80

120

160

200

La chimie au cœur des (nano)transistors

V (NH4OH)

B

Figure 17 A) Tableau indiquant le résultat d’une succession de simulations où seul le volume d’ammoniaque augmente ; B) courbe de neutralisation pH-métrique de la solution de HF par ces mêmes solutions d’ammoniaque.

de pH-métrie qui résout cet exemple de système de huit équations est donnée par le respect de la condition d’électroneutralité, selon laquelle l’ensemble des charges positives (issues des ions H + et NH4+) doit être compensé par l’ensemble des charges négatives (issues des ions OH-, F- et HF2-). Dans le tableau, cela est symbolisé par le fait que la différence est nulle (= 0). Des simulations ont été faites pour un volume de HF donné et des concentrations croissantes d’ammoniaque (Figure 17A). On obtient une courbe classique de neutr al is ation pH - m étr ique (Figure 17B), où le pH augmente avec l’ajout d’ammoniaque qui vient neutraliser HF. L’évolution des concentrations des espèces fluorées (Figure 18) montre que les concentrations en HF et en H 2 F 2 diminuent alors, celle des ions fluor (F-) augmente corrélativement. La concentration de l’ion HF2- en

revanche passe par un maximum. Comme les espèces HF et HF2- sont les plus actives pour la gravure de SiO 2 , on a ajusté la composition du mélange chimique autour du maximum de concentration de HF2- (c’est-à-dire à l’optimum de gravure). Dans ces conditions, on est capable de graver la couche de SiO2 en épargnant le nitrure de silicium ; les sélectivités expérimentales obtenues sont de l’ordre de dix pour un, et l’on atteint ainsi l’objectif d’enlever 5 nm de SiO2 tout en ne consommant que 0,5 nm de Si3N4 sur le flanc du transistor.

Figure 18 Évolution des concentrations des espèces fluorées au cours de la neutralisation par l’ammoniaque NH3. L’espèce HF2– connait un optimum pour un pH proche de 3,4 (44 % du fluor est alors sous cette forme complexée).

145

Chimie et technologies de l’information

2.4. La chimie des matériaux : les épitaxies Dans la continuité de l’étape précédente décrite dans le paragraphe 2.3., après l’élimination de l’oxyde en surface du SOI, on peut procéder au dépôt d’une couche de matériau par la méthode dite d’« épitaxie », méthode par laquelle on fait croître sur la surface un matériau de réseau cristallin similaire, ou presque similaire (Figure 19). Dans la fabrication des transistors de type p, on peut rencontrer une situation d’« épitaxie contrainte ». La couche la plus appropriée, celle qui permet les meilleures performances, est en Germanium (Ge), ou bien, dans une situation intermédiaire, un alliage

silicium/germanium (SiGe), mais celui-ci n’a pas rigoureusement la même maille cristalline que le silicium utilisé comme substrat. Le dépôt par épitaxie reste cependant possible, mais en situation contrainte : les premières couches de SiGe que l’on dépose s’adaptent au substrat de silicium en suivant son paramètre de maille dans la direction de croissance, une adaptation qui devient impossible au-delà d’une épaisseur critique du dépôt (ec). On parle de SiGe contraint (Figure 20) : SiGe n’est pas dans son état naturel relaxé, on parle d’état pseudo-morphique. Au-delà de l’épaisseur critique, des défauts de croissance vont se produire

Figure 19 Schéma de l’ajout d’une couche par épitaxie sur la surface d’un matériau SOI. SOI

SOI

SiO2 enterré dans le SOI

SiO2 enterré dans le SOI

Substrat Silicium

Substrat Silicium

A

B

Figure 20

146

Croissance d’une couche de SiGe sur Si : les réseaux cristallins ont des paramètres de maille différents. Selon l’épaisseur de SiGe déposée, on peut être dans un scenario de SiGe contraint (cas A), ou alors le SiGe est relaxé avec création de défauts (dislocations, cas B).

chimie_techno_partie_3.indd 146

19/06/14 08:39

Selon le transistor envisagé, on visera des alliages silicium/ germanium de différentes compositions – qui peut être de 5 % ou de 50 % de germanium (Figure 21A). Pour réaliser ces couches, on utilise la technique de dépôt chimique à partir de phases gazeuses. Un mélange de dichlorosilane (SiH2Cl 2 gaz) et de germane (GeH4 gaz) (Figure 21B) est utilisé suivant des conditions de température, débit, pression, définies par le laboratoire de chimie en fonction des compositions finales souhaitées pour les dépôts. Les points de fonctionnement sélectionnés seront testés en vraies grandeurs afin de qualifier la réponse électronique des matériaux déposés au travers des performance testées des transistors associés. La Figure 22 illustre l’épitaxie de SiGe dopé au Bore (B) avec 30 % de germanium pour les zones de source et drain (partie haute de la figure) ; un SiGe avec 20 % de germanium a été intégré comme matériau pour le canal afin d’y optimiser la mobilité des porteurs (trous), sur la partie basse de la figure.

30

750 °C – MFR = 0,012 700 °C – MFR = 0,003 650 °C – MFR = 0,003 600 °C – MFR = 0,003 550 °C – MFR = 0,003

20 10

P = 20 Torr 0

0

0,05

A

0,1 0,15 0,2 F(GeH2)/F(SiH2Cl2)

50

P = 20 Torr

40 30 20

750 °C – MFR = 0,012 700 °C – MFR = 0,003 650 °C – MFR = 0,003 600 °C – MFR = 0,003 550 °C – MFR = 0,003

10 0 0

B

0,05

0,1 0,15 0,2 F(GeH2)/F(SiH2Cl2)

La chimie au cœur des (nano)transistors

40

Concentration en Ge (nm m–1)

Taux de croissance de SiGe (%)

avec l’apparition de ce qu’on appelle des dislocations. Des études de caractérisation doivent considérer ces différents cristaux, leurs paramètres de maille, comprendre les types de déformations : toute une problématique de la chimie des matériaux. Il en résulte par exemple une meilleure maîtrise de l’épaisseur critique, paramètre clé pour l’optimisation des dépôts et donc l’ajustement de la performance des transistors.

Figure 21 Chimie des procédés : génération d’abaques en fonction du rapport gazeux germane/dichlorosilane : A) vitesse de croissance du SiGe selon la température à une pression de 20 Torr ; B) concentrations de germanium associées.

A

SiO2 enterré

SiO2 enterré

B Figure 22 Observation de SiGe épitaxié dans les zones clés : A) source et drain « surélevés » (en haut) ; B) canal du transistor en SiGe (en bas).

147

Chimie et technologies de l’information

2.5. La chimie des matériaux : de nouveaux matériaux de grille La grille – sorte d‘interrupteur qui s’ouvre et qui se ferme – est constituée d’un oxyde de grille dont on cherche à augmenter la performance en termes d’isolation : c’est en effet le « coeur du transistor », et l’épaisseur de cet oyde diminue au fil de la miniaturisation. On a ainsi observé que le matériau historique SiO2 connaissait une épaisseur limite certaine à partir de la technologie « 65 nm », de sorte que pour les nœuds technologiques suivants, de nouveaux matériaux ont dû être intégrés, principalement autour des éléments hafnium (Hf) et zirconium (Zr), et donc de leurs oxydes correspondants HfO2 et ZrO2. Les études structurales de ces deux matériaux ont permis de comprendre les comportements et les caractéristiques techniques de leurs différentes variétés cristallines (cubique,

tétragonal, monoclinique) : la permittivité relative er, qui traduit en quelque sorte le pouvoir isolant du matériau, varie précisément selon la maille cristalline (Tableau). La capacité d’isolation C, s’exprimant selon C = eS/e, on augmente la capacité en augmentant la valeur e de l’oxyde d’isolation pour une géométrie fixée (surface S, épaisseur e restant constantes) ; ou bien, pour une même capacité (performance) visée, on peut se permettre d’augmenter l’épaisseur e et donc sécuriser l’ouverture de la grille, en utilisant ces nouveaux matériaux à permittivité plus élevée. Dans la communauté internationale, ces nouveaux oxydes de grille sont reconnus dans la catégorie des matériaux « High k ». Des études de chimie de simulation ont également été menées pour définir la façon dont un dépôt de HfO2 va s’organiser sur une surface donnée (Figure 23). Les procédés

Tableau Caractéristiques cristallographiques de HfO2 et ZrO2. HfO2 Phase

ZrO2

εr

Eg (eV)

Cubique

29

3,15

Tétragonal

70 16-18

Monoclinique

Phase

εr

Eg (eV)

Cubique

37

2,63

3,84

Tétragonal

38

3,31

2,98

Monoclinique

20

2,98

Source : C. Zhao et coll. (2002). MRS Vol. 745.

Figure 23

148

La chimie de simulation permet de définir la façon dont un dépôt de HfO2 va s’organiser sur une surface donnée: ici, il dimérise (à droite). Source : C. Mastail (2010), PhD thesis.

Pour les transistors de type n, on utilise essentiellement le substrat/matériau silicium ; pour les transistors de type p, on travaille aussi sur le germanium et sur l’alliage silicium/germanium comme décrit précédemment (paragraphe 2.4.). La réalisation des contacts dans ces cas est différente car les matériaux peuvent exister sous différentes phases, ce qui nécessite de défi nir les conditions thermiques précises pour réaliser d’excellents contacts (Figure 25). Ces tâches conduisent à étudier de très près la chimie métallurgique, la chimie des

N+ poly-Si Polycide Polycide ρs (Ω/sq.)

La Figure 24 retrace la nature des métaux utilisés pour la fabrication des transistors au fil des générations. On est passé des siliciures de molybdène au tungstène, titane, cobalt, nickel. Aujourd’hui, pour optimiser la résistivité, on « siliciure » à la fois la grille, la source et le drain avec NiSi présentant généralement 5 à 15 % de platine.

Uniquement la grille 100

MoSi2

Polycide

10

WSi2

Salicide

TiSi 2

CoS i

2

NiSi

La chimie au cœur des (nano)transistors

de dépôt chimique, toujours par dépôts en phase gazeuse, sont étudiés et définis dans les laboratoires.

Salicide 1

1990 Année 2,0

2000

1,0 0,1 Longueur de grille (μm)

contacts. Le siliciure de nickel se présente ainsi sous la forme Ni2 Si à basse température puis évolue sous la forme NiSi à plus haute température. Le germaniure de nickel NiGe n’existerait que sous une seule phase et surtout, sa résistivité augmente fortement à partir de 450 °C, soit une température signifi cativement inférieure si on compare avec NiSi. On

2010

0,02

Figure 24 Les métaux dans les transistors. Source : Iwai et coll. (2002). Microelectronic Eng. 60.

Figure 25 Chimie des contacts : différentes phases au sein des matériaux en fonction de la température. Source : V. Carron et coll. (2007). ECS 2007.

149

Chimie et technologies de l’information

comprend donc que la fenêtre du procédé de siliciuration (établissement du contact sur les zones source, drain et grille de chaque transistor) doit être ajustée si l’on a intégré sur la même plaque du silicium (pour des transistors n optimum) et du germanium (pour des transistors p optimum).

Figure 26 A) Schéma de différentes architectures de transistors ; B) schéma de l’utilisation de nanofils (tubes bleus) dans un transistor. Sources : C. Le Royer et coll. (2008), EMRS et T. Ernst et coll. (2008), IEDM.

A

La communauté internationale a revisité également les possibilités d’architecture des transistors ; différentes options sont représentées (Figure 26). On doit toujours définir source, drain et grille, mais ces trois espaces sont arrangés selon différents designs. La technologie planaire historique est désormais challengée par la technologie verticalisée dite « 3D » / FinFET. Enfin, l’utilisation avantageuse de structure à base de (multi)nanofils, pour faire transiter les porteurs de

Technologie « Planaire »

Co-intégration 3D Co-intégration planaire

150

Co-intégration 3D

B

charges dans des « canalisation dédiées » a été démontrée (Figure 26). Ces techniques de nanofils permettent potentiellement de détecter des masses aussi faibles que 10-18 et 10-21 grammes (atogrammes ou zeptogrammes). C’est la performance, la sensibilité, à laquelle aujourd’hui, grâce aux nano-objets, on est capable de réaliser une détection performante (Figure 27). La Figure 28 présente la variation de la conductance de nanofils de silicium fabriqués, selon différentes conditions de pH. « La boucle est bouclée » : la compréhension des différents aspects chimiques (matériaux, surfaces, interfaces, etc.) permet la réalisation de nano-objets, et certaines de ces créations permettent de mesurer… une activité chimique telle que le pH !

Technologie « FinFET »

Nanofils

=

Figure 27

Définition

f δf = 0 ∝ l–4 δm 2M eff

δf ∝ l3 f0

δm = 2Meff

δM 10–9 g

Meff ~ 1 mg ω0 ~ 10 MHz

Quartz microbalance Résonateur d’onde accoustique (surface)

10–12 g

Meff ~ 1 mg – 1 μg ω0 ~ 10 MHz – 1 GHz

~10–15 g

~10–18 g à ~10–21 g

MEMS

Meff ~ 1 μg – 1 ng ω0 ~ 10 kHz

NEMS

Meff ~ 1 ng – 1 fg ω0 ~ 100 MHz

500 nm –21

~10 g à ~10–24 g

MEMS = Microsystèmes électromécaniques. Source : T. Ernst et coll. (2008), IEDM.

Meff ~ 10 fg – 10 ag ω0 ~ 100 MHz – 1GHz

Nanofil

Figure 28

130

pH 2

120 Conductance (nS)

Différentes méthodes détectant des masses : la sensibilité varie désormais jusqu’au zeptogramme (10-21 g).

La chimie au cœur des (nano)transistors

Sensibilité

pH 3

110

Variation de la conductance du nanofil de silicium selon le pH. Source : T. Ernst et coll. (2008), IEDM.

pH 4

100

pH 5

90

pH 6

80

pH 7

70 60 2000

0

4000

6000

8000

10000

12000

Temps (s)

Solution tampon à pH < 7

Solution tampon à 7 < pH < 10

NH3+

Solution tampon à pH > 10

NH3+

Si

NH2

Si

Si

OH O

O

O OH

O– O

O

O

O–

O– O

O

O

O–

Si

Si

Si Si

Si Si

Si

Si

Si

Si Si

Si

Si

Si

Si

Si n-dopé

Métal

Passivation

Trou

Électron 151

Chimie et technologies de l’information

2.6. Les métiers de la chimie pour la microélectronique La Figure 29 résume les différents métiers de la chimie qui sont sollicités par l’industrie des transistors. Pour fabriquer des transistors il faut réaliser des dépôts, des traitements thermiques, des implantations, des préparations de surface, des épitaxies. Il faut maîtriser le collage moléculaire, le nettoyage, le polissage mécano-chimique, etc. Les filières des substrats peuvent être celle du SOI, celle du SiGe, des matériaux III-V, du germanium, etc. Les filières de capteurs utilisent les mêmes moyens technologiques, quoiqu’à une échelle plus grande que le nanomètre (mêmes outils et expertises). Pour une autre perspective à plus long terme, on peut citer la filière « bio », encore peu évoquée mais en réelle phase d’expansion : il s’agit de coupler les connaissances d’électronique et de chimie des surfaces avec celles de la biologie, de la biochimie et de la médecine pour explorer la possibilité de « filières bioélectroniques ». De nouveaux besoins

Implantation Dépôts Traitements thermiques

Filière Transistors Filière Substrats

Figure 29 152

Les métiers de la chimie pour la microélectronique

Filière Capteurs Filière Bio

CMP

en support d’analyse de sang, analyse d’ADN, de blocage de protéines, etc., apparaissent, et pour y répondre, le savoirfaire de fonctionnalisation de surface est précieux. Si l’on s’intéresse aux métiers de chimistes impliqués dans ces tâches de fabrication de transistors pour les équipements de haute technologie pour la communication, on voit une grande diversité de besoins et d’offres (Figure 29). Que l’on soit technicien, ingénieur, docteur, expert, on peut occuper différentes positions : par exemple démarrer dans un atelier « dépôt des métaux » pour la filière transistor, puis passer dans la filière substrats optimisant le dépôt des isolants, bifurquer vers la fabrication de capteurs, etc. ; cela à tout niveau : dans la recherche, dans le développement ou bien dans la phase de production. Dans ce dernier champ, on a ainsi besoin d’ingénieurs qui garantissent la qualité de la production, le respect des procédés notamment. Toute une filière où la chimie est impliquée nécessite des techniciens, des ingénieurs, des experts.

Collage Fonctionnalisation moléculaire Greffage Épitaxies Gravure/Plasma

Nettoyages

Lithographie

En 2013, il est possible d’incorporer quarante milliards de nanotransistors dans les composants les plus récents. Les deux familles de transistors répertoriées – les transistors haute performance et les transistors basse consommation – sont en train de converger. Elles se retrouvent aujourd’hui dans les tablettes, demain dans des montres (les montres de haute technologie, connectées, qui viennent de sortir sur le marché) – une miniaturisation extrême. La longueur de grille, aujourd’hui, est de 15 à 20 nm, c’est ce qui permet cette ultra-densité. Parmi les bases techniques qui ont permis ces chiffres extraordinaires, il y a les progrès de la chimie : la chimie des matériaux, la chimie des surfaces, les gaz, l’eau, la chimie des procédés, les réglages d’équipements, etc. De multiples facettes de métiers passionnants, divers, dans un environnement unique et de très haute technologie.

La chimie au cœur des (nano)transistors

Quelques chiffres à retenir pour comprendre

Pour aller plus loin - Yannick Le Tiec (2013). Chemistry in Microelectronics, WileyISTE, 384 pp. ISBN : 9781848214361. - Yannick Le Tiec (2013). Chimie en microélectronique, Traité RTA, Micro et nano électronique et systèmes, Hermès-Lavoisier, 384 pp. ISBN : 9782746239180.

153

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

pour le

stockage

électrochimique

énergie

de l’

Docteur de l’École Nationale Supérieure de Chimie de Toulouse, Patrice Simon est professeur en sciences des matériaux au Centre Inter-universitaire de Recherche et d’Ingénierie des MATériaux (CIRIMAT 1). Ses travaux portent sur la synthèse et la caractérisation des matériaux nanostructurés pour les systèmes électrochimiques de stockage de l’énergie, principalement les supercondensateurs et les batteries lithium-ion. Il est également directeur de l’Institut de recherche européen d’excellence Alistore 2 sur les batteries lithium et directeur adjoint du Réseau national sur le stockage électrochimique de l’énergie.

Les systèmes pour le stockage électrochimique de l’énergie ont deux principales fonctions : l’alimentation des systèmes et la récupération de l’énergie. Les microsystèmes transposent aux petites dimensions ce qu’on connait déjà à très grande dimension pour les véhicules hybrides ou aux moyennes dimensions pour les téléphones, ordinateurs, 1. www.cirimat.cnrs.fr 2. www.alistore.eu

iPad, etc. Ils concernent par exemple les micro-implants biomédicaux, le drug delivrery (la livraison locale de médicaments), l’alimentation de petits systèmes comme les microdrones, et puis surtout les réseaux de capteurs intelligents – des capteurs pour recueillir et transmettre les informations, ou des capteurs capables de communiquer entre eux. Il leur faut à chacun un système d’alimentation, de stockage et de récupération d’énergie.

Patrice Simon

Microsystèmes

Chimie et technologies de l’information

Il existe trois systèmes de stockage électrochimique de l’énergie, qui existent à l’échelle macroscopique et que l’on retrouve à l’échelle microscopique. On peut les classer dans ce qu’on appelle un diagramme de Ragone (Figure 1), montrant la puissance spécifique (en Watt. kg-1) en fonction de l’énergie spécifique (une analogie hydraulique : l’énergie pourrait être la taille du réservoir, et la puissance que peut délivrer un système serait le diamètre du tuyau avec lequel on peut vider le réservoir) :

− Les batteries, qui se déchargent en plusieurs heures, voire en plusieurs jours, et constituent de gros réservoirs d’énergie. La puissance associée à ces systèmes est faible ; ils sont difficilement capables de fournir des pics de courants très intenses ;

− Les condensateurs, des systèmes à très forte puissance et très faible densité d’énergie. Les condensateurs n’ont que peu d’énergie stockée et peuvent se décharger très vite, en quelques millisecondes : ils sont de la catégorie « forte puissance, faible densité » ;

Un exemple illustrant la variété des systèmes de stockage est l’« I-extender » (Figure 2), qui est une alimentation supplémentaire destinée à augmenter l’autonomie du téléphone portable. Dans un boîtier que l’on achète, se trouve une batterie

− entre les deux, se placent les supercondensateurs. Ils peuvent fournir des pics de puissance très forts avec des énergies modérées. La constante de temps caractéristique de ces systèmes est de cinq à dix secondes.

105 condensateurs 3,6 ms 0,36 s 104

3,6 s

103

102

1h

Ni/MH

Li-primaire

urs

156

Diagramme de Ragone donnant la puissance spécifique en fonction de l’énergie spécifique du système de stockage électrochimique de l’énergie. Source : d’après Simon P, Gogosti Y. (2008). Nature Materials, 7 : 845-854.

Li-ion

e sat den on erc Sup

Figure 1

Puissance spécifique (W kg–1)

36 s

10 h 10

PbO2/ Pb 10–2

10–1

1

10

102

Énergie spécifique (Wh kg–1)

103

Projet I-extender pour I-phone, un micro(mini)-système dans la téléphonie. La batterie Li-polymère allonge la durée d’utilisation du téléphone. Source : http://www.cap-xx. com/news/photogallery. php#iExpander http://www.ece.ncsu.edu/ wireless/wsn.html

lithium-polymère de grande capacité et un supercondensateur. Avec cet accessoire, on peut utiliser le téléphone plus longtemps, le recharger tous les trois jours au lieu de tous les jours. La batterie lithium-polymère allonge la durée d’utilisation basse puissance, le supercondensateur fournit les pics de puissance correspondant à l’utilisation du flash, photos, lecture vidéo, au démarrage, à la connexion Internet. Le couplage des deux permet à la batterie d’avoir une durée de vie beaucoup plus longue puisque c’est la fourniture de pics de puissance qui fragilise, diminue, dégrade ses performances. On considère dans ce chapitre les batteries, les microbatteries (architectures, matériaux, chimie) et les microsupercondensateurs, des systèmes en plein développement apparus il y a environ six

Microsystèmes pour le stockage électrochimique de l’énergie

Figure 2

ans suite à l’essor de l’électrolyte nomade.

1

Les batteries

1.1. Rappel du principe (Figure 3) Chacune des électrodes – la positive et la négative – comporte une feuille métallique sur laquelle est déposé un matériau actif sous forme de poudre (l’« encre »). Celui-ci est caractérisé par son potentiel électrique qui quantifie sa difficulté ou sa facilité à accepter ou délivrer une charge électrique. Le matériau de l’électrode positive a un potentiel électrique positif, celui de l’électrode négative un potentiel négatif. La tension de la batterie est la différence de potentiel entre ces deux matériaux. Lors de la décharge de la batterie, l’électrode négative

157

Chimie et technologies de l’information

E (V vs réf ) e–

e–

E+,

Ox1 + ne– → Red1

Q1 = nF/M1 (mAh · g–1) Collecteur de courant (Al)

Électrolyte

Collecteur de courant (Cu)

ions

E+ H2O

E–, Red2 → Ox2 + ne–

E–

Q2 = nF/M1 (mAh · g–1) Matériau actif (+) (MA)

Matériau actif (–) (MA)

ΔEpile = E+ – E– (V)

Figure 3 Principe de fonctionnement d’une batterie.

158

Qpile (mAh)

libère des électrons – le matériau d’électrode s’oxyde – et les relâche dans un circuit extérieur. Ces électrons arrivent à l’électrode négative et sont consommés – le matériau d’électrode se réduit. L’équilibre entre ces réactions d’oxydation et de réduction maintient le passage du courant électrique dans le circuit.

valeurs de différences de potentiels entre électrodes les plus élevées possibles ; pour un matériau d’électrode positive par exemple, on cherche le potentiel le plus positif possible. C’est tout le but du choix du matériau : c’est sa nature chimique qui définit ce potentiel. Les batteries sont caractérisées par deux grandeurs : la différence de potentiel entre les électrodes positives et négatives, et la quantité d’électricité (dénommée Q) que la pile peut libérer.

En régime de recharge, on a la réaction inverse : à l’électrode négative, on consomme des électrons venant du circuit extérieur, le matériau se réduit, et à l’électrode positive on libère des électrons, le matériau s’oxyde.

1.2. Les batteries au lithium

La quantité d’électricité par unité de masse que peut libérer chacun des matériaux est définie par le nombre d’électrons qu’il peut échanger par mole, et par sa masse moléculaire. On cherche évidemment des matériaux offrant des valeurs d’Ampères.heure par gramme (Ah/g) les plus élevées possibles. D’un autre côté, pour avoir une puissance importante, on cherche des

La Figure 4A schématise le fonctionnement d’une batterie au lithium. L’électrode négative, en lithium métal (Li), s’oxyde pendant la décharge en libérant un électron (vers le circuit extérieur) et un ion Li+ (dans la batterie). Le matériau de l’électrode positive doit être capable d’accepter à la fois des électrons (provenant du circuit) et des ions Li+ (provenant de l’électrolyte). Un

E (V vs Li+/Li)

décharge

4,4

LixCoO2/CoO2 H2O

Li métal

B

e–

Principe d’une batterie au lithium métal. – réaction à l’anode : Li → Li+ + e– ; – réaction à la cathode : Li0,5CoO2 + 0,5 Li + 0,5 e– → LiCoO2.

LixCoO2 O

électrolyte organique + LiPF6

Li+/Li ; 7 g/M

Court-circuit !

des matériaux emblématiques de cette propriété est l’oxyde de cobalt (LiCoO 2 ), dont la structure montre des motifs CoO6 formant des feuillets (en vert, Figure 4A) et, en intercalation entre ces feuillets, des ions Li+ (boules en rouge, Figure 4A).

empêche la croissance des fils de lithium et la formation de courts-circuits.

Microsystèmes pour le stockage électrochimique de l’énergie

Figure 4

A

Une des premières applications des mini-batteries a été la fabrication des pacemakers, dont le volume a été divisé par dix entre 1976 et 2012

Pendant la décharge, on oxyde le lithium métal Li de l’anode en ion Li +, et on l’intercale dans l’oxyde de cobalt, matériau de cathode. Au fonctionnement en recharge, la batterie au lithium métal rencontre une grosse difficulté. Le lithium métal qui est formé à la cathode migre normalement à l’anode, mais au lieu de se déposer régulièrement sur la surface, il a tendance à former des fils qui vont pouvoir toucher l’électrode positive (Figure 4B) et causer des courts-circuits. Une telle décharge peut même entraîner une explosion. Pour éviter cette situation, on utilise les anodes en lithium métal uniquement avec des électrolytes solides : des électrolytes-polymères ou des électrolytes à base de composés inorganiques. Cela

Figure 5 Diminution du volume des batteries pour pacemaker entre 1976 et 2012.

159

Chimie et technologies de l’information

Figure 6

électrode

Composition d’une batterie de pacemaker. Réaction dans la cellule : 2Li(s) + I2 → 2Lil(s). Source : http://2012books. lardbucket.org/books/principlesof-general-chemistry-v1.0m/s2305-commercial-galvanic-cells. html

électrode

cristal Lil anode (–) : Li métal grille de nickel

cathode (–) : complexe I2

Figure 7 Profil de tension en fonction de la capacité d’une batterie de pacemaker. Source : Greatbatch Medical, 2009, www.greatbatchmedical. com

(Figure 5). Sur la Figure 6, on remarque l’anode en lithium métal et la cathode en iodure de lithium. Ce type de batteries permet d’assurer dix ans de décharge à dix microampères en continu (Figure 7), soit trente ou quarante ans de décharge pour le pacemaker implanté dans le corps humain, puisqu’il fonctionne en impulsions.

Décharge dans une résistance constante de 100 kΩ 2800

Tension (mVDC)

2400 2000 1600 1200 800 400 0 0

200

400

600

800

Capacité (mAh) 160

1000

1200

1.3. Les micro-batteries 2D et 3D Les performances des batteries n’évoluent pas aussi vite que celles des transistors. En effet, la fameuse Loi de Moore (voir le Chapitre de D. Lévy de l’ouvrage Chimie et technologies de l’ information, EDP Sciences, 2014) s’applique aux systèmes qui exploitent la mobilité des électrons, alors que pour les batteries, il s’agit de mobilité ionique. On reste limité par la chimie. Le premier procédé de fabrication des micro-batteries est le dépôt en couches minces (Figure 8). On dépose un électrolyte solide sur un support, puis sur cet électrolyte solide une petite couche très fine d’électrode positive (par exemple LiCoO2) et une couche très fine d’anode, par exemple une feuille de lithium. Ce procédé, connu depuis une trentaine d’années et facile à mettre en œuvre, est

Cathode : ex. LiCoO2

Électrolyte (LiPON par ex.) Collecteur de courant (ex Al, Cu)

épaisseur totale : < 50 μm

aussi d’une grande flexibilité, adaptable à toute dimension de surface et à l’utilisation d’électrolytes solides suffi samment conducteurs pour les ions lithium. L’inconvénient de ces systèmes, si l’on veut disposer de puissances suffisantes, est de ne permettre que des capacités surfaciques peu élevées, une propriété inhérente à la structure en couches fines. En effet, accroître la mobilité des ions dans les couches demande de diminuer le temps de transport des ions dans les grains des matériaux et au franchissement des joints de grains. Ce temps est proportionnel au carré de la longueur à parcourir (divisé par le coefficient de diffusion) : plus l’épaisseur augmente, plus ce temps augmente et plus la puissance de la batterie diminue. On doit donc maintenir une très faible épaisseur aux couches déposées. L’épaisseur de ces batteries est d’environ 50 microns. Une autre technique de fabrication, apparue il y a quelques années, est la technique 3D

Anode : ex. Li métal

Profil d’une micro-batterie 2D couches minces. Flexible, sa mise en œuvre est simple.

pour faire des batteries en trois dimensions. L a Figure 9 montre l’interface entre le collecteur de courant et le film actif ; le principe est de structurer ce dernier en trois dimensions pour offrir une surface développée plus grande. Cette technique, utilisée avec des électrolytes liquides, a permis d’augmenter la puissance et la capacité par cm2 de surface extérieure. Son gros inconvénient est d’être plus difficilement applicable aux électrolytes solides car cela demande que l’on sache faire un dépôt qui suive parfaitement la nanostructure des électrodes. Le procédé est encore en phase de développement.

Microsystèmes pour le stockage électrochimique de l’énergie

Figure 8

t ≈ L2/D

Collecteur de courant (ex Al, Cu)

1.3.1. Réalisations de systèmes 2D Premier exemple de réalisation : la Figure 10 représente une batterie 2D3. L’électrode 3. Fabriquée à l’Institut de Chimie de la matière Condensée de Bordeaux (ICMCB) par Brigitte Pecquenard et Frédéric Le Cras de STMicroelectronics.

Interface Film actif Collecteur de courant Collecteur nanostructuré

Figure 9 Profil d’une micro-batterie 3D.

161

Chimie et technologies de l’information

Encapsulation (couche métallique) Encapsulation (couche isolante électronique) Électrode négative (lithium) Électrode solide Collecteur de courant Électrode positive métallique > 10 mm

Couche barrière Couche isolante électronique (SiO2) Substrat (wafer de silicium)

Figure 10 Micro-batterie 2D réalisée à l’ICMCB. Source : d’après Levasseur A. et coll. (2009). Microbatteries - Microsources d’énergie en couches minces, Les Techniques de l’Ingénieur, D 3 342v2, http:// www.techniques-ingenieur.fr

positive, d’environ un micron d’épaisseur, est en oxyde de titane. Le matériau électrolyte solide est un composé de lithium, phosphore, azote et oxygène, dénommé LiPON 4 . Ces couches sont faites par pulvérisation sous vide : dans une enceinte, on place la cible (substrat) chauffée, on pulvérise les constituants du matériau d’électrode puis on les précipite avec un gaz porteur pour le condenser. On reconnait, dans cette microbatterie, l’assemblage électrode positive/électrolyte/ électrode négative, ainsi que le polymère pour encapsuler l’ensemble. L’ensemble est fixé sur un wafer 5 de silicium. Ces techniques 2D sont très bien adaptées à la fabrication de micro-batteries sur wafer. La Figure 11 donne un profil type de décharge : la tension de la pile est représentée en fonction de la capacité déchargée. La pile se décharge entre un et trois volts, ce qui constitue une très bonne performance.

162

4. LiPON est le principal électrolyte utilisé pour les micro-batteries au lithium, de composition Li2,9PO3,3N0,46. 5. Le wafer est une galette de silicium très pure, notamment utilisée pour la fabrication de circuits intégrés et de microprocesseurs.

Ces systèmes 2D permettent des intégrations sur silicium pour les incorporer dans des dispositifs et fournissent des puissances élevées. Un autre exemple : la Figure 12 représente un type de microbatterie, de 2,5 x 2,5 cm2, composée de lithium, de LiPON et d’oxyde de cobalt, dont le profil de décharge est montré sur la Figure 13. On arrive à décharger des capacités de l’ordre du mAh. À titre de comparaison, dans les téléphones portables, on a des batteries de 800 mAh. Il s’agit ici d’un mAh sur quelques centimètres carré, soit une catégorie toute différente. Les épaisseurs des assemblages obtenus par la technique 2D sont de quelques centaines de nanomètres. Ces systèmes permettent l’alimentation de réseaux de capteurs, de tags RFID6 et de faire de la micro-alimentation de secours. 1.3.2. Réalisations de systèmes 3D Avec la stratégie 3D, qui vise à augmenter le rapport surface sur volume pour développer des micro-batteries miniaturisées, on réalise sur un substrat (silicium ou substrat souple) un dépôt de collecteurs de courant en or sur lesquels on fait croître, en trois dimensions, des matériaux nanostructurés (Figure 14).

6. RFID (« radio frequency identification ») est une technologie d’identification automatique qui utilise le rayonnement radiofréquence pour identifier les objets porteurs d’étiquettes lorsqu’ils passent à proximité d’un interrogateur.

3 Tension (V/Li+/Li)

2,5 2 10 μAh · cm–2 1,5 800 μAh · cm–2 1

100 μAh · cm–2

0,5 0

20

40

60

80

Capacité (μAh · cm–2 · μm–1)

Figure 11

Figure 12

Profil de décharge d’une micro-batterie. Source : d’après Levasseur A. et coll. (2009). Microbatteries Microsources d’énergie en couches minces, Les Techniques de l’Ingénieur, D 3 342v2.

Microsystèmes pour le stockage électrochimique de l’énergie

3,5

Microbatterie 2D développée par STMicroelectronics (dimensions 2,5 x 2,5 cm2). Source : STMicroelectronics (www.st.com)

Tension (V) 4,2 Batterie testée à 30 °C

4,1

70 μA 350 μA 0,7 mA 1 mA 1,4 mA 3,5 mA 5 mA

4 3,9 3,8 3,7 3,6 0

0,1

0,2

0,3 0,4 0,5 0,6 0,7 Capacité de décharge (mAh)

0,8

0,9

1

Figure 13 Profil de décharge d’une microbatterie 2D développée par STMicroelectronics.

Interface Film actif Collecteur de courant Collecteur nanostructuré

Collecteurs de courant

Figure 14 Matière nano-structurée Électrode microstructurée

Profil d’une micro-batterie 3D. Source : Brunet M., Pech D. (2012). Microsupercondensateurs : enjeux technologiques et applications, Techniques de l’Ingénieur, http:// www.techniques-ingenieur.fr

163

Chimie et technologies de l’information

La Figure 15 donne un exemple de réalisation : les électrodes négatives sont regroupées en peigne (en rouge) et reliées entre elles par derrière ; les électrodes positives (peignes jaunes) sont reliées entre elles par devant. L’agr andis s ement de l a Figure 16 permet de comprendre la fabrication et la nano-architecture de ces électrodes. Des supports de nickel poreux sont réalisés par voie électrochimique. On les met en présence de petites sphères de polystyrène de quelques dizaines de nanomètres de diamètre contenant une solution de Ni 2+. Une fois ce dépôt fait, on brûle les sphères, faisant

apparaître des trous ; pour les électrodes négatives, on dépose l’étain dans ces trous, et LiMnO2 pour les électrodes positives. Une nouvelle fois, le profil en tension en fonction du temps (ou la capacité déchargée) est intéressant : entre deux et quatre volts avec des capacités déchargées qui restent faibles, des mW.h, et des surfaces de quelques dizaines de mm2 (Figure 17). Le point négatif de ces systèmes 3D est qu’ils nécessitent impérativement l’électrolyte liquide ; comme indiqué plus haut, l’utilisation d’un électrolyte solide peut être à l’origine de courts-circuits à la recharge. L’anode n’est plus en métal mais en alliage

Figure 15 Profil d’une micro-batterie 3D. Source : J. Pikul et coll. (2013). High-power lithium ion microbatteries from interdigitated three-dimensional bicontinuous nanoporous electrodes, Nature Communication.

Collecteurs de courant Anode 3D (NiSn sur Ni poreux)

(NiSn sur Ni poreux)

Cathode 3D (LiMnO2 sur Ni poreux)

(LiMnO2 sur Ni poreux)

Anode

Figure 16

164

Nano-architecture des électrodes d’une micro-batterie 3D. Source : J. Pikul et coll. (2013). High-power lithium ion microbatteries from interdigitated three-dimensional bicontinuous nanoporous electrodes, Nature Communication.

Anode

Cathode

Anode

Cathode Cathode

Dans ce système, les électrodes sont connectées entre elles par des petits serpentins. Lorsqu’on étire le silicone, les

Fabriquer des batteries sur des substrats souples ou sur des substrats flexibles est une tendance récente qui présente beaucoup d’avantages, pour l’utilisation comme pour la récupération de l’énergie. Cette tendance assez lourde

Espaceur silicone

4,0

3,5

3,0

0,5 C 1C 20 C 150 C 500 C 1 000 C

2,5

2,0 0,0

0,5

1,0

1,5

2,0

2,5

Densité d’énergie (μWh · cm–2 · μm–1)

Figure 17 Profil de décharge d’une microbatterie 3D. Source : d’après J. Pikul et coll. (2013). High-power lithium ion microbatteries from interdigitated three-dimensional bicontinuous nanoporous electrodes, Nature Communication.

Microsystèmes pour le stockage électrochimique de l’énergie

Le concept de batteries 3D étirables est apparu récemment (Figure 18). On dépose par pulvérisation du cuivre et de l’aluminium sur des disques de silicone, sur lesquels on dépose ensuite par sérigraphie une encre qui contient de l’oxyde de cobalt comme matériau positif. Un autre oxyde est utilisé pour le matériau électronégatif, dans lequel on va intercaler du lithium.

serpentins peuvent se déformer tout en préser vant le contact entre les électrodes. Sur la Figure 19 est représenté un étirement de 300 % d’une batterie… qui fonctionne toujours. Les profils de charge et de décharge, en potentiel en fonction de la capacité déchargée, sont reproduits sur la Figure 20.

Tension (V)

formé par la pénétration des ions Li+ dans l’étain.

Silicium Film de Polyimide (bas) Électrode de cuivre Film de polyimide (haut) Suspension de matériaux anodiques électrolyte gélifié Suspension de matériaux de cathode Film de polyimide (haut) Électrode en aluminium Film de Polyimide (bas) Silicium

Figure 18 Profil d’une micro-batterie 3D étirable. Source : S. Xu et coll. (2013). Stretchable batteries with self-similar serpentine interconnects and integrated wireless recharging systems, Nature Communication, vol. 4.

Figure 19 Micro-batteries 3D sur silicone. Source : S. Xu et coll. (2013). Stretchable batteries with self-similar serpentine interconnects and integrated wireless recharging systems, Nature Communication, vol. 4.

165

2

Charge

2,4

Décharge

2,2

2.1. Principe des microsupercondentsateurs

2,0

Électrolyte : gel

1,8 1,6

Les micro-supercondensateurs ont des performances intermédiaires entre les condensateurs et les batteries. Typiquement, leurs constantes de durée de décharge sont de l’ordre de quelques secondes. Le principe du stockage des charges est différent et utilise le stockage des charges par électrostatique (Figure 21).

0,0 0,2 0,4 0,6 0,8 1,0 1,2

Capacité surfacique (mAh · cm–2)

devrait se développer dans les prochaines années. Les futurs développements en matière de batteries sollicitent bien sûr la chimie. D’abord, les nouveaux matériaux : mettre au point l’utilisation du silicium comme anode, des électrolytes et des cathodes à haut potentiel… cela concerne toutes les batteries, même celles de grandes tailles pour les véhicules. L’amélioration des techniques de dépôts et de synthèse des matériaux est également très importante pour le développement des micro-batteries. Il en est de même pour tous les procédés de nano-structuration des wafers de silicium. Enfin, rappelons l’intérêt du développement des batteries souples et flexibles, qui sont vraiment amenées à se développer, en particulier avec l’essor actuel de l’électronique imprimée (voir le Chapitre d’I. Chartier de Chimie et technologies de l’information, EDP Sciences, 2014).

+

Ainsi, une électrode polarisée négativement et plongée dans une solution de chlorure de sodium va se retrouver entourée d’une couche d’ions Na+ pour compenser sa charge négative (signalé en violet sur la figure), et ce, avant toute réaction d’oxydo-réduction. Le condensateur correspondant à une très faible capacité, qui dépend de la distance d’approche des atomes qui fait quelques angströms (dixième de nanomètre) et de la constante diélectrique de l’électrolyte (elle est de l’ordre de 10 à 20 mF.cm –2). Dans ce type de polarisation, il n’y a pas de réaction d’oxydation ni de réduction comme dans les batteries ; il n’y a pas d’échange d’électrons dû à des réactions



Électrode

Métal

Figure 21 166

Schéma de fonctionnement d’un supercondensateur.

Les microsupercondensateurs

H2O + Na+, Cl–

Solution –

+



+



+

Électrolyte

Profils de charge et de décharge d’une micro-batterie 3D étirable.

2,6

Tension (V)

Chimie et technologies de l’information

Figure 20



+

C

L a Figure 22 montre le schéma en coupe d’un de ces condensateurs. Sur les feuilles d’aluminium, on a déposé une encre qui contient le carbone de grande surface. Les deux électrodes sont séparées par l’électrolyte. En situation de polarisation, les anions s’accumulent à l’électrode positive pour en compenser la charge, et symétriquement, les cations s’adsorbent sur l’électrode négative. On définit ainsi des condensateurs sur chacune des électrodes ; la valeur de la capacité de double-couche7 sur les carbones de grandes surfaces développées peut atteindre plus de 110 F par 7. En 1879, Helmholtz décrit une électrode polarisée immergée dans un électrolyte par le modèle de la double-couche : par exemple, l’électrode positive est recouverte en surface de charges +. Les anions de l’électrolyte migrent alors vers la surface afin d’équilibrer les charges : la surface, supposée plane, de l’électrode, fait alors face à un « mur » d’anions : ce mur chargé – et cette électrode chargée + forment ensemble un condensateur. Ce modèle sera par la suite complété par Gouy, Chapman, et Stern, qui prendront également en compte des phénomènes de diffusion pour modéliser l’évolution du potentiel au voisinage de l’électrode.

gramme de carbone. La tension de fonctionnement est limitée par la décomposition de l’électroly te par réactions d’oxydo-réduction. Elle peut atteindre 1,2 V en milieu aqueux et près de 3 V en milieu non aqueux. Les condensateurs stockent moins d’énergie que les batteries, parce que la charge y est stockée en surface et non dans le volume du matériau. Par contre, située en sur face, cette charge est libérée plus rapidement et la puissance est plus importante. Comme il n’y a pas de changement de volume du matériau entre les états oxydé et réduit (puisque la charge est uniquement en surface), on atteint des « cyclabilités » de plusieurs dizaines de millions de cycles. Également, charges et décharges peuvent être très rapides, ce qui entre autres permet le fonctionnement à basse température.

Électrolyte

Séparateur

Collecteur de courant (Al)

+ Carbone poreux

Figure 22 Profil d’un microsupercondensateur.



Microsystèmes pour le stockage électrochimique de l’énergie

d’oxydo-réduction. C’est ce mécanisme de charges qui est utilisé pour les supercondensateurs. Pour les fabriquer, on associe deux électrodes construites avec un matériau actif de très grande surface développée : il s’agit de carbone, dont les surfaces spécifiques peuvent atteindre 2 500 m2.g-1. Avec 2 500 m2.g-1 et 10 mF.cm-2, on atteint des capacités de plus de 200 F.g-1.

2.2. Une application des micro-supercondensateurs Ces supercondens ateur s peuvent ser vir à alimenter les réseaux de capteurs. La Figure 23A donne un exemple de microsystè m e é l e c t r o m é c a n i q u e (« MicroElectroMechanical System », MEMS). Il s’agit d’un accéléromètre, par exemple celui de la console de la Wii (Figure 23B) : elle incorpore quelques supercondensateurs capables de réagir très rapidement aux sollicitations mécaniques pour produire un courant afin de maintenir la distance entre les peignes. Ces microsystèmes sont

167

Chimie et technologies de l’information

Figure 23

B

On trouve des microsystèmes électromécaniques (MEMS) (A) par exemple dans la console Wii (B). Source : A) http://secondelmb. free.fr/edc2/activites/act3.html

A

intégrés sur le silicium, au plus près de l’application. 2.3. Des microsupercondensateurs à base d’oignons de carbone et de graphène Si simple soit-il chimiquement, puisqu’il n’est constitué que d’une seule espèce atomique, le carbone présente un remarquable polymorphisme (Figure 25, voir l’Encart : « Le carbone sous différentes formes »). Cela a donné naissance à plusieurs types de matériaux actifs utilisés pour

les supercondensateurs. On a ainsi utilisé ce qu’on appelle les « oignons de carbone ». Ils offrent une surface élevée et entièrement accessible, et fournissent une puissance intéressante. L’inconvénient est qu’à 500 m2 par gramme, la capacité reste un peu limitée. Ils constituent cependant un progrès par rapport aux autres solutions. La Figure 29 résume une expérience faite en collaboration au LAAS-CNRS à Toulouse. On a réalisé un dépôt de ces carbones oignons par

LE CARBONE SOUS DIFFÉRENTES FORMES Exemples de carbones « naturels » Le polymorphisme du carbone est étonnant. Dans les suies, on trouve quantité d’assemblages d’atomes de carbone dont certains sont représentés sur la Figure 24 en haut. Il s’agit de produits solides aux propriétés très diverses qui intéressent par conséquent les applications. À côté de ces formes « naturelles », on a pu synthétiser des formes encore différentes par des procédés chimiques : ce sont les « carbones activés » (Figure 24 en bas) qui enrichissent encore le champ des applications du carbone. 168

Oignon de carbone

1 Dimension

Nanotube de carbone

Figure 24

2 Dimensions

Différentes formes de carbone. Source : adapté avec la permission de Simon P, Gogotsi Y. (2013). Capacitive Energy Storage in Nanostructured CarbonElectrolyte Systems, Accounts of Chemical Research, 46 : 1094–1103. Copyright (2013) American Chemical Society.

Graphène

3 Dimensions

Carbone activé

Carbone dérivé de carbure

Carbone préparé par méthode template

Microsystèmes pour le stockage électrochimique de l’énergie

0 Dimension

La Figure 25 montre la structure de ce qu’on appelle les oignons de carbone. Le dessin en est assez pédagogique ! Les éléments structuraux sont des couronnes de carbone sp2 (voir le Chapitre de L. Hirsch de l’ouvrage Chimie et technologies de l’information, EDP Sciences, 2014). Ces matériaux ne sont pas poreux mais massifs. Du fait des petites dimensions de leurs motifs, ils développent cependant des surfaces élevées, de plus de 500 m2 par gramme.

Figure 25 Carbones oignons. Source : Dr. Vadym Mochalin, Drexel University.

Le graphène est l’une des formes « naturelles » du carbone découvertes les plus récemment. Sa structure est étonnante puisqu’il ne présente qu’un plan cristallin, formé d’hexagones d’atomes de carbone analogue à ceux qui constituent le graphite, mais ordonnés les uns par rapport aux autres (Figure 24). La surface développée par le graphène peut être importante, théoriquement 3 000 m2 par gramme. Ne présentant pas de pore ni de porosité, il est accessible tout l’espace. Pour fabriquer du graphène (Figure 26), on part du graphite, qu’on immerge dans un solvant à constante diélectrique élevée : les molécules de solvant s’insèrent entre les plans de graphite et viennent exfolier ces plans. Dans ces solvants, le graphène s’oxyde en oxyde 169

Chimie et technologies de l’information

de graphite et doit donc être réduit. Une technique élégante pour le faire est d’utiliser une irradiation par laser qu’on peut d’ailleurs adapter en gravure laser.

Oxydation

Graphite

Réduction gravure laser

Exfoliation

Graphite oxydé

Graphène (réduit par gravure laser)

Graphite oxydé exfolié

Figure 26 Procédé d’obtention de graphène à partir de graphite.

Le carbone activé Le carbone activé est représenté sur la Figure 24 ; tous les nœuds sont des atomes de carbone. Pour faire du carbone activé, on prend des coques de noix de coco (ou des végétaux équivalents) que l’on carbonise et que l’on met sous forme de poudre (de grains d’environ dix microns). Le traitement d’activation ultérieur consiste à placer cette poudre dans un milieu oxydant et d’oxyder de façon contrôlée le carbone en CO2. Le départ du gaz CO2 cause l’apparition de pores (Figure 27). Le résultat du traitement est un ensemble de grains traversés de pores de différentes dimensions : des pores supérieurs à 50 nm, des pores intermédiaires, méso, entre 2 et 50 nm, et les plus petits pores, nanométriques (mais qu’on appelle à tort « micropores » pour des raisons historiques). La structure réelle d’un carbone activé est celle qui est représentée sur la Figure 28. Les surfaces développées sont très élevées, supérieures à 1 500 nm2.g–1. Cette méthode ne permet pas de contrôler la taille des pores, et la recherche doit se poursuivre pour acquérir une bonne connaissance de la répartition des pores et de leurs propriétés d’adsorption.

CO2

Poudre de carbone

Pore

CO

Activation (oxydation) Noix de coco 5-10 μm

Figure 27 Procédé d’obtention de carbone activé (poreux) à partir de noix de coco.

170

Figure 28 Représentation de la surface développée du carbone activé en fonction de la taille des pores. Source : Y. Gogotsi, Drexel University

Figure 29

OLCs déposé sur collecteurs Dépôt électrophorétique

A) Dépôts de carbones oignons sur des collecteurs de courants d’or par électrophorèse, B) photographie en coupe du dépôt sur silicium, C) photographie de vue de dessus, D) vue du dessus une fois encapsulé. Source : Reproduit avec la permission de Macmillan Publishers Ltd: [Nature Nanotechnology], advance online publication, 2010 (Pech et coll. (2010), Ultrahighpower micrometre-sized supercapacitors based on onion-like carbon, Nature Nanotechnology, 5 : 651-654, DOI: 10.1038/NNANO.2010.162.

(EPD)

A B

D

C

10 μm

150 μm

électrophorèse 8, c’est-à-dire qu’on a réalisé une suspension dans laquelle les collecteurs de courant ont été plongés puis polarisés négativement. Les particules de carbone, légèrement chargées, sont déposées sur ces collecteurs par migration dans le champ électrique. La Figure 29A est l’image des agrégats d’oignons de car-

bone obtenus ; vu de dessus, on a des peignes (Figure 29C). Le micro-supercondensateur, une fois encapsulé, est représenté sur la Figure 28D) – la taille est repérée par le doigt qui le porte.

Micro-supercondensateur à base de carbone activé

2

0,2 –1

1Vs

0

–1

10 V s

0

–0,2

–2

–0,4 0

1

2

3

Courant (mA)

10

1

2

3

15

5 0

50 V s

0

–1

–5

100 V s–1

Micro-supercondensateur à base d’onions de carbone

100

10–1 Supercondensateur 3,5 V/25 mF

10–2

10–3 condensateur électrolytique 63 V/220 μF

–15

–10

10

–15 1

2

Potentiel (V)

3

–4

0

–30 0

A

0 30

15

A) Caractéristiques courant/potentiel des micro-supercondensateurs à partir d’oignons de carbone, B) capacités volumiques des micro-supercondensateurs à partir d’oignons de carbone en fonction de la vitesse de scan. Source : d’après Pech et coll. (2010), Ultrahighpower micrometre-sized supercapacitors based on onion-like carbon, Nature Nanotechnology, 5 : 651-654, DOI: 10.1038/NNANO.2010.162.

101

4

C = 1,7 mF cm–2

Capacité du stack (F cm–3)

Courant (mA)

0,4

Figure 30

Les caractéristiques de ces systèmes sont représentées sur la Figure 30, qui donne la réponse du courant en fonction du potentiel. Les profils systèmes sont très proches du rectangle, comme pour le condensateur idéal. Les capacités sont de l’ordre de 800 mF.cm–2. On peut faire des cycles à 10 V par seconde, et jusqu’à 100 V par seconde. Il s’agit donc de systèmes de puissance ; parce que la

8. L’électrophorèse est une méthode de séparation résultant de la possibilité de faire migrer les espèces à séparer à des vitesses différentes, sous l’action d’un champ électrique dans un électrolyte de composition variée. Les espèces sont séparées principalement suivant leur charge et leur taille.

Microsystèmes pour le stockage électrochimique de l’énergie

Collecteurs de courant en or

0

1

2

Potentiel (V)

3

20

40

60

80

100

120

140

160

180

200

Vitesse de balayage (V s1)

B

171

Chimie et technologies de l’information

surface est petite, les ions ont accès à toute la surface. Les performances en F.cm –3 d’électrode de ces systèmes sont sensiblement meilleures que celles des condensateurs électrochimiques classiques de 50 V, 60 V, ou des supercondensateurs macroscopiques. Ils offrent surtout dix mille fois plus de capacité volumique que les condensateurs électrochimiques. Le graphène (voir l’Encart : « Le carbone sous différentes formes ») présente une surface développée très importante, pouvant at teindre 3 000 m2 par gramme. Il n’est pas constitué en pores ou tortuosités, et reste parfaitement accessible. La méthode

de fabrication du graphène décrite dans cet encart peut être adaptée à la fabrication de microsystèmes. On y remplace le laser par un graveur de DVD (Figure 31). L’oxyde de graphite exfolié est déposé sur un DVD, et un graveur transforme l’oxyde de graphite en graphène par l’effet de son irradiation laser. L’oxyde de graphite est isolant, le graphène est conducteur. On fabrique ainsi les circuits voulus pour obtenir des microsystèmes. Après ajout d’électrolyte et équipement d’un capot, on obtient facilement des micro-supercondensateurs par ces techniques. L a Figure 32 montre un exemple d’utilisation de cette

Figure 31 Procédé de fabrication de microsupercondensateurs à partir d’un lecteur DVD. Source : Reproduit avec la permission de Macmillan Publishers Ltd: [Nature Nanotechnology] (El-Kady et coll. (2013), Scalable fabrication of high-power grapheme microsupercapacitors for flexible and on-chip energy storage, Nature Nanotechnology, 4 : 1475), copyright (2014).

Électrolyte

Ruban en kapton Ruban en cuivre

Substrat

LightScribe DVD drive

Figure 32

172

Photographies des électrolytes souples gravés par un graveur DVD. Source : Reproduit avec la permission de Macmillan Publishers Ltd: [Nature Nanotechnology] (El-Kady et coll. (2013), Scalable fabrication of high-power grapheme micro-supercapacitors for flexible and on-chip energy storage, Nature Nanotechnology, 4 : 1475), copyright (2013).

10 5 0 –5

2,0 1,5 1,0 0,5

–10

0,0

–15

–0,5 –1

0,0 0,5 1,0 1,5 2,0 2,5 3,0 Tension (V)

technique. Sur le DVD, c’est un film plastique « électrolyte souple » imprimable qui est déposé (voir plus haut). La gravure laser fabrique ensuite des microsystèmes, des micro -supercondensateurs ; plusieurs séries peuvent être réalisées en parallèle. Leurs caractéristiques sont similaires à celles des condensateurs comme illustré par le diagramme rectangulaire de la voltammétrie9 (Figure 33). Il s’agit là d’une façon très intéressante de réaliser des microsystèmes à partir de graphite exfolié (pas cher !) et d’un graveur de DVD.

9. La voltammétrie est une méthode de mesure permettant d’étudier les propriétés d’oxydoréduction d’un composé en solution. Pour obtenir un diagramme de voltammétrie cyclique, on applique à la solution à analyser un potentiel variant continument entre deux bornes U1 et U2, c’est-àdire que le potentiel appliqué part de U1, converge vers U2, puis varie dans le sens inverse pour reconverger vers U1 (on a alors un cycle), et ce, plusieurs fois de suite. Les variations du courant électrique traversant la solution sont alors mesurées en fonction du potentiel et reportées sur un graphe.

chimie_techno_partie_3.indd 173

0

1

2

3

4

5

6

Temps (s)

Caractéristiques des microsupercondensateurs à base de graphène obtenus par gravure laser. Source : d’après El-Kady et coll. (2013), Scalable fabrication of high-power grapheme microsupercapacitors for flexible and on-chip energy storage, Nature Nanotechnology, 4 : 1475

2.4. Des microsupercondensateurs à base de carbone dérivé de carbure 2.4.1. L’état physico-chimique des ions dans les carbones CDC

Microsystèmes pour le stockage électrochimique de l’énergie

2,5 Tension (V)

Courant (mA cm–3)

Figure 33

3,0

15

Dans un travail récent, nous avons étudié et développé des carbones activés dérivés de carbures : les CDC (Figure 24). La synthèse de ces matériaux part d’un carbure, ici le carbure de titane (Figure 34). Ce composé est ensuite soumis à une chloration10, ce qui a pour effet de faire partir le titane sous forme de gaz : il reste le carbone pur, mais rendu poreux par l’élimination du titane. En contrôlant la température, on peut obtenir de façon contrôlée des tailles de pores très variées (Figure 35). À 400 °C, les tailles de pores vont de 0,68 à 1 nm. Comme ils sont très petits, leur surface est développée, et donc la capacité associée qui lui est proportionnelle, est très élevée. 10. La chloration consiste en la dissolution sélective du métal d’un carbure (TiC, SiC, ZrC…) sous l’effet du dichlore Cl2. L’équationbilan, par exemple pour le carbure de titane, est la suivante : TiC(s) + 2 Cl2(g) → TiCl4(g) + C(s).

Figure 34 Représentation du système cristallin du carbure de titane.

173

19/06/14 08:39

Chimie et technologies de l’information

L a c ap acité nor malis ée (Farads par gramme divisée par la surface par gramme) d’un échantillon de CDC est reportée sur la Figure 36A en microF.cm –2 , en fonction de la taille moyenne des pores. En fait, on s’attend à observer un effondrement de la capacité lorsque les pores n’ont plus la taille suffisante pour accueillir les ions du système – soit environ trois nanomètres. C’est ce que la Figure 36A semblait corroborer après l’analyse qui avait été faite de la taille des ions que l’on utilisait (tétraéthylammonium ou tétrafluorure de bore) lorsqu’ils sont dans leur état solvaté (Figure 37).

Dérivée de la surface par rapport à la taille de pore (m2/A/g)

3000

1,1 nm 1000 °C

2500

8,1 Å 800 °C

2000

7,6 Å 700 °C

1500

7,4 Å 600 °C

1000

7,0 Å 500

6,8 Å 0 0

500 °C

400 °C

10 20 30 40 50 60 70

Taille de pore (A)

Contrairement à ce qui était attendu, les valeurs de la capacité sont au contraire exacerbées aux très petites tailles de pores inférieures à la taille des ions solvatés (Figure 37B). Il semble que les pores soient

Figure 35 Surface développée en fonction de la taille des pores, pour différentes températures entre 400 et 1 000 °C.

15

II

Vue traditionnelle Tic-CDC NMAC & SMAC B4C & Ti2AIC-CDCs J. Gamby (2001) Vix-Guterl (2005)

cG-med cV-low cS-med

0 0

A

1

2

III

III Capacitance normalisée (µF/cm2)

Capacitance normalisée (µF/cm2)

10

5

15

I

I

Taille de pore moyenne (nm)

4

I

I

Nouveaux résultats 10

II

Vue traditionnelle

5

0

5

B

cG-high

cG-med

cG-med

cV-high

cV-med

cV-low

cS-high

0

3

II

cS-low 1

Tic-CDC NMAC & SMAC B4C & Ti2AIC-CDCs J. Gamby (2001) Vix-Guterl (2005)

cS-med 2

III

3

4

5

Taille de pore moyenne (nm)

Figure 36

174

A) Représentation de la capacité normalisée en fonction de la taille des pores, B) augmentation exponentielle de la capacité volumique pour les micropores. Source : d’après Chmiola J., Yushin G., Gogotsi Y., Portet C., Simon P., Taberna P.L. (2006), Science, 313 : 1760-1763.

Figure 37

B BF4– + 9(CH3CN)

(C2H5)4N+ + 7(CH3CN)

accessibles aux ions, car ceuxci perdent une partie de leur cortège de solvatation pour entrer. Cette hypothèse est confirmée par une étude de

A) Représentation de pores accueillant des anions, B) représentation de l’anion BF4– solvaté dans l’acétonitrile. Source : Reproduit avec la permission de Yang C.-M. et coll. (2007). NanowindowRegulated Specific Capacitance of Supercapacitor Electrodes of Single-Wall Carbon Nanohorns, Journal of the American Chemical Society, 129 : 20-21. Copyright {2014} American Chemical Society.

simulation numérique (voir l’Encart « Une étude de simulation numérique : modélisation de la physico-chimie des ions dans le carbone activé »).

Microsystèmes pour le stockage électrochimique de l’énergie

A

UNE ÉTUDE DE SIMULATION NUMÉRIQUE : MODÉLISATION DE LA PHYSICO-CHIMIE DES IONS DANS LE CARBONE ACTIVÉ Une étude de modélisation a été réalisée en collaboration avec le laboratoire de Physicochimie des Électrolytes, Colloïdes et Sciences Analytiques (PECSA) de l’Université Pierre et Marie Curie (Paris 6). Ce travail était justifié non seulement par le cas des supercondensateurs mais également par la compréhension générale qu’il promettait des mécanismes de transports rapides d’ions dans des milieux confinés subnanométriques, qui peut avoir des applications dans beaucoup de domaines. Un exemple peut être trouvé dans les membranes échangeuses d’ions, dont l’intérêt rejoint même la biologie puisqu’elles jouent un rôle clé dans le fonctionnement du corps humain. Pour le travail de dynamique moléculaire*, le milieu carbone a d’abord été modélisé à partir des carbones expérimentaux (Figure 38). On a ensuite modélisé un électrolyte introduit.

Figure 38

A

B

Modélisations de structures CDC à différentes températures (A : 900 °C, B : 1 200 °C). 175

Chimie et technologies de l’information

La Figure 39 indique des figures de la modélisation d’une cellule complète : une électrode positive de carbone, l’électrolyte et une électrode négative de carbone. Les cations sont figurés en rouge et les anions en vert. La modélisation, qui utilise la dynamique moléculaire, permet de reconstituer qualitativement le fonctionnement du système. En particulier, cela visualise que même à zéro volt, il y a des ions qui entrent dans les pores, même les très petits (Figure 39B). Il ne s’agit pas d’un phénomène gouverné par l’électrosorption** mais d’un transport (diffusion) dans les pores. Lorsqu’on est sans polarisation (Figure 39B), on a 82 anions et 82 cations. En polarisation négative (Figure 39A), on a plus d’anions que de cations, comme attendu, mais au lieu de 164 ions, il n’y en a plus que 159. Ce défaut d’ions indique que le transport des ions dans les petits pores confinés est très rapide, et permet de conclure que dans les pores, le nombre de coordination des ions est diminué : les ions sont désolvatés. La différence de nombre d’ions s’explique par la conservation du volume de la charge anodique et cathodique. Électrolyte = EMI-PF6 (100 °C)

CDC

CDC

Potentiel appliqué ψ = – 0,5 V A

ψ = 0,0 V B

N+ = 104 N– = 55

ψ = + 0,5 V C

N+ = 82 N– = 82

N+ = 66 N– = 115

Figure 39 Modélisation dynamique de deux électrodes de CDC et d’un électrolyte entre les deux (image du haut), avec ou sans polarisation, positive ou négative. Sans polarisation, les ions accèdent aux pores et ne sont pas gouvernés par l’électrosorption. Avec polarisation, on assiste à des échanges d’ions avec l’électrolyte ; l’électrolyte est une solution d’éthylméthylimidazole, bis-trifluorosulfonylimide (EMI,TFSI). Le nombre de cation est N+, le nombre d’anion N-. Source : Merlet C., Rotenberg P., Madden P.A., Taberna P.-L., Simon P., Gogotsi Y. et Salanne M. (2012). On the molecular origin of supercapacitance in nanoporous carbon electrodes, Nature Materials, 4 : 306-310. *La dynamique moléculaire est une méthode permettant de simuler l’évolution temporelle d’un système moléculaire. Elle repose sur l’application du principe fondamental de la dynamique de Newton : Σ des forces = ma. **L’électrosorption est la formation d’une liaison chimique entre un ion de l’électrolyte et la surface de l’électrode. 176

A

Pourquoi les CDC, ces matériaux de grande capacité, sont-ils très intéressants ? Parce qu’on veut les utiliser pour faire des micro-supercondensateurs en vue de réaliser certains types de condensateurs, car qu’ils permettent de faire des films massifs, ce qui est impossible avec les carbones activés (Figure 40A). Une couche mince de carbure de titane (TiC) est déposée par pulvérisation cathodique sur du silicium, puis transformée par chloration en carbone poreux. La Figure 40B montre, en coupe, le carbone poreux, la silice (SiO2) et le silicium. L’expérience a montré que la capacité volumétrique (en F.cm–3) augmentait drastiquement en dessous de 50 nm d ’ é p ai s s eur d ’ él e c tr o d e (Figure 41), avec des capacités de stockage trois fois plus élevées que ce qu’on obtient avec le carbone activé, ou avec les encres de sérigraphie. Ces films massiques conviennent donc comme films de très

B

Couche mince de TiC (PVD) Film de carbone poreux

1 μm

Chloration

0,5 μm

à 500 °C Si

Si

haute densité d’énergie pour des microsystèmes. Une nouvelle technique de fabrication à l’étude à l’heure actuelle consiste, en partant d’un wafer de silicium, à déposer TiC, à le transformer en carbone CDC par chloration, à réaliser ensuite des masques, des collecteurs de courant, et enfin, à tracer le circuit par gravure, mettre une goutte d’électrolyte et réaliser des microsystèmes (Figure 42).

Figure 40 A) Schéma de la chloration d’une couche mince de TiC (B : coupe d’un film de carbone poreux sur wafer de silicium).

Le premier système réalisé est représenté sur la Figure 43 sur laquelle on reconnaît les électrodes, le silicium, SiO 2 et TiC, et accompagné des premières voltammétries cycliques (Figure 42). Ces systèmes devraient permettre le développement de micro-supercondensateurs de haute densité d’énergie.

Figure 41

180 Électrolyte organique

160 Capacitance volumétrique (F/cm3)

CDC SiO2 Si

Microsystèmes pour le stockage électrochimique de l’énergie

2.4.2. Les microsupercondensateurs aux CDC

Évolution de la capacité volumétrique en fonction de l’épaisseur des revêtements de CDC. Source : d’après Chmiola J. et coll. (2010). Monolithic CarbideDerived Carbon Films for Micro-Supercapacitors, Science, 328 : 480-483. Reproduit avec la permission de AAAS

140 120 100 80 Poudre de carbone

60 40 20 0

50

100

150

200

250

Épaisseur de revêtement (µm)

177

Chimie et technologies de l’information

A

B Film mince de TiC déposé par pulvérisation

SiO2

SiO2

Film mince de TiC-CDC

Chloration (500 °C < T < 1000 °C)

Wafer de silicium

Wafer de silicium

Masquage et pulvérisation d’or

D

C

Collecteurs en or

Collecteur en or

Électrolyte SiO2

Gravure de CDC

Collecteur en or

SiO2

Wafer de silicium

Film de CDC

Wafer de silicium

Figure 42 Schéma de fabrication de microsystèmes à base de CDC. Source : d’après Chmiola J. et coll. (2010). Monolithic Carbide-Derived Carbon Films for MicroSupercapacitors, Science, 328 : 480-483. Reproduit avec la permission de AAAS

Tic-CDC

1,6 μm

Pour connexion et test

500 nm

SiO2 Si

Procédé de microfabrication

Substrat SiO2/Si

1 μm

A

0,15

Collecteur de courant en Ti/Au

Film à motifs TiC-CDC

0,8

0,1 V/s

1 V/s

0,6

Courant (mA)

Courant (mA)

0,1 0,05 0 –0,05

0,2 0 –0,2 –0,4 –0,6

–0,1

B

0,4

0

0,5

1

Tension (V)

1,5

2

0

0,5

1

Tension (V)

1,5

2

Figure 43

178

A) Coupe d’un microsystème à base de CDC, B) voltammétries cycliques d’un microsystème à base de CDC. Source : Huang P., Pech D., Lin R., McDonough J.K., Brunet M., Taberna P.-L., Gogotsi Y., Simon P. (2013). Electrochemistry Communications, 36 : 53-56.

Deux messages vont clore ce chapitre. Le premier est de souligner qu’en France on a historiquement une excellente expertise sur les batteries. Les batteries au plomb, les batteries Leclanché, nickel-métal-hydrure, lithiummétal-polymère sont des batteries françaises ; un nombre important de brevets et d’améliorations a également été développé en Europe (exemple du nickel-cadmium et du lithium-ion, lithium-polymère…). Notre grand point faible est dans la commercialisation, dans le transfert de technologies vers l’industrie. Pour améliorer ce point, il a récemment été créé le réseau national sur le stockage électrochimique de l’énergie (RS2E, www.energie-rs2e.com) qui rassemble, dans un « centre de recherche et d’intégration », quinze laboratoires du CNRS, et les organismes comme le CEA et l’IFP. Ce centre s’est associé avec un club d’industriels afin de saisir les opportunités de transfert. D’un autre côté, les laboratoires, en plus de leur mission d’accélérer la connaissance et de prendre des brevets, s’appuient sur ce centre de transfert pour passer les innovations chez nos collègues industriels. Le dernier message sera à l’adresse des jeunes étudiants et des jeunes élèves, pour leur dire à quel point la recherche est un métier passionnant. Et la recherche en chimie fait toucher à quantité d’aspects : on peut faire des molécules, on peut faire des matériaux, on parle de nanoparticules et l’on arrive à faire une batterie… Et quand les applications arrivent, ce sont de grands moments !

Microsystèmes pour le stockage électrochimique de l’énergie

S’organiser pour la recherche technologique

179

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

diodes

électroluminescentes

organiques sources « plates » lumière :

des

de

Lionel Hirsch est directeur de recherche au CNRS, au laboratoire de l’Intégration des Matériaux au Systèmes (IMS) à l’École Nationale Supérieure de Chimie et de Physique de Bordeaux (ENSCPB).

De l’éclairage à l’affichage, une évolution progressive de l’utilisation des sources de lumière

1

1.1. Les sources de lumière La lumière est la source de la vie. Certes, le soleil nous éclaire la journée, mais avec l’évolution de l’humanité, est venu le besoin d’avoir de la lumière la nuit, et les premières sources de lumière étaient le feu, puis la bougie et la lampe à incandescence, qui est restée très longtemps et que l’on trouve encore sur le marché. Suivent les lampes halogènes, et nous utilisons encore aujourd’hui les lampes fluo-compactes que sont des tubes néons (Figure 1). Toutes ces sources de lumière font appel au principe physique du

rayonnement du corps noir (le corps noir absorbe la totalité des rayons incidents) où c’est la chaleur qui produit la lumière. De nouvelles sources de lumière sont apparues récemment : les diodes électroluminescentes ; les blanches qui servent au rétro-éclairage des téléphones portables ou des ordinateurs, et les colorées utilisées pour certains phares de voitures ou d’autres objets de la vie courante (par exemple des afficheurs pour la signalétique). Dans ce cas, la source ne produit que le rayonnement visible sans créer de la chaleur. Dans le cas des nouvelles diodes électroluminescentes organiques (« Organic Light-Emitting Diode », OLED), ce sont des surfaces qui émettent de la lumière.

D’après la conférence de Lionel Hirsch

Les

Chimie et technologies de l’information

Figure 1 Évolution des sources de lumière au cours des années.

1.2. Les écrans Les écrans émettent de la lumière. La Figure 2 montre l’évolution des écrans d’ordinateurs depuis les premiers avec un tube cathodique, dans lequel c’est le faisceau d’électrons qui percute l’écran et entraine l’émission de la lumière. Les ordinateurs portables ne pouvaient être réalisés avec cette technologie trop encombrante et qui a besoin de tensions élevées. Les premiers écrans plats utilisés pour les ordinateurs portables sont apparus dans les années 1980, et ceux qui existent encore de nos jours sont à base de cristaux liquides (« liquid

Figure 2 184

Évolution des écrans d’ordinateurs au cours des années.

crystal display », LCD. Voir le Chapitre de J.-C. Flores dans l’ouvrage Chimie et technologies de l’ information, EDP Sciences, 2014). La Figure 3 montre l’évolution du poids respectif des différentes technologies utilisées pour réaliser les écrans de télévision. On retrouverait la même évolution dans le cas des écrans pour les ordinateurs. On observe que les anciennes technologies disparaissent toujours au profit d’une autre technologie. Les premiers écrans plats LCD utilisaient des rétro-éclairages réalisés avec des tubes néons. Il en

Tube cathodique

LCD (CCFL)

LCD (LED)

Plasma

284

292

247

261

272

252

2010

2011

2012

2013

2014

2015

300 250

OLED

211

Évolution temporelle des différentes technologies utilisées pour les écrans de télévisions. Source : d’après Les Echos, Display search.

200 150 100 50 0

2009

reste encore quelques-uns, mais ils sont très rares ; les écrans LCD ont maintenant un rétro-éclairage par des diodes électroluminescentes, tout simplement parce que c’est beaucoup moins encombrant, et le rendement énergétique est meilleur. Les écrans plasma sont plus rarement utilisés car, s’ils sont merveilleux du point de vue du contraste de l’image, ils sont néanmoins énergivores et encombrants. Malgré tout, c’est une technologie qui perdure. 1.3. L’évolution de l’éclairage et de la microélectronique L’éclairage et la microélectronique ont évolué parallèlement (Figure 4). Autrefois, l’électronique fonctionnait avec des tubes, et utilisait les triodes, les pentodes1 et tous 1. Le triode est le premier dispositif amplificateur d’un signal électronique composé d’une anode, d’une cathode et d’une grille entre les deux. Dans un pentode, trois grilles séparent l’anode et la cathode pour limiter les pertes.

ces composants qui permettaient de faire du traitement du signal avant l’apparition du transistor (à propos du transistor, voir le Chapitre de Y. Le Tiec de l’ouvrage Chimie et technologies de l’information, EDP Sciences, 2014). Avec le transistor est apparue une technologie plus robuste et plus compacte. On travaille maintenant avec des circuits intégrés sur des surfaces réduites avec des taux d’intégration très élevés. L’épaisseur des transistors est de l’ordre de quelques centaines de nanomètres à quelques microns. Autre point important : cette technologie est aussi beaucoup plus fiable et sobre en énergie.

Les diodes électroluminescentes organiques : des sources « plates » de lumière

Figure 3

En millions d’unités

Figure 4 Technologies avant le transistor, transistor et dernier microprocesseur Intel : un même cheminement pour l’affichage et l’éclairage.

185

Chimie et technologies de l’information

Les diodes électroluminescentes organiques (OLED)

2

2.1. Les semi-conducteurs organiques Les matériaux organiques contiennent des liaisons carbone-hydrogène (C-H) et des liaisons carbone-carbone (CC). L’éthylène est la plus petite molécule qui pourrait être considérée comme un semiconducteur2 organique, mais elle n’en est pas vraiment un, car l’éthylène est un gaz. Rappelons d’abord les différents modes de liaisons carbone-carbone. Nous 2. Un semi-conducteur est un matériau dont la conductivité électrique se situe entre celle d’un isolant et celle d’un conducteur. Au sujet des semi-conducteurs organiques, voir le Chapitre d’I. Chartier de Chimie et technologie de l’information, EDP Sciences, 2014.

connaissons tous au moins deux états naturels du carbone, qui correspondent à deux types de liaisons C-C très différentes : le graphite de la mine de crayon et le diamant. Ces deux matériaux sont complètement différents alors que ce sont les mêmes atomes qui interviennent. La nature de la liaison chimique C-C est donc primordiale pour les propriétés physiques du matériau. 2.1.1. Exemple de l’éthylène Dans le cas des semi-conducteurs organiques comme dans la petite molécule d’éthylène, la liaison C-C est une double liaison. Voyons ce que cela signifie du point de vue des niveaux d’énergie des électrons qui interviennent dans la liaison entre les deux atomes, comment ils se repartissent dans ces niveaux d’énergie, et comment cela conduit aux notions de bande de valence et de bande de

LA CHIMIE DES SEMI-CONDUCTEURS Sans entrer dans le détail de la théorie de la liaison chimique, examinons la Figure 5A. La partie gauche représente les niveaux d’énergie (E) des électrons périphériques d’un atome de carbone isolé, et la partie droite représente les niveaux d’énergie de ces électrons quand cet atome de carbone s’engage dans une double liaison C=C, comme dans le cas de la molécule d’éthylène. On voit qu’il y a trois électrons (figurés par des flèches qui indiquent l’orientation du moment magnétique*) dans trois orbitales électroniques (figurées par des carrés) au niveau de plus basse énergie (sp2), et un électron dans une orbitale électronique à un niveau d’énergie supérieur (2p) ; les niveaux de basse énergie sont les plus stables. L’orbitale électronique est la zone de l’espace dans lequel un électron a le plus de chances de se déplacer. Les quatre orbitales dans lesquelles se déplacent les électrons périphériques (qui assurent les liaisons chimiques) de chaque atome de carbone d’une molécule d’éthylène sont représentées sur la Figure 5B : les trois orbitales sp2 sous forme de demi-altères bleues dans un même plan (en gris), et l’orbitale 2p sous forme d’altère bleue perpendiculaire à ce plan. Pour qu’une liaison chimique se forme entre deux atomes, il faut qu’il y ait une possibilité de recouvrement de deux orbitales, chacune d’elles contenant un électron pour former une *Le moment magnétique est une grandeur vectorielle qui permet de mesurer l’intensité d’un champ magnétique. 186

On voit qu’entre les deux atomes de carbone, il y a deux recouvrements possibles : – un recouvrement important entre les deux orbitales sp2 selon l’axe de la liaison pour former une liaison appelée σ ; – un recouvrement latéral plus faible entre les deux orbitales 2p pour former une liaison appelée π. Les niveaux d’énergie possibles pour les deux électrons de la liaison σ et les deux électrons de la liaison π sont représentés sur la Figure 5C. Une liaison est d’autant plus forte que le niveau d’énergie de ses électrons est plus bas. On peut faire les remarques suivantes : – pour la liaison σ, il y a deux niveaux possibles : l’un de basse énergie (σ- liant), l’autre de plus haute énergie (σ+ anti-liant) ; – il en de même pour la liaison π, avec un niveau π– liant et un niveau π+ anti-liant (Figure 6). Les électrons de la double liaison C=C se localisent donc à raison de deux par orbitales dans les niveaux d’énergie les plus bas. On voit donc qu’il existe, au-dessus de ces deux orbitales liantes, des orbitales anti-liantes vides à des niveaux d’énergie plus élevés, et dans lesquels les électrons peuvent aller, à condition de leur fournir un peu d’énergie. Si dans une molécule il y a formation d’une succession de simples et de doubles liaisons —C=C—C=C—, il y a alors possibilité de recouvrement des orbitales liantes entre elles, ce qui correspond du point de vue énergétique à une bande de valence, contenant l’ensemble des niveaux σ- et π- (totalement remplie d’électrons). Il en est de même pour les orbitales anti-liantes entre elles qui forment la bande de conduction, vide. Des électrons de la bande de valence pleine peuvent « sauter » dans la bande de conduction vide si on leur fournit l’énergie nécessaire.

Les diodes électroluminescentes organiques : des sources « plates » de lumière

nouvelle orbitale de liaison qui contiendra deux électrons. Les possibilités de recouvrement sont figurées en jaune sur cette figure.

C’est ce qui se passe dans un polymère organique semi-conducteur. A

E

2p sp2 2s Éthylène 1s Atome de carbone

σ+

B orbitale 2p z

C liaison π

orbitale 2pz

2pz

liaison σ

π+ π

2

plan des orbitales sp2

2pz



sp2

sp liaison π

σ–

Figure 5 La molécule d’éthylène : A) niveaux d’énergie des électrons pour un atome de carbone isolé ; B) représentation des orbitales des électrons de liaison du carbone ; C) diagramme d’énergie de l’éthylène : niveaux d’énergie des électrons de la double liaison C=C. Source : www.orgworld.de 187

Chimie et technologies de l’information

Figure 6 Représentation des orbitales de la liaison π- liante (A) et de la liaison π+ anti-liante (B) de l’éthylène.

A

B

σ- dans la bande de valence (en bleu), et π+ et σ+ dans la bande de conduction (en rouge). Le diagramme des niveaux d’énergie possibles pour les électrons des liaisons entre les atomes de carbone de ce polymère organique ressemble plus ou moins à celui des semi-conducteurs minéraux, avec une bande de valence remplie d’électrons qui peuvent, moyennant un apport d’énergie, sauter dans la bande de conduction vide (Figure 7).

conduction (Encart : « La chimie des semi-conducteurs »), ainsi qu’à la notion de semi-conducteur. 2.1.2. Les familles de semiconducteurs organiques P renons l ’exemple d’un matériau polymère tel que le polythiophène (Figure 7), présentant une alternance de simples liaisons C-C et de doubles liaisons C= C. Dans un polythiophène, plus on allonge la chaîne, plus il y aura d’états possibles π- et

Polythiophène S

S

S

S

3,0

Énergie (eV)

0,0

Figure 7

188

Diagramme des niveaux d’énergie possibles pour les électrons de liaisons C-C d’un polythiophène. Source : P. Destruel, PASCO 2006.

LUMO

Bande de conduction

–3,0

Eg –6,0 Bande de valence

HOMO –9,0 –12,0 N=1

2

3

4



Les semi-conducteurs organiques sont classés en deux grandes catégories selon

la taille des molécules : les petites molécules de masse molaire relativement faible que l’on peut évaporer sous vide (Figure 8A), et les macromolécules que sont les matériaux polymères (Figure 8B). L’intérêt des polymères est de pouvoir être mis en solution pour fabriquer des encres qui permettront d’imprimer des circuits semi-conducteurs, à température ambiante et à bas coût. Quelques exemples sont représentés sur la Figure 9. Signalons que les semiconduc teur s or ganique s existent également dans la nature. On peut citer les β-carotènes (Figure 10), qui

Figure 8

A

6T

Pentacène

Alq3 ADS108GE

B

MEH-PPV

P3HT

A) Les petites molécules sont volatiles et sont utilisées dans des procédés standards sous vide ou par dépôt de gaz porteur ; B) les macromolécules (polymères, oligomères de haut poids moléculaire) sont utilisées dans des techniques de dépôt de solutions, du simple revêtement aux techniques d’impression à jet d’encre.

Les diodes électroluminescentes organiques : des sources « plates » de lumière

Contrairement aux semiconducteurs minéraux peu nombreux (il n’y a principalement que le silicium, puis le germanium et les semiconducteurs III-IV. Ces derniers sont abordés dans le Chapitre de B. DemotesMainard de Chimie et technologies de l’information), pour lesquels le choix est relativement limité, dans le cas des semiconducteurs organiques, le choix n’est principalement limité que par l’imagination des chimistes, et nous allons voir que ce choix est vaste.

Figure 9 Exemples de polymères pour l’impression de circuits de semiconducteurs.

189

Chimie et technologies de l’information

Figure 10

A

B

Des molécules naturelles comme les β-carotènes (A) et les anthocyanes (B) sont des semiconducteurs organiques.

donnent la couleur à la carotte, à certaines crevettes, et aux plumes des fl amants roses quand ils mangent ces crevettes. Citons également les anthocyanes, responsables de la couleur rouge du vin. On y retrouve les alternances de simples et doubles liaisons, mais on utilise peu les propriétés semi-conductrices de ces molécules, qui ne sont pas forcément les plus stables, ni forcément les plus pures.

A

2.1.3. Les couches minces de semi-conducteurs organiques Les semi-conducteurs organiques sont fabriqués sous forme de poudres, que les chimistes transforment en solutions colorées qui servent à préparer des encres, et pour réaliser des dépôts en couches minces. La Figure 11 résume les différentes méthodes de dépôt de couches minces. La technique

B substrat

Enduction centrifuge Traitement par raclage

Figure 11

190

Technique de fabrication de couches minces de semiconducteurs organiques à partir de petites molécules facilement vaporisables (A) ou à partir d’encres de polymères (B).

NPD

Alq3 Impression à jet d’encre

Les petites molécules sont évaporées à chaud sous vide

Plongement

provoque une émission de lumière. La longueur d’onde de la lumière émise, donc sa couleur, dépend de la différence de niveau d’énergie entre la bande de valence et la bande de conduction et de la force coulombienne qui relie l’électron et le trou au moment de la recombinaison.

Pour les plus grosses molécules, on part d’une encre, et l’on utilise la technique dite de l’enduction centrifuge (« spin coating », en anglais) (Figure 11B), qui répar tit l’encre sur le substrat par la rotation. L’encre peut aussi être simplement étalée avec une raclette, ou déposée par jet d’encre, ou encore, le substrat peut tout simplement être trempé dans l’encre. Le choix de la méthode de dépôt dépendra de l’épaisseur de la couche, de la propreté du dépôt que l’on veut faire. La facilité de réalisation des couches minces de semi-conducteurs organique à partir des encres est ce qui fait la force de l’électronique organique.

En 1963, les semi-conducteurs organiques connus étaient tels qu’il fallait appliquer des tensions très élevées, et les rendements de lumière obtenus étaient très faibles : il fallait se placer dans le noir pour percevoir un peu de lumière (Figure 12).

2.2. L’électroluminescence organique : un peu d’histoire Les premiers travaux sur l’électroluminescence organique commencèrent il y a cinquante ans, avec les recherches de M. Pope en 1963. Le principe de l’électroluminescence organique est simple : il consiste à partir d’une tension V appliquée au semi-conducteur organique, à injecter des trous dans la bande de valence et des électrons dans la bande de conduction. Lorsqu’un électron rencontre un trou, la recombinaison électron-trou

Les diodes électroluminescentes organiques : des sources « plates » de lumière

la plus simple est celle dérivée de la microélectronique, utilisée dans le cas des plus petites molécules. Le polymère semi-conducteur contenu dans un creuset est vaporisé à chaud sous vide, et l’on récupère la couche mince formée par le dépôt de la vapeur sur le substrat (Figure 11A).

Pourtant, le principe utilisé dans les OLED des téléphones portables de la série Galaxy est le même, tout était déjà plus ou moins défini en 1963, mais il a fallu améliorer la compréhension des phénomènes pour aboutir à la qualité lumineuse actuelle. Le progrès, d’un point de vue technologique, résulte des travaux réalisés chez Kodak aux États-Unis par Tang et Van Slyke sur les cellules solaires organiques à base de couches minces (Figure 13). Ils utilisaient des couches minces de semi-conducteur organique, de quelques dizaines à quelques centaines de nanomètres, déposées

Figure 12 Luminosité dans le noir des premières sources électroluminescentes organiques. Source : M. Pope. (1963). J. Chem. Phys.

191

Chimie et technologies de l’information

Figure 13 Schéma du dispositif de dépôt de couche mince électroluminescente sur verre de Tang et Van Slyke. Source : Tang et Van Slyke. (1987). Appl. Phys. Lett.

N

Oxyde d’indium et d’étain (ITO)

Émetteur : Alq3 Couche injectrice de trous : diamine Substrat : verre

N

Al

O N

O

CH3

CH3

N

N

H3C

sur du verre, et alimentaient la cellule sous une tension de quelques volts. Ils se sont aperçus que la couche mince organique brillait : ils avaient mis en évidence la première diode électroluminescente fonctionnant à des tensions beaucoup plus raisonnables, de l’ordre de quelques volts. Concernant les diodes électroluminescentes à base de polymères, les deux équipes pionnières ont été celles de Richard Friend en 1990 à l’université de Cambridge et celle d’Alan Heeger en 1991 à l’université de Santa Barbara. Ces équipes sont d’ailleurs toujours très actives dans ce domaine (Figure 14).

A

Figure 14

192

O

Mg : Ag

Familles de polymères utilisées à l’université de Cambridge (A) et à l’université de Santa Barbara (B) pour la fabrication de diodes électroluminescentes. Sources : Burroughes et coll. (1990). Nature, 347 ; Braun et Heeger (1991). Appl. Phys. Lett., 58.

B

CH3

2.3. Principes de fonctionnement des OLED Nous avons déjà vu que globalement, le principe de fonctionnement est relativement simple puisqu’il suffit de faire passer des électrons dans la bande de conduction et des trous dans la bande de valence. Comme la nature « aime bien être à l’état fondamental », s’il existe une lacune à l’état fondamental (c’est-à-dire une place vide dans la bande de valence), un électron de l’état excité y retombera. L’énergie n’étant pas perdue, elle sera réémise soit sous forme de lumière soit sous forme de chaleur. Si elle est émise sous forme de lumière, on a fabriqué une diode électroluminescente. Une diode électroluminescente de « laboratoire » est représentée sur la Figure 15. Revenons au principe de fonctionnement de base : une lacune d’électron (un trou) dans une bande de valence pleine est équivalente à une charge positive. Quand un électron de la bande de conduction rencontre un trou de la bande de valence, ces deux charges, l’une positive, l’autre négative, forment un couple de charges appelé exciton. Cet exciton est

Le principe de fonctionnement est résumé sur la Figure 16 : tout se passe donc comme si à l’anode (+), il y avait injection de charges positives, et à la cathode (-) injection de charges négatives (étape 1). Ces charges se déplacent (étape 2) avant de se recombiner pour former l’exciton (étape 3). Ce dernier diffuse (étape 4) avant la recombinaison des charges (étape 5) et l’émission d’énergie. Dans le cas des semi-conducteurs organiques, la probabilité de formation des excitons (étape 3) est très bonne (près de 100 %), mais la probabilité de recombinaison des charges avec réémission de l’énergie sous forme de lumière (étape 5) dépend du moment magnétique de l’électron. Un seul état (appelé état singulet) sur les quatre possibles permet de se recombiner en émettant de la lumière. La conséquence est qu’il n’y a que 25 % de chance pour qu’un exciton se désexcite en émettant de la lumière (Figure 17). Beaucoup d’excitons disparaissent donc sans créer d’électroluminescence. Il faut donc améliorer le rendement interne (lié au processus d’émission radiative) et le rendement externe (lié à l’émission effective de la lumière en dehors de la diode). Depuis les années 1960, les effor ts pour améliorer le

Cathode (métal)

Figure 15 Schéma d’une OLED. Sa structure de base comprend : une électrode transparente (anode), une couche organique (~ 100 nm), de « petites » molécules (dépôt par évaporation) ou des polymères (dépôt par voie humide, à partir d’encre) et une électrode réfléchissante (cathode).

qq V

Couche Substrat organique (verre, polymère, métal) Anode (ITO)

Figure 16 Les étapes du fonctionnement d’une diode électroluminescente. 1 : injection de porteur de charge ; 2 : transport de porteur de charge ; 3 : recombinaison de charges (formation de l’exciton) ; 4 : diffusion de l’exciton ; 5 : recombinaison de l’exciton et émission de photon.

ANODE

Les diodes électroluminescentes organiques : des sources « plates » de lumière

une pseudo-particule neutre qui peut se déplacer par diffusion. La recombinaison électron-trou (ou annihilation d’exciton) entraine une émission d’énergie sous forme de phonons (chaleur) ou de photons (lumière).

CATHODE

Injection de trous

Transport

Injection d’électrons

Recombinaison électron/trou

Exciton

25 % S Désexcitation

Radiative

75 % T Non radiative État fondamental

Figure 17 Schéma récapitulatif du processus de création de lumière par une OLED.

193

Chimie et technologies de l’information

Figure 18 Évolution au cours des années des matériaux utilisés pour réaliser des diodes. Pour limiter les pertes, on confine les porteurs et l’on apporte un dopage électrique ou optique. EML = couche d’émission.

rendement interne ont porté sur (Figure 18) : − l’élimination des pertes ; − le confinement des charges : en utilisant des couches minces avec deux matériaux, l’un qui transporte les trous, l’autre les électrons ; − le dopage électrique pour réduire les pertes ohmiques au niveau de l’injection des charges notamment ; − le dopage optique qui permet d’obtenir 100 % de recombinaisons radiatives avec des matériaux phosphorescents comme certains complexes de l’iridium. Cet énorme progrès résulte des travaux réalisés à l’université de Princeton et à l’université de Californie du Sud en 1998.

Matériau EL (indice n) ITO

Cathode

Verre Air Observateur

Figure 19

194

Chemin de l’onde lumineuse émise obtenu par effets de guidage. EL = électroluminescent.

Pour améliorer le rendement externe, il faut que la lumière produite sorte du dispositif d’émission et soit guidée jusqu’au niveau des yeux (Figure 19), car si rien n’est fait on perd environ 80 % de la lumière émise par la diode électroluminescente. Pour réaliser ce guidage de l’onde, il faut d’une part jouer sur les valeur relatives des indices de diffraction de

l’oxyde d’indium-étain (ITO) et du verre, d’autre part utiliser les différentes techniques telles que les structures à microcavités, les réseaux de Bragg, les microlentilles, la rugosité de surface plus ou moins contrôlée, l’insertion de milieux diffusants, etc. De nombreux travaux ont été réalisés dans ce domaine3. 2.4. Les applications des OLED 2.4.1. Les écrans Les applications des OLED doivent être innovantes par rappor t aux technologies déjà existantes. Pour l’éclairage, des écrans plats (les écrans LCD) existent, et ils sont même de très bonne qualité. Il faut donc que les OLED apportent une valeur ajoutée. Le Chapitre de J.- C. Flores 3. Structures à microcavités : N. Takada et coll. (1993). Appl. Phys. Lett., 63 : 2032, R. H. Jordan et coll. (1996). Appl. Phys. Lett., 69 : 1997, utilisation de microlentilles : C. F. Madigan et coll. (2000). Appl. Phys. Lett., 76(13) : 1650-1652, insertion d’aérogel de silice entre le verre et l’ITO : T. Tsutsui et coll. (2001), Adv. Mater., 13(15) : 1149-1152.

Les diodes électroluminescentes organiques existent déjà sur le marché ; elles sont utilisées pour les écrans, soit pour les télévisions (mais ces écrans restent encore très coûteux), soit pour les téléphones portables. Selon les résolutions, les pixels (donc les OLED) seront soit alignés, soit mis en diagonale. Sur l’exemple de la Figure 20, ils sont tous mélangés de façon à augmenter la résolution : on y retrouve les trois couleurs primaires qui permettent d’avoir toutes les couleurs. Et chaque pixel est contrôlé par au minimum un transistor. Les diodes électroluminescentes organiques sont intéressantes pour faire des écrans plats. D’une part, la différence d’épaisseur est nette par rapport aux écrans LCD, mais en outre, l’écran peut être courbe, ce qui améliore la vision comme au cinéma. Courber un écran en verre (ou un tube cathodique) est difficile voire impossible. Avec les OLED c’est possible. Cette

Figure 20 Photo de la répartition des pixels (Active Matrix OLED (AMOLED)).

technologie d’écran de télévision est cependant encore coûteuse (environ 10 000 $). En revanche, il existe un marché de niche, notamment au niveau de micro-écrans, pour lesquels on demande aussi une bonne résolution (on peut par exemple atteindre quelques millions de pixels). On retrouve ces écrans dans les viseurs de certains appareils photographiques et dans les lunettes 3D utilisées pour la réalité virtuelle. En France, la société microOLED, startup issue des travaux du CEA, en fabrique. Les écrans souples comme ceux représentés sur la Figure 21 existent maintenant sur le marché. Ces écrans peuvent être tordus et même roulés dans la poche, ce qui ouvre la perspective de beaucoup de nouvelles applications et d’objets nouveaux. Des téléphones portables à écran courbes sont déjà commercialisés (Figure 22).

Les diodes électroluminescentes organiques : des sources « plates » de lumière

de Chimie et technologies de l’information montre que le passage de la technologie LCD aux diodes électroluminescentes organiques simplifie beaucoup le dispositif et permet de gagner de la place, ce qui est un gros avantage pour l’industriel.

Figure 21 Exemples d’écrans souples. Sources : udcoled et oled-info.

195

Chimie et technologies de l’information

Figure 22

A

B

Nouveaux portables à écran courbe de LG G Flex (A) et Samsung Galaxy Round (B) en 2013.

Figure 23 Source OLED plate et souple pour éclairage flexible. Source : LGChem

2.4.2. L’éclairage à partir de sources plates

au niveau des applications comme de l’esthétique

L’utilisation des OLED pour l’éclairage s’est beaucoup développée. Jusqu’à récemment, la lumière pouvait être émise soit par des points dans le cas des diodes électroluminescentes, soit par des tubes, ou soit par des ampoules. À présent, elle peut être émise par des surfaces. La société française Astron Fiamm commercialise des diodes électroluminescentes pour cette technologie d’éclairage à partir de sources plates. Des designers peuvent, à partir de ce type de sources, concevoir quantités d’objets nouveaux

De même que pour l’application aux écrans, les sources plates de lumière OLED peuvent être aussi fl exibles (Figure 23) et conduire à des utilisations appréciées par les designers et les architectes. Ces sources ne sont pas éblouissantes et peuvent prendre toutes les formes possibles, y compris servir de rideau lumineux. Ces sources lumineuses flexibles sortent à peine des laboratoires, mais on peut prévoir que leurs applications seront nombreuses et se développeront rapidement.

L’avenir des diodes électroluminescentes organiques, entre les mains des chimistes qui savent rêver !

196

Tous ces exemples montrent que les possibilités d’évolution des diodes électroluminescentes organiques, aussi bien dans la qualité de leurs propriétés que dans leurs domaines d’applications, sont immenses et dépendront beaucoup du savoir-faire et de l’imagination des chimistes.

Les diodes électroluminescentes organiques : des sources « plates » de lumière

Cela suggère une belle phrase d’Oscar Wilde selon laquelle la sagesse consisterait à avoir des rêves qui soient les plus grands possibles, de façon à ne jamais les perdre de vue quand on s’en approche : « Wisdom is to have dreams that are big enough not to lose sight when we pursue them », Oscar Wilde.

197

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

fibre optique :

Internet un

dans

grain de sable

Sébastien Février travaille dans l’équipe Photonique au sein de l’Institut XLIM de l’Université de Limoges. Physicien de formation, ses recherches portent sur les lasers et fibres optiques innovantes.

Derrière ce titre relativement poétique, se cache une description plus scientifique. En fait, ce chapitre aurait pu s’intituler « la fibre optique : un fil de silice ultra-pure dont les propriétés physiques sont adaptées aux besoins des télécommunications optiques modernes avec l’aide de la chimie ».

Les télécommunications avant l’avènement de la fibre optique

1

1.1. Les télécommunications avant 1976 La Figure 1 représente un peu ce à quoi ressemblaient les télécommunications avant 1976, c’est-à-dire avant l’avènement du premier câble à fibre optique : des télécommunications à faible distance, à faible débit, même si le débit était

sûrement un peu plus élevé que ce qu’autorise l’émission de nuages de fumée. 1.2. Du câble coaxial à la fibre monomode Pour mieux comprendre l’évolution des télécommunications, rappelons le mode de propagation des ondes électromagnétiques. Dans un milieu homogène (l’air, le vide par exemple), les ondes se propagent en ligne droite et subissent le phénomène de diffraction. La densité de puissance en un point d’observation situé dans le faisceau diminue donc rapidement avec l’éloignement. Sur la Figure 2 le faisceau d’un phare de voiture s’élargit dans le brouillard. Pour déporter des ondes électromagnétiques sur de longues distances, on peut utiliser un guide d’ondes : la propagation guidée remplace

Sébastien Février

La

Chimie et technologies de l’information

Figure 1 Huile sur toile de Frederic Remington (1905) intitulée « The smoke signal ».

Figure 2 Faisceau d’un phare de voiture. Les ondes se propagent en ligne droite, subissent la diffraction et sont atténuées dans l’atmosphère. La densité de puissance en un point d’observation situé dans le faisceau diminue donc rapidement avec l’éloignement.

la propagation en espace libre. Le câble coaxial (Figure 3) est un exemple de guides d’ondes. Le câble coaxial est un assemblage de diverses parties de cuivre, utilisé jusqu’à la fin

Figure 3 200

Un câble coaxial.

des années 1970. La bande passante en fréquence1 extrêmement réduite limite le débit. Par exemple, en 1946, au sortir de la seconde Guerre Mondiale, on pouvait passer à peu près 600 appels simultanément à l’aide de l’un de ces câbles ou une seule émission télévisée. Les performances ont été graduellement améliorées, mais la capacité de ces réseaux de télécommunications a été limitée à 90 000 appels simultanés, à la fin des années 1970. Ce type de câble coaxial présente en outre une 1. La bande passante est l’intervalle de fréquence pour lesquelles l’amplitude de la réponse d’un système correspond à un niveau de référence, domaine où le système peut être considéré comme fiable.

Aujourd’hui, les télécommunications s’appuient sur la fibre optique monomode (Figure 4). Grâce à ce composant révolutionnaire, le volume global de données transmis en 2013 représente l’équivalent d’environ 250 milliards de DVD. L’augmentation de ce trafic est exponentielle. À titre d’exemple, le volume transmis en 2013 a été équivalent à celui transmis depuis les origines d’Internet. Ce volume de données passe à travers plusieurs dizaines

Océan Nord Pacifique

Figure 4 Une fibre optique monomode.

de millions de kilomètres de fibres optiques, installées essentiellement en sous-marin. La Figure 5 dresse une cartographie des principaux câbles. Beaucoup de ces câbles sont transocéaniques dans l’océan Atlantique et l’océan Pacifique. De nouveaux câbles sont à l’étude notamment dans le passage du Nord-Ouest, au nord du Canada.

La fibre optique : Internet dans un grain de sable

forte atténuation en puissance. Il est donc nécessaire d’introduire de nombreux répéteurs afin de régénérer les signaux transmis, ce qui augmente considérablement le coût du réseau.

Figure 5 Répartition des câbles à fibre optique sur la planète. 99 % du trafic passent par plusieurs dizaines millions de kilomètres de fibres optiques !

Océan Nord Atlantique

Océan Sud Pacifique

Océan Indien

Océan Sud Atlantique

Océan Austral Océan Austral Câbles actifs Futurs câbles

201

Chimie et technologies de l’information

2

La fibre optique

2.1. Invention et développement Le passage du câble coaxial à la fibre optique résulte de la conjugaison des efforts dans plusieurs disciplines scientifiques : les mathématiques appliquées, la physique et la chimie comme cela est illustré sur la Figure 6, plus quelques autres facteurs économiques plus ou moins indépendants de la volonté des chercheurs. La propagation des ondes électromagnétiques est régie par quatre équations, connues comme les lois de l’électromagnétisme. L’unification de ces lois par James Clerk Maxwell est un des succès de la science moderne. Tous les phénomènes électromagnétiques linéaires, en particulier la propagation dans une fibre optique, sont très bien décrits par les équations de Maxwell. La perfection de cette théorie et son pouvoir prédictif ont inspiré les créateurs qui l’ont alors comparée à l’action divine ! En tout cas, c’est ce que semble vouloir dire un tee-shirt célèbre parmi les étudiants fréquentant le campus du Massachussetts Institute of Technology à Boston (Figure 6). Cette théorie a permis de mettre au point l’architecture interne des fibres optiques, de les dimensionner

Figure 6

202

Des mathématiques appliquées (ici les équations de Maxwell) à la chimie, auxquelles s’ajoute le marché et un peu de persévérance : les ingrédients de la réussite pour les fibres optiques !

pour assurer une propagation guidée de la lumière, et d’augmenter la bande passante de ces composants. Le développement des fibres optiques n’aurait pu se faire sans les extraordinaires progrès de la chimie et de la synthèse chimique de matériaux ultra-purs. Pour se rendre compte des propriétés extraordinaires de ces matériaux il faut imaginer aujourd’hui, quand on prend une fibre optique, que si elle était suffisamment grosse pour regarder au travers, on pourrait voir à cent kilomètres ; alors qu’à travers une vitre ordinaire audelà de 20 à 30 cm d’épaisseur, on ne voit déjà plus rien. Cette différence résulte des niveaux de pureté extraordinaires des matériaux utilisés dans ces fibres optiques. Dans les années 1960, personne ne croyait que la technologie des câbles coaxiaux pourrait devenir rapidement obsolète. La persévérance des chercheurs, leur confiance en la technologie révolutionnaire des fibres optiques, a été un facteur déterminant pour leur déploiement. C’est en particulier grâce à Sir Charles Kao (lauréat du prix Nobel de physique en 2009) et grâce à l’effort d’évangélisation qu’il a mené pendant toute sa carrière que l’on peut aujourd’hui utiliser cette technologie.

2.2. Qu’est ce qu’une fibre optique ? Pour mieux comprendre ce qu’est une fibre optique, refaisons la première expérience de fontaine lumineuse réalisée par Jean-Daniel Colladon au milieu du XIX e siècle (Figure 7 ). De l’eau s’écoule d’une cuve percée d’un trou. La lumière d’une source lumineuse passe au travers de la cuve jusqu’à l’orifice. Si la lumière réussit à passer par le trou, elle suit A

La fibre optique : Internet dans un grain de sable

Parallèlement, la demande des clients a conforté les donneurs d’ordre de la viabilité économique de cette technologie. D’immenses efforts industriels ont été consentis pour mener les méthodes de fabrication à maturité, et donc atteindre les niveaux de pureté actuels. La possibilité d’un déploiement industriel de ces technologies les a ainsi propulsées au niveau où nous les connaissons.

l’écoulement et s’y propage. Colladon, dans un ar ticle scientifique, écrit : « le résultat est étonnant : la lumière circule dans ce jet transparent, comme dans un canal, et en suit toutes les inflexions ». Il bat alors en brèche la croyance selon laquelle la lumière se propage toujours en ligne droite. La Figure 8A représente un zoom sur cette expérience. On observe des zigzags de la lumière verte à l’intérieur de l’écoulement. La trajectoire du rayon lumineux s’explique par une succession de réflexions à l’interface entre l’eau et l’air. Puisque la lumière ne sort pas, même partiellement de l’écoulement, on parle de « réflexion interne totale ». Formellement, une réflexion interne totale s’explique par une relation entre l’angle du rayon lumineux et les indices de réfraction des deux milieux (eau et air) : la relation de Snell-Descartes (Figure 8B).

Figure 7 La fontaine lumineuse de JeanDaniel Colladon (1884) tirée de D. Colladon, « La fontaine Colladon », La Nature, pp. 325-326 (1884). La lumière se propage dans l’écoulement courbe.

Évidemment, on ne peut pas faire une fibre optique avec B

C rayons incidents

milieu d’indice n1

milieu d’indice n2 n2 < n1

rayon réfléchi

milieu d’indice n1

rayon guidé

milieu d’indice n2 milieu d’indice n2 n2 < n1

rayon réfracté

n2 < n1

Figure 8 A) Illustration du phénomène de la fontaine lumineuse. La lumière subit une succession de réflexions à l’intérieur de l’écoulement. B) Relation de Snell-Descartes : n1sin(θ1) = n2sin(θ2). On définit l’angle incident limite θ1lim pour θ2 = π/2. Pour θ1 > θ1lim, il y a réflexion interne totale (θ2 = θ1) ; C) Le milieu d’indice n1 est pris en sandwich entre deux milieux d’indice n2. Le rayon réfléchi est alors piégé. On parle de guidage ou confinement de la lumière.

203

Chimie et technologies de l’information

uniquement de l’eau entourée d’air. En revanche, on peut utiliser deux verres d’indices de réfraction différents. Le phénomène de réflexion interne totale sera obtenu lorsque le verre d’indice supérieur sera « emprisonné » dans le second verre (Figure 8C). Une fibre optique est donc un assemblage concentrique de ces deux verres. La zone centrale est appelée « cœur », tandis que la zone périphérique est appelée « gaine ». Le diamètre du cœur est de l’ordre de la longueur d’onde de la lumière, c’est-à-dire de quelques micromètres. Le diamètre total de la fibre optique mesure une centaine de micromètres, soit à peine plus qu’un cheveu. Un matériau de protection entoure la gaine et la protège de l’usure, du vieillissement, des chocs, des pressions. Grâce à cette protection, il est possible de courber, tordre, enrouler, étirer la fi bre optique sans qu’elle ne casse. Cet assemblage est extrêmement solide et ne craint que les courbures inférieures à environ 1 millimètre de rayon. Une fibre optique peut mesurer des dizaines voire des

Figure 9

204

Rayonnement laser injecté puis véhiculé dans une fibre optique. Une fibre optique dirige la lumière laser sur plusieurs dizaines de kilomètres.

centaines de kilomètres de long. Le fait que cette technologie ait émergé comme un moyen de télécommunication est évidemment lié à l’avènement du laser, qui produit une lumière cohérente pouvant être injectée et véhiculée de manière très efficace dans la fibre optique. (Figure 9). La Figure 10 montre le schéma d’une coupe de fibre optique. Les deux verres utilisés ont des indices de réfraction différents. Comme il faut que ces deux verres possèdent les mêmes coefficients d’expansion thermique, on utilise donc à la base les mêmes matériaux mais ils sont dopés différemment lors de la phase de synthèse chimique. Ces matériaux sont entourés d’un polymère hydrophobe qui empêche l’eau de pénétrer au cœur de la fibre et donc de la détériorer. Le débit d’une liaison de télécommunications optiques est lié à la bande passante de la fibre optique. Ce paramètre est maximisé dans le cas d’une fibre optique monomode. Cela signifie simplement que la répartition de la lumière dans

Coupe transversale

Figure 10 Gaine de protection Gaine Cœur

10 μm 125 μm 250 μm

Dimensions caractéristiques d’une fibre optique et profil d’indice associé. plusieurs dizaines de kilomètres

Indice de réfraction

Rayon [m]

cette fibre prend une forme singulière et unique. La fonction mathématique caractéristique d’une fibre optique est appelée « profil d’indice ». Cette fonction dicte les propriétés électromagnétiques d’une fi bre optique particulière. Elle est obtenue, en pratique, par un processus de synthèse chimique en voie gazeuse. Dans le cas d’une fibre optique monomode, cette fonction est généralement un simple « saut d’indice » comme le montre la Figure 10.

3

Fabrication de la fibre optique

L’ imp ér atif fondam ent al concerne les pertes de propagation, qui doivent être les plus faibles possibles. Le matériau doit aussi posséder une excellente résistance mécanique, thermique et chimique, et conserver ses propriétés dans le temps. La silice fondue (SiO2) est alors un matériau de choix. Comme on l’a vu précédemment, la fibre optique est composée d’au moins deux matériaux d’indices de réfraction différents. Cette différence est de l’ordre de

La fibre optique : Internet dans un grain de sable

Intensité lumineuse

quelques centièmes. On peut obtenir ces petites valeurs de différences en ajoutant des éléments à la silice, selon un procédé appelé « dopage ». Il existe plusieurs éléments dopants. Les plus utilisés actuellement sont le germanium (Ge), l’aluminium (Al), le phosphore (P) et le fluor (F). L’indice de réfraction évolue avec la concentration molaire en dopant. La fabrication se fait en deux étapes : la fabrication d’une préforme par dopage de la silice puis son étirage sous la forme d’une fibre optique dans une tour de fibrage. 3.1. Préparation de la préforme La préforme elle-même est réalisée en plusieurs étapes dans un bâti semblable à celui de la Figure 11. Ce bâti complexe permet de maîtriser parfaitement les indices de réfraction respectifs des verres de cœur et de gaine. Le contrôle très précis de la concentration en éléments dopants permet l’ingénierie du profil d’indice qui peut être bien plus complexe qu’un simple saut d’indice.

205

Chimie et technologies de l’information

A

Figure 11 Bâti, siège de la fabrication des préformes (ingénierie de l’indice du verre par synthèse chimique (dopage) et synthèse de verres ultra-purs) : A) vue d’ensemble ; B) bâti MCVD en fonctionnement.

206

B

Pour réaliser la partie centrale de la préforme, on recourt à un procédé chimique garantissant des concentrations très faibles en impuretés (hydrogène et ions métalliques). On atteint des niveaux inférieurs à une impureté par milliard d’éléments, soit 10-7 % ! Dans la méthode de dépôt en phase vapeur (en anglais « modified chemical vapour deposition process », MCVD), on utilise un tube de silice très pure comme substrat pour le dépôt. Ensuite, on injecte les éléments dopants sous la forme d’halogénures gazeux ultra-purs (GeCl 4 , Al 2O 3, POCl 3, SiF4), ainsi que de l’oxygène (O 2). En chauffant à très haute température (1 400 °C-1 600 °C), à l’aide d’un chalumeau, le tube substrat contenant les halogénures, une réaction d’oxydation a lieu. De fines suies de matière sont déposées en aval du chalumeau. Celui-ci est ensuite déplacé le long du tube substrat, passe sur les suies et les vitrifie. Lorsque le chalumeau a parcouru la longueur du tube, il

est ramené au début, puis le processus est répété. Chaque passage permet de déposer la matière sur une épaisseur de quelques microns sur la surface interne du tube. En raison de la symétrie cylindrique de la fibre optique, ce processus est réalisé alors que le tube est en rotation sur lui-même, autour de son axe longitudinal. En contrôlant les concentrations relatives des espèces, on ajuste très précisément le profil d’indice de réfraction de la fibre (Figure 12A). En raison des très fines couches déposées, il est impossible en pratique de boucher le tube substrat (Figure 12B). Finalement, on rétreint2 sous vide le tube, à nouveau à l’aide d’un chalumeau, pour le fermer selon le schéma de la Figure 12C. Cette opération de fermeture est l’étape la plus critique du processus puisqu’on peut provoquer un effondrement de la

2. La rétreinte est une opération d’emboutissage visant à réduire les dimensions d’un objet à parois minces sans modifier son épaisseur.

0,035

GeCl4

Différence d’indice

0,03

Al2O3

0,025 0,02

Quelques réactions d’oxydation : SiCl4 + O2 > SiO2 + 2Cl2 GeCl4 + O2 > GeO2 + 2Cl2 SiF4 + 3SiO2 > 4SiO1,5F 4POCl3 + 3O2 > 2P2O5 + 6Cl2

0,015 0,01 0,005 0

5

–0,005 –0,01

F

10

15

20

25

Oxyde additionnel (mole % )

La fibre optique : Internet dans un grain de sable

A

Tube substrat Couches vitrifiées Dépôt de suies

O2 SiCl2 GeCl4

B

C

SiO2 GeO2

Cl2

Chalumeau en tranlsation T = 1200-1400 °C

Chalumeau en tranlsation T = 1600 °C

Figure 12 A) Différence d’indice en fonction de la concentration en oxyde pour trois halogénures couramment employés. Quelques équations d’oxydation mises en jeu dans ce procédé. B) Schéma de principe du dépôt en phase vapeur. C) Schéma de principe du rétreint de la préforme.

207

0,002

Profil d’indice de réfraction mesuré sur une tranche de préforme.

GeO2

0,0015

Contraste d’indice

Chimie et technologies de l’information

Figure 13

0,001 0,0005

SiO2

SiO2

0

F

–0,0005 –0,001 0,0015 0,002

–4

–2

0

2

4

Position dans la préforme (mm)

préforme et donc une déformation alors qu’il faut conserver des préformes totalement cylindriques. La Figure 13 montre la différence d’indice mesurée sur une tranche de préforme obtenue à partir d’un tube de silice à l’intérieur duquel on a injecté des halogénures de germanium et de fluor. Le profil n’est pas parfaitement régulier. On observe de légères variations dans les zones déposées, chacune reliée à un passage. Cette préforme a été réalisée à l’Institut de chimie des substances à haute pureté de l’Académie des Sciences de Russie. 3.2. Étirage de la préforme en fibre optique

208

Le fibrage de la préforme rétreinte est une simple opération de réduction de diamètre (homothétie radiale). Le profil d’indice est donc conservé lors de l’étirage. Le principe de conservation de la matière impose que (L×S)préforme = (L×S) , où L et S représentent fibre

respectivement la longueur et la surface sur une section transverse. Pour une préforme de longueur 1 m et de diamètre 3 cm, on obtient une fibre de longueur de près de soixante kilomètres pour un diamètre de 125 μm. Le schéma de principe d’une tour de fibrage est décrit sur la Figure 14. La préforme est chauffée dans un four jusqu’à sa température de ramollissement (autour de 1 800 °C). À cause de la gravité, l’extrémité chauffée tombe. Cette « goutte » est récupérée en bas de la tour, et coupée. Le mince fil de verre auquel elle était reliée et ensuite placé sur un tambour, appelé « recette ». La préforme est ensuite descendue dans le four de fibrage et la recette mise en rotation. La fibre peut alors être enroulée sur la recette tant qu’il reste de la préforme. La Figure 15 montre le processus de fibrage en cours. C omme indiqué sur l a Figure 14, la tour de fibrage est agrémentée d’un certain

Schéma de principe d’une tour de fibrage pour l’étirage de la préforme sous la forme d’une fibre.

La fibre optique : Internet dans un grain de sable

Figure 14

Figure 15

Préforme

Photographie de la partie haute d’une tour de fibrage. Source : photo XLIM.

Four de fibrage

Fibre optique

nombre d’appareils permettant de mesurer, de manière dynamique en cours de fibrage, les paramètres de la fibre : diamètre de fibre et tension essentiellement, qui influent fortement sur le régime de propagation et sur les pertes. Aujourd’hui les pertes de propagation d’une fibre optique

« telecom-grade », c’est-à-dire employée dans les réseaux modernes, sont inférieures à 0,2 décibel par kilomètre à la longueur d’onde infrarouge de 1,55 micromètres. Pour comprendre le niveau de sophistication de ces composants et des matériaux qu’ils les constituent, il faut réaliser que

209

Chimie et technologies de l’information

cette transparence correspond à voir la flamme d’une bougie à travers une épaisseur de verre de 100 km. La silice synthétisée par voie chimique est ainsi le matériau le plus transparent au monde.

La transmission de l’information par fibre optique

4

Couche poreuse

Solution contenant des ions de terres rares (Er3+, Yb3+,…)

Figure 16

210

Lorsqu’on procède au dopage en solution de la préforme, les terres rares diffusent dans les pores : les ions « dopent » la silice et confèrent à la silice des propriétés de luminescence.

La transmission de l’information par fibre optique repose sur le principe de la modulation de la lumière. De manière générale le faisceau lumineux issu d’un laser est d’abord modulé, en amplitude par exemple, puis injecté dans la fibre optique qui l’achemine jusqu’à sa destination finale. C’est le même principe qui était utilisé avec les signaux de fumée : au lieu d’avoir un nuage de fumée continu, on découpait le flux de fumée en petits nuages : leur taille, leur nombre, leur fréquence d’apparition formaient un signal qui avait un sens pour l’émetteur et le récepteur. Dans le cas des communications optiques modernes, le faisceau laser remplace le nuage continu de fumée ; des impulsions de lumière remplacent les petits nuages de fumée. Le code est toujours partagé entre émetteur et récepteur. On cherche sans cesse à augmenter la capacité totale du système, c’est-à-dire le volume d’informations que l’on peut transmettre en une seconde. On cherche ainsi à accroître la fréquence de répétition des impulsions, c’est-à-dire le débit du canal. Le débit actuel est de 10 gigabits par seconde, soit dix milliards d’impulsions

lumineuses transmises par seconde dans une seule fibre optique. À comparer au débit d’un système de communication optique par signal de fumée : sûrement moins d’un nuage par seconde ! Malgré ses performances exceptionnelles en tant que support de propagation, la fibre optique présente quelques défauts intrinsèques qu’il faut corriger. En particulier, les pertes de propagation sont certes faibles mais non nulles. Une atténuation en puissance de 0,2 dB/km signifie que 99 % de la puissance injectée à l’entrée de la fibre sont perdus après une distance de propagation de 100 km. En pratique, les liaisons doivent couvrir des distances bien plus grandes, comme par exemple les quelques 6 000 km qui séparent le continent européen de la côte Est des États-Unis. Il a donc fallu trouver un moyen de « régénérer » les signaux, fortement atténués. Pour cela, on utilise depuis les années 1990 un amplificateur de lumière, lui-même fondé sur une fibre optique. On utilise les propriétés de luminescence des ions de terres rares, des éléments de la famille chimique des lanthanides, sous forme d’ions trivalents (Figure 16). En particulier l’Erbium (Er3+) a le bon goût d’émettre de la lumière justement à la longueur d’onde de 1,55 micromètres. Pour réaliser une fibre amplificatrice, le cœur de la préforme est dopé avec des ions Er3+ lors d’une étape supplémentaire dans le processus de fabrication. Les couches de cœur sont rendues volontairement poreuses puis

Les travaux pionniers du Français Emmanuel Desurvire sur les fibres amplificatrices de lumière dopées aux ions de terre rare ont depuis donné lieu à des applications dans d’autres domaines. En particulier, cette technologie est maintenant couramment utilisée pour réaliser des lasers. D’ailleurs, LASER est l’acronyme de Light Amplification by Stimulated Emission of Radiation, soit amplification de la lumière par l’émission stimulée d’un rayonnement. Les fibres de ligne et les fibres amplificatrices de lumière peuvent véhiculer ou amplifier simultanément plusieurs

La fibre optique : Internet dans un grain de sable

imprégnées d’une substance aqueuse contenant les ions de terre rare. La préforme est ensuite séchée et les couches de cœur contenant les ions Er3+ vitrifiées. Les étapes de rétreint et de fibrage sous les mêmes que dans le cas des fibres optiques de ligne. Les fibres optiques amplificatrices sont ensuite connectées aux fibres de lignes puis alimentées en énergie (optique). Les ions de terre rare restituent cette énergie sous la forme d’un rayonnement lumineux à la longueur d’onde de 1,55 micromètres. Selon le principe de l’émission stimulée découvert par Einstein, un signal lumineux à la même longueur d’onde peut ainsi être amplifié. Avec de la silice dopée par exemple à l’erbium, on peut obtenir des gains en puissance de l’ordre de mille sur des distances extrêmement faibles de l’ordre de dix mètres, ce qui permet de réaliser l’amplification nécessaire pour couvrir les milliers de kilomètres qui séparent les continents.

rayonnements lasers, à des longueurs d’onde différentes mais toujours voisines de 1,55 micromètres. C’est ce que l’on appelle le multiplexage en longueur d’onde. Comme montré sur la Figure 17, tout se passe comme si on injectait plusieurs couleurs dans la liaison optique. L’intérêt réside dans le fait que chaque couleur porte sa propre information et que ces couleurs ne se mélangent pas. On peut donc retrouver ces informations en sortie de la ligne. Aujourd’hui, on peut injecter simultanément plusieurs dizaines de couleurs, ce qui augmente d’autant la capacité de la liaison optique. Une fibre optique est un objet de dimensions transverses micrométriques, donc relativement fragile. Le déploiement de cette technologie pour les communications optiques a nécessité de longs travaux industriels pour assurer un fonctionnement optimal durant plusieurs années voire décennies. En particulier, il a fallu mettre au point des câbles très spécifi ques, capables de résister à la pression dantesque qu’exerce une colonne d’eau de plusieurs kilomètres de hauteur lorsque ces câbles sont posés au fond des océans.

Figure 17 Schéma représentatif du multiplexage en longueur d’onde : l’injection simultanée de plusieurs lasers de couleurs différentes permet d’augmenter d’autant la capacité de la liaison.

211

Chimie et technologies de l’information

Développement de la technologie des fibres optiques

5

La trajectoire de cette innovation de rupture (Figure 18) commence par des travaux de recherche académique, en laboratoire, conduits par quelques chercheurs brillants, dont le récent lauréat du prix Nobel de physique, Sir Charles Kao. Persuadé du bien-fondé de ses travaux, ce chercheur a réussi à convaincre les décideurs et leaders d’opinion de s’impliquer dans le développement industriel de la technologie. Les travaux à l’échelle industrielle des ingénieurs de l’entreprise Corning Glass Works et le développement des méthodes de synthèse chimique de verres ultra-purs ont permis d’envisager sérieusement l’application à grande échelle des fibres optiques aux télécommunications. La

production industrielle de milliers de kilomètres de fibres optiques a ainsi conduit à l’avènement du réseau Internet. Que nous réserve l’avenir ? En raison des nouveaux usages, dont les réseaux sociaux, la vidéo à la demande…, la demande en volume de données double tous les dix-huit mois (Figure 19). Il faudrait donc que l’offre double tous les dixhuit mois, mais ce n’est pas le cas ! Il pourrait s’ensuivre une saturation du réseau actuel dans les dix ans qui viennent. La pose de nouveaux câbles, d’ailleurs plus performants que les câbles installés, est une solution partielle à cette demande croissante (Figure 20). Une autre solution consiste à trouver un nouveau mode de multiplexage, complémentaire du multiplexage en longueur d’onde (Figure 21). Les chercheurs

Prix Nobel de physique attribué à C. Kao (2009) Système de multiplexage en longueur d’ondes Tbits/s (années 2000) Amplificateur à fibre optique dopée à l’erbium (années 1990) Premier câble à fibre optique installé (1988) Communications par ondes millimétriques

TAT 1 retiré (1978)

Aujourd’hui réseau local

Premières communications par fibres optiques (1976) à 45 Mbits/s Corning Glass Works (1972) recherche industrielle synthèse chimique

Figure 18 212

Histogramme de la recherche scientifique sur les fibres optiques.

Charles Kao (1966) recherche académique et évangélisation proposition d’un système de télécommunications par fibres optiques

Bande passante internationale utilisée Croissance annuelle

60

75 %

40

50 %

20

25 %

0

2007

2008

Océan Nord Pacifique

2009

2010

2011

Évolution de l’offre et de la demande en télécommunications : la demande double tous les dixhuit mois !

0%

Océan Nord Pacifique

Océan Nord Atlantique

Océan Sud Pacifique

La fibre optique : Internet dans un grain de sable

Figure 19

100 %

Croissance annuelle

Bande passante internationale utilisée (Tbps)

80

Océan Indien

Océan Sud Atlantique

Océan Austral Océan Austral

étudient depuis quelques années les possibilités offertes par le multiplexage spatial. Dans une fibre optique, la lumière se répartit sur des figures définies, appelées « modes ». Jusqu’à présent

Câbles actifs Futurs câbles

Arctic Fibre (17 Landings, 15 868 km, 12,8 Tbps) (Click to see details on right)

nous nous sommes cantonnés à l’utilisation du mode fondamental, le plus simple à gérer. Mais en principe on pourrait très bien utiliser les modes d’ordre supérieur, et chacun de ces modes pourrait alors

Figure 20 Répartition des nouveaux câbles à fibre optique sur la planète. Pour satisfaire la demande croissante, l’offre devrait doubler tous les dixhuit mois ! 213

Modes spatiaux

Pb/s Capacité du système

SD

10

1

DM M/W n PD a B d / 0,8

10

10 1986

2,5

W D dB M /a n

1

100

1990

1994

Figure 21 Débit des télécommunications optiques en fonction du temps. WDM = Wavelength-division multiplexing : multiplexage en longueur d’onde ; PDM = Polarization-division multiplexing : multiplexage en polarisation ; SDM = space-division multiplexing : multiplexage spatial.

multiplexages en polarisation et en longueur d’onde x-pol

Canaux WDM

Tb/s

100

Gb/s

Capacité du système

Chimie et technologies de l’information

M

100

y-pol

e uniqu Canal an / B d 0,5

1998

2002

2006

2010

2014

2018

véhiculer sa propre information. Cela sous-entend de revoir le processus de fabrication de ces fibres optiques et de concevoir de nouveaux composants d’extrémités. Cette possibilité, découverte en France dans les années 1980 puis tombée dans l’oubli, pourrait bien être une solution d’avenir pour répondre à la demande croissante et ainsi ouvrir de nouvelles perspectives pour l’industrie des télécommunications.

Les nouveaux champs d’application de la fibre optique

6 214

Freq

La technologie des fibres optiques est une technologie diffusante dont les applications à d’autres domaines que les télécommunications se sont

2022

2026

beaucoup développées ces dernières années. On peut citer par exemple la prospection pétrolière où des réseaux de fibres optiques sont utilisés pour sonder les puits de pétrole et en déterminer le volume. On utilise aussi des fibres optiques dans le secteur de l’avionique. Une société française réalise des gyroscopes pour optimiser le géo-positionnement des hélicoptères par exemple. Les fibres optiques sont aussi utilisées dans la soudure de précision. Dans une fibre optique, la lumière est repartie sur le cœur de dimensions micrométriques. Le faisceau laser arrive ainsi précisément sur la zone que l’on veut souder ou usiner. La fabrication des injecteurs de moteur diesel utilise cette technologie.

La fibre optique : Internet dans un grain de sable

Les fibres optiques sont par ailleurs utilisées pour surveiller des infrastructures telles que des ponts. Des capteurs à fibres optiques distribués le long des bâtiments mesurent avec une très grande précision les variations de température, de contrainte, de pression que cet édifice subit au cours du temps (Figure 22). À l’aide d’une fibre optique, on peut créer des fl ashs de lumière de plusieurs mégawatts ! Ces impulsions lumineuses sont obtenues en concentrant la lumière produite par des ions de terres rares au sein de la matrice de silice dans des volumes extrêmement faibles (diamètres de quelques micromètres). Cette puissance, bien qu’émise pendant quelques millionièmes de seconde, correspond à 1/1 000 de celle d’une centrale nucléaire ! Au sein de notre laboratoire, XLIM, nous collaborons avec des chimistes afin d’optimiser la composition chimique de ces fibres optiques et repousser leurs limites en puissance. Nous structurons le profil d’indice de la fibre optique avec des oxydes variés dont l’oxyde de germanium, et dopons avec une terre rare (l’ytterbium par exemple) le cœur de la fibre. Cette structuration chimique à l’échelle micrométrique permet de générer ces impulsions lumineuses géantes (Figure 23). Ce type de laser pourrait être utilisé pour la chirurgie de l’œil. Une autre application d’avenir de ces lasers sera la chirurgie non invasive, qui consistera à utiliser la fibre optique non seulement comme moyen de générer ces impulsions, mais aussi

comme véhicule de la lumière pour guérir des tumeurs par exemple direc tement au centre du corps humain. Une autre application similaire est le micro-endoscope qui permet de réaliser une image de l’intérieur du corps humain et, éventuellement, de supprimer les biopsies.

Figure 22 Des capteurs distribués à fibres optiques relèvent en temps réel les déformations d’un pont, d’un barrage, par exemple, et permettent de sécuriser ces infrastructures.

En collaboration avec les chimistes du Centre Européen de la Céramique de l’université de Limoges, nous mettons au point de nouveaux matériaux avec l’objectif de décaler le spectre de transmission de la lumière de ces fibres vers

Figure 23 Une image prise au microscope de la section transverse d’une fibre optique microstructurée utilisée pour élaborer des lasers à impulsions géantes.

215

Chimie et technologies de l’information

Figure 24 Vue de la face d’une fibre optique composée de nouveaux matériaux (PbO (40 %), Bi2O3 (27 %), Ga2O3 (14 %), SiO2 (14 %), CdO (5 %)), réalisée en collaboration avec des chimistes.

l’infrarouge (Figure 24). On a réalisé des lasers infrarouges avec ces fibres mille fois plus brillants que le soleil ! Ce type de laser pourrait servir à détecter des espèces chimiques polluantes dans l’atmosphère, car ces espèces ont une absorption forte dans l’infrarouge.

Une étroite coopération entre chimistes et physiciens, clé des fibres optiques et des technologies de l’information de demain La fibre optique est un composant clé des technologies de l’information et de la communication. Elle a permis l’avènement du réseau Internet que nous utilisons tous quotidiennement. Cette technologie ne peut continuer son extraordinaire développement qu’à travers une étroite coopération entre les physiciens qui conçoivent les fibres, à l’aide des mathématiques, et les chimistes, qui interviennent dans la préparation des matériaux ultra-purs de base. La chimie participera à l’amélioration des capacités de transmission de l’information et à la diversification des domaines d’applications de cette technologie, qui passe nécessairement par une liaison étroite entre les laboratoires de recherche et l’industrie.

216

à semi-conducteurs

détection du CO 2 pour la

Docteur d’État en science des matériaux, Lionel Presmanes est chargé de recherche au CNRS au Centre Inter-universitaire de Recherche et d’Ingénierie des MATériaux (CIRIMAT1) à Toulouse.

1

L’intérêt des capteurs à CO2

1.1. La présence du CO2 dans l’air Le dioxyde de carbone est une combinaison de deux éléments : le carbone et l’oxygène (une molécule linéaire de formule CO 2 ). Ce gaz incolore inodore, à la saveur légèrement piquante (comme on peut éventuellement le ressentir lorsqu’on boit des boissons gazéifiées), est ininfl ammable et naturellement présent dans l’air. Si on regarde son classement dans la composition de l’air (Tableau 1), il apparaît 4 e dans ce tableau déjà ancien (car comme nous le savons, sa 1. www.cirimat.cnrs.fr

concentration connait une augmentation préoccupante). Il est naturellement présent dans l’air parce qu’il est produit par différents processus : la combustion, la fermentation des liquides, la respiration des êtres vivants, et aussi la décomposition des végétaux. Il n’est pas considéré comme un gaz polluant. 1.2. L’augmentation préoccupante du CO2 atmosphérique Le dioxyde de carbone est un gaz à effet de serre : il empêche les rayonnements infrarouges d’être renvoyés de la Terre vers l’espace, et l’augmentation de sa concentration contribue au réchauffement de la planète.

Lionel Presmanes

Micro-capteurs

Chimie et technologies de l’information

Tableau 1 Le CO2 dans la composition de l’air.

Composition de l’air sec

Pourcentage en volume

Azote – N2

78,09

Oxygène – O2

20,95

Argon – Ar

0,93

Dioxyde de carbone –CO2

0,035 = 350 ppm

Néon – Ne

0,0018

He, Kr, H2, Xe, O3, Rn, etc.



D’après le site http://education.météofrance.com

Les données qui ont été recueillies sur le site de Mauna Loa, un observatoire qui enregistre la teneur en CO2 depuis les années 1960, montrent son augmentation continue avec de légères variations saisonnières (Figure 1). En mai 2013, on a quasiment atteint le seuil de 400 ppm. Les États se sont

engagés à réduire par deux à la fois la concentration et les émissions en CO 2, alors que l’on sait que d’ici 2050, la demande mondiale en énergie risque d’augmenter d’un facteur deux à trois. Toutefois, ce n’est pas ce qui explique le regain d’intérêt actuel pour les capteurs de CO2.

400 Scripps Institution of Oceanography NOAA Earth System Research Laboratory Taux de CO2 (ppm)

380

Figure 1

218

Évolution du taux de CO2 atmosphérique (enregistré à l’observatoire de Mauna Loa, Hawaï, septembre 2013). Source : www.esrl.noaa.gov

360

340

320

1960

1970

1980

1990 Année

2000

2010

Il faut s’intéresser aux effets du dioxyde de carbone sur l’homme. Plusieurs normes définissent une qualité de l’air, entre bonne et acceptable, qui limitent les concentrations de CO 2 en dessous de 1 000, voire 1 500 ppm. Au-delà de 1 500 ppm, on commence à ressentir de la fatigue, des difficultés de concentration, et l’on note une augmentation de la fréquence d’erreurs, une baisse de la capacité d’apprentissage et de la productivité (Figure 2). Ces observations sont donc importantes, notamment dans un milieu d’enseignement ou dans le milieu professionnel : 5 000 ppm est la limite d’exposition sur le lieu de travail pour une journée pleine de huit heures. Au-delà, dès qu’on arrive au niveau des pourcents, on observe une augmentation de la fréquence cardiaque, de violents maux de tête de plus en plus importants, des vertiges, des troubles visuels, des tremblements et des pertes de connaissance. À 14 %, on obtient l’extinction d’une bougie, et à 20 % apparaissent des convulsions, le coma, et si l’on n’en sort pas, le décès. 1.4. Les enjeux de sécurité Si on se concentre sur l’aspect sécuritaire, c’est-à-dire dans le cas d’une forte teneur en CO2, l’expérience montre qu’il arrive de nombreux accidents, le plus souvent dans des lieux clos : des cuves de fermentation, de vinification, des silos

à fourrage2, des mines, des caves, car le CO2, plus dense que l’air, aura tendance à s’accumuler dans le sol.

Figure 2

Micro-capteurs à semi-conducteurs pour la détection du CO2

1.3. Impact du CO2 sur l’homme

Les effets du dioxyde de carbone sur l’homme.

Une étude rétrospec tive en France, pour la période 1984-1994, montre qu’il y a eu quarante-deux victimes. Sur ces victimes, trente et un décès dont dix-huit immédiats, et le quart des décès a eu lieu parce que les gens ont essayé de porter secours à leurs collègues. De plus, ces accidents n’arrivent pas uniquement dans les endroits clos : on connaît l’exemple d’un fast-food en Seine SaintDenis en 1996, où une fuite sur un gazéifieur de soda à CO2 a incommodé le personnel et les clients. D’autres faits ont été relatés dans le cas de systèmes d’extinction automatique d’incendie par du CO2 qui ont fait monter très fortement la teneur de ce gaz. Mais tous ces exemples ne nécessiteraient cependant pas de nouveaux capteurs ou de nouvelles performances. 2. Forme de tassage du fourrage préalablement récolté et haché.

219

Chimie et technologies de l’information

Figure 3 Schéma d’un site de stockage du CO2. Source : wikipédia, licence CCBY-SA-3.0, Lamiot.

CO2 dispersé

Séquestration par la biomasse (Forêts, tourbières, prairies, renaturation, etc.) Produits fabriqués à partir de biomasse (plastique, bois, carburants)

Capture et séparation

Biomasse bactérienne aquatique

Stock dans le sol CO2 Pipelines Veines de charbons/méthane

Ancien réservoir de pétrole ou gaz

Formation géologique

Aquifère salin ou basaltique profond

Au niveau de la sécurité des personnes, on peut dès à présent anticiper deux à trois domaines nouveaux, dont l’un est la surveillance des sites de stockage du CO2. Pour réduire les émissions de CO 2 dans l’atmosphère, on envisage le stockage dans des réservoirs géologiques. Si ces réservoirs sont situés près d’agglomérations, il pourrait y avoir des fuites, des émanations, et même si le danger n’existe qu’au- del à de plusieur s pourcents, il faut néanmoins être capable de multiplier le nombre de capteurs autour de ces sites (Figure 3).

Figure 4

220

Les capteurs de CO/CO2 sont efficaces pour détecter les incendies sans fausse alerte.

Un autre domaine d’intérêt résulte de la volonté de supprimer les gaz fluorés pour la réfrigération et les nouveaux groupes froids, ces appareils ayant pour fonction de refroidir, et dont une grande partie commence à fonctionner avec du CO2. En milieu industriel, ils sont dimensionnés pour de grandes capacités, et une

fuite de CO2 aurait des effets très importants. Le dernier exemple n’est pas lié directement au ressenti du CO2 mais relève tout de même du domaine de la sécurité. Les détecteurs d’incendie donnent malheureusement souvent de fausses alertes, dues soit à de fausses détections de fumée de cigarettes ou de fausses détections infr arouge. Parce qu’on a montré que les prémices d’un incendie démarrent toujours par une émanation de CO/CO2 pouvant être détectée quasiment deux fois plus vite que l’émission de fumée, on pourrait peutêtre concevoir des détecteurs intelligents dans lesquels il y aurait en plus des capteurs de CO/CO2 (Figure 4). 1.5. Les enjeux de confort Outre ces applications sécuritaires, détecter le CO 2 trouve des applications dans le confort. Les êtres humains

Figure 5 Concentration en CO2 et confort.

la résolution de problèmes. Une autre étude montre qu’au-delà de 1 000 ppm également, sur une journée d’école, on peut avoir une augmentation du symptôme de l’asthme chez l’enfant. Encore une fois, ces symptômes ne sont pas forcément directement dus au CO2, qui sert de marqueur. Un rapport relativement détaillé de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) sur ces points vient de paraître en juillet 2013.

Quelques études montrent que par exemple sur le lieu de travail, au-delà d’une teneur de 850 ppm, les occupants commencent à ressentir le « syndrome du bâtiment malsain » : irritation des muqueuses, irritation de la peau, des voies respiratoires (Figure 5) (attention, le CO 2 n’est dans ce cas pas la cause, mais juste un indicateur de la qualité de l’air).

Une autre étude originale a été menée sur trente individus mis en présence pendant quatre heures dans une salle avec un individu ayant la grippe. Lorsque la qualité de l’air était voisine de 1 000 ppm, cinq personnes ont été infectées par la grippe. À 2 000 ppm, douze ont été infectées, et à 3 000 ppm, on monte à quinze. Dans ce cas aussi, le CO2 n’est pas le vecteur, mais on voit que la mauvaise qualité de l’air semble plus propice à la transmission du virus.

D’autres études montrent qu’au-delà de 1 000 ppm chez l’adulte, on obser ve une altération de la performance psychomotrice, donc de la prise de décisions, de

Avec la loi de 2010-788, il est obligatoire de vérifier la qualité de l’air intérieur notamment au niveau des composés volatils comme le formaldéhyde et le benzène, et avec un

Micro-capteurs à semi-conducteurs pour la détection du CO2

passent 90 % de leur temps à l’intérieur des bâtiments ; la qualité de l’air intérieur a donc un fort impact sur leur bienêtre. Nous avons précédemment cité tous les troubles qui concernent la fatigue, etc. La norme EN13779 va délimiter plusieurs plages de qualité de l’air ambiant selon l’augmentation de la teneur en CO2 par rapport à la teneur ambiante (que l’on peut arrondir à 400 ppm actuellement) : on a une première plage où la qualité de l’air est considérée comme excellente si la teneur n’augmente pas à plus de 400 ppm (soit une teneur totale inférieure à 800 ppm). Entre 400 et 600 ppm d’augmentation (teneur totale comprise entre 800 et 1 000 ppm), on aura un air de qualité moyenne. On considèrera que l’air est de qualité modérée pour un accroissement compris entre 600 et 1 000 ppm (teneur totale de 1 000-1 400 ppm). Audelà de 1 400 ppm de teneur totale en CO 2 , l’air sera de basse qualité.

221

Chimie et technologies de l’information

indice de confinement inférieur à cinq pour le CO2. Cette décision sera appliquée avant le 1er janvier 2015 pour les crèches et les maternelles, avant janvier 2018 pour les écoles élémentaires, avant 2020 pour le second degré, et avant 2023 pour le reste des établissements. Pour terminer sur le sujet du confort, le critère économique est probablement l’un des plus importants. Les bâtiments modernes sont construits avec des normes thermiques très strictes qui conduisent à supprimer quasiment les possibilités d’échange d’air avec l’extérieur. Aujourd’hui, on se rend compte à quel point un bâtiment est malsain s’il n’est pas aéré, avec une qualité de l’air mesurée qui apparaît très mauvaise. L’aération des bâtiments pose des problèmes de consommation énergétique l’été avec la climatisation ; c’est l’inverse en hiver où l’air pris à l’extérieur doit être réchauffé. D’un autre côté, on sait que la consommation d’un ventilateur (Figure 6) est environ proportionnelle au cube de la vitesse de rotation. Donc une réduction de 20 % des vitesses de rotation divisera par deux la consommation d’électricité.

On a déterminé que la façon la plus économique de gérer la ventilation était de mesurer la teneur de dioxyde de carbone dans les salles, qui varie au prorata du nombre de personnes présentes. On s’achemine petit à petit vers la ventilation contrôlée à la demande, c’est-à-dire qu’on va moduler la ventilation en fonction du taux de CO 2 , ce qui va permettre de maintenir un air de bonne qualité tout en faisant des économies d’énergie qui peuvent aller jusqu’a 50 % dans le cas où les bâtiments reçoivent du public avec des variations très importantes de flux de personnes. Sans entrer dans le détail, le domaine de l’automobile est aussi très intéressé pour les capteurs de CO2 dans les habitacles, pour des problématiques similaires à celles rencontrées dans les bâtiments.

Les capteurs à CO2 : les différents types de détection

2

Deux techniques de détection sont relativement bien éprouvées : les capteurs infrarouges et les capteurs électrochimiques. 2.1. Les capteurs infrarouges

Figure 6 222

La ventilation contrôlée.

Les ondes électromagnétiques sont classées selon leur longueur d’onde λ (ligne du bas de la Figure 7) ou selon leur fréquence (ligne du haut). Le domaine des ondes infrarouge est entouré en vert sur la Figure 7, c’est la gamme de longueurs d’onde au-dessus des micro-ondes, jusqu’à quelques millimètres.

EHz

PHz

THz

GHz

MHz

fm

Rayons X pm

Dans un gaz, les liaisons entre atomes vibrent, et pour effectuer ces mouvements, les molécules absorbent de l’énergie. Cette énergie peut être apportée par une onde électromagnétique du domaine de l’infrarouge. Si l’observe un spectre de transmission de la lumière infrarouge par un mélange gazeux (Figure 8), on voit que selon les molécules présentes dans ce gaz, il y une absorption de certaines radiations infrarouges, et la valeur de la longueur d’onde absorbée est caractéristique de chaque molécule. La molécule linéaire de CO2 possède une bande d’absorption à λ = 4,25 microns, qui résulte de l’élongation asymétrique des liaisons carbone-oxygène. Ce phénomène est utilisé pour fabriquer un capteur de CO2. Le principe du dispositif est simple. Le gaz à analyser traverse un cylindre éclairé par une source de rayons infrarouges. Après la traversée du gaz, les rayons infrarouges traversent un filtre qui ne laisse passer que la longueur d’onde de 4,25 microns, et un photodétecteur mesure l’intensité de ce rayon (Figure 9). L a loi de Beer-L amber t (Figure 10) montre que l’intensité de la lumière après le filtre dépend d’une part de l’absorption molaire propre

U.V.

nm

I.R.

Ondes radio

μm

mm

au CO2 (qui est connue pour 4,25 microns), de la longueur de la cellule (qui ne varie pas pour un dispositif donné), et de la concentration en CO2 dans le gaz. Par une simple mesure d’intensité relative, on peut donc déterminer la concentration en CO2. Des exemples de capteurs industriels sont présentés sur la Figure 11. Ils sont assez gros, car il faut une quantité suffisante de mélange gazeux pour détecter CO2. Les capteurs de CO2 à infrarouge sont de loin les plus performants, mais l’inconvénient est leur coût élevé (au-delà de la centaine d’euros) et l’encombrement relativement important.

m

km

λ

Figure 7 Le domaine de l’infrarouge (entouré en vert).

Figure 8 Spectre de transmission de la lumière infrarouge pour le CO2 : on identifie une bande d’absorption à 4,25 microns due à l’élongation asymétrique des liaisons carboneoxygène.

1,0

0,8

Transmission

Rayons γ

Micro-capteurs à semi-conducteurs pour la détection du CO2

ZHz ν

NH3

0,6

0,4

CH4 0,2

H2O CO2 0

2

3

4

5 6 7 Longueur d’onde (μm)

8

9

223

Chimie et technologies de l’information

Figure 9 Structure d’un capteur à infrarouges.

Figure 10 Loi de Beer-Lambert.

Figure 11 Exemples de capteurs optiques de CO2 industriels (Figaro, CDM30K (A) et Alphasense, IRCA1 (B)). Sources : A) www.figaro.co.jp ; B) www.alphasense.com

B A

2.2. Les capteurs électrochimiques

224

Les capteurs électrochimiques sont en fait des piles, dont un exemple est représenté sur la Figure 12. L’électrode de travail est une électrode poreuse en carbonate de lithium, le NASICON (Na 3 Zr 2 Si 2 PO 12 ) est utilisé comme électrolyte. La réaction électrochimique utilisée à l’électrode de travail est : 2Li+ + 2e- + CO2 + ½O2 → Li2CO3.

La différence de potentiel entre les deux électrodes dépend de la température et de la pression de CO2 : ΔE = E0 +RT/2F ln P(CO2). Ces capteurs fonctionnent à une température relativement élevée de l’ordre de plusieurs centaines de degrés grâce à une plateforme chauffante représentée en rouge (Figure 12), et la documentation fournie pour le capteur industriel montre la

CO2 CO Éthanol H2

ΔEMF (mV)

80 60 40 20 0 10

100

1000

10000

Concentration du gaz (ppm)

Figure 13

Figure 12

Comportement du capteur Figaro.

Modélisation d’un capteur électrochimique.

Figure 14 Exemples de capteurs électrochimiques industriels (Figaro, CDM + TGS4160 (A) et Alphasense, CO2-D1 (B)). Sources : A) www.figaro.co.jp ; B) www.alphasense.com

Micro-capteurs à semi-conducteurs pour la détection du CO2

100

B A

dépendance linéaire du potentiel mesuré avec une échelle logarithmique de la concentration (Figure 13). Les capteurs industriels de ce type fonctionnent bien et sont peu onéreux (de l’ordre de 10 €) (Figure 14), mais leur durée de vie est moyenne, de deux à cinq ans.

3

La miniaturisation des capteurs

L’effort en recherche et développement porte maintenant sur la miniaturisation et l’autonomie énergétique des capteurs dans tous les domaines d’applications, et notamment des capteurs de CO2. La demande de petits capteurs autonomes se développe

notamment dans l’habitat, avec une cellule photovoltaïque lui permettant de fabriquer son propre courant, et permettant de discuter en wifi ou en Bluetooth. Ce type capteur doit donc avoir une faible consommation énergétique, ce qui nécessite de miniaturiser la quantité de matière à chauffer (Figure 15A). La possibilité de miniaturisation des capteurs est relativement limitée au niveau des capteurs infrarouges industriels. Beaucoup de progrès ont été réalisés sur les microplateformes électrochimiques comme l’exemple du capteur Figaro (Figure 15B), dont la dimension n’est que d’environ 1,5 x 1,5 mm ; mais la consommation éner gétique, de

225

1,5 nm

Électrolyte solide

Verre Électrode de détection Contre-électrode Côté solide de l’électrolyte

Figure 15 Miniaturisation d’un capteur de CO2. Intégration dans de petits dispositifs (A) et micro-plateforme électrochimique (B) (schéma des composants : C). Source : A) Dominic Hart/NASA ; B) www.figaro.co.jp.

Gaz Oxyde semi-conducteur

Résistance

Figure 16 Principe des capteurs à semiconducteurs.

226

C nm

B

1,5

Chimie et technologies de l’information

A

quelques centaines de milliwatts, demeure trop élevée. 3.1. Principe des capteurs à semi-conducteurs Les capteurs à semi-conducteurs 3 sont la meilleure approche à cette demande de miniaturisation ; ils sont réalisés à partir d’un oxyde semiconducteur, dont on mesure le changement de résistance sous l’effet d’un gaz adsorbé à la surface des grains du matériau (Figure 16). En dessous de 150 °C, les interactions entre le gaz et la surface du semi-conducteur sont faibles et n’ont que peu d’effets ; il faut donc travailler à plus haute température (de 150 à 500 °C) pour mettre en jeu de véritables liaisons chimiques avec échange d’électrons entre le gaz et le semi-conducteur, et modifier sa conductivité (Figure 17). Les propriétés dépendent beaucoup de la nature du s emi- conduc teur, de s a 3. Un semi-conducteur est un matériau dont la conductivité électrique se situe entre celle d’un isolant et celle d’un conducteur. Dans l’usage courant, le terme « semi-conducteur » désigne plus fréquemment tout composant fabriqué avec des matériaux semiconducteurs.

composition et de la chimie de son élaboration. Des matériaux semi-conducteurs utilisables comme capteurs de gaz existent ; les plus connus sont l’oxyde de zinc (ZnO) et l’oxyde d’étain (SnO2), dans lesquels on ajoute des catalyseurs comme du platine, de l’or, du palladium, voire d’autres oxydes pour améliorer leurs propriétés. Les réactions chimiques de surface dépendent de la nature du gaz adsorbé et du type de semi-conducteur utilisé qui pourra être à porteurs n (des électrons) ou à porteurs p (des trous)4. Un gaz oxydant acceptera les électrons, et un gaz réducteur donnera des électrons, ce qui conduira le choix du type de semiconducteur. Prenons comme exemple la réponse d’un capteur SnO2 à différents gaz (Figure 18). La réponse augmente avec la température car en chauffant, on favorise les réactions d’adsorption du gaz sur la surface. Mais attention, si on chauffe trop, ce sont les 4. Pour un détail du fonctionnement des semi-conducteurs, voir le Chapitre de L. Hirsch dans Chimie et technologies de l’information, coordonné par M.-T. Dinh-Audouin, D. Olivier et P. Rigny, EDP Sciences, 2014.

Oxyde semi-conducteur

Liaison forte

Réactions chimiques Peu d’effet sur le matériau Échange d’électrons Pas intéressant

Thermiquement activées = Nécessité de chauffer

Figure 17

Figure 18

Capteurs à semi-conducteurs : condition de fonctionnement.

réactions inverses de désorption qui prennent place. Il y a donc une température optimum de fonctionnement pour chaque gaz, ainsi que pour chaque composition chimique du semi-conducteur. L’un des problèmes est que plusieurs gaz peuvent être captés à la fois, et dans le cas d’un mélange, il faut jouer sur la température pour sélectionner le gaz que l’on préfère détecter. Une autre solution consiste à jouer sur la composition du semi-conducteur pour favoriser la détection de l’un ou de l’autre. Certaines réactions parasites participent au phénomène de détection : au-delà de

Réponse d’un capteur SnO2 à différents gaz. Source : d’après De Angelis L., Minnaja N. (1991). Sensors and Actuators B, 3 : 197.

Micro-capteurs à semi-conducteurs pour la détection du CO2

Liaison faible

100-150 °C, l’oxygène réagit chimiquement avec la surface de l’oxyde en lui prenant des électrons, et forme en majorité des ions O- adsorbés (Figure 19, en rouge). Ces derniers peuvent ensuite réagir avec l’un des gaz à détecter, comme CO dans cet exemple, et restituer les électrons (Figure 19, en orange), et faire changer la conductivité. D’autres réactions parasites peuvent se produire et compliquer l’analyse, comme l’adsorption d’eau et la formation d’ions OH- en surface. Au final, un étalonnage permet d’établir une loi empirique dans laquelle la résistance du semi-conducteur varie

Figure 19 Exemples de réactions de surface possibles au-delà de 150 °C pour un semi-conducteur.

227

Chimie et technologies de l’information

A

B

C

D

Figure 20 Influence de la microstructure des céramiques semi-conductrices sur l’adsorption des gaz : A) effet de taille de grain sur le rapport surface/volume ; B) importance de la faible taille des grains ; C) importance d’une forte porosité ; D) importance de la mise en forme (intérêt des films minces).

228

proportionnellement avec la pression partielle du gaz à l’exposant n, n étant compris entre 0, 5 et 2 selon le gaz et le matériau. Dans les capteurs à gaz, toutes les réactions chimiques se passent à la surface de l’oxyde semi-conducteur (Figure 20A, couche jaune). L’intérieur (en vert) n’a aucune utilité. L’importance relative de cette surface dépend de la taille des grains, elle est d’autant plus grande que le grain est petit. On comprend donc que pour optimiser les qualités du matériau, travailler sur sa composition chimique ne sera pas suffisant, il faudra aussi optimiser sa microstructure. Il faudra donc préparer des céramiques sous forme de petits grains (Figure 20B) pour obtenir une interaction plus grande avec le gaz. Et pour que le gaz puisse pénétrer

et accéder aux grains, il faut aussi une grande porosité du matériau (Figure 20C). Les techniques de mise en forme sont donc importantes car elles vont déterminer, par rebondissement, les effets chimiques ou les effets de microstructure. Dans les capteurs de gaz, ces céramiques poreuses et à petits gains seront déposées sous forme de film minces sur un support (Figure 20D) pour favoriser l’accès des gaz. La Figure 21 montre des exemples de capteurs de gaz industriels à semi-conducteurs. Leur avantage est d’une part le très faible prix de revient en sortie d’usine (quelques euros), d’autre part la miniaturisation, de l’ordre de quelques dizaines de nanomètres d’épaisseur. La structure, très simple, comprend une plateforme

B

Figure 21 Exemples de capteurs à semiconducteurs industriels : Figaro, TGS 3870-A04 (CO) (A) et E2V MiCS-2710 (NO2) (B). Source : www.figaro.co.jp

chauffante et le matériau semi-conducteur sous forme d’une couche déposée avec deux électrodes. Comme la taille est petite, la consommation électrique est faible. Mais l’inconvénient est la faible sélectivité car un capteur de ce type peut détecter plusieurs gaz, et il y a une nécessité d’optimisation. 3.2. Exemples de microcapteurs semi-conducteurs Le schéma d’un micro-capteur industriel est représenté sur la Figure 22. Ces véritables nez électroniques imitent le nez de l’être humain, puisqu’ils

captent plusieurs gaz à la fois. Nous avons vu qu’il est difficile d’avoir un capteur très sélectif, on utilise donc simultanément plusieurs capteurs dans lesquels des programmes informatiques vont permettre de mieux détecter sélectivement un gaz parmi d’autres. Un peu comme le fait un nez, qui est capable en sentant un verre de vin de trouver des arômes cachés au milieu des autres.

Micro-capteurs à semi-conducteurs pour la détection du CO2

A

Industriellement, il existe des capteurs à quatre puces et des capteurs six puces permettant de détecter quatre ou six gaz dans un mélange. En revanche, au niveau industriel, il n’existe

Figure 22 Schéma d’un micro-capteur à gaz.

229

20

Réponses en résistance et en capacité pour le matériau CuOBaTiO3. Source : d’après Herran J. et coll. (2009).Thin Solid Films, 517 : 6192.

18 16 14

Réponse %

Chimie et technologies de l’information

Figure 23

12 10 8 6 4

Réponse % (R) Réponse % (C)

2 0 1 000

10 000

CO2 (ppm)

pas encore de matériau semiconducteur permettant la détection du CO2, hormis un composite CuO-BaTiO3 qui donne des réponses prometteuses en résistance comme en capacité (Figure 23).

De nouveaux matériaux nanocomposites pour microcapteur de CO2

4

Élaboration de couches minces de nano-composites par pulvérisation cathodique Notre laboratoire (CIRIMAT) travaille sur la recherche de nouveau matériaux semiconducteurs adaptés à la détection du CO2. Nous venons de voir sur la Figure 22 que les

Figure 24 230

Principe de la pulvérisation cathodique.

couches sensibles étaient élaborées sous forme de couches minces. Nous utilisons la technique de la pulvérisation cathodique afin d’en contrôler la composition et la structure à l’échelle nanométrique. Dans une enceinte sous très faible pression, du gaz argon Ar est ionisé sous forme de plasma, c’est-à-dire sous forme d’un mélange d’atomes d’argon, d’ions argon Ar+ et d’électrons. Ces ions argon polarisés positivement sont attirés par une cible, polarisée négativement, constituée de l’élément que l’on veut déposer dans la couche mince (Figure 24), et, comme des boules de billard, vont venir bombarder les atomes de la cible qui vont se retrouver

Des exemples de cibles céramiques sont représentés sur les Figures 25A et B. Les substrats sont variés, silicium, verre (Figure 25C), plastique ou métal, etc., et au final, on y dépose des films nano-structurés de faible épaisseur (quelques dizaines à quelques centaines de nanomètres), avec des grains qui sont eux-mêmes très petits (une trentaine de nanomètres, Figure 26), et dont on contrôle

A

Micro-capteurs à semi-conducteurs pour la détection du CO2

éjectés et se déposer par exemple sur un matériau que l’on choisira pour recueillir le dépôt, qu’on appelle le substrat.

la composition selon les cibles que l’on utilise. Des couches minces de nanocomposites avec un mélange de porteurs n (électrons) et p (trous positifs) pourraient conduire à des propriétés intéressantes. La cible utilisée est l’oxyde CuFeO2, et sur le substrat se dépose une couche mince constituée de cuivre métallique dispersé dans une matrice de céramique qui est essentiellement à base d’oxydes de fer, très riches en fer. La distance entre la cible et le substrat contrôle les collisions (Figure 27). La composition de la couche obtenue

B

C

Figure 25 Cibles et substrats utilisables : cibles céramiques élaborées au CIRIMAT (A, B), substrat en verre (C). Sources : A-C : CIRIMAT ; D) Präzisions glas&optic.

Figure 26 A) Couches minces nano-structurées obtenues par pulvérisation cathodique ; B) taille des grains à l’échelle nanométrique. Source : CIRIMAT.

Figure 27 La distance entre la cible et le substrat permet de contrôler les collisions.

231

Chimie et technologies de l’information

A

B

Échantillon brut de dépôt (étape 1)

P0,5d5

Échantillon recuit sous air (étape 2) Sur-couche Couche initiale

300 nm

P0,5d5 390 nm

Substrat 100 nm

100 nm

Structure en deux couches superposées Accroissement de l’épaisseur totale

Figure 28 A) Couche mince du dépôt initial : on met en évidence une seule couche ; B) dépôt recuit sous oxygène : il s’est créé une seconde couche en surface qui correspond à la formation d’oxyde de cuivre CuO à partir du cuivre métallique qui était initialement contenu dans la couche A.

sur le substrat est contrôlée par diffraction des rayons X et par microscopie électronique. La deuxième étape consiste à ré-oxyder à 450 °C, pendant 12 h, la couche mince obtenue. Les clichés de microscopie électronique de la Figure 28 montrent que d’une part, il y a une séparation en deux strates (Figure 28A), d’autre part, que l’insertion d’atomes d’oxygène a augmenté l’épaisseur de la couche initiale (Figure 28B). L’analyse chimique montre que les deux strates ont des compositions différentes. Celle en surface est de cuivre et l’oxygène en rapport 1/1, et celle de cœur correspond à une composition du style CuFe2O 4 (Figure 29). La couche supérieure de CuO est porteur p, la

Figure 29

232

Composite (bi-couche) comportant des jonctions p-n : une couche de CuO en surface, une couche du type CuFe2O4 au cœur.

couche inférieure de CuFe2O 4 est porteur n. Le cliché de microscopie électronique à balayage d’une tranche de ce nano-composite montre que la couche supérieure CuO est poreuse et présente des grains de très faibles tailles (quelques dizaines de nanomètres) (Figure 30). Les propriétés électriques de ce matériau nano-composite sont ensuite mesurées dans une enceinte contenant un mélange d’air et de CO 2 (Figure 31). La résistance électrique du matériau nano-composite varie avec la concentration en CO2 (Figure 32), et la réponse est optimum à 250 °C (Figure 33). L’optimisation de la réponse a été réalisée en faisant varier différents paramètres dont l’épaisseur de la couche. Les meilleurs résultats sont obtenus avec des couches minces de l’ordre de 50 nm. Ces résultats obtenus en laboratoire sont encourageants et ouvrent des perspectives favorables pour la mise au point de micro-capteurs de CO2 à semiconducteurs.

Taille des grains et porosité de la couche de CuO.

5 000 ppm CO2

Air synthétique

Contrôleur de débit Électrovannes Débitmètre

Micro-capteurs à semi-conducteurs pour la détection du CO2

Figure 30

Bouteilles de gaz Cellule de test

Régulateur de température

Four

Multimètre Ordinateur

Figure 31 Dispositif de mesure de la sensibilité au CO2.

1,45

Résistance normalisée (u.a.)

Introduction de CO2 1,3

1,15

1

Figure 32 Introduction d’air 0,85 0

100

200

300

400

Temps (min.)

500

600

700

Variation de la résistance électrique de la couche sensible CuO/CuFe2O4, enregistrée à 250 °C et sous 5 000 ppm de CO2.

233

Réponses (%)

Chimie et technologies de l’information

Le futur des micro-capteurs : un avenir prometteur lié à la chimie

40 30 20 10 0 180 200 220 240 260 280 300 320

Température (°C)

Figure 33 Détection de CO2 en fonction de la température pour le nanocomposite CuO/CuFe2O4. On visualise une température optimale à 250 °C.

234

Le marché des micro-capteurs de gaz est en plein développement, les besoins sont importants. Les micro-capteurs à semi-conducteur industriels, grâce à la multiplication du nombre de puces sensibles dans chaque dispositif, vont devenir très bientôt de véritables nez électroniques miniatures. Cependant, il n’existe pas encore dans l’industrie de puce sensible semi-conductrice pour détecter le CO2, mais les recherches dans le domaine des nouveaux matériaux nano-composites donnent dès à présent des résultats intéressants. D’un point de vue général, les progrès technologiques sont dépendants de la mise au point à l’échelle nanométrique de nouveaux matériaux construits comme des lego brique après brique, chaque brique apportant des propriétés complémentaires des autres.