Nanomonde: Les frontières du possible
 9782759820474

Citation preview

Nanomonde Les frontières du possible

Nanomonde Les frontières du possible LOUIS LAURENT

17, avenue du Hoggar – P.A. de Courtabœuf BP 112, 91944 Les Ulis Cedex A

Mise en pages : Patrick Leleux Illustration de couverture : Vue artistique d’un nanorobot au milieu de cellules sanguines, © chagpg, fotolia. 1re édition publiée sous le titre « Comment fonctionnent les nanomachines ? » en 2009. Imprimé en France ISBN : 978-2-7598-1905-8

Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinés à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences, 2016

REMERCIEMENTS

Je tiens à remercier Isabelle Antoine pour ses précieux commentaires sur le manuscrit et Christine Savelsbergh pour son illustration du chapitre 6. Ce livre a également bénéficié des nombreuses discussions que l’auteur a pu avoir entre 2012 et 2014 avec ses collègues de l’Observatoire de la biologie de synthèse hébergé par le CNAM.

5

SOMMAIRE

Introduction : Les frontières du possible ...................................... Les deux mondes ....................................................................... De la science à la fiction ? .......................................................... Quelles sont les limites du possible ? ...........................................

9 9 10 12

Chapitre 1 : Lois d’échelle et forces.............................................. La machine à rétrécir ................................................................. Première étape : le palier « 18 millimètres » ................................. Deuxième étape : le palier « 18 micromètres » ............................... Troisième étape : le palier « 18 nanomètres » ................................ Quatrième étape : le palier « 18 picomètres » ................................ Fin du voyage ...........................................................................

15 15 19 28 33 40 43

Chapitre 2 : Les lois du nanomonde .............................................. Un monde très collant ................................................................ Un monde très agité .................................................................. Deux phénomènes omniprésents .................................................. Nanomachines thermiques ...........................................................

45 45 63 75 83

Chapitre 3 : Les nanomachines créées par l’Homme ....................... Du discours de Feynman à la microélectronique.............................. Méthodes de fabrication de la microélectronique ............................ Vers des nanosystèmes mécaniques .............................................. L’assemblage par les méthodes de la chimie...................................

87 87 93 99 109

7

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

8

Chapitre 4 : Les nanomachines naturelles ..................................... Comment est construit le vivant ? ................................................ Construire une cellule................................................................. Quelques exemples de « nanomachines » du vivant......................... La biologie de synthèse ..............................................................

119 119 130 137 152

Chapitre 5 : Quelle convergence ?................................................. Machines artificielles et le vivant ................................................. La vision de Drexler ................................................................... Micromachines et microfabrication ............................................... S’inspirer du vivant .................................................................... Questionnements .......................................................................

161 161 168 177 183 188

Chapitre 6 : Nanomachines et imaginaires .................................... Nanomachines et fiction ............................................................. Trois visions du futur ................................................................. Quels sont leurs effets ? ............................................................. Les nanomachines de l’imaginaire ................................................

193 193 196 207 210

Conclusion ..................................................................................

211

NANOMONDE

INTRODUCTION LES FRONTIÈRES DU POSSIBLE

LES DEUX MONDES Dans son célèbre discours prononcé au Caltech (Institut californien de technologie) à l’occasion de la réunion annuelle de la Société américaine de physique en 1959, le prix Nobel Richard Feynman exprimait que rien ne s’opposait à ce que l’Homme pût construire des objets d’une taille proche de celle des atomes. Cette capacité s’est aujourd’hui concrétisée à travers le formidable essor de l’industrie des circuits intégrés. C’est ainsi que l’Homme a développé la boîte à outils de la microélectronique pour réaliser des systèmes complexes, comme les microprocesseurs. À l’intérieur de ceux-ci, les opérations élémentaires se font sur des circuits électriques dont la taille se mesure en nanomètres (« nano » voulant dire un milliardième, ou 10–9) alors que, rappelons-le, quand Feynman prononça son discours, le transistor venait tout juste d’être inventé et était un objet dont la taille était plutôt de l’ordre du centimètre. On utilise désormais les techniques de la microélectronique pour réaliser autre chose que des circuits électriques, comme des systèmes avec des capteurs ou des actionneurs. Un actionneur est un élément qui « agit », par exemple un levier qui se déplace, un miroir qui 9

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

tourne… Certains sont déjà en service, comme ceux qui mesurent les accélérations et servent à déclencher les airbags dans les automobiles. Ils ont des tailles qui se mesurent en micromètres (millionièmes de mètres). Et ils pourraient bien continuer à rétrécir pour se mesurer, eux aussi, en centaines d’atomes. On parlerait alors de nanomachines, c’est-à-dire de machines dont la taille des pièces se mesurerait en nanomètres. Dans son discours, Feynman donne l’exemple du « merveilleux système biologique ». En effet, la vie s’appuie sur de nombreux ensembles de taille nanométrique, qui remplissent des fonctions variées comme la synthèse chimique ou, au contraire, la destruction de molécules, la fonction de capteur ou d’actionneur, le stockage et le traitement de l’information. Ces ensembles, qui sont constitués de centaines de milliers d’atomes, sont beaucoup plus sophistiqués que les machines humaines. Durant des siècles, on a fait appel à eux pour synthétiser des substances chimiques, d’abord à partir de microorganismes existant dans la nature, puis à partir de microorganismes modifiés. En parallèle, depuis plus d’un siècle, divers acteurs ont souligné que rien ne s’opposait à ce que l’Homme puisse créer des objets s’inspirant du vivant, en rejoignant d’une certaine manière les idées de Feynman. C’est dans ce sens que diverses recherches s’inspirent ouvertement de la nature et visent à reproduire certaines de ses inventions, par exemple en réalisant des nanomoteurs. Mais là où les progrès ont été les plus spectaculaires dans la compréhension et dans la capacité à fabriquer, c’est dans le domaine de la génétique. C’est ainsi, qu’il y a quelques années, une équipe a fabriqué de toutes pièces le premier génome artificiel d’une bactérie.

DE LA SCIENCE À LA FICTION ? On ne peut pas rejeter d’un haussement d’épaules l’éventualité, qu’un jour, l’Homme conçoive des machines qui pourraient 10

NANOMONDE

INTRODUCTION LES FRONTIÈRES DU POSSIBLE

réaliser, comme le vivant, des tâches complexes, voire qui se reproduiraient. Les lois de la physique l’autorisent puisqu’une bactérie, un assemblage d’une centaine de milliards d’atomes, remplit un tel cahier des charges. Pendant des siècles, on a vu dans la vie une force mystérieuse qui échappait à la science. Depuis cent ans environ, les progrès de la biologie nous ont amenés progressivement à considérer le vivant comme un agencement de systèmes de traitement de la matière, de l’énergie et de l’information. On ne peut donc pas considérer a priori comme impossible la réalisation d’un objet que la nature a tout de même développé sur Terre en un milliard d’années… En ce qui concerne l’échelle nanométrique, on perçoit trois raisons pour lesquelles des machines plus autonomes pourraient émerger à cette échelle : – une machine complexe doit comporter un très grand nombre de pièces. Celles-ci seront nécessairement de très petite taille, si l’on veut que le tout reste de taille raisonnable ; – elle peut tirer parti des lois physiques qui dominent le nanomonde, notamment l’agitation thermique, ce mouvement incessant qui anime tout nanoobjet, ainsi qu’un jeu particulier de forces spécifiques de l’échelle atomique, le tout combiné ensemble et permettant des interactions très sélectives à l’origine d’assemblages spontanés ; – une machine complexe ne peut fonctionner, se maintenir ou se dupliquer que si elle a à sa disposition de l’énergie et des pièces de rechange. Pour une machine microscopique, les pièces de base sont les molécules, plus faciles à trouver et parfaitement standardisées. C’est ainsi que « fonctionne » le vivant, qui recycle perpétuellement des biomolécules. Certains n’ont pas attendu pour spéculer sur cette convergence. Elle pourrait par exemple prendre la forme de machines ayant les capacités du vivant, voire d’avantage. Un concept particulièrement spectaculaire est celui des assembleurs, inventé par l’américain Éric 11

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Drexler. Celui-ci publia en 1986 un livre intitulé Engins de création1, ouvrage qui eut un retentissement considérable dans la communauté qui gravitait autour des nanotechnologies, décideurs, penseurs, public intéressé par les sciences et une partie des chercheurs. Éric Drexler y développa longuement les conséquences qu’aurait selon lui le développement de techniques d’assemblage à l’échelle moléculaire. Il évoqua ainsi des machines microscopiques capables de tirer de leur environnement l’énergie et les matières premières qui leur sont nécessaires. Drexler imagina le cas de machines suffisamment complexes pour pouvoir se reproduire en consommant, dans l’hypothèse d’une évolution catastrophique, la croûte terrestre.

QUELLES SONT LES LIMITES DU POSSIBLE ? Pour résumer, on peut parler de nanomachines dans deux domaines. Il y a d’un côté celui de l’inanimé, peuplé de transistors, de capteurs et d’actionneurs ; de l’autre côté, le vivant, qui a su fabriquer des molécules qui sont de véritables nanomachines, ellesmêmes éléments de microorganismes. C’est du parallèle entre ces deux domaines que traite cet ouvrage avec, sous-jacente, la question d’une convergence possible entre ces deux mondes. Le chapitre 1 a pour but de familiariser le lecteur avec les lois du nanomonde. On évoque une expérience en pensée, à l’occasion de laquelle un personnage rapetisse et ressent toute l’étrangeté du comportement de la matière lorsqu’il tend vers la taille d’un atome. Dans le chapitre 2, on détaille la façon dont la matière se comporte à l’échelle du nanomètre. On évoque deux phénomènes physiques omniprésents. Il y a tout d’abord les forces entre les atomes, qu’il s’agisse des liaisons fortes, qui assurent la cohésion des édifices atomiques, ou des interactions plus faibles, qui gouvernent en quelque 1. Édition originale, Engines of creation – The coming era of nanotechnology, Anchor Books, New York, 1986. Traduction française Engins de création, Vuibert, Paris, 2005.

12

NANOMONDE

INTRODUCTION LES FRONTIÈRES DU POSSIBLE

sorte leur comportement mécanique. Un autre phénomène tout aussi important, sans équivalent à notre échelle, est l’agitation thermique, qui tend à répandre partout une forme de désordre universel, de telle sorte que le monde microscopique est bien moins calme qu’il n’y paraît. On introduit ensuite quelques phénomènes physiques qui résultent de la combinaison des effets qui ont été présentés auparavant : la capacité mystérieuse qu’ont des petits objets à s’assembler, des phénomènes mécaniques induits par la propension de la matière à se désordonner, phénomènes qui ne ressemblent pas à ce que nous connaissons à notre échelle. Dans le chapitre 3, on présente les micro- et nanomachines artificielles et les méthodes pour les fabriquer, qu’il s’agisse de microsystèmes en silicium ou des dernières machines moléculaires. Ces dernières, qui sont inspirées par le vivant, tirent parti de l’agitation thermique et des forces intermoléculaires. Le chapitre 4 concerne le vivant et la manière dont les structures qui le composent s’assemblent. L’ensemble, fruit d’une longue évolution, est optimisé pour tirer parti des lois de la physique à l’échelle nanométrique, bien plus que ne le sont les réalisations humaines actuelles. On décrit également des tentatives de l’Homme pour tirer parti du vivant et l’essor de la biologie de synthèse. Le chapitre 5, à visée plus prospective, traite des spéculations autour des nanomachines. On y expose les principales idées de Drexler et les polémiques qu’il a suscitées. On évoque également le développement de microrobots et les tentatives de faire le lien entre les créations humaines et le monde du vivant. Le chapitre 6, de nature différente, abordera le sujet des nanomachines imaginaires, c’est-à-dire de la manière dont les nanomachines ont été traitées dans la science-fiction, qu’elles soient biologiques ou mécaniques, sympathiques ou agressives.

13

1 Lois d’échelle et forces

LA MACHINE À RÉTRÉCIR Puces sauteuses et fourmis haltérophiles Diverses publications ou sites Internet vantent les prouesses des puces, insectes qui sautent des centaines de fois leur hauteur, ou des fourmis, haltérophiles douées, qui soulèvent une cinquantaine de fois leur poids. Leurs exploits ne nous étonnent plus guère, tant nous sommes habitués à penser que, dans un monde en miniature, tout ne se passe pas exactement comme dans le nôtre. Sans toujours nous en rendre compte, nous en avons même une bonne connaissance. Ainsi, lorsque nous regardons une bataille navale dans un vieux film, nous savons intuitivement que le navire en train de couler est une maquette, parce que divers détails nous choquent, comme des vagues trop lisses, l’eau d’apparence visqueuse ou les flammes trop calmes, qui ressemblent à celle d’une allumette. Tout cela est la manifestation de ce qu’on appelle les lois d’échelle. Celles-ci ont une portée très générale : la plupart des phénomènes que nous observons dépendent de la taille des objets, mais pas tous de la même manière. Les grandeurs physiques qui les caractérisent varient parfois avec le volume, 15

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

la masse ou la surface. Et cela change tout. En effet, lorsque nous divisons la taille d’un objet par deux, la surface de cet objet est divisée par quatre et son volume est divisé par huit.

Figure 1 | Imaginons que l’on multiplie plusieurs fois de suite par deux la taille d’un cylindre en béton. À chaque étape, son poids est multiplié par huit, car il varie avec la quantité de matière donc en fonction du volume. La pression que subit le béton est multipliée par deux car le poids (huit fois plus élevé) se répartit sur une surface qui n’est multipliée que par quatre. À partir d’une certaine taille, le cylindre se fissure.

À quoi ressemble le nanomonde ? Dans ce chapitre, pour bien saisir la manière dont les choses changent dans un monde en miniature, nous allons essayer d’imaginer ce que vivrait un homme qui deviendrait de plus en plus minuscule. Cette idée a été exploitée par Richard Matheson dans son roman L’homme qui rétrécit2, œuvre qui a été adaptée pour le cinéma dès 1957 par Jack Arnold. L’histoire est la suivante : après avoir été exposé à un mystérieux nuage radioactif pendant une promenade en mer, Scott Carey se met à rétrécir inexorablement. Il se retrouve prisonnier dans sa cave, trop petit pour attirer l’attention de ses proches, et il doit apprendre à survivre alors que sa taille est millimétrique. Plus récemment, dans le 2. Publié aux États-Unis en 1956. Traduction française chez Denoël, 2000.

16

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

film Le voyage fantastique, de Richard Fleischer, sorti en 1966, le professeur Benes invente une machine à miniaturiser. Lorsque le scientifique est grièvement blessé à la suite d’un attentat, une opération de la dernière chance est tentée, et ceci grâce à sa propre invention. On injecte dans son sang un sous-marin avec un équipage de cinq personnes, qui ont pour mission d’aller détruire un dangereux caillot avec un laser. L’équipage miniaturisé a tout le loisir d’observer l’intérieur du corps ; il est confronté à maints dangers comme le système immunitaire du patient ou la turbulence de son flux sanguin. Nous allons imaginer que nous empruntons la machine du docteur Benes pour l’utiliser sur un volontaire. C’est une expérience en pensée, ce qui nous donne le droit de faire quelques grosses entorses aux lois de la physique. Si on y réfléchit un peu, de telles entorses sont nécessaires. Imaginons par exemple que la machine fonctionne en diminuant le nombre d’atomes. Oui, mais tous les organes ne fonctionnent que s’ils ont assez d’atomes pour cela, et très vite notre personnage ne survivrait pas à l’expérience. Ou alors, imaginons que notre machine rapetisse les atomes et les rapproche. Cela demande de changer les caractéristiques des électrons, et des noyaux qui composent les atomes, ce qui impacterait toute la chimie, donc aussi la chimie du vivant. Quoi qu’il en soit, notre personnage serait composé d’une matière d’un nouveau genre et cela ne nous apprendrait pas grand-chose sur notre monde. Ici, nous oublierons simplement que notre personnage est composé d’atomes. Nous supposerons que sa miniaturisation n’affecte en rien les propriétés de la matière qui le compose (même densité, mêmes forces par unité de volume). Autre entorse, on supposera que ses sens fonctionnent de la même manière. Cette entorse est d’ailleurs la règle dans la plupart des films autour du thème de la miniaturisation. En réalité, il n’en serait rien. Par exemple, la lumière qui illumine les objets puis se projette sur la rétine d’un observateur ne peut former une image que si tous les obstacles sur lesquels elle se réfléchit et les ouvertures à travers lesquelles elle 17

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

passe sont significativement plus grands que sa longueur d’onde, soit en gros plus de quelques millionièmes de mètre. Si les yeux de notre observateur sont trop petits, ils ne peuvent plus voir d’images. Et même s’ils le pouvaient, les objets décrits par la suite seraient également trop petits pour former des images. Le nanomonde n’est pas pour autant plongé dans le noir ; il serait plus correct de dire que la lumière devient une sonde trop grossière pour dessiner les contours des objets. On pourrait faire une comparaison avec le cas du son : nous pouvons être dans une ambiance bruyante, sans pour autant que le son nous fasse percevoir les contours des objets qui les émettent ou les réfléchissent. Nous ne ferons que ce qui existe dans de nombreux ouvrages où sont montrées des images de virus, de protéines ou d’atomes, qui ne sont en fait que des reconstitutions d’images obtenues par des microscopes électroniques, calculées par un ordinateur, ou encore ce que l’on appelle des vues d’artiste. Scott qui rétrécit Le monde qui nous entoure est peuplé d’objets qui se mesurent en dizaines de centimètres et les masses que nous manipulons s’expriment en kilogrammes. Nous exerçons des forces de quelques centaines de newtons, disons environ 200 newtons, qu’il s’agisse de tirer sur une corde ou de soulever une masse de 20 kilogrammes. Rappelonsle, l’unité pour exprimer les forces est le newton (N). Il ne faut pas confondre la masse exprimée en kilogrammes, qui est donnée par notre balance, avec notre poids, exprimé en newtons, obtenu en multipliant notre masse par 9,81 (tant que nous sommes sur la Terre). Le poids d’un individu de 80 kilogrammes est donc une force de 785 N. La masse exprime la quantité de matière que nous contenons et est une propriété qui nous caractérise, alors que le poids exprime la force de la gravité. Ainsi, sur la Lune, le poids de ce même individu ne serait que de 130 N. Imaginons que notre cobaye, que nous appellerons Scott – le prénom de L’homme qui rétrécit, au risque de laisser penser que ce 18

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

livre est traduit de l’anglais –, soit un individu de 1,80 m et 80 kilogrammes, qui se fasse rétrécir par paliers, pour séjourner dans le monde des millimètres, puis celui des micromètres (millionièmes de mètre, 10–6 m), puis celui des nanomètres (milliardièmes de mètre, 10–9 m) puis, à la fin, dans celui des atomes et des molécules. Que ressentirait-il ? C’est ce que nous allons essayer d’illustrer dans ce qui suit, afin de faire comprendre comment les lois de la physique s’appliquent dans le monde microscopique.

PREMIÈRE ÉTAPE : LE PALIER « 18 MILLIMÈTRES » Être un insecte Commençons par régler la machine sur un faible rétrécissement, disons un facteur cent, ce qui ne passe déjà pas inaperçu. Lorsque l’opération est terminée, Scott, qui mesurait 1,80 m (soit 1 800 mm) et avait une masse de 80 kilogrammes (soit 80 000 grammes), accuse 18 millimètres sous la (milli)toise et la (micro)balance indique 80 milligrammes, soit un million de fois moins que son poids d’origine : rappelons-le, la quantité de matière qui compose Scott varie comme le cube de la longueur. Notre héros reconnaît encore bien les objets qui lui sont familiers même si, désormais, il vit dans le monde des insectes. Tout lui semble cent fois plus gros, c’est-à-dire qu’une fourmi a la taille d’un petit chien, un acarien de 0,3 millimètre est un petit crabe qui tient dans le creux de sa main et un grain de pollen de quelques centièmes de millimètre ressemble à une boule de tilleul. Une des premières choses qu’il remarque est sa force, qui semble devenue extraordinaire. En effet, il exerce sans fatigue une traction de 2 × 10–2 newton3. Cette force est certes petite à notre échelle (nous sommes dix mille fois plus forts que lui), mais elle est tout de même,

3. Cette notation est bien utile pour écrire les nombres minuscules, qui foisonnent dans cet ouvrage. 10–n est une notation qui signifie « multiplié par 0,000…01 », le 1 étant le n-ième chiffre après la virgule. Par exemple, 2 × 10–2 = 0,02.

19

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

chose extraordinaire, vingt-cinq fois plus élevée que son poids. Scott saute ainsi sans effort à trente fois sa hauteur et se sent capable de rivaliser avec les fourmis haltérophiles et les puces. Mais que se passe-t-il donc ? En fait, tout réside dans les lois d’échelle. Cent fois plus petit, notre personnage a perdu un facteur dix mille sur la section de ses bras, car la surface varie avec le carré de la longueur. Ceux-ci ressemblent à des allumettes et le biceps de Scott a désormais une section qui se mesure en millimètres carrés. Or, la force d’un individu est déterminée par la section de ses muscles. Rappelons-le, le poids de notre personnage est par ailleurs déterminé par sa masse, laquelle a décru, comme son volume, d’un facteur un million, c’est-à-dire cent fois plus que sa force musculaire. Cette idée a été exploitée dans le film Antman (l’homme fourmi), sorti en 2015. Grace à de mystérieuses particules, le héros, qui s’appelle aussi Scott, est réduit à la taille d’une fourmi, et est doté d’une force impressionnante. Il présente toutefois une différence avec notre personnage, car il est composé d’atomes modifiés, plus compactés, de telle sorte que, lorsqu’il rétrécit, il garde sa force et sa masse d’origine.

Kilogrammes 100 10 1 0,1 0,01

Masse soulevée

0,001

Masse de Scott

0,0001 0,00001 1,8

0,18

0,018 Mètres

Figure 2 | La masse que soulève Scott varie comme le carré de sa taille, alors que sa propre masse varie comme le cube de sa taille. Plus il est petit, plus il semble fort.

20

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

Scott a donc, à juste titre, l’impression d’être cent fois plus fort qu’avant, vu qu’il est en proportion beaucoup plus léger et, d’un bond, il peut se propulser à quelques dizaines de fois sa hauteur. Heureuse coïncidence, la résistance des os et des tendons dépend aussi de leur surface et elle a évolué comme la force musculaire. Une terrible tension de surface En même temps, Scott se rend compte que sa force lui est très utile, car son nouvel environnement est plein de pièges et ses ennuis ne font que commencer. Il s’approche par exemple d’un lac peu profond, qui pourrait être une flaque d’eau. Cependant, l’eau que contient ce lac est vraiment bizarre. Lorsqu’il appuie son doigt sur la surface, le liquide capricieux résiste avant de céder, comme si c’était de la gelée. De plus, l’eau semble tellement froide4 que Scott préfère renouveler l’opération avec la semelle de sa chaussure. La surface résiste alors avec une force de l’ordre de son poids ! Notre personnage n’est pas loin de pouvoir marcher sur l’eau (à quatre pattes, certes). En retirant son pied, il s’aperçoit qu’une grosse boule d’eau de la taille d’un pamplemousse s’y accroche et refuse de couler. Il doit secouer vigoureusement son pied pour que la goutte daigne se décrocher. Bizarre, vraiment, car quand la goutte, une fois décrochée, heurte le sol, elle vibre comme de la gelée, se rassemble avec d’autres en un dôme gros comme une cloche à fromage, mais ne se brise pas.

4. Voir plus loin le paragraphe « Brrr… ».

21

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Gouttes d’eau

Eau

Figure 3 | Scott ressent une forte résistance de l’eau, qui se comporte comme un tapis élastique. À droite, un insecte à la surface de l’eau. L’eau se déforme et exerce une force qui s’oppose au poids de l’insecte (cliché L. Laurent).

Pourquoi tous ces phénomènes étranges ? C’est à cause de ce qu’on appelle la tension de surface de l’eau. On observe qu’au repos, l’eau, ou tout autre liquide, aime avoir une surface minimale. C’est ainsi que la surface de l’eau dans un verre est plane ou qu’une bulle de savon adopte une forme de sphère. Lorsque notre personnage enfonce sa chaussure dans l’eau, celle-ci est contrainte d’augmenter sa surface pour entourer le bord de la semelle. Elle résiste avec une force qui est proportionnelle au périmètre de la semelle. Pour un Scott grandeur nature, le tour de la chaussure vaut environ 0,75 mètre, et on montre que la force exercée par la surface de l’eau (la tension de surface) vaut environ 5 × 10–2 N, soit près de quinze mille fois moins que son poids. En revanche, après réduction d’un facteur cent, le tour de la chaussure de Scott, et la force de tension de l’eau qui lui est directement proportionnelle, ne sont réduits que d’un facteur cent, alors que le poids est diminué d’un facteur un million. Pour notre micro-Scott, la force exercée par l’eau vaut 5 × 10–4 N, soit presque son poids. Alors que la taille de Scott n’a été réduite que d’un facteur cent, la tension de surface devient une force avec laquelle il faut compter. Et la goutte d’eau ? Si Scott retire brutalement son pied, de l’eau reste accrochée à sa chaussure. Cela se produit parce que certaines 22

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

parties des vêtements ont une affinité pour l’eau et tendent à l’attirer. C’est ce phénomène qui fait que le coton hydrophile5 attire l’eau. Si la goutte est de taille inférieure à un millimètre (le poing notre personnage), son poids est plus faible que la force élastique qui tend sa surface. La goutte se déforme alors éventuellement pour mieux coller, mais ne coule pas vers le bas car cela nécessiterait une trop grosse déformation de sa surface. De même, briser une goutte d’eau trop petite demande de la secouer très violemment car pour cela il faut augmenter sa surface, ce qui exige de lui apporter beaucoup d’énergie. Notre eau se cramponne alors au pied sous la forme d’une grosse goutte, qui vibre comme de la gelée mais reste en un bloc à cause du caractère élastique de sa surface. Ce phénomène nous est familier ; c’est à lui que l’on doit par exemple que la rosée reste accrochée sous forme de gouttes aux feuilles ou aux fils d’une toile d’araignée. Reynolds contre Scott Scott réussit finalement à pénétrer dans l’eau en se contorsionnant et plonge. La surface élastique se referme autour de lui et ne tente plus de le repousser. La réaction de l’eau l’intrigue : les battements de pieds ne le font pas avancer, mais à peine osciller en restant sur place. La brasse semble plus efficace. En adaptant ses mouvements à ce monde étrange, il arrive tout de même à se propulser à une allure qui lui semble normale : toutes les secondes, il parcourt une distance égale à la moitié de sa longueur, comme il le faisait à la piscine lorsqu’il était de taille humaine. Effectivement : sa vitesse est de 1 cm/s (10–2 m/s). C’est-à-dire qu’il nage tout de même cent fois moins vite qu’à sa taille normale ! Le plus étrange, c’est l’écoulement régulier de l’eau autour de lui, qui semble se refermer derrière ses pieds sans même former un tourbillon, de quoi lui donner l’étrange impression de nager dans du miel. Pourquoi le comportement de l’eau lui semble-t-il si étrange ? 5. Le mot hydrophile signifie justement « qui aime l’eau ».

23

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Pour comprendre cela, considérons un écoulement avec une géométrie donnée. Cela peut être un fluide s’écoulant autour d’un obstacle, dans un tube ou autour d’un nageur. Supposons de plus que l’on puisse varier la vitesse de cet écoulement et la viscosité du liquide. En fonction des cas, le détail de l’écoulement changera, c’est-à-dire par exemple que la forme du sillage variera, que l’écoulement sera calme ou turbulent. On peut montrer que tout dépend uniquement du nombre de Reynolds, souvent noté Re, qui vaut Re = U L/ν. Dans cette formule, U est la vitesse caractéristique de notre écoulement (dans notre cas la vitesse du nageur), L est un ordre de grandeur de la taille de la zone d’écoulement (la largeur de notre personnage, soit environ 5 millimètres) et ν est la viscosité cinématique du fluide6. Vitesse U

Re =

UL ν

Largeur L

Viscosité ν Figure 4 | Le nombre de Reynolds est défini par trois nombres : la vitesse U du liquide (celle-ci n’est pas constante partout et on choisit une valeur typique), une échelle de longueur donnant la taille de cet écoulement (L) et la viscosité du liquide (ν).

6. Ce nombre mesure la capacité d’un fluide à s’écouler ; il s’exprime en mètres carrés par seconde. C’est le rapport de la viscosité dynamique du fluide (plus le fluide est visqueux, plus ce nombre est élevé) divisé par sa masse volumique. Par exemple, pour l’eau, ce nombre vaut 10–6 m2/s, pour l’air 14 × 10–6 m2/s, pour la glycérine 1 200 × 10–6 m2/s et pour le miel 4 000 × 10–6 m2/s.

24

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

Une coquille Saint-Jacques dans du miel Cette propriété est utilisée pour simuler des comportements d’avions dans les souffleries : pour comprendre ce qui se passe autour d’un avion, il n’est pas nécessaire d’être en situation réelle, mais il faut avoir le bon nombre de Reynolds. Cette propriété permet de travailler avec des maquettes de taille réduite. De manière générale, on peut constater ce qui suit : – les écoulements à bas nombre de Reynolds (écoulement lent, de petite taille, liquide très visqueux) sont calmes et réguliers. Une propriété remarquable est qu’ils sont invariants lorsqu’on renverse les sens de l’écoulement : si on filme un tel écoulement et que l’on montre le résultat à quelqu’un qui n’a pas vu ce qui était filmé, il n’a aucun moyen de savoir si le film passe à l’endroit ou à l’envers ; – à fort nombre de Reynolds (liquide peu visqueux, écoulement rapide, écoulement de grande taille), les écoulements sont turbulents et ne sont pas invariants par renversement du sens. Par exemple, si dans un film on voit le sillage d’un bateau rapide en avant du bateau, on devine que le film est à l’envers. Nous avons vu que notre Scott miniature se déplace avec une vitesse réduite d’un facteur cent. De même, la taille de l’écoulement qui l’entoure est réduite d’un facteur cent. Le produit U L correspondant à l’écoulement de l’eau autour de notre minipersonnage est donc divisé par un facteur dix mille. La viscosité de l’eau est inchangée car c’est une propriété de l’eau qui ne dépend pas de notre personnage. Le nombre de Reynolds passe donc de 5 × 105 à 50. L’écoulement fluide autour du minipersonnage dans l’eau sera donc le même que celui autour du personnage non rapetissé, placé dans un liquide 10 000 fois plus visqueux, par exemple du miel. Une conséquence est que, si notre nageur fait un mouvement invariant quand on renverse le temps (comme battre des jambes sous la surface du liquide), il 25

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

n’avance pas7. En revanche, le nageur peut avancer en faisant un mouvement qui n’est pas invariant par renversement du temps (comme la brasse par exemple). Quand on voit le film à l’envers, on voit simplement quelqu’un qui nage à l’envers et recule. Ces considérations ont été publiées en 1977 par le physicien américain Purcell8, qui s’intéressait au mode de propulsion des microorganismes, sous le nom du théorème de la coquille Saint-Jacques. Ce bivalve peut en effet se propulser rapidement en s’ouvrant et en se fermant rapidement. Cela n’est possible que parce que le nombre de Reynolds associé est grand (environ 105). Une coquille Saint-Jacques ne pourrait avancer dans du miel ; elle reculerait en s’ouvrant et avancerait en se refermant, avec un résultat nul. Brrr… Vite lassé par sa baignade décidément trop visqueuse, Scott sort de l’eau. Épuisé et grelottant, il veut se réchauffer en buvant un bol de 0,1 microlitre de thé qu’il serre dans ses mains. Curieusement, son thé refroidit en moins d’une seconde. Ce comportement étrange, c’est encore une affaire d’échelle de longueur. Dans un bol de thé, il se passe des choses très compliquées comme les mouvements turbulents du liquide, la conduction de la chaleur, l’évaporation, le rayonnement, phénomènes qui obéissent à des lois d’échelle variées. Considérons ici uniquement la conduction de la chaleur à travers le liquide, phénomène qui, comme nous allons le voir, devient dominant dans les petits bols.

7. Raisonnons par l’absurde en supposant que Scott avance. Le film à l’envers le montrerait en train de reculer avec le même battement de jambe. Mais nous avons dit que, à bas nombre de Reynolds, le film à l’envers correspond aussi à une situation réelle. Le même mouvement des jambes le ferait à la fois avancer et reculer, ce qui est impossible. 8. Purcell ne s’est pas seulement intéressé aux coquilles Saint-Jacques. Il est plus connu pour avoir mis en évidence le phénomène de résonance magnétique nucléaire, ce qui lui a valu le prix Nobel de physique en 1952.

26

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

La conduction de la chaleur dépend de la diffusivité thermique du milieu à travers lequel elle se transmet, nombre que nous appelons χ. La diffusivité mesure la propension qu’a la chaleur à se déplacer dans un milieu donné. Elle est faible dans les isolants thermiques et élevée par exemple pour les métaux, qui sont bons conducteurs de la chaleur (pour le cuivre χ = 1,2 × 10–4 m2/s). Pour l’eau (donc le thé), la diffusivité est de 10–7 m2/s. On peut montrer qu’un volume de côté L se refroidit en un temps t tel que : t = K L2/χ. Le nombre K est de l’ordre de 1 et il dépend de la forme du volume qui se refroidit. Conséquence : si on divise la taille L par cent, la chaleur fuira par conduction dix mille fois plus vite. De manière générale, plus L diminue, plus la chaleur fuit rapidement par conduction et, pour les petits objets, c’est ce canal de perte d’énergie qui domine. C’est également pour cette raison que Scott trouve l’eau très froide, son corps ne retient plus la chaleur et se refroidit très vite dans l’eau.

χ = diffusivité de la chaleur L L L

Temps de refroidissement = K L2/χ

Figure 5 | Plus un objet est petit, plus il se refroidit rapidement.

27

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Plus on avance dans la miniaturisation, plus ces effets s’amplifient. Toutefois, au fur et à mesure qu’il va rapetisser, Scott commencera à percevoir d’autres événements plus étranges. Des phénomènes qui étaient trop faibles pour être perçus directement dans notre monde deviennent dominants.

DEUXIÈME ÉTAPE : LE PALIER « 18 MICROMÈTRES » Un acarien devient un dinosaure Scott décide de reproduire son aventure dans un monde encore réduit d’un facteur mille ; il rétrécit jusqu’à une hauteur de 18 micromètres (18 millionièmes de mètres), soit cent mille fois moins qu’au départ. Notre personnage accuse désormais sur la balance 8 × 10–14 kilogramme, autrement dit son poids est 7,8 × 10–13 newton. N’oublions pas toutefois qu’il est très fort. Ses bras ont une épaisseur de l’ordre de 1 micron mais gardent assez de muscle pour qu’en tirant sur une corde, ils puissent exercer une force de 2 × 10–8 N, soit désormais 25 000 fois son poids. L’acarien de tout à l’heure est devenu bien plus gros qu’un dinosaure et un grain de pollen a désormais la taille d’un éléphant. Un cheveu (diamètre 50 micromètres) lui apparaît comme un tronc d’arbre monstrueux. Scott commence aussi à percevoir un nouveau monde. Une bactérie (quelques microns) ressemble à un gros melon et un globule rouge (5 microns) pourrait lui servir de fauteuil. Un virus (100 nanomètres) a la taille d’une noisette. Le parachute sans parachute Désormais, Scott flotte dans l’air, porté par un léger courant d’air. Celui-ci le propulse à 1 centimètre (550 fois sa hauteur) par seconde et le paysage défile devant lui à toute vitesse. Il observe des particules en suspension qui parfois se rapprochent de lui. Les plus impressionnantes, ce sont des grains de poussière de 100 micromètres, heureusement 28

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

rares, qui font plus de 5 fois sa hauteur ; il les compare à des icebergs. D’autres particules, plus petites, semblent moins menaçantes comme les particules fines, qui ont la taille d’un ballon de basket9. Scott se dit qu’il est lui-même une poussière en suspension parmi les autres. Soudain le courant d’air s’arrête et Scott avec. Il regarde vers le bas et se demande alors si lui et ses voisines les particules ne vont pas tomber en chute libre et se fracasser au sol, ce qui terminerait prématurément notre histoire. Mais il est heureusement surpris par l’effet de la résistance de l’air, qui amortit sa chute de façon inattendue, comme s’il avait un parachute. On peut estimer cette force de la manière suivante. Nous assimilerons Scott à une sphère de rayon 9 microns – donc, de diamètre 18 microns – ce qui ne change pas grand-chose tant que notre personnage ne plonge pas la tête la première, mais simplifie grandement la question.

Force de freinage = BairU Bair= 6π ρair νairR Rayon R Vitesse U

Densité de l’air = ρair Viscosité de l’air = νair

Figure 6 | Nous assimilerons Scott à une sphère de rayon 9 microns, ce qui ne change pas grand-chose tant que notre personnage ne plonge pas la tête la première, mais simplifie grandement la question.

9. Ce sont les particules fines de diamètre inférieur à 2,5 microns qu’on appelle parfois les « PM 2,5 » lorsqu’on parle de pollution atmosphérique. Une concentration typique est d’un million de telles particules par mètre cube, c’est-à-dire qu’elles sont espacées en moyenne de 1 centimètre, ce qui pour Scott semble un kilomètre.

29

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

On trouve dans les livres de physique qu’à bas nombre de Reynolds, ce qui est notre cas10, la force qu’exerce l’air sur une sphère de rayon R se déplaçant à la vitesse U est donnée par la formule suivante : F = Bair U où le coefficient Bair vaut 6π ρair νair R

Dans cette formule, U est la vitesse caractéristique de notre écoulement, ρair = 1,3 kg/m3 est la densité de l’air et νair = 1,4 × 10–5 m2/s est sa viscosité cinématique. Le coefficient Bair vaut donc 31 × 10–10 N/m.s. En d’autres termes, si la sphère se déplace dans l’air à une vitesse d’un mètre par seconde, elle subit une force de freinage de 31 × 10–10 newton. Scott accélère jusqu’à ce que la résistance de l’air exerce une force égale à celle de son poids (c’est d’ailleurs le principe du parachute, à ceci près qu’il n’en a pas) et U se stabilise à la vitesse impressionnante de U = 2,5 × 10–4 m/s, telle que F = Bair U = 7,8 × 10–13 N. Cette vitesse est incroyablement faible, tellement faible que le moindre courant d’air ascendant suffit à le propulser vers le haut. S’il touche le sol, ce sera plutôt parce qu’il y aura été plaqué par un courant d’air descendant. Il en est de même pour les particules fines qui, avec Scott, se déplacent au gré des courants d’air. Seules les plus grosses poussières, les icebergs de tout à l’heure, tombent vraiment. Freinage

Poids

Figure 7 | Scott chute tellement lentement vers le sol que le moindre courant d’air le propulse vers le ciel.

10. On vérifie a posteriori que UL/ν est très largement inférieur à 1.

30

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

Rester collé Scott, toujours en vol, tend sa main vers un tout petit grain de poussière qui passe à sa portée. C’est un bloc aux formes irrégulières, d’une cinquantaine de nanomètres, qui ressemble à un petit gravier. En fait, il n’a pas de mal à le saisir et, mieux encore, c’est le gravier qui semble prendre l’initiative et vient se coller sur la paume de sa main. Tout occupé qu’il était, Scott ne remarque pas qu’il s’approche d’une paroi, la heurte et y reste collé par le dos. Malgré la violence du choc, rien de cassé. Mais c’est normal : durant le choc, Scott subit une force de cent fois son poids (on pourrait dire une accélération de 100 fois la gravité) ; c’est bien moins que sa propre force et surtout que la résistance de son squelette. Il n’a pas lâché le grain, tant celuici est collé à sa main, comme un aimant. Notre personnage doit tirer de toutes ses forces pour l’arracher, puis le secouer violemment pour le décoller de sa main et le jeter au loin. Il lui a en effet fallu exercer une force de presque 10–8 newton pour l’arracher, bien plus que son propre poids. Cette attraction inattendue est la première manifestation des forces de van der Waals, qui attirent les atomes les uns contre les autres, quelle que soit leur nature. Au prix d’efforts intenses, Scott réussit à se retourner et à se mettre debout sur cette paroi verticale, le corps à l’horizontale, comme s’il était en train de marcher sur un mur en fer avec des semelles aimantées. Il réalise que les semelles de ses baskets n’échappent pas à la règle. Chacune est collée à la paroi par une force de 2,5 × 10–8 newton. Amusé, il constate que si dans notre monde c’est la gravité qui nous maintient fixés au sol, dans le sien c’est plutôt cette force de collage, presque mille fois supérieure au poids, qui prédomine largement. Il arrache avec force l’un de ses pieds, manquant perdre sa chaussure, mais à peine a-t-il éloigné son pied de l’épaisseur d’une semelle, que la force de collage est divisée par dix, comme si la colle qui maintenait son pied avait cédé brusquement. Il est à deux doigts de perdre l’équilibre et de se retrouver sur le dos, une fois de plus.

31

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Figure 8 | Scott arrache avec force l’un de ses pieds, manquant perdre sa chaussure, mais à peine a-t-il éloigné son pied de l’épaisseur d’une semelle que la force de collage est divisée par dix, comme si la colle qui maintenait son pied avait cédé brusquement. Il est à deux doigts de perdre l’équilibre.

De l’eau comme un mur Scott aperçoit au loin un dôme luisant, cent fois plus haut que lui et, après un instant de réflexion, réalise que ce vaste dôme est une goutte d’eau. Il s’en approche prudemment, de peur que le dôme ne s’effondre en une monumentale cascade. Mais cela ne se produit pas ; le dôme tient bon. Comme il s’y attendait, Scott est attiré par cette masse d’eau et un bourgeonnement liquide qui vibre sur la paroi du dôme en pointant vers lui montre que l’eau semble elle aussi attirée vers lui. Mais le liquide est devenu tellement rigide que le bourgeonnement reste attaché au dôme et que rien ne jaillit vers 32

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

lui. Tout se passe comme si tous les éléments de cette masse d’eau frémissante s’attiraient violemment les uns vers les autres et voulaient à tout prix rester serrés entre eux pour maintenir ce vaste dôme. Scott, en s’approchant, se retrouve collé à la surface de l’eau mais ne peut s’y enfoncer car, pour cela, il devrait éloigner l’un de l’autre des éléments de la masse fluide, ce qui semble difficile tant ceux-ci s’attirent mutuellement. Supposons néanmoins qu’il parvienne à se glisser dans ce dôme gélatineux, après maintes contorsions. Il se souvient de son expérience malheureuse à l’étape précédente, et, pour ne pas rester englué, il se propulse d’un vigoureux coup de talon. Le nombre de Reynolds est désormais de 50 × 10–6. En effet, la taille de l’écoulement fluide est 5 × 10–6 m, sa vitesse U = 10–5 m/s, la viscosité de l’eau étant, rappelons-le, de 10–6 m2/s. L’eau lui apparaît vraiment très visqueuse, et le ralentit terriblement. On peut estimer la force de freinage due à la viscosité de l’eau en assimilant Scott, comme nous l’avons déjà fait, à une sphère de rayon R = 9 microns qui avance à la vitesse U. En reproduisant le calcul vu plus haut pour le cas de l’air, on trouve que la force de freinage qu’exerce l’eau est donnée par : F = Beau U avec Beau = 6π ρeau νeau R

Pour l’eau, ρeau νeau = 10–3, soit Beau = 1,7 × 10–7 N/m.s, c’està-dire que la force de résistance est cinquante fois plus forte que dans l’air (rappelons-le, Bair = 3,1 × 10–9 N/m.s). Avec une vitesse U = 10–5 m/s, on arrive à une force de freinage F = 1,7 × 10–12 N, soit deux fois le poids de Scott. Malgré la vigueur de son coup de talon, son avancée est stoppée en quelques microsecondes.

TROISIÈME ÉTAPE : LE PALIER « 18 NANOMÈTRES » Une bactérie devient un paquebot Fasciné par ses observations, Scott décide de se rétrécir d’encore un facteur mille, c’est-à-dire qu’il devient cent millions de fois plus petit 33

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

qu’au départ et se retrouve haut de 18 nanomètres (milliardièmes de mètre). Il est désormais un nanohéros, si petit qu’une bactérie lui semble avoir la taille d’un paquebot et un virus celle d’une montgolfière. Il ne voit plus les petits grains de poussière du palier précédent car, à son échelle, ils semblent espacés de centaines de kilomètres ; si par hasard il en voyait un, ce serait une sorte d’astéroïde qui lui semblerait avoir un diamètre de 250 mètres. À cette échelle, impossible de faire un lien quelconque avec le paysage qui lui était familier. En revanche, il perçoit nettement les atomes et les molécules qui composent la matière, lui-même étant haut comme un empilement de soixante atomes (heureusement qu’il s’agit d’une expérience en pensée !). Rappelons-le, il s’agit d’une manière de parler, tout ce qui est à l’échelle de Scott ne pouvant désormais être « vu » avec de la lumière. Une simple molécule d’ADN devient pour lui une énorme liane et une molécule de protéine est un buisson compact. Une molécule d’eau ressemble à un petit « V » qu’il tient au creux de sa main. La taille de Scott, désormais minuscule, se compare pourtant à celle d’objets manufacturés des années 2010. S’il pénétrait à l’intérieur d’un ordinateur, il pourrait se promener sur un disque dur dans la zone servant à stocker un bit d’information, qui aurait pour lui la taille d’un tapis ; la gravure des microprocesseurs les plus récents (15 nanomètres) aurait pour lui la largeur d’un chemin. Scott accuse désormais sur la balance 8 × 10–23 kilogramme et sa force est considérable, puisqu’il peut tirer sur une corde en exerçant une force de 2 × 10–14 newton, soit 250 millions de fois son poids. Comme cela était prévisible, il subit de toutes parts des forces d’attraction et se trouve collé au sol avec une telle violence qu’il ne peut plus lutter. Un monde incroyablement agité Mais il y a un élément nouveau. Malgré des forces omniprésentes qui tendent à tout coller, l’environnement est loin de se figer, bien 34

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

au contraire. Tout d’abord, l’air n’est plus ce fluide paisible que nous connaissons dans notre vie de tous les jours. Scott est désormais assez petit pour en apercevoir les composants, principalement des molécules d’oxygène et d’azote. Chaque molécule est un assemblage de deux atomes qui lui paraissent avoir la taille d’une bille. La masse de ces molécules est de l’ordre de 5 × 10–26 kilogramme (il y a peu de différence entre l’azote et l’oxygène), soit 1 500 fois moins que notre personnage. Leur nombre pourrait sembler élevé, puisqu’il y a 2,5 × 1025 molécules par mètre cube d’air. Mais pour Scott, pas tant que cela. Pour se ramener à une échelle de longueur plus familière, on considère un cube de dix nanomètres de côté (Scott lui-même mesure 18 nanomètres). Notre personnage peut compter dans ce cube en moyenne 25 molécules : il y a donc beaucoup de vide. Pour être plus exact, il s’agit plutôt de ce qu’il verrait sur une photographie, car les molécules ne font que passer très vite ; elles restent dans le cube moins d’un dix milliardième de seconde. Les molécules d’oxygène ou d’azote sont en effet animées d’un mouvement incessant qui, comme nous le verrons plus loin, est une manifestation de la température. De plus, ces molécules, composées de deux atomes, sont animées d’un mouvement de rotation rapide et ressemblent à des haltères qui traversent l’espace en tournoyant. Tout cela fait que Scott a l’impression de se trouver au milieu d’une tempête de neige, mais d’une tempête où les flocons iraient dix milliards de fois trop vite. On peut montrer que la vitesse la plus probable du centre de gravité de ces molécules (le milieu de l’haltère) est donnée par la formule : v = √(2kT/mmolécule) Dans cette formule, k = 1,38 × 10–23 est la constante de Boltzmann et T la température exprimée en kelvin (K)11. L’endroit où se situe Scott est à 300 K, soit environ 26 °C. La vitesse V est donc de l’ordre 11. Pour obtenir la température en kelvin, on ajoute 273,16 à la température que nous utilisons.

35

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

de 400 m/s, soit la vitesse d’une balle de mousquet. Inévitablement, chaque molécule heurte ses congénères plusieurs milliards de fois par seconde et n’a guère le temps de parcourir que 70 nanomètres entre deux chocs. Il s’agit d’une distance moyenne, les chocs se produisant au hasard. Ces molécules bombardent également tout ce qu’elles peuvent atteindre, et il n’est pas rare qu’elles arrachent deux objets collés entre eux par les mystérieuses forces d’attraction qui semblent gouverner ce monde. Les molécules, en revanche, semblent indestructibles, aucun choc ne parvenant à séparer les deux atomes qui composent chacune d’entre elles. Scott attrape une molécule d’oxygène qui passait lentement et tire sur chacun des deux atomes d’oxygène, qui ont, rappelons-le, la taille d’une bille. Il n’arrive pas à les déplacer de manière visible. Pour écarter un peu les deux atomes d’oxygène, il lui faudrait tirer avec une force de 10–9 newton, soit cinquante mille fois plus que ce qu’il peut faire.

Figure 9 | Vitesse probable des molécules d’oxygène en mètres par secondes, en fonction de la température en kelvin.

36

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

Scott découvre le mouvement brownien Scott réalise que la tempête de neige est plutôt une tempête de grêle. Il subit un véritable bombardement de la part des molécules qui composent l’air, puisqu’en moyenne il ne s’écoule que 10–12 seconde entre deux chocs. Ces molécules sont de véritables bolides qui se déplacent à plusieurs centaines de mètres par seconde. Scott est 1 600 fois plus massif qu’elles, mais l’impact d’une seule suffit tout de même à le catapulter à quelques dizaines de centimètres par seconde, ce qui est pour lui une vitesse considérable. Notre personnage effectue donc une série de petits déplacements, ponctués par des chocs. Ceux-ci ne se compensent pas complètement et, tout comme les molécules qui l’entourent, Scott acquiert lui-même une vitesse fluctuante. Elle est donnée par la même formule que celle pour les molécules mais, comme Scott est plus massif, il se contente d’errer à des vitesses autour de 10 mètres par seconde. Au gré des chocs multiples, cette vitesse varie et change de direction. Scott explore l’espace dans un mouvement chaotique tout en vibrant sous l’effet de mille milliards de chocs par seconde. En une seconde, il a ainsi parcouru presque quatre-vingt-dix micromètres, une distance considérable (5 000 fois sa hauteur). Il croise dans son périple diverses particules qui flottent dans l’atmosphère et qui, elles aussi, se déplacent au gré des collisions avec les molécules. Cette danse universelle des petits objets poussés par les chocs des molécules s’appelle le mouvement brownien, du nom du botaniste Robert Brown, qui l’observa pour la première fois en 1827 sur des grains de pollen.

37

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Débris

Molécule d’azote (N2)

Molécule d’oxygène (O2) Figure 10 | Scott et le mouvement brownien. Les molécules d’oxygène sont en gris clair, celles d’azote en gris foncé.

Tempête dans une goutte d’eau Le périple de Scott finit par l’amener sur une table, mais il ne peut le deviner, cette table étant pour lui plus grande qu’une planète. Il observe les chaînes de polymères, composées d’atomes de carbone, d’oxygène et d’hydrogène, qui composent le vernis de la table. Bombardés sans discontinuer par les molécules d’azote et d’oxygène, tous leurs atomes oscillent, sans toutefois être arrachés car ils sont attachés fortement à leurs voisins. Scott se souvient de la molécule d’oxygène qu’il n’est pas parvenu à briser tant la liaison entre les deux atomes était forte. Agitée par ces mouvements incessants, la table entière semble vivante. Le mouvement de la surface de la table, le bombardement ambiant de l’air, tout cela emmène Scott jusqu’à une goutte d’eau de 1,8 millimètre de diamètre, cent mille fois plus grosse que lui. À son échelle, c’est pratiquement une petite planète aquatique. En regardant de plus près, il distingue les V caractéristiques des molécules d’eau, un atome d’oxygène à la pointe du V et deux atomes d’hydrogène aux extrémités. Ces V ce présentent comme deux branches de 0,1 nanomètre, 38

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

c’est-à-dire grands comme l’un des ongles de Scott. Bombardées sans relâche par l’azote et l’oxygène de l’air, excitées par la lumière ambiante, agitées par les mouvements de la table elle-même, les molécules d’eau n’échappent pas à la frénésie ambiante. Leur mouvement ressemble à une danse sur place car elles se serrent beaucoup plus que dans le cas de l’air. Elles sont distantes en moyenne de 0,3 nanomètre. En d’autres termes, un cube de dix nanomètres en contient plus de 33 000. Plus question de trajectoire de boulet de canon sur des dizaines de nanomètres, comme le font les molécules dans l’air. Chaque molécule d’eau se sent prise comme dans une cage formée de ses congénères les plus proches (typiquement quatre ou cinq) et les bouscule violemment, réussissant parfois à sortir de la cage, pour se retrouver avec quatre ou cinq nouveaux voisins qui forment une nouvelle cage. Bref, tout ceci ressemble à une foule compacte. Encore une fois, pour Scott, il est impossible de pénétrer à l’intérieur, tant les molécules d’eau s’attirent fortement, s’opposant au passage d’un intrus. En particulier, l’atome d’oxygène de chaque molécule semble tirer vers lui les atomes d’hydrogène des molécules voisines comme s’il voulait les voler. D’ailleurs parfois il y arrive un moment (mais ne récupère pas l’électron) ; une molécule sur dix millions est un édifice chargé positivement formé d’un atome d’oxygène et de trois atomes d’hydrogène.

Figure 11 | Scott enfonce son doigt dans l’eau. Les molécules s’attirent les unes contre les autres et s’opposent à cette intrusion.

39

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

QUATRIÈME ÉTAPE : LE PALIER « 18 PICOMÈTRES » Scott est quantique Scott décide, pour continuer son aventure, de rétrécir d’un dernier facteur mille. Il atteint la hauteur de 18 picomètres (18 × 10–12 mètre, 18 millièmes de milliardième de mètre ou encore 18 millièmes de nanomètre). Un virus est pour lui plus gros que le mont Everest et notre personnage n’est plus vraiment concerné par les objets que nous connaissons. Les atomes eux-mêmes lui semblent (une fois de plus c’est une entorse aux lois de la physique, la lumière ne permettant pas de former l’image d’un atome) être de grosses boules évanescentes de quelques mètres. La masse de Scott est désormais de 8 × 10–32 kilogramme. Il est environ dix fois plus léger qu’un électron. Il vient d’entrer dans un monde radicalement nouveau, celui de la mécanique quantique. Scott n’est plus réellement en un endroit. Étrange sensation, il est partout à la fois dans une zone qui s’étend sur plusieurs nanomètres, cinquante fois plus grosse qu’un atome. Il n’a plus vraiment de trajectoire, de vitesse ou de position définie. En fait de trajectoire, il est dans un nuage de probabilités habité par de tas de Scott potentiels. Il vient de découvrir le principe d’incertitude qui régit le monde de l’infiniment petit. Localiser un objet de masse m dans une zone de taille Δx avec une vitesse connue à ΔV près n’est possible que si : Δx · m ΔV > h/4π, où h est la constante de Planck, qui vaut 6,62 × 10–34 m2kg/s

Tant que sa masse était de 8 × 10-23 kg, lors du palier précédent, peu lui importait que « son » Δx·ΔV fût de 7 × 10–13, car cela correspondant à des Δx et des ΔV petits devant sa taille (18 × 10–9 nanomètre) et sa vitesse (10 mètres par seconde). À cette échelle, le phénomène de flou quantique était très discret. Mais maintenant, Scott n’est plus assez gros pour être indifférent au principe d’incertitude. Lorsqu’il s’est rapetissé d’un facteur mille pour atteindre le palier 18 picomètres, il a réduit sa masse d’un facteur un milliard ; pour compenser, 40

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

le produit Δx.ΔV associé au « nuage de probabilités Scott » est devenu 7 × 10–4. On peut avoir une idée de la vitesse de Scott, en appliquant la même règle que lors du palier précédent ; notre héros, devenu un milliard de fois moins massif, ne se déplace plus à 10 mètres par seconde, mais à 3 × 105 mètres par seconde (un millième de la vitesse de la lumière). Si on assimile cette vitesse au ΔV de la formule cidessus, on trouve que Scott est localisé dans un nuage de quelques nanomètres, c’est-à-dire une centaine de fois sa hauteur. Quand Scott pénètre dans la grosse sphère d’un atome d’oxygène, il ne sent rien. Toutefois, de temps en temps, il ressent un picotement : un électron vient d’interagir avec lui. C’est en effet dans cette zone qu’habitent les huit électrons qui gravitent autour du noyau de l’atome d’oxygène. Comme notre personnage, ceux-ci sont présents sous forme de nuage et non pas d’objets bien définis. Au centre de l’atome, Scott perçoit une zone plus dense, le noyau de l’atome. Celui-ci est tout petit, 10–15 m, dix mille fois plus petit que Scott, mais extraordinairement dense car il est deux cent mille fois plus lourd que lui. En fait, Scott ne voit pas non plus le noyau, mais un nuage flou de taille réduite. Quand il passe sa main au travers de ce nuage central, notre personnage sent par moments l’impact très violent et localisé de ce noyau, qui semble s’être matérialisé pour une attaque surprise, puis se dissout aussitôt dans son nuage. Gros plan sur les nuages électroniques S’il avait eu un appareil de mesure, Scott aurait pu constater que le nuage électronique était porteur d’une charge électrique négative diffuse, celle des huit électrons. Le nuage reste centré autour du noyau, lui-même porteur d’une charge positive qui compense celle des électrons. Sans doute, dans un monde plus classique, les électrons auraient été de petites sphères chargées négativement irrémédiablement attirées par la charge positive du noyau. Mais, comme Scott l’a découvert pour son propre cas, la mécanique quantique 41

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

a organisé un compromis. Les électrons sont certes attirés par le noyau, mais ils ont interdiction de s’écraser à sa surface. En effet, ils auraient alors été très localisés. À cause du principe d’incertitude, cela aurait demandé qu’ils acquissent des vitesses, donc des énergies, considérables, hors de portée. Tout comme Scott est devenu un nuage cent fois plus gros que lui, les électrons sont condamnés à errer dans un nuage d’un vingtième de nanomètre à proximité, ce noyau qui les attire. Scott observe à loisir le comportement de ces nuages électroniques. Il aperçoit tout d’abord des molécules d’oxygène. Les deux atomes qui les composent se sont liés en partageant quatre de leurs électrons, et cela se manifeste par la formation d’un nuage électronique allongé qui entoure les deux noyaux. Les règles semblent strictes. Les deux noyaux d’oxygène partagent leurs électrons de manière équitable, et la distance qui les sépare est fixée. Si les deux noyaux sont plus éloignés qu’ils ne devraient l’être, les électrons partagés ont tendance à passer plus de temps dans cet espace et créent un excès de charge négative qui tend à attirer les noyaux à leur bonne position. C’est ce phénomène qui explique le fait que Scott n’avait pu arracher les deux atomes d’oxygène quand il avait essayé, lors du palier « 18 nanomètres ». Si les noyaux sont trop près, ils se repoussent. Scott a aussi observé que le partage d’électrons n’est pas toujours aussi équitable. Certains atomes semblent plus gourmands. Ainsi, dans une molécule d’eau, l’oxygène semble très courtisé par les électrons, l’hydrogène étant quelque peu délaissé. Les nuages électroniques sont moins consistants autour des noyaux d’hydrogène qu’autour des atomes d’oxygène. Les atomes d’hydrogène délaissés sont chargés positivement, alors que les atomes d’oxygène sont chargés négativement à cause de l’excédent en électrons. Voilà de quoi expliquer la curieuse attraction qu’avait notée Scott entre molécules d’eau voisines lors du palier précédent. Chaque atome d’oxygène, chargé négativement, tend à attirer les atomes d’hydrogène des molécules d’eau voisines. C’est cette force qui se 42

NANOMONDE

LOIS D’ÉCHELLE ET FORCES

mesure en dix milliardièmes de newton qui assure la cohésion de l’eau. Scott se rappelle alors ses étranges expériences avec l’eau ; celle-ci n’aime pas être déformée, parce que toute déformation (par exemple un pied enfoncé dans l’eau) se traduit par l’éloignement de molécules, qui forcent pour que cela n’arrive pas. Cette réticence de l’eau à couler hors de son pied, la solidité de ces gouttes, la résistance lorsqu’il enfonce son doigt, tout cela est donc une affaire d’électrons volés. Scott se rappelle aussi le caractère collant de la matière, observé lors des paliers précédents. Avec le cas de l’eau, il a déjà compris que quelques électrons mal partagés pouvaient créer des forces entre molécules. Comme des aimants, ces molécules, bancales du point de vue des électrons, tendent à se retourner spontanément pour se présenter l’une à l’autre des zones de charges opposées et s’attirer, même si cette idylle naissante est contrariée par l’agitation incessante du milieu environnant. Mais, globalement, cela marche et les molécules d’eau s’attirent. Mais comment expliquer que tous les atomes semblent coller, même ceux qui ont leur compte d’électrons ? En observant autour de lui, Scott note un autre phénomène qui complète l’explication. Lorsque deux atomes se rapprochent, leurs nuages électroniques se sentent l’un l’autre et ils se mettent à communiquer en se déformant (il faut que Scott ait le coup d’œil car ces palpitations durent des millionièmes de milliardièmes de seconde). Le résultat est, qu’en moyenne, l’un des atomes présente à l’autre un côté un peu moins riche en électrons (ceux-ci sont partis de l’autre côté) alors que l’autre atome fait le contraire. Il en résulte une force d’attraction qui existe entre tous les atomes.

FIN DU VOYAGE Scott s’habitue à ce monde étrange. Encore un saut, et il verrait peut-être le noyau des atomes comme de grosses pastèques. Mais que deviendrait-il vraiment, avec une masse de 10–41 kg ? Il réfléchit et ne 43

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

peut rien citer qui serait aussi léger. Un peu trop risqué. Il est temps de terminer son voyage. Il reprend sa taille normale, heureux que la gravitation reprenne ses droits. Il reste éberlué par les propriétés de ce monde qu’il ne soupçonnait pas. Il y a tout d’abord ces forces, parfois considérables, entre les atomes, qui font que, dès que l’on regarde des objets de quelques microns, tout semble fait de glu, à tel point que la force de la gravité ne compte plus guère. Ensuite, dans le monde des nanomètres, c’est la frénésie. Le bombardement des molécules de l’air suffit à faire flotter Scott, en le propulsant dans toute la pièce, à moins que, plaqué de tout son long sur quelque obstacle, il ne s’y retrouve collé. Lorsque Scott rétrécit encore, les lois de la mécanique classique laissent la place à la mécanique quantique et tout devient flou. C’est grâce à ce flou, justement, que les électrons et les noyaux des atomes tissent mille liens qui définissent les propriétés chimiques des atomes et gouvernent les forces qui font que tout semble coller. Pour en savoir plus, le lecteur est convié au débriefing de cette expérience dans le chapitre suivant.

44

NANOMONDE

2 Les lois du nanomonde UN MONDE TRÈS COLLANT Charges électriques et forces L’une des premières surprises qu’a éprouvées Scott lors de son périple a été l’impression d’être en apesanteur, tant son poids était négligeable. Il s’est ainsi retrouvé à la merci du moindre courant d’air, puis collé à divers objets par des forces irrésistibles. À la fin, il a compris que ces forces avaient toutes une origine unique, le jeu compliqué des électrons qui, mécanique quantique oblige, ressemblent plus à des nuages qu’à des petites boules. Ces nuages ne sont jamais très loin des noyaux des atomes, mais n’en sont pas figés pour autant. Il leur arrive de se mélanger, ce qui a pour résultat d’accrocher des noyaux entre eux, d’exprimer leur préférence pour un noyau plus avide d’électrons, de se déformer. Noyaux et électrons ont une charge électrique et ce sont ces charges qui gouvernent tout. On les mesure en coulomb (C). Ainsi, la charge d’un proton est de 1,6 × 10–19 coulomb, de telle sorte que le noyau d’un atome est chargé positivement. Celle d’un électron vaut –1,6 × 10–19 coulomb et tout nuage électronique aura une charge négative. L’ensemble se compense et l’atome est globalement neutre. 45

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Deux particules chargées exercent l’une sur l’autre une force, dont l’intensité est donnée par la loi de Coulomb, découverte en 1784 par le physicien français du même nom. On peut l’énoncer ainsi : supposons que deux particules séparées par une distance r, portent une charge q1 pour l’une et q2 pour l’autre ; alors, la force est donnée par la formule suivante : F(r) = 9 × 109 q1 q2/r2 On a adopté la convention que, si la force est négative, c’est une force d’attraction. Donc, par exemple, un proton et un électron s’attirent et deux électrons se repoussent. C’est une force considérable. Si on ne voit pas son effet à notre échelle, c’est parce que les atomes sont neutres. Imaginons un instant que, brutalement, les charges de l’électron et du proton cessent de se compenser exactement, avec un léger déséquilibre dans une proportion d’un milliardième de milliardième (soit 10–18), de telle sorte que chaque atome soit légèrement positif (1,6 × 10–37 coulomb). Du fait de cette infime charge positive excédentaire, tous les atomes se repousseraient légèrement. Cela ferait plus que compenser la force de gravitation. La Terre se disloquerait et la Lune serait éjectée. Mais revenons à l’échelle de l’atome. Si un proton et un électron sont distants de 0,05 nanomètre (c’est-à-dire le rayon d’un atome), la force qui les attire l’un vers l’autre est de –9,2 × 10−8 newton. Nous l’avons vu, parler de deux particules « séparées par une distance r » est un abus de langage, puisque l’électron doit plutôt être représenté par un nuage. Mais malgré tout, c’est bien cette force qu’on prend en compte dans les calculs de mécanique quantique, qui ont été mis au point au début du vingtième siècle. Lorsqu’on introduit l’expression de F(r) dans un tel calcul, ce que nous ne ferons pas ici, on arrive à représenter correctement la réalité. Le résultat en est bien que l’électron habite un nuage qui n’est significativement dense qu’autour du noyau, à des distances de l’ordre de 0,05 nanomètre.

46

NANOMONDE

LES LOIS DU NANOMONDE

De l’atome à la molécule Ce nuage électronique n’est pas figé et il évolue sous diverses influences. Supposons par exemple qu’on approche un proton d’un atome d’hydrogène, à une distance d’un nanomètre. L’électron de l’atome « ressent » l’attraction de sa charge positive. Le résultat est que le nuage se déforme légèrement, en pointant un peu vers ce proton. On dit que la molécule d’hydrogène se polarise. Cet effet reste très faible, le décalage entre le centre du nuage électronique et le noyau étant d’environ un millième de nanomètre, soit 50 fois plus petit que sa taille ; mais nous verrons que ce phénomène a des effets considérables. Imaginons maintenant que nous approchions non pas un proton, mais un autre atome d’hydrogène, c’est-à-dire qu’on joue avec deux atomes d’hydrogène distants d’un nanomètre, que nous appellerons « 1 » et « 2 ». Un nanomètre c’est assez loin, puisque chaque nuage électronique n’en mesure que 0,05. Pourtant, ces deux nuages sont, en quelque sorte, capables de communiquer. Supposons que celui de l’atome « 1 » fluctue, par exemple de telle sorte, qu’un bref instant, il soit un peu orienté dans une direction opposée au noyau de l’atome « 2 ». Vu de l’atome numéro « 2 », le proton de l’atome « 1 » est partiellement découvert, ce qui fait que l’atome « 1 » lui semble légèrement positif. Cela suffit pour induire une légère déformation du nuage de l’atome « 2 », qui pointe vers cet attirant proton. Les deux atomes s’attirent et le processus continue. Chaque fluctuation d’un des nuages électroniques induit une réponse de l’autre qui se traduit par une attraction entre les atomes. Il en résulte une force de l’ordre de 10–15 newton, qui croît très vite lorsque les atomes se rapprochent. On appelle cette force la force de London, du nom du physicien qui la calcula en 1937. Lorsque les deux atomes se rapprochent, la force de London s’amplifie. Si la distance décroît de 1 à 0,5 nanomètre, elle est multipliée par plus de cent. Lorsqu’on rapproche encore plus les deux atomes, le ballet de ces nuages en interaction change de nature et ils se fondent 47

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

ensemble en enveloppant les deux noyaux. Les deux atomes ont formé une molécule. Dans cette configuration, chaque noyau continue à être attiré vers l’autre. Cela est dû au fait qu’en moyenne, les deux électrons qui « passent au milieu » les attirent l’un vers l’autre, comme indiqué à la figure 12. Mais cette attraction ne peut pas trop rapprocher les noyaux car, à partir d’un certain point, les électrons, trop tassés entre les deux noyaux, s’y opposent fortement. Les deux noyaux trouvent leur équilibre pour une séparation de 0,074 nanomètre. Si on tente de les écarter, les nuages électroniques les poussent vers leur position d’origine comme s’ils étaient accrochés à l’autre par un ressort. Si on tire de 0,03 nanomètre, cette force de rappel se mesure en milliardièmes de newton.

Figure 12| À gauche, un atome et son nuage électronique (gris clair). Au centre, les fluctuations du nuage électronique d’un atome induisent la polarisation de l’autre atome. Il en résulte une force d’attraction. À droite, les deux atomes se sont rapprochés et forment une molécule.

Partage d’électrons et liaison covalente L’interaction entre les nuages électroniques n’est pas une propriété réservée à l’atome d’hydrogène. Tous les atomes sont des noyaux entourés de nuages électroniques déformables et ils 48

NANOMONDE

LES LOIS DU NANOMONDE

s’attirent. De même, le partage d’électrons entre noyaux est la règle et, la plupart du temps, les atomes forment des molécules. Ce type de liaison, qu’on appelle covalente, correspond à une liaison très forte. Elle maintient les noyaux à une distance fixe, de l’ordre du dixième de nanomètre. Tel un ensemble de boules attachées ensemble par des ressorts, les noyaux peuvent vibrer autour de cette position. Les fréquences de vibration se mesurent en milliers de milliards de hertz. D’autre part, ces liaisons s’ordonnent suivant des angles bien précis. Par exemple, dans une molécule d’eau, deux atomes d’hydrogène sont liés à un atome d’oxygène. Quatre électrons sont mis dans le pot commun, un pour chaque atome d’hydrogène et deux pour l’oxygène. L’angle entre les deux segments de droite qui relient le noyau d’oxygène aux deux noyaux d’hydrogène est invariablement de 104°5, la longueur de ces segments étant de 0,096 nanomètre. Malgré la rigidité de ces liaisons, les atomes peuvent garder quelques degrés de liberté. Considérons le cas du carbone. Deux atomes de carbone peuvent se lier ensemble en partageant deux électrons. Une fois ce partage effectué, chaque atome de carbone peut encore partager trois électrons en formant des liaisons covalentes avec d’autres atomes. Là encore, la géométrie est imposée, ces trois liaisons covalentes supplémentaires doivent former une sorte de tripode. On obtient alors une molécule comme celle de la figure 13 à gauche ; chaque atome de carbone est lié à deux atomes d’hydrogène et à un atome de chlore. Point intéressant, les deux tripodes sont libres de tourner autour de l’axe de la molécule. Une autre option est possible pour les deux atomes de carbone. Ils peuvent mettre en commun non pas deux mais quatre électrons. On parle alors de double liaison. Chaque atome de carbone peut encore établir deux liaisons supplémentaires. Dans le cas de la figure 13 à droite, chaque carbone est lié à un atome d’hydrogène et un atome de chlore. Le fait que la liaison soit double a une importante conséquence : les deux blocs ne peuvent plus tourner. Chaque atome de chlore reste coincé de son 49

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

côté. Comme nous le verrons plus tard, cette propriété est utilisée lors de la construction de machines moléculaires. Une liaison simple ressemble à un axe terminé par deux roulements à billes, la liaison double est un axe qui empêche toute rotation différentielle.

Figure 13| À gauche, une molécule de dichloroéthane. Deux atomes de carbone sont reliés par une liaison covalente. Chacun est également lié à deux atomes d’hydrogène et à un de chlore. La liaison carbone-carbone se comporte comme un axe et les deux parties de la molécule peuvent tourner librement. À droite, deux molécules de dichloroéthène. À cause de la liaison double, la rotation n’est plus possible et les deux molécules représentées (atomes de chlore opposés ou en vis-à-vis) sont deux substances distinctes qui n’ont pas exactement les mêmes propriétés. Celle du haut s’appelle la forme trans et celle du bas la forme cis. Comme on le verra au chapitre suivant, il est possible de passer de l’une à l’autre en apportant de l’énergie lumineuse.

Pour conclure, les liaisons covalentes sont des forces importantes, qui font que des atomes s’assemblent de manière stable sous forme de molécules. Pour cette raison, on les appelle aussi liaisons chimiques. Certaines molécules sont simplement composées de deux atomes. C’est par exemple le cas des molécules d’hydrogène ou d’azote. D’autres molécules sont des assemblages complexes de milliers d’atomes, comme nous le verrons plus loin. Les liaisons faibles Mais d’où viennent les forces que Scott a subies tout au long de son périple ? Il a constaté que, dans une molécule d’eau, l’atome d’oxygène s’entourait d’un excès d’électrons ; donc il était globalement négatif, 50

NANOMONDE

LES LOIS DU NANOMONDE

les deux atomes d’hydrogène, en quelque sorte spoliés, étant positifs. C’est en fait une propriété très générale des molécules. Lorsque deux atomes différents sont liés par des liaisons covalentes, l’un des noyaux attire plus les électrons que l’autre. Par exemple, le chlore ou l’oxygène sont voraces en électrons. L’hydrogène est, au contraire, moins attaché à ses électrons. Il en résulte une séparation de charges, la molécule ayant des zones négatives et d’autres positives, un peu comme un aimant a un côté sud et un côté nord. La molécule acquiert ce qu’on appelle un moment dipolaire. Du point de vue électrique, on peut la représenter comme deux charges opposées (l’excès et le déficit d’électrons) séparées par une petite distance, comme indiqué à la figure 14. Le moment dipolaire est une mesure de ce déséquilibre de charge. Il est égal au produit de l’excès de charge par la distance qui sépare les deux zones. Il s’exprime donc en coulomb mètre. Le moment n’est pas seulement un chiffre ; on peut aussi lui associer une orientation, flèche qui part du centre de la charge négative et pointe vers le centre de la charge positive. On peut ainsi parler de l’orientation d’un moment dipolaire. Pour l’eau, cet effet est important et le moment dipolaire atteint 6,1 × 10–30 coulomb mètre.

Figure 14 | Dans cette molécule composée de deux noyaux A et B, les électrons sont plus attirés par celui de droite (B). Du point de vue des charges, tout ce passe comme s’il y avait deux charges fictives, une négative à droite et une positive à gauche. Le moment associé à cette molécule est égal au produit de la distance d par l’excès de charge δq.

51

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Ces déséquilibres de charge sont à l’origine de forces entre molécules. En effet, lorsqu’elles possèdent un moment dipolaire, deux molécules proches tendent à s’orienter pour se présenter mutuellement des zones de charges opposées et elles s’attirent. La réalité est plus complexe, parce que les molécules peuvent tourner, voire déformer le nuage d’électrons de leur voisine, ce qui modifie la répartition des charges. Plus subtil, même lorsque rien ne laissait présager d’un déséquilibre de charge, par exemple pour une molécule composée de deux atomes identiques, les fluctuations des nuages électroniques suffisent à créer une attraction. Dans ce cas, ce qui compte, ce n’est pas le moment dipolaire de la molécule, mais sa capacité à en acquérir un de manière transitoire sous l’influence de son voisin. C’est la force de London que nous avons brièvement discutée à la section précédente. Le calcul détaillé de ces forces dépasse le cadre de cet ouvrage, mais on peut résumer les conclusions ainsi : – ces forces se manifestent toujours par une attraction entre atomes ou molécules ; ce sont elles qui régissent le comportement des gaz, des liquides et de nombreux solides. Cette attraction diminue très vite avec la distance qui sépare les atomes (comme 1/r7, c’est-à-dire que la force est divisée par 128 lorsque la distance double) ; – pour les distances correspondant aux valeurs normales entre molécules à la température et à la pression ambiantes, elles sont cent à mille fois plus faibles que les liaisons covalentes, mais n’en sont pas pour autant négligeables ; – le poids des différents effets varie beaucoup d’une molécule à l’autre en fonction de son moment dipolaire et de sa polarisabilité, c’est-à-dire la manière dont sa répartition des charges est influencée par les molécules voisines. Il existe un dernier phénomène qui joue un rôle considérable : la liaison hydrogène. Elle affecte en particulier la molécule d’eau. Nous avons vu que, dans cette molécule, l’hydrogène était lié à un atome d’oxygène, qui avait tendance à accaparer les électrons. 52

NANOMONDE

LES LOIS DU NANOMONDE

L’hydrogène, dépouillé de son électron, a tendance à se lier avec des atomes entourés d’un excédent d’électrons, car ils portent une charge négative. Dans le cas de l’eau, chaque atome d’hydrogène est lié par une liaison covalente à l’atome d’oxygène de « sa » molécule, mais cela ne l’empêche pas d’être attiré par les atomes d’oxygène des autres molécules d’eau. Chaque molécule d’eau établit par ce biais des connexions avec ses voisines. Cette particularité confère à l’eau une cohésion exceptionnelle. C’est la raison pour laquelle l’eau bout à si haute température. On peut comparer l’eau au disulfure d’hydrogène (H2S), une molécule proche dans laquelle l’oxygène est remplacé par un atome de soufre, plus lourd mais moins avide d’électrons (le moment dipolaire de cette molécule n’est que de 3,2 × 10–30 coulomb mètre, soit la moitié de celui de l’eau). L’hydrogène sulfuré s’évapore dès moins 61 °C, ce qui montre le degré de cohésion bien plus faible de ses molécules. Si on parlait d’énergie ? Nous avons évoqué diverses forces de liaison entre atomes et il est temps d’évaluer leur solidité. Une première approche consiste à jauger la force d’attraction qui lie les atomes en imaginant qu’on tire dessus pour essayer de les séparer. Par exemple, cela revient à dire que l’attraction d’un atome d’hydrogène pour un autre est de 10–15 N, c’est-à-dire tout de même cent milliards de fois son poids. En fait, cela ne suffit pas : comment comparer, par exemple, les liaisons entre deux boules selon qu’elles sont reliées par un fil ou par un élastique ? Dans le premier cas, il faut appliquer une force intense pendant un bref instant, pour casser le fil, et ensuite on peut écarter les boules sans effort. Dans l’autre cas, une force plus faible suffit à éloigner les boules, mais il faut l’appliquer longtemps avant de casser l’élastique. Ce genre de considération a mené les scientifiques à considérer que la grandeur qui permet de vraiment comparer deux liaisons n’est pas la force mais l’énergie qu’il faut fournir pour les rompre. 53

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Il s’agit maintenant de définir cette énergie. Imaginons deux atomes, séparés d’une distance que nous appellerons r. La force F qui les attire l’un vers l’autre ou les repousse dépend de r. Elle peut donc s’exprimer sous la forme d’une fonction de r, F(r). Dans un premier temps, supposons qu’il s’agisse d’une force d’attraction. Pour écarter les atomes distants de r, il faut tirer avec une force au moins égale à F(r). Si on les déplace d’une distance Δr supposée assez petite pour que la force ait peu varié, il faut fournir ce que l’on appelle un travail. Celui-ci est défini comme le produit F(r) Δr, c’est-à-dire la force que l’on exerce multipliée par le déplacement. Si ensuite on continue à tirer, la force à exercer a très légèrement varié et elle vaut désormais F(r + Δr). Pour s’éloigner d’une autre distance Δr, on effectue un travail supplémentaire F(r+Δr) Δr, et ainsi de suite. De proche en proche, on finit par éloigner les deux atomes suffisamment pour qu’ils n’interagissent plus. L’énergie de la liaison est le travail qu’il aura fallu fournir pour la rompre. On le mesure en joules.

Figure 15 | Principe du calcul du travail W(r) pour deux particules qui s’attirent (un proton et un électron). On a porté en ordonnée la force d’attraction F(r) et en abscisse la distance r. Si on part de r = 1 nanomètre, le travail à fournir pour les écarter est donné par la somme des petits travaux élémentaires F(r) Δ(r), c’est-à-dire la somme des surfaces des petits rectangles en gris clair. Dans le cas présenté ici, le travail est de 1,8 × 10–19 joule.

54

NANOMONDE

LES LOIS DU NANOMONDE

L’énergie de la liaison peut être positive ou négative : – par convention, lorsque les atomes s’attirent, on lui affecte un signe moins. En quelque sorte, l’énergie de liaison est le travail qui manque au système (d’où le signe moins) pour que les deux atomes soient libres. Plus ce déficit est élevé, plus le système est dit lié ; – à l’inverse, si les atomes se repoussent, on affecte un signe plus à cette énergie, parce que les atomes se repoussent en fournissant un travail. De manière générale, un système atomique se déplace spontanément pour atteindre son énergie de liaison la plus basse possible, à l’image d’une bille dans un bol, qui spontanément va se placer au point le plus bas. Pour récapituler À l’échelle atomique, le joule est une unité colossale. Les liaisons entre atomes correspondent en effet à des forces dont l’intensité varie entre 10–12 et 10–9 newton et qui agissent sur des distances de quelque 10–10 mètre. Les énergies mises en jeu dans les liaisons interatomiques sont donc dans une fourchette de 10–22 à 10–18 joule. Cela peut paraître peu, mais quand on sait qu’il y a dans un gramme d’eau plus de 3 × 1022 atomes, on conçoit que, lorsque tous les atomes travaillent ensemble, les effets peuvent devenir importants. Il suffit de penser à de la nitroglycérine : c’est la libération brutale d’une partie de l’énergie de liaison qui lui confère son caractère explosif.

55

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

QUELQUES ORDRES DE GRANDEUR L’unité qui sert à mesurer un travail est le joule (J). Un joule, c’est le travail qu’on fournit lorsqu’on déplace un objet de 1 m en tirant dessus avec une force de 1 newton. Application : si un individu de 80 kilogrammes (il pèse donc 785 newtons) monte un escalier de cinq étages (20 mètres), il fournit un travail de 15 700 J (20 m × 785 N). Supposons que notre escalier monte jusqu’à l’infini. Plus il monte, plus l’attraction terrestre donc son poids diminuent. S’il veut monter assez haut pour que l’attraction devienne négligeable, il lui faudra fournir environ cinq milliards de joules. Considérons le cas de la molécule d’hydrogène. Si, on tire très fort sur les deux atomes, la force d’attraction finit par diminuer, puis par disparaître. Le travail qu’il aura fallu fournir pour dissocier la molécule est de 7,23 × 10–19 joule. Il faudrait 218 000 joules pour casser toutes les molécules contenues dans un gramme de gaz.

7,23 x 10-19J

+ =

Figure 16 | Pour dissocier une molécule d’hydrogène, il faut tirer sur chaque noyau de manière à les éloigner suffisamment l’un de l’autre.

56

NANOMONDE

LES LOIS DU NANOMONDE

Tableau 1 | Ordre de grandeur des énergies de liaison. La colonne de droite représente cette énergie divisée par l’énergie associée à l’agitation thermique à la température ambiante (kT = 4 × 10–21 joule). Plus ce chiffre est élevé, moins l’agitation thermique peut casser cette liaison.

Énergie/kT à 300 K

Force

Énergie correspondante

Liaison covalente

3 × 10–19 à 15 × 10–19 J

Liaison hydrogène Interaction de van der Waals

1,5 ×

10–20

Quelques

à6×

10–21

J

10–20

(soit énergie divisée par 4 × 10–21 J) J

75 à 375 3,75 à 15 Quelques unités

Figure 17 | Récapitulation des forces de liaison à l’œuvre.

À l’échelle du nanomètre, les forces de van der Waals Maintenant on considère non plus des atomes individuels mais deux objets microscopiques ; chaque atome qui compose l’un des 57

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

objets est attiré par tous les atomes de l’autre. De toutes ces interactions, il résulte une force d’attraction globale entre les deux solides. On peut retenir que : – cette force dépend de la distance entre les objets, de leur forme et de leur position respective, puisque ces grandeurs déterminent les distances entre les atomes ; – cette force dépend des matériaux qui composent les deux objets (à travers la polarisabilité et les moments dipolaires des atomes ou molécules) ; – la force entre deux atomes décroît en 1/r7 ; on constate toutefois que lorsque deux objets s’éloignent, ces forces s’alignent et tirent plus efficacement, ce qui fait que la force globale décroît moins rapidement. Cet effet est illustré à la figure 18.

Figure 18 | Force d’attraction entre un plan et une petite particule. Cette force est la somme de toutes les forces d’attraction des atomes du plan. Lorsque la particule s’éloigne, la distance r entre un atome et la particule varie moins vite que D et d’autre part la force d’attraction tire de plus en plus dans l’axe, donc plus efficacement.

Il existe différentes formules pratiques, qui donnent des expressions pour ces forces en fonction des paramètres considérés. À titre d’exemple, considérons un plan et une sphère de rayon R, séparés par une distance D, comme à la figure 19. Au contact parfait, D = 0, mais en pratique cela n’arrive jamais, la sphère étant rugueuse, ne serait-ce que parce qu’elle est formée d’atomes. La force d’attraction 58

NANOMONDE

LES LOIS DU NANOMONDE

est donnée par F = AR/6D2, où A est appelée la constante de Hamaker. Cette grandeur, qui se mesure en joules, est une mesure de l’intensité des forces entre atomes. Elle dépend des matériaux considérés, à travers les valeurs des moments dipolaires et des polarisabilités des atomes dans les deux objets. Une valeur typique pour A est 3 × 10–20 joule.

Figure 19 | Calcul de la force d’attraction entre un plan et une sphère.

On peut reprendre avec cette formule le calcul de la force que Scott (haut de 18 micromètres) devait exercer pour décoller un grain de poussière d’une cinquantaine de nanomètres collé sur un mur (voir 59

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

chapitre 1, paragraphe « Rester collé »). Ce petit grain contient soixante millions d’atomes, chacun en interaction avec des milliards d’atomes du mur. La force est la somme des forces d’attraction entre tous ces atomes. Pour simuler un contact, il est raisonnable de prendre D = 0,2 × 10–9 mètre (l’espace entre deux atomes), et on assimile le grain à une sphère de rayon R = 50 × 10–9 mètre. En appliquant la formule, on trouve F = 6 × 10–9 newton au contact. Cette force décroît très vite avec la distance puisque, pour D = 2 × 10–9 mètre (quelques cheveux de Scott), la force est déjà réduite d’un facteur cent.

LE MICROSCOPE À FORCE ATOMIQUE Les forces d’attraction entre atomes se mesurent en milliardièmes de newton. Malgré leur faiblesse, elles peuvent être mesurées relativement facilement. L’un des dispositifs les plus répandus est le microscope à force atomique, mis au point en 1986 par Gerd Binnig, Calvin Quate et Cristoph Gerber. Le principe en est simple, même si la réalisation peut être plus complexe. On mesure directement l’attraction d’une petite pointe par une surface. La pointe est accrochée au bout d’une micropoutre élastique qui se courbe. La variation de la déviation d’un rayon lumineux sur la poutre permet de mesurer sa flexion. Si la pointe est attirée vers la surface observée par une force F, le déplacement δ en bout de poutre sera donné par F = k δ. Dans cette formule, k est la raideur de la poutre, grandeur qui dépend de ses dimensions et du matériau qui la compose. Par exemple, une poutre en silicium à section carrée de 20 microns de long et de 1 micron carré de section a une raideur de 4 N/m. On arrive à mesurer des flexions δ de l’ordre d’une fraction de nanomètre et des forces inférieures à 10–11 N. Il existe de nombreuses variantes et raffinements de la technique.

60

NANOMONDE

LES LOIS DU NANOMONDE

Nous parlerons à plusieurs reprises dans cet ouvrage du microscope à effet tunnel. Il fut inventé en 1981 par Gerd Binnig et Heinrich Rohrer, qui reçurent le prix Nobel de physique 1986. Ce microscope ressemble au microscope à force atomique. La différence est qu’on ne s’intéresse pas à la déflexion de la poutre, mais au courant électrique qui peut passer entre la pointe et le substrat, lorsqu’ils sont très proches l’un de l’autre (des fractions de nanomètre) et que l’on applique une tension (entre quelques millivolts et quelques volts). L’intensité de ce courant, de l’ordre du nanoampère, est fortement liée à la distance entre la pointe et l’atome ou la molécule en dessous, et aussi à sa nature. En balayant la pointe sur la surface, on peut de la sorte réaliser une image « électrique » complète, que l’on peut transformer en une image reconstruite du paysage.

Figure 20 | Schéma de principe d’un microscope à force atomique.

61

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

LE GECKO Les geckos sont de petits reptiles originaires d’Asie. Certains d’entre eux ont l’étonnante capacité de marcher sur les murs. On a découvert dans les années 2000 que cette capacité hors du commun était due aux forces de van der Waals. Chacun des pieds de cet animal est recouvert de petits poils de kératine, les setae, à raison de 500 000 répartis sur une centaine de millimètres carrés. Chaque seta mesure quelques dizaines de microns de long et quelques microns de diamètre, et a une extrémité elle-même composée d’un millier de spatules, poils de quelques centaines de nanomètres de diamètre, qui assurent un contact intime avec toute surface. Le pied du gecko est donc en contact avec une paroi par l’intermédiaire de centaines de millions de spatules. Considérons la force exercée entre le bout d’une spatule et un plan. Elle est donnée par la formule F = AR/6D2 que nous avons vue précédemment (voir le paragraphe sur les forces de van der Waals). Si l’on prend pour R la taille caractéristique de la spatule (0,2 micromètre), pour D un quart de nanomètre (la distance entre deux atomes) et A = 3 × 10–20 joule comme nous l’avons vu précédemment, on trouve une force de l’ordre de 2 × 10–8 newton par spatule. Multiplié par des centaines de millions de spatules, on arrive à une force de collage suffisante. Cette force a effectivement été mesurée en 2000 par une équipe américaine. Les chercheurs ont collé une seta sur une petite poutre et l’ont approchée d’une surface (en l’utilisant comme la pointe d’un microscope à force atomique). Les résultats sont compatibles avec les estimations ci-dessus. On sait aussi pourquoi un gecko marche et ne reste pas collé : à chaque pas, il soulève son pied d’une manière particulière, ce qui a pour effet de modifier l’angle des setae et surtout de ne faire porter la force d’arrachement que sur ceux du bord. C’est ce genre de technique que nous utilisons nous-mêmes pour décoller du sparadrap.

62

NANOMONDE

LES LOIS DU NANOMONDE

Figure 21 | Principe de l’adhésion du pied du gecko. Des centaines de millions de setae, terminés eux-mêmes par des spatules, adhèrent à la paroi par des forces de van der Waals. Le pied se décolle par un mouvement qui arrache la partie adhérente, comme on enlèverait un sparadrap (cliché L. Laurent).

UN MONDE TRÈS AGITÉ Revenons à l’énergie Nous avons évoqué plus haut l’énergie d’une liaison, c’est-à-dire le travail qu’il faut fournir pour casser cette liaison. L’énergie est une notion bien plus générale. Elle est aussi liée au mouvement des atomes. On parle alors d’énergie cinétique. Pour un objet de masse m et de vitesse V, on montre qu’elle est égale à E = 1/2 mV2. Par exemple, une molécule d’oxygène (5,3 × 10–26 kilogramme) se déplaçant à 400 mètres par seconde possède une énergie cinétique de 4,28 × 10–21 joule. L’énergie peut être potentielle. Ce cas correspond par exemple au cas d’un objet qu’on tient en pensée près d’un autre qui le repousse. Cette énergie, qui reste potentielle tant qu’on tient l’objet, correspond à l’énergie cinétique que notre objet va acquérir si on le lâche. Si, au contraire, l’objet est attiré, l’énergie potentielle correspond à l’énergie cinétique qu’il faudrait lui communiquer pour le libérer. Considérons le cas de la molécule d’hydrogène. La figure 22 montre l’énergie potentielle de la molécule, en fonction de la distance entre les deux atomes. La distance 63

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

de 0,074 nanomètre est celle pour laquelle les atomes sont les plus liés. Spontanément, une molécule d’hydrogène évolue vers cet état le plus lié. Il faut fournir 7,23 × 10–19 joule pour casser la molécule. Cela peut être par exemple un choc qui transmet assez d’énergie cinétique à l’un des noyaux pour qu’il s’échappe.

Figure 22 | On a représenté sur l’axe horizontal la distance d entre les deux noyaux des atomes d’hydrogène ; en ordonnée W(d), l’énergie de la liaison. Les deux noyaux se stabilisent à la distance de 0,074 nanomètre telle que l’énergie de liaison soit minimum.

Ce que veut vraiment dire tirer à boulets rouges L’énergie d’un atome a diverses composantes. La première est l’énergie cinétique du fait de son mouvement d’ensemble. La seconde est l’énergie potentielle du fait de son interaction avec d’autres atomes. Il faut également tenir compte du fait que l’atome est un objet composite. Par exemple, lorsque les conditions sont telles que la structure interne de l’atome peut évoluer au cours du temps, il faut ajouter l’énergie du nuage électronique (par exemple à haute température). Lors des interactions entre atomes et molécules, de l’énergie s’échange. Par exemple une collision entre deux molécules modifie leurs vitesses voire peut modifier la configuration des liaisons entre les atomes. Une règle fondamentale est que, dans 64

NANOMONDE

LES LOIS DU NANOMONDE

toutes ces interactions, l’énergie du système se conserve. C’est le premier principe de la thermodynamique. Par exemple lors d’une collision entre deux molécules, leur vitesse change mais la somme de leurs énergies cinétiques reste constante. Ou alors l’énergie cinétique d’une molécule incidente fournit l’énergie nécessaire pour faire vibrer les noyaux de l’autre, voire casser l’une de ses liaisons covalentes. L’énergie, telle que nous la percevons dans notre monde macroscopique, est la traduction directe de ces phénomènes. Un objet macroscopique possède une énergie qui est la somme des énergies des atomes qui la constituent. Parlons d’abord d’énergie cinétique. On peut décomposer la vitesse des atomes en deux composantes : – tout d’abord, les atomes peuvent avoir un mouvement d’ensemble. Cet ensemble correspond à ce qu’on appelle l’énergie cinétique d’un objet macroscopique. Par exemple, un boulet de canon de 1 kilogramme se déplaçant à 500 mètres par seconde a une énergie de 1,25 × 105 joules ; – il existe une deuxième composante de cette vitesse qui est due à la température : en plus de leur mouvement d’ensemble, les atomes ont un mouvement d’agitation dans tous les sens que nous ne voyons pas directement. Nous le percevons toutefois parfaitement. Cette énergie non dirigée est de la chaleur et, plus ce mouvement d’agitation est important, plus on dit que le boulet est chaud. Pour chauffer notre boulet de cent degrés, il faut fournir à ses atomes une énergie de 4 × 104 joules ; tirer à boulets rouges demande donc 3 × 105 joules par boulet. Il peut y avoir conversion d’un type de mouvement en un autre. Par exemple, un frein convertit l’énergie cinétique d’une automobile en chaleur. Nous avons également évoqué l’énergie contenue dans les liaisons entre atomes ou molécules. Celle-ci se manifeste parfois violemment à notre échelle lors de réactions chimiques, qui sont des réarrangements de ces liaisons. Lorsque le nouvel arrangement 65

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

correspond à une énergie plus basse (les atomes sont plus liés qu’avant), la réaction chimique provoque des oscillations violentes de la molécule nouvellement formée, voire l’éjection de morceaux à grande vitesse ; ces phénomènes transmettent de l’énergie de manière désordonnée à l’environnement. La réaction chimique a produit de la chaleur. La conservation de l’énergie que nous avons évoquée ci-dessus a une contrepartie macroscopique : l’énergie (mécanique, thermique, chimique, etc.) se conserve. Cette notion d’énergie fait désormais partie de notre quotidien, puisqu’on vend l’énergie, on l’économise, on la stocke. Son interprétation en termes de vitesse des molécules et d’énergie de liaison semble désormais triviale. Mais il n’en a pas toujours été ainsi. Au XIXe siècle, la communauté scientifique se rend compte qu’en toutes circonstances, une mystérieuse grandeur se conserve : l’énergie. Mais le caractère multiforme de l’énergie (mécanique, chaleur, chimique, etc.) a rendu sa compréhension difficile. Tout ne s’est pas fait en un jour et, d’ailleurs, de grands noms de la science au début du XIXe siècle ne croyaient pas à l’existence de cette grandeur indestructible. La nature aime le désordre Chaque molécule a une énergie qui dépend de la vitesse et de la position des atomes qui la composent. Cette énergie varie au cours du temps, car les molécules échangent de l’énergie en entrant en collision avec leurs congénères ou, moins brutalement, interagissent par l’intermédiaire de forces électriques. Plus il fait chaud, plus les mouvements sont violents. C’est pour cela que les solides se dilatent, puis fondent et s’évaporent, lorsque le mouvement des molécules est assez violent pour que celles-ci ne soient plus retenues par la surface du liquide. Si on chauffe encore, les mouvements des atomes deviennent suffisamment violents pour que les molécules se cassent. Dans tous ces cas, l’énergie se conserve. De même, toutes ces interactions sont réversibles, c’est-à-dire que si on regarde le film des événements que 66

NANOMONDE

LES LOIS DU NANOMONDE

vit une molécule, on ne peut deviner si le film passe à l’endroit ou à rebours. Pourtant, tout ne se conserve pas. Une propriété fondamentale du monde microscopique est que ce mouvement d’agitation est contagieux et tend à se répandre dans tout l’espace. Pour visualiser cela, imaginons des milliers de sphères reliées par des ressorts. Si on donne un grand coup de marteau dans l’une d’elle, l’énergie qui lui est transmise va se propager à toutes les sphères, qui vont se mettre à osciller ; la probabilité qu’on en revienne à un état où tout est calme, sauf la première sphère, est quasi nulle. On peut formuler ce principe ainsi : lorsqu’on communique de l’énergie à quelques molécules, plus le temps passe, plus cette énergie se dilue dans les multiples degrés de liberté d’un ensemble de plus en plus vaste de molécules. C’est une traduction du second principe de la thermodynamique qui stipule que, dans un système clos, le désordre ne peut qu’augmenter.

UN MODÈLE SIMPLE DE RÉPARTITION DE L’ÉNERGIE La physique statistique permet de calculer en détail la distribution de l’énergie entre les différentes molécules. Il n’est pas nécessaire de faire des calculs complexes pour saisir la manière dont le désordre s’impose. Pour cela, nous allons imaginer un système idéalisé. Les molécules sont fixes et ne peuvent avoir que deux énergies : 0 ou E, par exemple un état « la molécule oscille » et un état « la molécule n’oscille pas ». Elles interagissent avec leurs voisines et peuvent s’échanger leur énergie. L’une passe de l’énergie 0 à l’énergie E tandis que l’autre, qui était au niveau d’énergie E, fait le mouvement inverse. Supposons que l’on parte de deux ensembles de N = 10 000 molécules que nous nommerons S1 et S2. Ils sont placés en contact, c’est-à-dire qu’ils peuvent échanger de l’énergie. • Le premier n’est initialisé qu’avec des objets à l’énergie 0, c’est-àdire que le nombre d’objets à énergie E est n1 = 0. On pourrait dire qu’il est froid.

67

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

• Le second est initialisé avec la moitié de ses composants à l’énergie E, c’est-à-dire n2 = 5 000. On laisse évoluer les deux ensembles qui, à travers des échanges d’énergie entre molécules, explorent toutes les configurations auxquelles ils peuvent accéder. La conservation de l’énergie fait qu’à tout moment, seules 5 000 molécules ont une énergie E, donc n1 + n2 = 5 000. Le nombre de configurations possibles est égal au nombre de manières de choisir les 5 000 molécules à l’énergie E parmi les 20 000, soit 1,6 × 104882 c’est-à-dire 16 suivi de 4 881 zéros12. Au début, l’ensemble S1 prend de l’énergie à l’ensemble S2. Au bout d’un certain temps, on observe le comportement décrit à la figure 24, c’est-à-dire que l’énergie de l’ensemble S1 se stabilise autour de 2 500 E et que jamais l’énergie qu’il a récupérée ne revient dans le système S2. La raison est illustrée à la figure 25 : il existe une écrasante majorité de configurations correspondant à une répartition quasi équitable d’énergie entre les deux ensembles et, si on laisse le hasard faire, inévitablement l’ensemble tendra vers cette répartition d’énergie.

S1

N = 10 000 n1 = 2 000

N = 10 000 n2 = 3 000

S2

23 | Les systèmes couplés S1 et S2 évoluent de telle sorte que leur énergie totale (n1 + n2) soit 5 000 E. 12

12. À titre de comparaison, on estime que le nombre de protons dans l’univers est de 1 suivi de 80 zéros.

68

NANOMONDE

LES LOIS DU NANOMONDE

Figure 24 | Nombre d’objets à l’état d’énergie E dans S1 lorsque l’on observe ce dernier mille fois de suite.

Figure 25 | Nombre de configurations possibles en fonction du nombre n1 de molécules de S1 à l’énergie E dans S1. Il y a au total 1,6 × 104882 configurations (le nombre de molécules à l’énergie E variant entre 0 et 5 000). On observe une énorme majorité de configurations pour n1 autour de 2 500 (à 50 près), ce qui explique que le système est la plupart du temps dans cette zone, comme on le voit à la figure 24. La courbe a été normalisée pour que le maximum soit 1.

69

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

La température et le désordre Lorsqu’on étudie en détail deux ensembles de molécules, on arrive toujours à la même conclusion. L’énergie se dilue. On aurait pu considérer des systèmes différents par leur nombre N, leur énergie E, voire les modes d’interaction entre leurs constituants, mais on serait toujours arrivé à la même conclusion : il existe une poignée de répartitions de l’énergie qui correspondent à une majorité écrasante des configurations possibles. Paradoxalement, c’est le hasard qui fait que les deux systèmes tendent vers un partage quasiment déterministe de leur énergie. Si on y réfléchit, cette propriété est étonnante. Si observe un film pris en gros plan des interactions entre molécules, on voit des interactions réversibles, c’est-à-dire qu’on ne peut deviner si le film est passé dans le bon sens. Pourtant si on observe l’ensemble, on voit immédiatement si le film montre clairement un mouvement de dilution orienté dans le temps. Donc à partir de phénomènes réversibles, on produit un processus irréversible. Si le nombre d’états d’énergie haute est peu élevé (ce qui est le cas dans presque tous les systèmes en pratique), lorsque deux ensembles échangent un joule, le donneur voit son nombre d’états possibles diminuer alors que l’accepteur, qui doit répartir ce joule entre de nombreuses molécules, peut accéder à plus d’états. Lorsque différents ensembles sont couplés, l’énergie se transfère de manière à ce que le nombre de configurations possibles de l’ensemble soit maximum (le pic de notre courbe de la figure 25). On peut dire, qu’en moyenne, l’énergie va vers les accepteurs les plus efficaces pour convertir un joule en nombre de configurations. C’est en fait la vraie définition de la température que l’on mesure en kelvin13 : – un système chaud est déjà très agité ; si on lui donne de l’énergie, il n’accède qu’à peu de configurations supplémentaires ;

13. On passe des kelvins (K) au degré Celsius (°C) en ajoutant 273,15. Le zéro absolu, donc zéro kelvin (0 K), correspond à une température de –273,15 °C.

70

NANOMONDE

LES LOIS DU NANOMONDE

– un système froid a des composants peu agités ; ajouter de l’énergie donne accès à des configurations supplémentaires de manière très efficace. C’est pour cette raison que l’énergie va spontanément du chaud vers le froid, tout est affaire de configurations accessibles. En pratique, plus un système est chaud, plus ses composants élémentaires ont de l’énergie. Les atomes ou les molécules sont des objets plus complexes qu’un système à deux états (0 ou E). L’énergie se répartit dans ce qu’on appelle des degrés de liberté. Pour un atome, il y a trois degrés de liberté, à savoir sa possibilité de se déplacer dans les trois directions de l’espace. Pour une molécule composée de deux atomes, outre le fait qu’elle se déplace, elle peut tourner sur elle-même. Elle peut aussi osciller, ce qui ajoute d’autres degrés de liberté. La répartition de l’énergie entre degrés de liberté est équitable, simplement parce que cela correspond au maximum de configurations possibles. En moyenne, l’énergie associée à un degré de liberté est kT/2, où k est la constante de Boltzmann, qui vaut 1,38 × 10–23 J/K et T la température exprimée en kelvin. Le cas d’un gaz Considérons le cas d’un gaz, l’oxygène, contenu dans un récipient. Le récipient est supposé rempli à la pression atmosphérique, c’est-à-dire que la densité est de l’ordre de 2,7 × 1025 molécules par mètre cube. On peut décrire le contenu du récipient comme un ensemble de molécules interagissant peu entre elles et se déplaçant dans l’espace (rappelons que la force de gravité est négligeable). L’énergie associée aux déplacements est donnée par la formule E = 1/2 M V2. Elle vaut en moyenne E = 3/2 kT (dans notre espace de dimension trois il y a trois degrés de liberté). On peut donner à ce stade quelques valeurs numériques. La masse d’une molécule d’oxygène est 5,3 ×10–26 kilogramme. Si la température est de 300 K, l’énergie moyenne correspondant au déplacement de la molécule 71

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

est de 6,21 × 10–21 J, ce qui correspond à une vitesse de 480 m/s14. On note en particulier que cette énergie est supérieure à l’énergie de liaison associée aux forces d’attraction entre molécules (10–21 J), ce qui justifie le fait que l’on puisse négliger ces interactions. Toutefois, lorsque la température baisse vers 90 K, l’énergie cinétique baisse et n’est plus négligeable devant l’énergie d’attraction entre molécules. Les molécules se piègent les unes les autres et le gaz devient un liquide. La paroi du récipient subit le bombardement violent des molécules de notre récipient. Celles-ci échangent de l’énergie avec elle, de telle sorte que les températures du gaz et du récipient s’équilibrent. Quand une molécule d’oxygène de 5,3 × 10–26 kilogramme frappe la paroi, cela dure peu de temps. Pendant la phase d’interaction entre la molécule et les atomes de la paroi, la molécule parcourt une distance de l’ordre de 10–11 mètre, ce qui dure environ 10–13 seconde. On peut montrer qu’elle exerce sur la paroi (et subit en retour) une force de l’ordre de 3 × 10–10 N. Pour nous, chaque choc est si faible qu’il n’est pas perceptible (même contre notre tympan ou la surface de notre œil). Pourtant, ces chocs sont si nombreux qu’ils exercent collectivement une force considérable. C’est cette série de chocs qui est à l’origine de ce qu’on appelle la pression atmosphérique. Une surface de paroi d’un centimètre carré est ainsi bombardée par de l’ordre de 3 × 1023 chocs par seconde, qui exercent collectivement, à chaque instant, une force de 10 N.

14. Un lecteur attentif aura observé que la valeur donnée au chapitre 1 est différente. Cela est dû au fait qu’au chapitre 1 il s’agissait de la vitesse la plus probable (400 m/s) alors qu’ici c’est la vitesse associée à l’énergie moyenne.

72

NANOMONDE

LES LOIS DU NANOMONDE

Figure 26| Représentation de molécules d’oxygène emprisonnées dans un récipient.

LE DÉMON DE MAXWELL Ce principe qui énonce que le monde tend irrémédiablement vers le désordre n’est pas si intuitif que cela. De nombreux dispositifs ont été imaginés, visant à mettre en défaut ce principe. L’un des plus célèbres est le démon de Maxwell, imaginé par James Clerk Maxwell en 1867. Imaginons un récipient, bien isolé du monde extérieur, séparé en deux par une paroi percée d’un petit trou. Il contient un gaz qui ne manque pas de se répartir entre les deux compartiments. On suppose de plus, que le trou peut être occulté par une porte très légère, qui se déplace très vite, sans frottement. Un petit personnage (le démon de Maxwell) ouvre la porte quand il voit une particule venant de la gauche avec une énergie élevée et la ferme dans le cas contraire. De même, il favorise le passage de particules lentes qui veulent accéder au compartiment gauche. Inévitablement, toutes les particules à énergie élevée se retrouvent à droite donc le récipient chauffe sur sa partie droite et refroidit sur sa partie gauche.

73

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Figure 27 | Le démon de Maxwell. Un gaz est contenu dans un récipient séparé en deux compartiments. Le « démon » contrôle le passage des molécules de gaz entre les deux compartiments et peut, par exemple, s’arranger pour que toutes les molécules aillent à gauche ou bien trier les plus rapides de telle sorte que le compartiment de gauche s’échauffe et celui de droite refroidisse.

Toutes les opérations effectuées par le démon (détecter la particule, décider ce qu’il fait, ouvrir la porte) obéissent aux lois de la physique. Pourtant, à la fin de l’expérience, ce petit démon a augmenté l’ordre du système en triant les molécules à haute énergie. Ce dispositif est une pompe à chaleur idéale, qui pourrait chauffer un bâtiment sans dépense d’énergie, simplement en en prélevant à l’extérieur les molécules d’air à énergie plus haute. Où est donc l’erreur ? En fait, le démon consomme de l’énergie, et produit lui-même du désordre pour parfaire sa tâche, de telle sorte que le désordre dans l’ensemble « démon plus réservoir » augmente. Et si la porte était ultralégère, bien huilée, dotée d’un ressort ? Comme le souligna Charles Bennett, de la division recherche de IBM, en 1982, pour agir le démon doit inscrire quelque part dans sa tête l’information nécessaire : « particule arrivant de la gauche » par exemple. Rapidement sa mémoire sature et il doit l’effacer pour

74

NANOMONDE

LES LOIS DU NANOMONDE

continuer à travailler. Or, effacer l’information de la mémoire revient à introduire du désordre15. Rien à faire, dans tous les cas le désordre global augmente16.

DEUX PHÉNOMÈNES OMNIPRÉSENTS1516 Introduction Nous avons vu quelques principes régissant le nanomonde. Il y a tout d’abord la prédominance de forces d’origine électrique entre les molécules, mais aussi leur grande variété : liaisons chimiques qui assurent la cohésion des molécules, forces intermoléculaires qui font que toute la matière colle, liaisons hydrogènes qui assurent la cohésion de l’eau. Un autre phénomène marquant est la propension qu’ont les habitants du nanomonde à se répartir leur énergie le plus au hasard possible. Paradoxalement, ce phénomène mène pour les gros systèmes à des comportements qui semblent parfaitement déterministes. Par exemple, à la pression atmosphérique, l’eau bout toujours à 100 °C. La combinaison de ces facteurs gouverne le monde microscopique et permet de concevoir des dispositifs ou des procédés très différents de ce qui se fait à notre échelle. Le mouvement brownien Lorsqu’on considère un objet suffisamment petit, celui-ci perçoit les interactions avec le milieu qui l’entoure comme des événements

15. Par exemple en dispersant les charges électriques qui stockaient l’information dans un circuit mémoire. 16. Voir l’article de Charles Bennett écrit en 1987 dans Scientific American, “Demons, Engines and the Second Law” (« Démons, moteurs et la seconde loi »). Il existe une analogie très profonde entre la théorie de l’information (le désordre étant associé à une perte d’information) et la thermodynamique, qui a fait l’objet de nombreux développements.

75

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

séparés. Par exemple, une plaque de dix nanomètres de côté, plongée dans un gaz à la pression atmosphérique et à la température ambiante, est bombardée par environ 3 × 1011 chocs par seconde, c’est-à-dire que les chocs sont espacés en moyenne de 3 × 10–12 seconde, durée bien plus longue que celle d’un choc. Cet objet échange à chaque choc une énergie de l’ordre de kT/2 ou, plus généralement, à chaque interaction avec son environnement (il y a aussi les atomes du milieu sur lequel il repose). Si l’objet est assez petit, cet effet est perceptible, car kT/2 est pour lui une quantité d’énergie significative. On peut reprendre l’exemple de la poutre d’un microscope à force atomique (voir encadré « Le microscope à force atomique »). Son comportement est défini par la raideur k, que nous prendrons, dans cet exemple, égale à k = 1 N/m. On montre que si la poutre est défléchie d’une distance δ, l’énergie stockée est égale à ½ kδ2. Donc un choc qui cède une énergie de kT/2 la défléchit de presque un dixième de nanomètre. Ce sont des effets que l’on observe effectivement, et dont il faut tenir compte si l’on veut réaliser des dispositifs sensibles. C’est ainsi que tous les objets plongés dans un gaz ou un liquide, s’ils sont assez petits, sont malmenés par une série sans fin de chocs et se déplacent dans un mouvement erratique. Ce mouvement avait été observé dès le XVIIIe siècle et interprété comme un signe de vie. On parle de mouvement brownien, en référence au botaniste anglais James Brown, qui l’observa en 1827, sur des grains de pollen en suspension dans l’eau. Ce n’est qu’au début du XXe siècle, lorsque la notion d’atome s’est imposée, que l’on a compris la raison profonde de ce mouvement. Ses propriétés ont d’ailleurs été utilisées par le physicien Jean Perrin pour en déduire la valeur de la constante de Boltzmann. Pour la petite histoire, une théorie directement inspirée de celle du mouvement brownien a été utilisée dès 1900 par le mathématicien Louis Bachelier pour expliquer l’évolution des cours financiers.

76

NANOMONDE

LES LOIS DU NANOMONDE

Figure 28 | Déplacement d’un objet nanométrique soumis aux chocs des molécules d’un liquide. Celles-ci ont des masses cent mille fois plus faibles que l’objet mais se déplacent à quelques centaines de mètres par seconde. L’objet se déplace en moyenne à environ un mètre par seconde.

DIFFUSION BROWNIENNE Considérons un petit objet sphérique de rayon R égal à dix nanomètres et de masse Mobjet de l’ordre de 10–20 kilogramme, que l’on place dans un liquide à 300 K. On peut dire qu’il se comporte comme une personne au milieu d’une foule agitée. Ses voisins le bousculent et font qu’il se déplace perpétuellement. Mais dès qu’il veut se déplacer avec un but précis, il se heurte à la résistance de cette même foule, qui l’empêche de se déplacer rapidement dans une direction. Heurté par les molécules qui l’entourent, le petit objet se déplace avec une énergie moyenne 3/2 kT (ce qui correspond à des vitesses de l’ordre de 1 m/s). D’un autre côté, dès qu’il se déplace, il est freiné par le liquide. On peut montrer que le temps de freinage est donné par : τfreinage = Mobjet/Bliquide Le coefficient Bliquide est celui que nous avions déjà rencontré au chapitre 1, paragraphe « De l’eau comme un mur ». On obtient pour notre objet un temps de freinage de 5 × 10–11 s. Son parcours ressemble à des petits morceaux de trajet, ponctués par les changements de

77

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

direction dus aux chocs avec les molécules. Chaque petit trajet a une longueur d’environ τfreinage V, où V est la vitesse de l’objet (en moyenne 1/2 MV2 = 3/2 kT). Ces déplacements se font au hasard, dans toutes les directions, ce qui fait que les morceaux de trajet ne s’ajoutent pas mais, de choc en choc, notre objet se déplace tout de même. On peut montrer que ce sont les carrés des distances qui s’ajoutent c’est-à-dire, qu’au bout de N trajets, notre objet s’est éloigné d’une distance L telle que L2 = N moyenne (τfreinage V)2. Pendant un temps t, le nombre de petits morceaux de trajets indépendants est N = t/τfreinage. Lorsque l’on fait le calcul exact, on trouve que la distance L parcourue pendant ce temps t est donc : L2 = 6 D t avec D = kT/Bliquide Cette relation, appelée relation d’Einstein, est très importante car elle relie de manière simple le mouvement brownien dans un liquide à sa viscosité, cette dernière intervenant dans l’expression de Bliquide. Le coefficient D vaut dans notre cas 2,2 × 10–11 m2/s : c’est le coefficient de diffusion de l’objet. Il permet d’estimer la distance parcourue au bout d’un temps donné (mais pas la direction). Par exemple, si on répète mille fois l’expérience qui consiste à abandonner notre objet dans son bain liquide et à observer son mouvement, on constate qu’il ne se passe jamais deux fois la même chose. En revanche, si on fait la moyenne des distances parcourues observées, on trouve : Temps

Distance parcourue en moyenne (mètres)

1 seconde

11 × 10–6

1 minute

0,89 × 10–4

1 heure

6,9 × 10–4

1 jour

3,4 × 10–3

On remarque que le coefficient de diffusion D croît lorsque B diminue, c’est-à-dire lorsque R diminue. Si notre objet sphérique avait eu un rayon de 1 nanomètre, la valeur de D aurait été multipliée par dix.

78

NANOMONDE

LES LOIS DU NANOMONDE

L’autoassemblage Les objets qui existent dans le nanomonde sont soumis à deux sollicitations opposées : d’une part l’agitation microscopique, qui tend à se répandre partout, en d’autres termes, la propension qu’a la matière au désordre ; d’autre part les forces d’attraction, qui tendent à coller des objets. La plupart des phénomènes que nous évoquerons sont liés à un jeu subtil entre ces deux effets. L’un des plus connus et parfois spectaculaire est l’autoassemblage : on observe que des nanoobjets (molécules, agrégats ou autres) peuvent dans certaines conditions se réunir seuls, comme mus par une force invisible, pour former des assemblages qui sont parfois d’une étonnante régularité. Si l’on agite le tout et que l’on attend, ces assemblages se reconstruisent spontanément. Tout ce passe comme si on agitait un sac plein des pièces d’un puzzle et que celles-ci s’assemblaient toutes seules. Comment est-ce possible, alors que le deuxième principe de la thermodynamique pose comme un dogme que tout doit tendre vers le plus de désordre possible ? Une réponse consiste à faire l’analogie avec le tour d’un prestidigitateur. Celui-ci fait tout pour que notre attention se porte sur un point précis de la scène, pour que nous y voyions un phénomène magique, alors qu’une connaissance globale de son action nous fournirait l’explication. Eh bien, lorsque nous observons à notre grand étonnement des molécules ou des objets s’assembler spontanément, nous voyons de l’ordre se créer spontanément. Mais pendant que cet assemblage se forme, les molécules se collent ensemble. Elles se heurtent et se mettent à osciller comme le feraient deux gongs. Cette oscillation se propage de proche en proche et se dilue dans l’environnement, donc devient chaleur. Quand on fait un bilan global de l’ensemble, certes les briques assemblées ne peuvent plus occuper autant de configurations qu’avant puisqu’elles sont collées, mais l’énergie qu’elles ont libérée a été « investie » pour augmenter les configurations accessibles (et donc le désordre) à tout l’environnement. Tout dépend de la température du milieu, qui mesure, rappelons-le, la 79

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

capacité qu’a l’énergie libérée par ce collage à y créer un surcroît de configurations. Quels sont les ingrédients nécessaires pour que cet autoassemblage soit possible ? Il faut qu’au moins trois conditions soient réunies. – Tout d’abord, il faut disposer de briques de base pour cet assemblage : des molécules, voire des nanoobjets, constitués d’empilements de molécules. Ces briques doivent présenter des affinités entre elles de telle sorte qu’elles se collent, par exemple une répartition de charges électriques favorables. – Ces briques doivent pouvoir se déplacer rapidement pour expérimenter entre elles toutes sortes de montages. Dans le monde microscopique, c’est l’agitation thermique qui permet cette exploration systématique : des molécules qui, dans un liquide, se déplacent à 100 m/s, se heurtent des milliards de fois par seconde dans tous les sens : cette série fastidieuse d’essais semble à notre échelle très rapide. – L’énergie qui assure le collage doit être dans la bonne gamme, notamment quand il s’agit d’assemblages complexes pouvant faire intervenir simultanément plusieurs briques avec des géométries complexes. L’assemblage final n’existe en effet qu’après une série d’ajustements qui permettent à chaque élément de trouver sa place. L’énergie de liaison ne doit donc pas être trop forte, pour qu’aucun collage irréversible ne gâche le chantier, ni trop faible pour que l’agitation du milieu ne détruise pas l’édifice à peine esquissé. La bonne valeur pour l’énergie de collage est autour de kT/2. Il se trouve que c’est justement l’ordre de grandeur de l’énergie des liaisons faibles, qui sont dans la gamme entre 10–22 et 10–20 J, c’està-dire proche de kT/2 à la température ambiante. Les interactions faibles vérifient cette condition (voir tableau 1).

80

NANOMONDE

LES LOIS DU NANOMONDE

Figure 29 | Principe de l’autoassemblage. Dans ce schéma, les objets qui s’autoassemblent sont les triangles gris clair et gris foncé. Les points sont des molécules d’eau qui bombardent les objets dans un mouvement incessant. Seuls les triangles gris clair et gris foncé collent ensemble. Si l’alignement n’est pas bon, la surface de contact est trop faible et le collage est arraché par les chocs.

Les cellules vivantes utilisent ce phénomène de manières multiples. Par exemple, les protéines peuvent s’assembler et se désassembler, et leur structure est adaptée à un fonctionnement à 300 K.

AUTOASSEMBLAGE DE L’ADN Un brin d’une molécule d’ADN est un squelette formé de sucres, sur lequel sont fixées des molécules que l’on appelle bases (voir aussi chapitre 4, paragraphe « Les acides nucléiques »). Il existe quatre bases différentes (adénine, thymine, guanine et cytosine, symbolisées par les lettres A, T, G, C). La structure de ces bases est telle que des liaisons hydrogène peuvent s’établir entre A et T d’une part, C et G d’autre part. La molécule d’ADN est composée de deux brins appariés enroulés en hélice. Le diamètre moyen de cette hélice est de 2 nanomètres et l’ensemble est torsadé, de telle sorte qu’il fait un tour tous les 3,4 nanomètres. Les deux brins sont tenus par les liaisons hydrogène entre des paires complémentaires espacées de

81

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

0,34 nanomètre (figure 30A). Cette molécule est un élément clé pour l’existence de la vie, mais elle intéresse aussi les chercheurs à cause de ses propriétés de « collage programmable ». Un fragment de brin comportant une séquence donnée de bases ne se collera efficacement qu’à un brin comportant la séquence complémentaire. Par exemple A-T-G-G ne se collera que sur une zone T-A-C-C. On peut donc encoder avec beaucoup de nuances possibles la destination d’un élément de construction. La molécule d’ADN est un vrai jeu de construction ! Elle n’est pas la seule molécule à réaliser de telles prouesses, mais elle se prête particulièrement bien aux recherches, car on dispose de tout l’arsenal des techniques mises au point par les biologistes. C’est cette piste qu’ont suivie depuis quelques années certains chercheurs. Un exemple particulièrement spectaculaire est le travail de Paul Rothemund de l’Institut californien de technologie en 2006 (figure 30B). Ce chercheur part d’un long brin simple d’ADN le long duquel s’enchaînent 7 000 bases. Il fabrique également un ensemble d’agrafes, nom donné à de petites séquences, par exemple de 32 bases. Celles-ci ne sont pas choisies au hasard : chaque moitié d’une agrafe, c’est-à-dire 16 bases, est complémentaire d’une séquence de 16 bases située quelque part sur le long brin. Paul Rothemund mélange le brin d’ADN avec 200 agrafes différentes, à haute température (l’agitation thermique empêche tout collage durable) puis il fait refroidir très lentement l’ensemble : • une moitié de chaque agrafe se lie à une séquence de 16 bases présentes sur le long brin ; • le brin se tortille jusqu’à ce qu’une autre séquence de 16 bases, à un endroit bien précis, se lie sur l’autre moitié de l’agrafe. Les agrafes se fixent et l’ADN prend la forme voulue. Tout est dans le calcul des bases qui constituent ces agrafes pour obtenir le bon résultat. Ce genre d’expérience montre la faisabilité de l’encodage artificiel dans des molécules de formes relativement complexes en vue d’une fabrication par autoassemblage. Nous reviendrons sur ce point au chapitre 4.

82

NANOMONDE

LES LOIS DU NANOMONDE

A

B Figure 30 | (A) Principe de l’appariement de bases complémentaires. Le brin à 4 bases est en face de la partie complémentaire. Pour simplifier, l’ADN est représenté non torsadé. (B) Têtes fabriquées avec de l’ADN dans l’équipe de Paul Rothemund. (Crédit Nick Papadakis et Paul WK Rothemund.)

NANOMACHINES THERMIQUES Peut-on extraire de l’énergie du milieu environnant ? Dans une machine thermique macroscopique, on utilise la propension de la matière au désordre pour capter une partie de son énergie. Par exemple, on laisse un gaz sous pression s’échapper pour actionner une turbine. En contrepartie du travail fourni, les molécules du gaz sont libérées dans la nature, donc se retrouvent dans un état plus désordonné qu’auparavant. Toutes nos machines fonctionnent ainsi. Elles partent d’un déséquilibre (la zone chaude créée par une combustion ou une réaction nucléaire, le rayonnement du soleil et, en permettant à ce déséquilibre de s’atténuer, elles créent du travail ou de l’électricité. Dans tous ces processus, l’énergie se conserve et le désordre de l’univers augmente (par exemple une rivière froide est chauffée par des rejets thermiques). Quand on pense au nanomonde et à toute son agitation, l’énergie semble disponible à volonté dans l’environnement, ne serait-ce 83

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

que le bombardement incessant des molécules qui composent l’air. Considérons par exemple le petit objet de dix nanomètres cité plus haut. Chaque seconde, il est bombardé par environ 3 × 1011 molécules qui ont chacune une énergie moyenne de 10 × 10–21 joule soit au total l’énergie libérée par la combustion de quelques centaines de millions de molécules d’hydrocarbures. Ne pourrait-on pas récupérer une partie de cette énergie gratuitement ? Après tout, il existe des machines qui extraient de l’énergie d’un mouvement désordonné. Que l’on pense aux montres sans batteries, qui extraient l’énergie des mouvements du poignet. Ne peut-on pas simplement remplacer le mouvement erratique du poignet par celui d’une pièce qui s’agite dans tous les sens, bombardée par des molécules ? Comme pour le cas du démon de Maxwell, on entrevoit ici des dispositifs microscopiques qui fournissent de l’énergie gratuite. De l’avantage d’être un gros cliquet Le cliquet de Feynman est la version nano de ces montres sans batteries. Le montage en est représenté à la figure 31 : une turbine microscopique est plongée dans un gaz. Son arbre est relié à un cliquet qui ne permet la rotation que dans un sens ; on enroule une minuscule corde autour de l’axe pour soulever un insecte. A priori, lorsque les molécules frappent la turbine du bon côté, le cliquet permet le mouvement et la corde s’enroule, alors que toute rotation dans l’autre sens est bloquée. Ce dispositif merveilleux extrait de l’énergie du mouvement désordonné des molécules (leur chaleur donc), ici pour faire monter une petite charge. Mais si on en construit des millions qui travaillent en parallèle…

84

NANOMONDE

LES LOIS DU NANOMONDE

Figure 31 | Moteur à cliquet de Feynman. Les molécules frappent la turbine. Celle-ci ne peut entraîner le mouvement que si le choc a lieu dans le bon sens et avec l’énergie suffisante pour lever le cliquet.

Malheureusement, en pratique cela ne fonctionne pas. Car le cliquet est lui aussi un petit objet que l’on peut considérer à deux niveaux : avec une énergie zéro il bloque la roue, avec une énergie E (on doit comprimer un petit ressort pour le soulever), il est en l’air et laisse la roue tourner. Mais voilà, ce cliquet est lui aussi couplé au monde qui l’entoure, et en conséquence son énergie fluctue. Souvent, il se retrouve en l’air, ce qui laisse l’insecte redescendre. Hélas, ce phénomène compense l’apport en énergie par le gaz qui bombarde la palette. Bref, la roue tourne indifféremment dans les deux sens. Une exception toutefois correspond au cas où le compartiment du cliquet est plus froid que celui de la turbine. Dans ce cas, le cliquet est moins agité et permet le mouvement ascendant de l’insecte. Le mouvement est possible mais, comme pour les machines macroscopiques, on crée du désordre en chauffant le boîtier du cliquet. Mais alors pourquoi la montre fonctionne-t-elle ? C’est lié à la différence entre un gros et un petit cliquet. Le cliquet de la montre est gros et dispose de degrés de liberté internes (les millions d’atomes qui le composent et qui peuvent osciller). Lorsqu’il fonctionne, ce cliquet reçoit de l’énergie de la part du milieu et notamment de l’engrenage 85

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

qu’il bloque. Plutôt que de rebondir à l’infini comme le ferait un nanocliquet dans ces circonstances, il dissipe son énergie en interne et retombe en continuant à bloquer le mouvement. Là encore, le mouvement est possible parce que le dispositif peut créer du désordre. Construire une nanomachine Si on voulait résumer les différences entre les machines qui nous entourent et des nanomachines, nous pourrions résumer ainsi : – les nanomachines fonctionnent dans une ambiance très agitée, en échangeant sans cesse de l’énergie avec leur environnement ; – les lois de la thermodynamique s’appliquent à toutes les échelles. Cela n’a pas été évident au début. Depuis Maxwell, il y a près de 150 ans, des chercheurs ont imaginé diverses nanomachines qui violeraient ces lois. Ce débat s’est clos, il y a environ 50 ans, alors que naissaient les technologies pour les construire ; – le fait qu’en général chaque composant fonctionne réversiblement, c’est-à-dire qu’il a autant de chances de fonctionner dans un sens que dans l’autre. Par exemple, un nanocliquet se bloque ou se débloque tout seul. Cela peut sembler un obstacle à la réalisation de nanomachines. Toutefois, les biologistes ont observé de nombreuses machines moléculaires naturelles. C’est donc bien qu’elles peuvent exister. Comme nous le verrons dans un autre chapitre, les machines moléculaires fabriquées par l’Homme exploitent diverses astuces pour bloquer cette réversibilité, en modifiant les cliquets, et fonctionner tout de même, mais en respectant les lois de la thermodynamique.

86

NANOMONDE

3 Les nanomachines créées par l’Homme

DU DISCOURS DE FEYNMAN À LA MICROÉLECTRONIQUE Le rêve de la manipulation des atomes Dans son discours prémonitoire17, Il y a plein de place tout en bas, prononcé à l’Institut californien de technologie (Caltech) en 1959, Richard Feynman annonçait toutes les possibilités qu’offrirait la manipulation de la matière à l’échelle atomique. Mais force est de constater qu’à l’époque, on était loin de réalisations concrètes. On savait certes déjà beaucoup de choses sur la matière. L’observer à l’échelle atomique était possible depuis l’expérience de diffraction des rayons X réalisée en 1912 par Max Von Laue. Le physicien allemand Ernst Ruska construisit en 1933 le premier microscope électronique, instrument qui permit de « voir » directement à l’échelle du nanomètre. Ces inventions furent suivies par de nombreuses autres, comme celle du microscope à effet tunnel, inventé en 1981 par Gerd Binnig et Heinrich Rohrer. 17. Le texte du discours est consultable sur le site du Caltech : http://www.its. caltech.edu/~feynman/plenty.html consulté en mars 2016.

87

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Cet appareil a permis de réaliser facilement de nombreuses images à l’échelle atomique et a été accompagné de nombreuses variantes, dont l’une est le microscope à force atomique (détaillé dans l’encadré « Le microscope à force atomique » au chapitre 2). Binnig et Rohrer ont obtenu le prix de Nobel de physique en 1986 pour cette découverte, en même temps que Ruska pour ses travaux sur le microscope électronique (Ruska a donc dû attendre un peu !). En ce qui concerne la fabrication d’assemblages atomiques, ce n’est que bien après le discours de Feynman qu’on mit au point les techniques qui allaient permettre de réaliser des systèmes dont la taille se mesure en nanomètres. L’un des événements les plus symboliques est le travail de Don Eigler, de la société IBM, en 1989. Il réalisa divers alignements d’atomes en les manipulant un par un grâce à un microscope à force atomique. Une image marquante est le sigle IBM, réalisé à partir de 35 atomes de xénon. Malgré le caractère spectaculaire de ces réalisations, on ne peut pas réellement parler de méthode de fabrication. Il serait impossible de réaliser des machines complexes en manipulant les atomes un par un. Don Eigler affirme qu’à l’époque, il lui avait fallu vingt-deux heures de travail pour positionner un à un ces 35 atomes mais que, vingt ans plus tard, ce temps aurait été ramené à quinze minutes18. Cela reste trop long. Même à raison d’une seconde par atome, assembler les 4,6 mille milliards d’atomes contenus dans un nanogramme de xénon demanderait 1 500 siècles. L’essor de la microélectronique L’essor de la nanofabrication est venu de l’industrie de la microélectronique, industrie qui était encore en devenir au moment du discours de Feynman, en 1959. Le transistor venait d’être inventé et c’est cette année-là que les travaux de Jack Kilby, de la société Texas Instruments, et de Robert Noyce, de la société Fairchild, allaient déboucher sur les 18. Voir son interview sur le site de la revue Wired : http://www.wired.com/2009/09/ gallery-atomic-science/2/ consulté en mars 2016.

88

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

premiers brevets pour la réalisation de circuits intégrés. Immédiatement après, l’industrie de la microélectronique entama sa course à la miniaturisation. Les atouts des procédés mis en jeu ont été la facilité de production, puisque l’on travaille à plat et en parallèle, c’est-à-dire que, sur une même galette plate de silicium, on fabrique simultanément plusieurs centaines de circuits. Gordon Moore, alors directeur de la recherche de la société Fairchild, prédit dès 1965 un doublement annuel du nombre de transistors intégrés dans un circuit, alors qu’à l’époque de la prédiction, les circuits n’intégraient que quelques dizaines de transistors. Cette prédiction fut vérifiée en 1975 et c’est à partir de cette époque qu’on a parlé de loi de Moore. Cette loi a connu ensuite divers ajustements19, notamment la période de doublement du nombre de transistors mais, encore aujourd’hui, elle reste le symbole d’une vertigineuse croissance exponentielle qui a duré 50 ans. On s’attend à une saturation (prédite depuis longtemps !) de cette croissance, la miniaturisation ayant des limites. La densité de transistors que l’on a pu intégrer a considérablement augmenté, puisque la taille des détails usinés est passée de 10 microns en 1971 à 0,014 micron, soit 14 nanomètres, en 2015. Les fabricants travaillent sur des échelles encore plus petites et une finesse des détails de 5 à 7 nanomètres semble à portée. On a donc gagné en quarantecinq ans un facteur 500 000 sur le nombre de composants intégrés par unité de surface. Une conséquence en est la complexité des circuits récents. Pour fixer quelques repères, le microprocesseur 4004, commercialisé par la société Intel en 1971, contenait 2 300 transistors sur une surface de 12 mm2. Les processeurs qu’on trouve dans les ordinateurs grand public dépassent couramment le milliard de transistors. Cette miniaturisation s’est accompagnée d’une hausse du coût des usines de fabrication et aussi d'un poids croissant de la conception

19. Voir l’article de Sacha Loeve « Loi de Moore : enquête critique sur l’économie d’une promesse » dans l’ouvrage collectif Sciences et technologies émergentes : pourquoi tant de promesses ?, sous la direction de Marc Audétat, Hermann, 2015.

89

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

dans le coût des circuits, compte tenu de leur complexité. Autre point moins connu, plus les circuits sont petits, plus ils travaillent vite. C’est ainsi que le processeur 4004 évoqué plus haut avait une cadence de 7,5 × 105 Hz, tandis qu’un processeur récent travaille à 3 × 109 Hz. Notons que le mot « nanotechnologie » date de cette époque. Il aurait été introduit en 1974 par Norio Taniguchi de l’université de Tokyo, pour décrire les procédés de fabrication de circuits. Silicium au micron De nos jours, pour fabriquer des systèmes miniaturisés, le silicium reste un matériau de choix, compte tenu de l’acquis considérable de la microélectronique, mais aussi de ses excellentes propriétés mécaniques. On sait réaliser en un seul bloc de silicium des ensembles capteurs/actionneur/électronique puisque c’est le même matériau qui sert à faire à la fois la mécanique et les transistors. Mais il arrive qu’on utilise d’autres matériaux (métal, céramique piézoélectrique) lorsqu’on a par exemple besoin d’une pièce ayant des caractéristiques spécifiques. Il existe également des techniques moins coûteuses, à base de polymères, que l’on met en œuvre dans des systèmes simples comme des plaques pour réaliser des analyses biologiques. La tendance actuelle est au recours de plus en plus fréquent à des systèmes réalisés en trois dimensions (par opposition aux circuits, qui sont plutôt plans) et à l’hybridation entre divers systèmes (on peut par exemple coller un microsystème mécanique sur un circuit). Il faut noter cependant que la plupart de ces systèmes sont de taille supérieure au micron pour aller parfois jusqu’au millimètre. Ils sont donc encore trop gros pour qu’il y ait de gros changements dus aux phénomènes mentionnés au chapitre 2. Par exemple, ces machines sont trop grandes pour que l’agitation thermique ait un effet notable, l’énergie mise en jeu dans leurs mouvements étant très supérieure à kT. En revanche, les forces de collage qui émergent dans le domaine du micromètre commencent à se manifester. 90

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

Une autre évolution est la recherche de nanosystèmes moléculaires, assemblés par les méthodes de la chimie. Ceux-ci sont d’échelle nanométrique et tirent parti des phénomènes qui se manifestent à petite échelle comme l’agitation thermique et les interactions entre atomes. Des exemples en seront donnés dans la dernière partie de ce chapitre.

LE DÉFI DE FEYNMAN Richard Feynman termina son discours de 1959 en proposant deux prix de 1 000 dollars, le premier à qui ferait tenir le contenu d’une page sur une surface dont chaque dimension serait réduite d’un facteur 25 000 par rapport à la normale, le second à qui réaliserait un moteur en état de marche tenant dans un cube ayant un côté de moins de 1/64 pouce, soit 400 microns (un cheveu a un diamètre de 50 microns)20. Le pari sur les moteurs fut gagné seulement un an après par Mc Lellan, un ingénieur qui travaillait dans la société Electro Optical Systems, située à Pasadena près du Caltech. Il avait lu le discours dans le journal interne de l’institut et, en juin 1960, il décida de réaliser ce moteur lilliputien. Cela lui prit deux mois et demi (il travaillait pendant les pauses déjeuner) pour réaliser un objet de 250 microgrammes composé de treize pièces, en utilisant des techniques classiques (un tour d’horloger, un cure-dent, un microscope). Richard Feynman, qui avait été à diverses reprises importuné par des personnes prétendant à tort avoir gagné, le voyant arriver avec une grosse caisse, ne le crut d’abord pas. La caisse contenait un microscope… et Mc Lellan lui montra un moteur de la bonne taille, en état de marche. On dit que Feynman fut déçu qu’un tel moteur ait été fait à partir de techniques classiques non extrapolables à de la nanofabrication. Peut-être avait-il mis la barre un peu trop bas. Roland Pease, de la BBC, fit ironiquement remarquer 20

20. Voir l’histoire sur http://archives.caltech.edu/news/feynman-nanotech.html consulté en mars 2016.

91

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

quelques années plus tard que le cure-dent de Mc Lellan était prémonitoire des pointes des microscopes à force atomique21. Bon joueur, Feynman paya les mille dollars. Depuis, on est allé bien au-delà. On fabrique des moteurs ayant des dimensions mille fois plus petites, et cette fois avec des techniques nouvelles. L’autre pari de Richard Feynman, sur la densité d’information, fut lui aussi gagné, quoique bien plus tard puisqu’il a fallu attendre 1985 pour qu’un étudiant de l’université de Stanford, Thomas Newman, reproduisit sur une page de six microns de côté (soit 25 000 fois plus petit que 12,5 centimètres) la première page du roman de Charles Dickens, Un conte de deux villes. Les lettres à cette échelle mesuraient environ 200 nanomètres. Il utilisa pour cela de la lithographie électronique (voir ci-dessous). Il existe toujours un prix Feynman, qui est proposé par l’institut Foresight22, institut dédié à la prospective, fondé par Éric Drexler. Par exemple, en 2013, le prix a été gagné par Alex Zettl pour son moteur qui sera évoqué plus bas.

Figure 32 | Le défi de Feynman en 1959 : réaliser un moteur qui tient dans un cube de 1/64 pouce de côté (soit 400 microns), c’est-à-dire une dizaine de fois la taille d’un cheveu. 2122

21. http://news.bbc.co.uk/2/hi/science/nature/3785509.stm consulté en mars 2016. 22. http://www.foresight.org/FI/fi_spons.html consulté en mars 2016.

92

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

MÉTHODES DE FABRICATION DE LA MICROÉLECTRONIQUE Fabriquer un circuit électronique Fabriquer un objet en bois demande de savoir découper le bois, percer, clouer ou visser, coller, poncer, teindre. Pour le tissu, le métal, la matière plastique, le verre, des techniques comparables sont à l’œuvre. Certaines datent de plusieurs millénaires, d’autres sont beaucoup plus récentes. Nous nous servons en général d’outils adaptés à notre taille, ou de machines qui étendent nos possibilités. En revanche, lorsqu’il s’agit de réaliser des pièces qui se mesurent en centaines de nanomètres, voire moins, nous sommes beaucoup plus démunis, tant est grand le fossé entre notre perception des choses et la réalité de ces objets. La microélectronique est de nos jours la seule industrie permettant de réaliser des objets complexes avec des composants de taille nanométrique agencés avec précision. Un circuit intégré contient sur une même plaque de silicium tous les composants (transistors, résistances, condensateurs, etc.) et les fils de connexion. La fabrication d’un circuit complexe demande de nos jours des centaines d’étapes. On part de fins disques de silicium de 30 centimètres de diamètre, les galettes (wafers), sur lesquels on usine en parallèle plusieurs centaines de circuits. Ce qui a fait le succès de la microélectronique, c’est que l’on a pu développer un ensemble complet de techniques pour graver le silicium, implanter des impuretés, modifier ses propriétés électriques (le doper), déposer des couches de matériaux variés, qu’il s’agisse d’isolant ou de métaux, le tout compatible avec un important degré de parallélisme. Ces opérations demandent une ambiance spéciale. En effet, l’atmosphère contient de nombreuses poussières en suspension, de taille variant de quelques nanomètres à des dizaines de micromètres. Un simple grain de poussière pouvant être plus gros que le dispositif fabriqué, on conçoit que leur fabrication ne puisse être réalisée que dans des salles spéciales dans lesquelles l’air est soigneusement dépoussiéré. L’air ambiant 93

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

contient des milliers de particules de plus de 0,5 micron par litre d’air. Une salle blanche standard, dite ISO 5, en contient 3 ou 4 en moyenne…

Figure 33 | Si l’on réduisait une ville de telle sorte qu’une maison de dix mètres eût la taille d’un transistor de 65 nanomètres, alors un simple grain de pollen (10 à 20 microns) donnerait l’impression de faire plus d’un kilomètre de diamètre. De là l’importance d’éviter les poussières. Dans les salles blanches, on limite la concentration des poussières.

Eau forte sur silicium Tout d’abord, on doit pouvoir creuser le silicium à certains endroits. La méthode employée peut être considérée comme une transposition de la technique de l’eau forte (on appelait ainsi l’acide nitrique). Cette méthode, qui remonte au Moyen Âge, servait à graver un dessin sur une plaque de cuivre. La plaque devenait alors un tampon encreur pour imprimer une série de copies (en négatif) du dessin gravé. Pour graver la plaque de cuivre, on la recouvrait d’un vernis (résistant à l’acide nitrique), puis on dessinait dessus en grattant à l’aide d’un outil. La plaque était alors plongée dans l’eau forte, qui la creusait là où le vernis avait été retiré. En microélectronique, on utilise également une résine que l’on retire à certains endroits, la différence étant que le procédé de grattage est nettement plus sophistiqué. Dans le cas de la gravure dite « humide », on plonge la galette partiellement recouverte de résine dans un produit qui dissout la partie non protégée. Cette méthode 94

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

est facile à mettre en œuvre et elle peut être sélective (si on choisit le produit corrosif pour ne dissoudre qu’un matériau donné). Cependant, cette technique présente l’inconvénient de ne pas être très précise. En effet, le produit corrosif (sa composition dépend du matériau à dissoudre, cela peut être par exemple de l’acide nitrique ou de l’acide fluorhydrique) attaque la partie non protégée et a ensuite tendance à creuser sous le vernis en agrandissant le trou. Un léger « débordement » qui ne se voit pas sur des dessins millimétriques peut devenir très gênant quand le détail que l’on veut graver est mille fois plus petit. Une variante est la gravure sèche. Le matériau n’est plus attaqué par un produit chimique réactif mais par un bombardement de particules. Il peut s’agir d’un faisceau d’ions qui arrache des atomes dans les parties non protégées, ou d’un bombardement plus diffus de molécules dites réactives. On les appelle ainsi parce qu’elles ne se contentent pas de bombarder la surface mais elles réagissent avec les atomes du matériau cible et donc les arrachent un à un. Les trous réalisés sont plus réguliers, mais cette méthode présente l’inconvénient d’être moins facilement sélective, le bombardement de particules ayant tendance à tout corroder. Une fois l’attaque réalisée, on enlève la couche de protection et on peut recommencer un cycle. Pochoir et galvanoplastie Ensuite, on peut souhaiter déposer de la matière sur le circuit, une couche d’isolant par exemple. Il existe de nombreuses variantes, qui dépendent de l’élément que l’on veut déposer. L’isolant le plus utilisé est la silice (oxyde de silicium), qui est obtenue simplement en apportant de l’oxygène, qui transforme une mince couche du silicium en silice. On peut également déposer sur le circuit des métaux ou du silicium sous la forme d’une vapeur qui se condense au contact de la plaque, ou sous la forme d’un composé chimique qui se décompose localement en provoquant le dépôt recherché. Les couches ainsi déposées peuvent être très minces et leur épaisseur 95

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

contrôlée avec beaucoup de précision, à la couche atomique près (un tiers de nanomètre environ). Il est même possible de ne réaliser des dépôts que sur des zones précises en utilisant une technique dérivée du pochoir (que l’on appelle le lift-off) : de la résine protège toutes les zones que l’on ne veut pas traiter. Cette résine est elle-même recouverte du dépôt mais lorsqu’on la dissout elle part en l’emportant. Lorsque l’on veut déposer une couche épaisse, un dépôt atome par atome n’est pas la solution la plus rapide. On réalise alors un dépôt électrolytique, c’est-à-dire de la galvanoplastie, technique couramment utilisée par exemple pour protéger une carrosserie de la corrosion. On place le circuit dans un bain contenant des ions du métal à déposer et on les transporte sur des parties métalliques à l’aide d’un courant électrique. La lithographie On l’a vu, lorsqu’on veut réaliser une opération sur un circuit, on commence en général par protéger la partie sur laquelle on ne veut pas agir au moyen d’une couche de résine. Cela nécessite de pouvoir dessiner sur la résine pour définir les zones à protéger. Compte tenu de la finesse nécessaire des détails, qui se mesurent en nanomètres, on ne peut le faire par des moyens mécaniques classiques. La méthode reine est la lithographie, transposition de la photographie telle qu’elle avait été élaborée au début des années 1800. On projette une image sur une plaque recouverte d’un produit dont les propriétés se modifient à la lumière. C’est ainsi que Joseph Nicéphore Niepce utilisa du bitume de Judée, hydrocarbure naturel qui durcit lorsqu’il est éclairé (en quelques heures : les premières photographies étaient loin d’être des instantanés !). On peut alors dissoudre le bitume qui n’a pas été exposé, ce qui fait apparaître l’image. Revenons à notre circuit. Il est recouvert d’une fine couche de polymère, qui est appliquée sous la forme d’une solution que l’on sèche ensuite. Puis, le film obtenu est exposé à de la lumière à travers 96

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

un masque qui reproduit le dessin que l’on veut fabriquer. La résine est modifiée par la lumière de telle sorte que, suivant sa composition, les parties éclairées se dissolvent (on parle de résine positive) ou au contraire deviennent insolubles (on parle de résine négative, comme l’était le bitume de Judée). À la fin de l’éclairement, on dissout la partie rendue soluble par l’éclairement et une partie du circuit reste recouverte. Ces techniques ont été considérablement améliorées pour leur usage en microélectronique. Le tour de force est d’avoir réussi à étendre le fonctionnement de la lithographie jusqu’à des motifs très détaillés. Cela a été possible en faisant appel à de la lumière ultraviolette, de plus courte longueur d’onde, en utilisant quelques astuces lors de la réalisation du masque, et en améliorant la composition de la résine. On arrive ainsi à graver des traits avec une précision de 14 nanomètres dans les plus récents circuits. Il existe une manière plus directe encore pour dessiner sur la résine. On projette sur sa surface un mince faisceau d’électrons (ou parfois d’ions), qui agit de la même manière que la lumière. On dessine alors directement le motif en déplaçant le faisceau d’électrons comme un crayon, mais avec une pointe très fine, puisque celle-ci peut ne faire que dix nanomètres de diamètre. Un contrôle électrique permet de défléchir le faisceau avec précision. Puisque l’on déplace le faisceau où l’on veut, la lithographie électronique ne demande pas de masque. En revanche, elle présente un inconvénient majeur : alors qu’avec la méthode optique on « photographie » le masque sur le silicium en une fois (parfois pour réaliser des centaines de circuits en un coup), avec le faisceau d’électrons, il faut tracer le motif trait par trait, méthode qui ne se prête pas à la production en grande série. Toutefois, cette méthode est très adaptée à la réalisation de circuits pointus en exemplaire unique, c’est-à-dire dans des buts de recherche. Cette méthode permet aussi de fabriquer les masques utilisés pour la lithographie optique. 97

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Figure 34 | Schéma de principe illustrant la réalisation de circuits sur du silicium. Recouvrement avec une résine (a), lithographie à travers le masque (en noir) (b), dissolution de la résine endommagée (c), dépôt métallique (d) et dissolution de la résine (e) ou gravure (d’) et dissolution de la résine (e’).

Variantes Il existe diverses variantes à la lithographie optique, dont certaines peuvent être extrapolées à l’échelle du nanomètre. Pour illustrer ce foisonnement, on peut citer les techniques suivantes23. – La nanoimpression, qui a été proposée en 1995 par Stephen Chou de l’université du Minnesota. On réalise une forme qui servira de moule dans un matériau dur comme le silicium, avec des détails qui peuvent être nanométriques. Le moule est alors pressé à chaud contre la couche de résine. Les parties en creux du moule n’affectent pas la résine alors que celles qui dépassent la creusent de telle sorte qu’elle ne protège plus suffisamment le silicium. On imprime donc directement le motif sur la résine sans faire appel à la lithographie. Cette méthode permet de réaliser des motifs fins mais le positionnement du moule lors du

23. Pour plus d’information, voir par exemple Nanosciences et nanotechnologies. Évolution ou révolution ?, Jean-Michel Lourtioz, Marcel Lahmani, Claire DupasHaeberlin, Patrice Hesto (Belin, 2014).

98

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

pressage n’est pas suffisamment précis pour permettre de réaliser plusieurs étapes sur des motifs qui doivent être parfaitement positionnés. – On peut aussi appliquer ce qu’on appelle la lithographie molle proposée par George Whitesides de Harvard. On réalise un tampon en polymère, exactement comme un tampon encreur, à ceci près que le dessin a des détails nanométriques. Pour certaines applications où il est juste nécessaire d’opérer une modification chimique d’une surface selon un motif spécifique, on réalise le tampon et on applique un produit réactif. Le tampon un peu mou s’adapte à la surface et imprime un motif chimique dont le dessin peut avoir une précision de quelques dizaines de nanomètres. – Le microscope à force atomique : avec l’avènement des microscopes à champ proche, on a disposé d’instruments capables de balayer une pointe avec une très grande précision. On peut utiliser ces pointes pour réaliser ce que l’on ferait avec un bâton : pousser des atomes, comme le fit Don Eigler en 1989 ou, à plus grande échelle, usiner des surfaces, écrire comme avec une plume en traçant un trait avec un produit chimique qui imbibe la pointe. Comme c’est le cas pour la lithographie électronique, cette technique ne se prête pas aux grandes séries, à moins qu’un jour on ne réalise des instruments travaillant avec des milliers de pointes simultanément.

VERS DES NANOSYSTÈMES MÉCANIQUES La troisième dimension L’industrie de la microélectronique a montré la voie de la miniaturisation mais, depuis une vingtaine d’années, on a adapté ses techniques à la fabrication de microsystèmes variés. On les appelle souvent MEMS (initiales pour l’anglais Micro-Electro-Mechanical Systems, signifiant microsystèmes électromécaniques). Il existait déjà 99

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

des prototypes de laboratoire dans les années 1970, mais c’est dans les années 1980 qu’ont été développées les techniques de fabrication, en particulier le passage à des objets en trois dimensions. Certains MEMS sont désormais très répandus : systèmes optiques comme les projecteurs utilisés pour le cinéma numérique, buses d’imprimantes, capteurs de pression, accéléromètres, etc., pour un marché estimé en 2014 à environ 12 milliards de dollars24. Ces systèmes sont de taille micrométrique. Ils sont fabriqués en utilisant les techniques développées pour la microélectronique. La lithographie traditionnelle revient à former une image sur une couche plane de résine puis à réaliser ensuite diverses opérations comme une attaque chimique ou la déposition d’un matériau. Elle est avant tout adaptée à la fabrication d’objets plans. On a pu aller au-delà. Une première méthode consiste à superposer des couches pour fabriquer des circuits à plusieurs étages (entre 10 et 20). Des traversées métalliques perpendiculaires sont ajoutées pour connecter les étages entre eux. Il existe également des procédés qui permettent de réaliser de véritables objets en trois dimensions. La figure 35 décrit une méthode utile pour réaliser des structures suspendues comme des poutres, structures pour fabriquer des accéléromètres (on mesure la déformation d’une structure suspendue) ou des capteurs chimiques. On a également développé d’autres techniques ouvrant vers la troisième dimension, par exemple pour réaliser des pièces plus épaisses qu’un simple circuit ou de forme complexe. Cela a été rendu possible par des techniques de lithographie en trois dimensions. La résine n’est plus une fine couche, mais un volume que l’on modifie dans la masse. En termes de miniaturisation, ces techniques restent en deçà des performances de la microélectronique. 24. Source Yole Development : “MEMS Markets Status of the MEMS Industry 2015”, consulté en mars 2016. http://www.i-micronews.com/images/Flyers/MEMS/Yole_Status_of_the_MEMS_ Industry_April_2015_web.pdf

100

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

35 | Schéma de principe illustrant la manière dont on peut suspendre des poutres. 1 : On part d’une plaque de silicium recouverte d’une couche d’oxyde de 1 micron d’épaisseur. 2 : On dépose les parties métalliques par la méthode de lift-off décrite plus haut. 3 : On attaque la silice dans la zone sous la poutre avec de l’acide fluorhydrique (le reste est protégé par de la résine). La poutre se retrouve libre. À l’aide de variantes plus complexes, on peut créer des pièces tournantes.

– L’une d’entre elles est le LIGA25, qui utilise le rayonnement X issu d’un synchrotron pour altérer la résine le long du trajet du faisceau. On dissout la résine altérée, ce qui ouvre une cavité dans le bloc. Puis on la remplit de métal par dépôt électrolytique. On obtient alors des pièces qui peuvent être très épaisses (millimétriques), comme des cylindres très longs ou des engrenages épais. La résolution latérale est de l’ordre du micromètre. – Une autre technique permet de réaliser des objets vraiment en trois dimensions. On illumine directement le bloc avec un faisceau laser concentré par un jeu de lentilles sur une tache focale, c’est-à-dire un volume dont le côté peut être aussi petit que 100 nanomètres, à l’intérieur duquel l’éclairement est intense. Si les paramètres sont bien choisis, la résine ne se polymérise qu’au point de fort éclairement. La position de la tache focale peut 25. Acronyme allemand de Lithography-Galvanoformung-Abformung (lithographie-électroformage-moulage, en français).

101

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

être déplacée dans les trois dimensions c’est-à-dire que, voxel par voxel, on réalise un objet 3D (un voxel est l’équivalent du pixel d’une image mais pour un volume). L’artiste Jonty Hurwitz s’est servi de cette technique pour réaliser des sculptures d’une vingtaine de microns de haut26. Top-down et bottom-up Toutes les techniques décrites ci-dessus sont appelées top-down (du haut vers le bas) parce que l’on part de notre échelle pour usiner une pièce. En parallèle de ces techniques, qui sont désormais largement répandues dans l’industrie, des équipes de recherche pensent en termes de méthodes bottom-up (du bas vers le haut), pour pallier les problèmes inhérents à la méthode top-down lorsqu’on veut fabriquer des objets dans la gamme 1-100 nanomètres. Dans ce cas, on part de petits objets qu’on assemble pour construire une structure plus grosse. La synthèse de molécules aux propriétés précises, la possibilité de jouer sur les liaisons faibles pour les accrocher sur des édifices complexes, notamment l’autoassemblage évoqué au chapitre précédent, tout cela a ouvert des perspectives séduisantes. On peut dire que ce concept a pris son essor à la fin des années 1970, avec le développement de ce que l’on a appelé la chimie supramoléculaire. Dans la genèse de cette discipline récente, on peut citer en particulier un événement phare, le prix Nobel de chimie 1987 attribué à Charles Pedersen, Donald Cram et au chimiste français Jean-Marie Lehn pour leurs travaux sur le sujet. Ce que l’on appelle aujourd’hui techniques bottom-up couvre un éventail relativement varié. On peut dire qu’il y a trois ingrédients de base, qui sont dosés de manière différente en fonction du procédé : – le type de brique de base choisie. Il s’agit souvent de grosses molécules « toutes faites » comme les nanotubes de carbone ou l’ADN, 26. http://phys.org/news/2014-11-science-art-nanosculpture-marvels.html et http://www.jontyhurwitz.com/nano/

102

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

qui présentent l’avantage d’être grosses donc manipulables. Ces briques sont parfois disponibles dans le commerce, ou peuvent elles-mêmes demander un important travail d’élaboration à partir des techniques du chimiste ou du biologiste ; – le degré d’assemblage spontané. Parfois, les briques de base sont intégrées dans un procédé de fabrication top-down (pour peu que l’on puisse les positionner correctement sur une plaque de silicium par exemple) ; parfois, on fait appel aux forces de van der Waals pour faire une partie du travail. Comme nous l’avons vu dans l’encadré « Autoassemblage de l’ADN » au chapitre 2, on peut obtenir des résultats spectaculaires, pour peu que l’on encode la bonne information sur des briques de base, c’est-à-dire la répartition des atomes qui gouverne celle des charges électriques qui, elles-mêmes, régissent les propriétés de collage ; – la méthode avec laquelle le nanocomposant à fabriquer sera interfacé avec le monde extérieur. Parfois, il se contente de flotter dans un liquide et on l’étudie comme un produit chimique (voir plus loin). Souvent on le place sur une nanostructure fabriquée, elle, par des méthodes top-down.

UN CAS HYBRIDE : UN MOTEUR À NANOTUBE DE CARBONE Certains dispositifs sont réalisés par lithographie mais intègrent des pièces fabriquées par des techniques bottom-up. Une pièce de choix est le nanotube de carbone. C’est une molécule qui se présente comme un enroulement cylindrique de feuillets d’atomes de carbone disposés en hexagone, de telle sorte qu’on peut visualiser l’ensemble comme un rouleau de grillage. Il en existe de nombreuses variétés, qui peuvent différer par leur longueur, le type d’enroulement, le nombre de feuillets superposés. On parle ainsi de nanotubes monoparois (un seul feuillet) ou multiparois (divers feuillets emboîtés

103

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

comme des poupées russes). Leur diamètre est de l’ordre du nanomètre pour les monoparois mais peut atteindre les 100 nanomètres pour les multiparois. Les nanotubes se fabriquent spontanément lorsque des molécules riches en carbone se décomposent en présence d’un catalyseur. Au début des années 2000, deux équipes ont utilisé des nanotubes pour fabriquer ce que l’on peut considérer comme des vrais nanomoteurs électrostatiques (celle d’Alex Zettl de Berkeley et celle d’Adrian Bachtold de l’École normale à Paris). Les ingrédients étaient les suivants : • un axe, qui est un nanotube de carbone multiparoi ; • des paliers : le nanotube qui sert d’axe est soudé à ses extrémités sur son feuillet le plus externe. Ce feuillet a été enlevé en milieu de tube et l’ailette est fixée sur un tube plus interne qui tourne librement. Le nanotube multiparoi se comporte donc comme un roulement à bille naturel ; • une ailette (le rotor) fixée au milieu du nanotube ; • des électrodes (le stator) : portées à quelques dizaines de volts, elles attirent le rotor, ce qui enclenche le mouvement de rotation ;

Figure 36 | Schéma du moteur et en particulier du « roulement à bille ». La dernière paroi est détruite de manière à ce que l’ailette puisse être fixée sur un tube plus central, libre de tourner. Cela peut se faire en faisant passer un courant électrique trop fort dans le tube, ce qui a pour effet de faire exploser la paroi externe. On peut aussi le casser par fatigue mécanique : trop sollicité, il finit par casser. Le matériau est du silicium ou de la silice et les métaux sont du chrome et de l’or.

104

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

Un exemple de NEM : peser un atome La miniaturisation d’objets réellement 3D à l’échelle nanométrique est plus difficile à réaliser. D’ailleurs l’intérêt d’une telle miniaturisation n’est pas flagrant, par exemple s’il s’agit d’un objet unique qu’il faudra interfacer avec le monde réel, donc avec des connexions électriques qui seront nécessairement de grande taille. Toutefois, pour certaines applications, plus de miniaturisation présente un fort intérêt. On en arrive aux NEMS (Nano-Electro-Mechanical Systems, en français nanosystèmes électromécaniques, le M de « micro » ayant laissé la place au N de « nano »). Un exemple est la réalisation de détecteurs de masse à résonateurs mécaniques. Ils servent à mesurer la présence d’une espèce chimique ou d’une bactérie dans un milieu donné. Pour cela, on part d’un nanoobjet vibrant, sous la forme d’une poutre fixée à l’une de ses extrémités, comme si c’était un plongeoir. Tel un diapason, il oscille à une fréquence fixe qui dépend de sa masse (plus il est lourd, moins il vibre rapidement) et de sa rigidité. On expose cette poutre oscillante à son environnement et, si quelque chose se colle dessus, la fréquence diminue. Dans ce cas, passer du MEMS au NEMS présente un fort intérêt. Lorsque la poutre est assez petite, un simple atome suffit à modifier sa fréquence de résonance de manière mesurable. En guise de poutre, les premières démonstrations ont utilisé des nanotubes de carbone, fixés sur un support par l’une de leurs extrémités. C’est ainsi qu’en 2008, Kenneth Jensen et ses collaborateurs de l’université de Berkeley ont pu atteindre une résolution quasi atomique. Ils ont placé leur nanotube dans une enceinte dans laquelle régnait un vide très poussé. Le diamètre du nanotube était d’environ 2 nanomètres, sa longueur de 200 nanomètres, et sa masse de 1,6 × 10–21 kg (soit environ celle de 5 000 atomes d’or). Un tel objet, à la fois léger et très rigide, oscille à une fréquence très élevée, de l’ordre de 330 MHz, bien supérieure à celle des plongeoirs ou des 105

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

diapasons27. Un champ électromagnétique oscillant est appliqué au nanotube. Il le fait vibrer et permet de mesurer à tout instant sa fréquence de résonance (celle pour laquelle le nanotube répond le mieux). Le nanotube vibrant a été placé près d’une source d’atomes d’or, issus d’un morceau d’or fortement chauffé pour que les atomes s’évaporent. Il a été possible de voir les sources de bruit qui affectaient le dispositif (l’agitation des atomes du nanotube, des mouvements lents d’atomes qui peuvent modifier la fréquence de résonance), et surtout de suivre au cours du temps le collage des atomes d’or sur la poutre. Le dispositif permet de discriminer une masse inférieure à celle d’un atome d’or. On a depuis atteint des résolutions encore meilleures, équivalentes à la masse d’un proton.

Figure 37 | Schéma de principe de l’expérience de Kenneth Jensen. Un nanotube de carbone que l’on fait osciller par un dispositif électrique est placé dans une enceinte sous vide en présence d’atomes d’or évaporés par un fil très chaud. Lorsque les atomes se collent au nanotube, celui-ci oscille moins vite. Remerciements au Groupe de recherche de Alex Zettl, université de Californie à Berkeley28.

27. C’est la fréquence des ondes radios. Pour l’anecdote, cette équipe a utilisé ce dispositif pour réaliser une « nanoradio ». Le nanotube vibrant à la fréquence des ondes radios FM, il peut les détecter. L’équipe en 2007 a ainsi testé le dispositif sur le morceau « Good vibrations » des Beach Boys (http://research.physics.berkeley.edu/zettl/projects/nanoradio/radio.html). 28. http://research.physics.berkeley.edu/zettl/projects/nanobalance/mass.html

106

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

Toutefois, cette course à la résolution en masse n’est pas le plus important. L’un des enjeux des développements en cours est la réalisation d’appareils de ce type qui fonctionnent non pas sous vide, mais dans l’atmosphère, ou dans un liquide, de telle sorte qu’on puisse les utiliser pour faire des mesures de concentration d’une substance chimique donnée (on peut coller sur la poutre vibrante une molécule qui accroche sélectivement l’espèce recherchée). Outre la résolution en masse qu’ils permettent d’atteindre, les NEMS ont un autre avantage : on peut en faire fonctionner une grande quantité en parallèle, pour rendre la mesure plus sensible et aussi réaliser de nombreuses mesures différentes en parallèle afin de détecter simultanément de nombreuses espèces ; bref pour fabriquer un nez. Des dispositifs libres Tous les nanosystèmes mentionnés jusqu’à présent sont des pièces (capteurs ou actionneurs) intégrées dans des systèmes plus gros, qui les alimentent en énergie. Il existe également des recherches sur des systèmes microscopiques libres qui peuvent se déplacer de manière autonome, dans leur environnement, souvent un liquide, des sortes de micro sous-marins. Il s’agit encore de machines très rudimentaires, mais leurs promoteurs entrevoient des applications à long terme pour la médecine ou l’environnement. La première question à résoudre est leur alimentation en énergie. Ces objets sont trop petits pour contenir une batterie ou un réservoir de carburant, donc le milieu environnant doit contenir une substance à partir de laquelle ils pourront extraire de l’énergie. Divers modes de propulsion ont été étudiés. Nous en citerons ici un seul29. Il implique que « sous-marin » soit un assemblage de deux barres de nature chimique différente, mises bout à bout, par exemple du platine et de l’or.

29. Pour plus de détails voir par exemple le livre Nanomachines de Joseph Wang (Wiley-VCH, 2009).

107

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Figure 38 | À gauche, un dispositif autopropulsé. Des réactions chimiques aux deux extrémités de la barre font qu’il y a un excès d’ions H+ à gauche (les électrons s’équilibrent en circulant dans la barre), ce qui crée localement un champ électrique qui pousse la barre (chargée négativement). À droite, le principe de la pile à combustible. Deux réactions chimiques créent un déséquilibre en protons et en électrons. Dans ce cas, c’est le courant produit par le déséquilibre en électrons qui est exploité.

L’ensemble a une longueur de quelques microns et un diamètre qui se mesure en centaines de nanomètres. Si on l’immerge dans une solution riche en peroxyde d’hydrogène (de l’eau oxygénée), la barre se met en mouvement, suite à un enchaînement assez complexe : – d’une part, la barre (c’est une propriété très générale des nanoobjets immergés) réagit avec le liquide et a tendance à acquérir une charge électrique en surface ; – d’autre part, il se produit à chaque extrémité une demi-réaction chimique, l’une d’entre elles produisant des ions H+, l’autre les consommant. Ce déséquilibre induit un écoulement des ions entre les deux extrémités de la barre. Les deux demi-réactions chimiques mènent également à des échanges d’électrons, qui se traduisent par un courant électrique dans la barre ; – l’excès d’ion H+ d’un côté crée un champ électrique dans le liquide. Comme la barre est chargée, elle est poussée par ce champ, et se déplace à des vitesses qui peuvent atteindre des dizaines de micromètres par seconde, donc des dizaines de fois sa longueur, ce qui la fait ressembler à une petite fusée30. 30. Pour la petite histoire, la décomposition de l’eau oxygénée sur un métal a déjà été utilisée pour faire des propulseurs. Le jet dorsal, rendu populaire par le film Opération tonnerre de la série des James Bond, fonctionne ainsi.

108

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

Ce dispositif présente une analogie profonde avec une pile à combustible. Dans une pile, deux demi-réactions chimiques entraînent un transport d’ions dans la pile, ainsi qu’un courant électrique que l’on récupère pour différentes applications. Dans le cas de notre sousmarin-fusée, on récupère de l’énergie mécanique due à la différence de concentration des ions entre les deux extrémités de la barre. Dans le cas de la pile à combustible, c’est plutôt au déséquilibre des électrons qu’on s’intéresse pour produire un courant électrique. Pour l’instant on est relativement loin des applications, ne serait-ce que parce que le carburant utilisé est une substance chimique plutôt agressive, comme de l’eau oxygénée. Il faut aussi mettre au point des systèmes de guidage et de contrôle. Toutefois, il existe des pistes de réflexion pour réaliser des dispositifs qui tireraient leur énergie du glucose, substance présente dans de nombreux milieux biologiques. Cette hypothèse est loin d’être irréaliste, dans la mesure où l’on sait par exemple fabriquer des piles à combustible qui consomment du glucose.

L’ASSEMBLAGE PAR LES MÉTHODES DE LA CHIMIE Des machines moléculaires Il existe une autre voie de nanofabrication, la synthèse par les méthodes de la chimie de molécules qui se comportent comme des systèmes mécaniques, avec de vraies pièces mobiles, des engrenages, des cliquets. L’inspiration est venue du monde du vivant, qui offre d’innombrables exemples de telles molécules, assemblées par des processus naturels. Ces moteurs naturels ont été étudiés à partir des années 1940. On a commencé par la myosine, constituant important des muscles, puis les travaux se sont étendus à diverses protéines « moteurs ». La plupart des découvertes à leur sujet ont été faites dans les cinquante ans qui ont suivi. Dans la même période, les chimistes ont été tentés de reproduire ce que faisait la nature, en synthétisant des molécules qui se comportaient comme des machines. 109

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

L’ensemble des interactions que nous avons évoquées au chapitre 2 jouent un rôle clé. Les liaisons covalentes donnent à l’assemblage sa cohésion, les liaisons plus faibles régissent sa géométrie et ses éventuelles évolutions, lorsque le système « fonctionne ». Sous l’influence d’une sollicitation donnée (lumière, électricité, ajout d’un réactif), les forces qui gouvernent l’attraction entre diverses parties de l’assemblage peuvent être modifiées et la molécule évolue vers une nouvelle configuration, comme une petite machine. Il faut se rappeler que les molécules sont dix à cent fois plus petites que les MEMS ou les NEMS fabriqués par lithographie. Elles sont immergées dans un milieu en perpétuelle agitation thermique qui interagit avec elles. Les machines plus grosses évoquées précédemment étaient actionnées par des forces électromagnétiques, le bruit thermique étant une perturbation. Les moteurs moléculaires que nous évoquons maintenant fonctionnent grâce à ce bain thermique, avec un système de cliquets permettant d’extraire du travail. On est dans le cas des moteurs browniens tels que discutés au chapitre 2. Les recherches dans ce domaine ont vraiment émergé dans les années 1990 avec deux découvertes considérées comme des jalons historiques. Elles font l’objet des deux sections qui suivent. Les rotaxanes, ou la tringle à rideau Un premier exemple est celui des rotaxanes. Ces molécules, synthétisées pour la première fois dans les années 1960, se prêtent bien à la réalisation de dispositifs mobiles. C’est ce qui a été fait pour la première fois en 1991 par le chimiste Fraser Stoddart. On peut voir une molécule de rotaxane comme une tringle sur laquelle on a enfilé un anneau, avec une boule à chaque extrémité, pour que l’anneau reste coincé. Sous l’effet de l’agitation thermique, l’anneau se déplace et explore la tringle. Si, de plus, il existe sur la tringle deux sites A et B un peu « collants », donc susceptibles d’attirer l’anneau, celui-ci aura tendance à s’en approcher et à se stabiliser 110

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

sur le site le plus attractif. L’origine de cette force d’attraction entre anneau et sites A et B peut être variée : affinité chimique, charge électrique locale, liaison hydrogène. Toute l’astuce a consisté à fabriquer des rotaxanes avec des sites A et B aux propriétés variables sous l’influence d’un stimulus externe. Celui-ci peut être par exemple une tension électrique qui arrache un électron à l’un des sites, un réactif chimique qui induit une modification d’un des deux sites, voire de la lumière. On fait alors changer à volonté le rapport des forces qui attachent l’anneau à A et B, ce qui entraîne un glissement de l’anneau dans l’une ou l’autre position. Il est intéressant de noter que la force qui fait déplacer l’anneau ne provient pas de l’attraction des sites A ou B, mais bel et bien de l’agitation thermique, c’est-à-dire des collisions des molécules environnantes, qui déplacent l’anneau. Les forces d’attraction des sites A et B jouent quant à elles le rôle de nanocliquet en bloquant le mouvement.

Figure 39 | À gauche, schéma de principe d’une molécule de rotaxane. L’anneau est préférentiellement attiré par le site A ou le site B, en fonction d’un stimulus externe qui les modifie. Le déplacement de l’anneau est lui-même causé par l’agitation thermique. À droite, principe d’un actionneur à rotaxane « palindromique » réalisé en 2005 par l’équipe de Stoddart. On complique la molécule en passant à quatre sites dans l’ordre ABBA. Il y a donc deux anneaux qui, suivant les conditions, se placent à 4,2 ou 1,2 nanomètres l’un de l’autre. Si on fixe sur les anneaux un fil moléculaire, on peut donc tirer dessus avec une force de l’ordre de 10–12 newton par molécule. L’équipe a greffé des milliards de molécules de ce type sur une lame flexible (une lame de 100 micromètres de large et de 500 micromètres de long). Lorsque les conditions sont telles que les anneaux sont attirés par les sites B, la lame se courbe, sous l’effet conjoint de toutes les molécules qui « tirent ».

111

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Un ribosome artificiel Pour terminer cette section sur les rotaxanes, citons une invention faite en 2013 par l’équipe de David Leigh (universités de Manchester et d’Édimbourg). Il s’agit d’un automate moléculaire, qui assemble de manière prédéfinie des séquences d’acides aminés. Les acides aminés sont les briques de base des protéines et cette opération d’assemblage correspond à ce qui est réalisé dans toutes les cellules vivantes par un complexe moléculaire qui s’appelle le ribosome, l’ordre d’assemblage étant prescrit dans l’ADN (pour plus de détails voir chapitre suivant). L’équipe de Leigh a ainsi réussi à faire fonctionner en parallèle 1018 automates de ce genre, qui ont assemblé chacun une chaîne de trois acides aminés. C’est un résultat très spectaculaire qui a été abondamment repris, même si on reste loin des performances des vrais ribosomes. Il est vrai que cet automate est

Figure 40 | Principe de fonctionnement de l’automate moléculaire de l’équipe de David Leigh (inspirée de http://www.catenane.net/pages/publications.html au chapitre « 2015 »). Sur un anneau, on a greffé une amorce, quelques acides aminés. Sur la partie « tringle », on a disposé trois « supports » avec sur chacun d’eux l’un des acides aminés à accrocher. Chaque acide aminé bloque le déplacement de l’anneau. Un « crochet moléculaire » peut alors détacher l’acide aminé. Suit une séquence d’événements qui mènent au greffage de l’acide aminé détaché en bout de la chaîne en cours de fabrication (figure du bas). Lorsque le dernier acide aminé est greffé, l’anneau est libéré. Ce processus dure environ deux jours.

112

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

beaucoup plus simple que le ribosome, avec une structure contenant des milliers de fois moins d’atomes. Il ne lit pas l’ordre des molécules dans une séquence d’ARN comme le fait le ribosome et est 500 000 fois plus lent. Le premier moteur rotatif artificiel Une autre avancée a été la mise au point de « rotors moléculaires », qui pouvaient tourner continûment dès lors qu’ils étaient alimentés en énergie. Le premier modèle a été mis au point par l’équipe hollandaise de Ben Feringa en 1999. Ce premier prototype se présente comme une double liaison carbone-carbone reliant entre eux deux blocs composés de 14 atomes de carbone et d’atomes d’hydrogène qui ressemblent à des escaliers hélicoïdaux. Cette molécule peut avoir plusieurs configurations : – tout d’abord les blocs hélicoïdaux peuvent avoir deux sens : le sens M (pour moins) quand on monte en tournant vers la gauche ou alors le sens P (pour plus) quand on monte en tournant vers la droite. Les deux formes M et P ne sont pas superposables mais l’une est l’image de l’autre dans un miroir. C’est la même chose qu’avec les deux mains, à la fois identiques mais non superposables. Il y a toutefois une différence entre les molécules et les mains ou les escaliers, les premières peuvent spontanément se déformer pour passer de M à P ou vice versa ; – d’autre part, comme nous l’avons vu au chapitre deux (figure 13), la liaison double ne tourne pas naturellement et il y a deux manières d’accrocher les escaliers : du même côté (« cis ») ou des côtés opposés (« trans »). Par ailleurs, on a greffé sur chacun des deux blocs un petit ensemble d’atomes qui, suivant la manière dont les hélices sont orientées, pointe vers le haut ou le bas ou dans la direction horizontale. Comme on le verra, cet ajout permet le mouvement de la molécule.

113

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Figure 41 | Les transformations successives de la première génération de rotor moléculaire de l’équipe de Ben Feringa. Les couleurs sombres veulent dire « vers l’arrière de la figure ». 1. La molécule de départ, en A, est dite « MM trans », c’est-à-dire qu’elle contient deux blocs d’hélicité M et est sous sa forme « trans ». Lorsqu’on éclaire cette molécule, la double liaison se transforme et la molécule tend vers la forme B. 2. La forme B est dite « PP cis ». En effet, la transformation de « trans » vers « cis » a aussi inversé les deux hélicités (désormais on monte en tournant vers la droite). Cette forme est moins stable car les deux petits groupements (les triangles) sont dans le plan horizontal et se « gênent ». Si la température est suffisante, sous l’influence des chocs du milieu environnant, les deux hélicités s’inversent, de telle sorte que les deux petits groupements s’écartent l’un de l’autre (la molécule se tord et un groupement va vers le devant de l’image et l’autre vers l’arrière). 3. La forme C est donc « MM cis ». Lorsqu’elle est éclairée, elle évolue vers une forme de type « trans » (chacun de son côté de la double liaison) et comme la première fois les hélicités des deux blocs changent, on obtient donc la molécule D qui est « PP cis». 4. À température suffisante, les deux hélicités se renversent et on revient au point de départ. La molécule a fait un tour.

L’équipe de Ben Feringa a montré que cette molécule avait une propriété extraordinaire : elle peut tourner spontanément. Ce mouvement se fait en quatre étapes qui sont décrites à la figure 41. Ce mouvement demande l’apport de lumière (qui permet les transitions A → B et C → D) et de l’énergie thermique pour les deux autres transitions (B → C et D → A). La première molécule, étudiée en 1999, 114

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

avait un mouvement très lent, l’étape B → C durant des dizaines de minutes et l’étape C → D étant encore plus longue. Cependant l’équipe a ensuite créé de nombreuses molécules de ce type en modifiant les deux blocs et aussi les petits groupements qui leur sont ajoutés (le triangle de la figure 41). L’important est de réaliser des édifices qui combinent des évolutions cis trans et des changements d’hélicité (M et P). En optimisant la géométrie de l’ensemble, on a pu réaliser des molécules tournant bien plus rapidement, les temps de rotation pouvant être inférieurs à la milliseconde. Des moteurs moléculaires, pour quoi faire ? Au-delà de ces quelques exemples particulièrement emblématiques de ce qu’on peut appeler des machines moléculaires, de très nombreux dispositifs ont été synthétisés en laboratoire. Leur point commun est qu’il s’agit de molécules qui peuvent changer de forme lorsqu’on les soumet à un stimulus (par exemple de la lumière, l’acidité du milieu, une tension électrique). Dans quelques cas, ce changement peut se traduire par un mouvement continu comme avec un moteur rotatif, mais très souvent il s’agit d’un bistable, c’est-à-dire d’une molécule qui peut se retrouver avec deux formes différentes. On peut imaginer que de telles molécules (de taille nanométrique) pourraient être intégrées à des objets fabriqués par lithographie (la limite actuelle est de l’ordre de la dizaine de nanomètres) pour réaliser une fonction donnée. Par exemple, James Tour a imaginé une mémoire dans laquelle des molécules de rotaxane stockeraient l’information, comme des nanobouliers. De manière générale, réaliser une fonction avec une molécule est peu coûteux (elles sont fabriquées par milliards de milliards) et c’est sans doute le moyen le plus simple pour réaliser un objet nanométrique de manière parfaitement reproductible. Il y a toutefois des inconvénients. Tout d’abord, les molécules sont souvent relativement lentes par rapport aux systèmes électroniques classiques et ensuite elles sont fragiles. 115

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Une autre application pourrait être la réalisation de matériaux intelligents, qui se déforment à la demande. Des milliards de nanosystèmes intégrés dans des matériaux pourraient, en changeant leur configuration, en modifier les propriétés. Un premier exemple a été donné à la figure 39, avec une lame qui peut se courber. Un exemple qui date de 2015 est le travail de l’équipe de Nicolas Giuseppone au CNRS. Elle a réalisé un matériau dans lequel des moteurs du type de celui de Ben Feringa sont accrochés à des chaînes moléculaires. Lorsqu’ils sont éclairés, les moteurs tournent et enroulent les chaînes. Le matériau se contracte alors de manière spectaculaire31. On peut aussi changer d’autres propriétés comme la surface. Un exemple est le travail de José Berná et de ses collaborateurs en 2005. Ils ont recouvert une surface de molécules de rotaxane (voir figure 39). Le site A est recouvert de molécules de fluor et, à l’instar du téflon de nos poêles, il interagit peu avec l’eau. Lorsque l’anneau est sur A, il cache ces molécules. Mais dès qu’il se déplace sur le site B, le fluor est découvert et la surface repousse l’eau. En d’autres termes, voilà une surface qui peut à la demande repousser un liquide. Dans une expérience spectaculaire, l’équipe fait se déplacer à volonté une goutte de liquide sur une surface, grâce au travail collaboratif de milliards de molécules de rotaxane32. Une autre application est la nanomédecine. L’enjeu est de concevoir des médicaments intelligents, composés d’une coque qui abrite un principe actif et le libère uniquement sur la cellule cible. La coque peut également être dotée de molécules facilitant son accrochage sur les parties à traiter. On peut imaginer que des moteurs moléculaires puissent un jour être utilisés pour activer le médicament.

31. Voir le film http://www.nature.com/nnano/journal/v10/n2/extref/ nnano.2014.315-s2.mov (consulté en 2015). 32. http://www.nature.com/nmat/journal/v4/n9/extref/nmat1455-s1.avi

116

NANOMONDE

LES NANOMACHINES CRÉÉES PAR L’HOMME

NANOVOITURES ET NANOBROUETTES Les chimistes tentent de réaliser des systèmes qui pourraient se déplacer sur une surface. Une réalisation particulièrement éloquente a été le nanocar de l’équipe de James Tour du département de chimie de l’université Rice, à Houston aux États-Unis. Il s’agit d’une molécule en forme de petite voiture qui mesure moins de quatre nanomètres de côté. Les roues sont quatre boules faites avec des fullerènes (des assemblages d’atomes de carbone en forme de sphère), qui peuvent tourner autour d’axes qui sont de simples liaisons carbone-carbone. Ces molécules géantes sont fabriquées, purifiées et vérifiées par les techniques de la chimie et peuvent être dissoutes. Elles sont ensuite déposées sous vide sur une surface bien plane et aussi propre que possible, pour éviter la présence d’obstacles. On observe, comme prévu, un collage de ces objets sur la surface. Mais lorsque la surface est suffisamment chaude (au-dessus de 170 °C), les fluctuations thermiques font que le nanocar se déplace spontanément. Une autre manière de déplacer ce véhicule est de le tirer en l’attirant avec une pointe de microscope à force atomique. Une série d’expériences a permis de montrer que le déplacement s’effectuait préférentiellement dans la direction perpendiculaire aux axes, c’est-à-dire que vraisemblablement les roues tournaient. Plus spectaculaire encore, on a tenté de motoriser ces véhicules. Les résultats les plus probants ont été obtenus par l’équipe de Ben Feringa. Les quatre roues ont été remplacées par des moteurs du même type que celui représenté à la figure 41. Dans le montage utilisé, l’énergie a été fournie, non pas sous forme de lumière, mais sous forme d’énergie électrique à travers une pointe. On a pu vérifier que c’était bien le moteur qui faisait avancer la voiture, celle-ci ne fonctionnant que si les moteurs étaient configurés pour tourner de manière à « collaborer » : les moteurs sur le même axe doivent tourner dans des directions opposées, et les moteurs du même côté doivent tourner dans le même sens. On peut voir le film du mouvement sur le site de la revue Nature33. 33

33. http://www.nature.com/nature/journal/v479/n7372/extref/nature10587-s2.mov

117

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Fin 2016, deux chercheurs du CNRS, Christian Joachin et Gwénaël Rapenne organiseront à Toulouse la première course internationale de nanovoitures34. Cette course, invisible à l’œil nu, se déroulera sur une piste d’or à très basse température, sur laquelle on aura déposé quelques atomes d’or pour matérialiser les lignes de départ et d’arrivée et des obstacles à contourner. Les organisateurs espèrent que les concurrents utiliseront des moteurs du type de ceux discutés ci-dessus.

Figure 42 | À gauche, image de nanocars placées sur une surface d’or, obtenue par microscopie à effet tunnel. Une barre blanche de 19 nanomètres donne l’échelle. Chaque voiture se voit principalement comme quatre points qui représentent les roues. À droite, représentation de la molécule qui forme le « nanocar ». Remerciements à l’université Rice. © Rice University.

34

34. http://www.cemes.fr/course_nanovoitures

118

NANOMONDE

4 Les nanomachines naturelles COMMENT EST CONSTRUIT LE VIVANT ? Le vivant, modèle insurpassable (pour longtemps) L’écrasante majorité des nanosystèmes qui nous entourent ne sont pas les nanomachines artificielles du chapitre précédent, mais ceux qui existent dans les cellules, éléments de base des êtres vivants. Leur découverte s’est faite à l’issue d’un long cheminement. L’observation des premières cellules est attribuée à l’Anglais Robert Hooke qui, en 1665, remarqua que le liège était composé de subdivisions microscopiques qu’il appela plus tard « cellules » parce qu’elles lui évoquaient les cellules des moines. On découvre aussi très tôt l’existence d’une vie microscopique. En 1674, Antoni Van Leeuwenhoek découvre la présence de bactéries sur les dents et déclare, dans une phrase qu’on aurait déjà pu intituler, comme Feynman, « il y a de la place tout en bas », que les Hollandais étaient moins nombreux que les animaux qui vivaient dans sa bouche35. Ce n’est toutefois qu’en 1838, grâce aux

35. Un peu moins de deux millions à l’époque. Coïncidence, 340 ans plus tard, ce sont toujours des chercheurs hollandais (Remko Kort et ses collaborateurs) qui revoient l’estimation de Van Leeuwenhoek à la hausse, en estimant dans une publica-

119

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

travaux des Allemands Matthias Schleiden et Theodor Schwann, que l’on prend conscience que tous les organismes vivants sont composés de cellules. C’est aussi durant le XIXe siècle que les progrès de la microscopie et des techniques de coloration (qui mettent en évidence tel ou tel élément) rendent possible la découverte des principaux constituants internes de la cellule. Puis, au XXe siècle, sont jetées progressivement les bases de la biologie moléculaire, science qui vise à comprendre le fonctionnement de la cellule au niveau moléculaire. L’histoire de la compréhension du mécanisme de l’hérédité illustre bien cette progression. Vers 1860, Gregor Mendel, botaniste d’origine tchèque, publie (avec peu de succès d’ailleurs) ses travaux montrant l’existence de caractères transmis héréditairement. Bien plus tard, l’Américain Thomas Morgan prouve que les caractères transmis dont parlait Mendel sont contenus dans les chromosomes, petits bâtonnets logés dans le noyau de la cellule, ce qui lui vaut le prix Nobel de médecine et physiologie en 1933. En 1944, dans son essai Qu’est-ce que la vie ?36, le physicien Erwin Schrödinger, surtout connu pour son apport à la mécanique quantique, émet l’hypothèse que l’information génétique pourrait être encodée dans un « cristal apériodique ». Cette même année, Oswald Avery et son équipe montrent que l’ADN (l’acide désoxyribonucléique) est le vrai vecteur de l’hérédité. L’ADN lui-même est une découverte ancienne, puisqu’il avait été extrait du noyau (associé à d’autres constituants) dès le XIXe siècle sans que son rôle ait alors été connu. La structure de l’ADN, c’est-à-dire comment s’organisent les atomes à l’intérieur, est élucidée en 1953 par Francis Crick, James Watson, Maurice Wilkins et Rosalind Franklin. Le code génétique, et plus généralement le fonctionnement moléculaire de la synthèse des protéines, sont compris à partir des années 1960, tion de la revue Microbiome qu’un baiser intime de dix secondes est accompagné de l’échange de 80 millions de bactéries. 36. Traduction française Qu’est-ce que la vie ? De la physique à la biologie, Erwin Schrödinger, Seuil (1993).

120

NANOMONDE

LES NANOMACHINES NATURELLES

notamment avec les travaux de l’Américain Marshall Warren Nirenberg et de son équipe. À partir des années 1950, on a su développer des outils qui permettaient d’agir sur l’ADN : enzymes pour dupliquer l’ADN (1956), pour en couper des brins en un emplacement précis (1965), séquençage (c’est-à-dire la lecture de l’information qu’il contient) dans la deuxième moitié des années 1970, amplification de l’ADN grâce aux enzymes qui permettent sa réplication à la fin des années 1980, techniques d’édition génomique pour modifier l’ADN dans une zone précise (années 2000). Cette compréhension moléculaire du fonctionnement de la cellule au cours du XXe siècle en concerne tous les aspects. Cela a conduit à forger l’image actuelle de la cellule : une véritable usine qui importe des matières premières (matériaux de construction, molécules énergétiques) et rejette des déchets et de la chaleur. La cellule assure de nombreuses fonctions : construction, destruction, transport et modification de molécules, conversion d’énergie, mesure et régulation, action mécanique. Sa taille varie entre un micron (millionième de mètre) pour une petite bactérie, ce qui correspond à une masse de 10–15 kilogramme, et plutôt vingt microns pour une cellule animale, soit 10–11 kilogramme. Ce petit volume contient un nombre incroyable d’éléments. En ordre de grandeur, dans une cellule animale cela correspond, en plus de l’eau qui en est le constituant majeur, à des milliards de molécules de dix mille espèces différentes. À titre de comparaison, un gros avion est composé de quelques millions de pièces, une automobile de milliers de pièces… Seuls les systèmes informatiques atteignent un tel nombre d’éléments. Dans un processeur de 2015, il y a des milliards de transistors, et le nombre d’objets connectés à Internet va rapidement se mesurer en dizaines de milliards. Les « matériaux de construction » du vivant Le vivant, malgré sa grande diversité, utilise un nombre limité de familles de composants, les mêmes depuis la bactérie jusqu’au mammifère. 121

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Q

Les protéines

Hormis l’eau, qui représente près de 70 % du poids, les protéines sont les molécules les plus fréquentes dans les cellules, à raison de quelques millions de molécules par micron au cube (soit 10–15 litre), de telle sorte qu’elles représentent environ la moitié du poids sec. Elles constituent une espèce chimique bien définie. Il s’agit d’assemblages par des liaisons covalentes (donc solides) de briques de base que l’on appelle les acides aminés. Ceux-ci sont caractérisés par une fonction acide (groupement COOH) et une fonction amine (groupement NH2) qui sont attachées à un atome de carbone. Liée à ce même atome de carbone, on trouve une partie variable qui est la carte d’identité de l’acide aminé et lui confère des propriétés spécifiques. Selon les propriétés de cette partie variable, grosse ou petite, avec un moment dipolaire ou non, se chargeant électriquement ou non, les acides aminés ont des propriétés très variées. Des exemples d’acides aminés sont donnés à la figure 43. Ceux-ci forment des protéines en se soudant entre eux par des liaisons carbone-azote (la formation de cette liaison élimine une molécule d’eau) que l’on appelle « liaison peptidique ». Cette liaison a la particularité de ne pas permettre de mouvement de rotation dans la paire [CO-NH], ce qui donne à la protéine une certaine rigidité. En revanche, la liaison C-C avec l’atome de carbone qui suit cette liaison peptidique permet des mouvements de rotation, ce qui autorise les chaînes latérales à se positionner en fonction des forces entre elles et leurs voisines. Tous les êtres vivants utilisent les mêmes vingt acides aminés qui sont pris en compte dans le code génétique (plus trois cas « non standard »). La longueur des chaînes qui constituent les protéines est variable, de cent acides aminés pour les petites protéines à quelques milliers pour les grosses. La championne est la connectine, protéine très abondante dans les muscles, avec près de 30 000 acides aminés. Toutes les protéines n’ont pas la même importance, certaines étant synthétisées dans la cellule quasiment à l’unité et d’autres par millions. 122

NANOMONDE

LES NANOMACHINES NATURELLES

Figure 43 | En haut, exemples d’acides aminés. La valine possède une chaîne non polaire composée uniquement de carbone et d’hydrogène. L’asparagine, quant à elle, possède une chaîne qui forme des liaisons hydrogène avec l’eau, donc a tendance à être soluble. La lysine a une chaîne qui, en solution dans l’eau, se charge positivement, l’azote fixant un proton supplémentaire. Tous les acides aminés contiennent le même bloc terminal H2N-CH-COOH. En bas, principe de la liaison peptidique (CO-NH) montrée dans le petit rectangle grisé, et les liaisons qui permettent les mouvements de rotation (flèches).

Tous les enchaînements possibles d’acides aminés ne se retrouvent pas dans le vivant. En effet, si l’on enfile sur un collier virtuel cent acides aminés au hasard, on peut aboutir à environ 10130 combinaisons possibles. Si chaque combinaison était produite en une molécule unique (soit 2 × 10–23 kilogramme), le total pèserait tout de même 2 × 10107 kilogramme c’est-à-dire la masse de 1077 fois celle du soleil. En pratique, le vivant a, au cours de l’évolution, sélectionné un petit nombre de protéines. Les bases de données de protéines comme Swiss Prot contiennent « seulement » des centaines de milliers de séquences d’acides aminés. Heurtée continûment par des molécules d’eau, une protéine trouve rapidement une configuration qui garde les parties hydrophobes 123

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

isolées de l’eau, les parties polaires étant face à l’eau. La forme finale est également fixée par les différentes forces d’attraction entre les différentes parties de la protéine, notamment les liaisons hydrogène. Elle peut être scellée par quelques liaisons covalentes de plus, ce qui en rigidifie la structure. En d’autres termes, chaque protéine tend à se replier et prend une forme spécifique qui lui confère ses propriétés. C’est ainsi que diverses protéines aident des réactions chimiques (on parle d’enzymes), peuvent transporter des espèces chimiques en se fixant de manière réversible (l’hémoglobine est un transporteur de l’oxygène), servent à définir des structures (le collagène) et, comme on le verra, se comportent comme de véritables « machines ».

Figure 44 | Schéma de principe expliquant les différentes forces agissant dans une chaîne d’acides aminés. On n’a représenté pour simplifier que deux fragments de la chaîne des acides aminés composant une protéine.

Les lipides Les lipides sont des molécules peu solubles dans l’eau, car ils contiennent de longues chaînes non polaires (dites hydrophobes car elles interagissent peu avec l’eau), composées de carbone et d’hydrogène. Ce sont aussi les éléments de base des membranes cellulaires. Dans le monde du vivant, ce sont des phospholipides qui forment la paroi des cellules en s’assemblant comme montré à la figure 45. Ces

Q

124

NANOMONDE

LES NANOMACHINES NATURELLES

molécules ont en effet la particularité d’avoir une partie « lipide », insoluble dans l’eau (hydrophobe), et une extrémité comportant un groupement acide phosphorique qui interagit avec l’eau (hydrophile). Elles s’assemblent spontanément sous la forme d’une bicouche au centre de laquelle les parties hydrophobes se resserrent (le milieu en dehors de la cellule et dans la cellule est avant tout composé d’eau). Cette double couche, complétée par d’autres molécules comme des protéines et des sucres, forme la membrane des cellules.

Figure 45 | Principe de l’assemblage des membranes cellulaires. Des lipides composés d’une partie hydrophobe (longues chaînes carbonées en gris foncé) et d’une tête hydrophile (en gris clair) s’assemblent spontanément en double couche d’une épaisseur de l’ordre de dix nanomètres. Cette couche est en réalité plus complexe. Elle est composée de lipides variés dont certains ont des noms familiers, comme le cholestérol qui rigidifie la membrane. Cette membrane est étanche pour de nombreuses espèces chimiques et elle isole ainsi l’intérieur de la cellule. Elle intègre des canaux d’entrée et de sortie qui sont fabriqués avec des protéines transmembranaires (non représentées sur la figure). Il est intéressant de noter que, même si cette structure est relativement solide, dans le plan elle se comporte comme un liquide, les différents lipides se déplaçant facilement les uns par rapport aux autres.

Q

Les glucides

Ils sont composés majoritairement de carbone, d’hydrogène et d’oxygène. Les plus petites molécules ont en général cinq ou six atomes de carbone et sont très solubles dans l’eau. On peut citer par exemple le ribose (C5H10O5), le glucose, le galactose ou le fructose (tous de formule C6H12O6, mais avec des atomes disposés différemment). Ces 125

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

petites molécules peuvent aussi être associées deux par deux et, par exemple, on obtient du saccharose (glucose-fructose) ou du lactose (galactose-glucose). Les glucides servent de source d’énergie pour la cellule. Les petites molécules s’associent également en longs polymères qui ne sont plus solubles, comme la cellulose pour les plantes ou la chitine pour les insectes ou les crustacés, polymères qui peuvent jouer un rôle d’élément de structure. Certains polymères du glucose peuvent aussi servir de réservoir d’énergie, comme l’amidon (chez les plantes) ou le glycogène (chez l’animal). Q

Les acides nucléiques

Le plus connu est l’ADN (acide désoxyribonucléique). Cette molécule est formée de deux brins enroulés en hélice, comme le câble des anciens téléphones à fil. Chacun est constitué d’un squelette formé d’une chaîne de molécules de désoxyribose (un glucide à cinq atomes de carbone en forme de pentagone) reliées entre elles par des ponts de phosphate (figure 46). En outre, chaque molécule de désoxyribose est reliée à ce que l’on appelle une base azotée. Il en existe quatre : la thymine (T), la cytosine (C), la guanine (G) et l’adénine (A). Ce squelette est solide car il tient avec des liaisons covalentes (les ponts phosphate). Une propriété remarquable de cette molécule est que les brins s’apparient pour former des doubles brins, que l’on peut visualiser comme des échelles. Chaque barreau de l’échelle est éloigné de ses voisins de 0,34 nm. Il est composé d’une paire de bases liées entre elles par des liaisons hydrogène. Cela n’est possible que si les barreaux sont composés des couples adénine-thymine ou guanine-cytosine. Ces deux couples sont en effet les seuls capables de s’arrimer solidement, car les bases correspondantes ont des formes complémentaires. On trouve face à face des atomes d’hydrogène (en déficit d’électron) et des atomes d’azote ou d’oxygène (avec un excédent d’électrons), ce qui permet d’établir des liaisons hydrogène, deux pour le couple adénine-thymine et trois pour le couple guanine-cytosine, qui est 126

NANOMONDE

LES NANOMACHINES NATURELLES

Figure 46 | Structure de la molécule d’ADN. En haut, principe de la structure en échelle. Au milieu, structure des quatre bases azotées. On a également visualisé les liaisons hydrogène responsables de l’appariement des bases. En bas, aspect de la molécule quand on prend en compte sa forme torsadée.

127

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

de ce fait le plus solide. L’ordre de grandeur de l’énergie associée à chacune de ces liaisons est respectivement de 3,5 × 10–20 J et 10–19 J. Le double brin est enroulé en hélice, à raison d’un tour tous les 3,4 nanomètres (c’est-à-dire qu’il y a dix barreaux par tour). Lorsque l’on chauffe le double brin au-dessus de 90 °C, l’agitation thermique rompt les liaisons hydrogène mais pas les liaisons covalentes qui maintiennent le squelette, et les deux brins sont séparés. À cette température, l’énergie thermique (kT/2) est de 5 × 10–21 J. À l’inverse, un refroidissement lent permet aux brins d’explorer toutes les configurations possibles et progressivement de se réassocier en double brin. Cet appariement de deux brins n’est possible que si ceux-ci sont complémentaires c’est-à-dire qu’en face d’une adénine (guanine) se trouve une thymine (cytosine) de telle sorte que le collage soit fort (même s’il peut y avoir quelques erreurs). Nous avons vu que ce phénomène est utilisé en laboratoire pour réaliser des auto-assemblages (voir encadré « Autoassemblage de l’ADN », chapitre 2). Les acides nucléiques sont avant tout connus pour être la mémoire de la cellule. L’ADN contient en effet, sous forme codée, la composition de protéines et de molécules d’ARN (par exemple celui qui compose le ribosome) de la cellule. De manière un peu simplifiée, une protéine est représentée par un gène, qui est une longue suite de paires de bases. Le génome humain contient environ 3 milliards de paires de bases sur une longueur de double brin d’un peu plus d’un mètre. Le sous-ensemble de ces paires de bases est réparti sur environ 23 000 gènes. La cellule étant capable d’interpréter les informations portées par les gènes de plusieurs manières, il y a plus de protéines possibles que de gènes. On estime ainsi que la cellule humaine peut fabriquer 100 000 protéines différentes. L’ADN joue son rôle de mémoire grâce à une importante machinerie : duplication, réparation (les espèces chimiques fabriquées par la cellule ou d’origine externe, le rayonnement ultraviolet ou cosmique cassent l’ADN d’une cellule 128

NANOMONDE

LES NANOMACHINES NATURELLES

humaine plus d’une fois par seconde, et il faut le recoller sans cesse), coupure, modifications. Ci-dessous, nous décrirons le système de lecture de cette mémoire. Il existe une deuxième forme d’acide nucléique, l’acide ribonucléique (ARN), qui est bâti sur le même principe que l’ADN avec quelques différences : le sucre est du ribose de formule légèrement différente de celle du désoxyribose ; la thymine est remplacée par une autre base, l’uracile, qui peut elle aussi se lier à l’adénine. Dans la nature (à part le cas de quelques virus qui contiennent des doubles brins), l’ARN se présente sous forme de brins simples. C’est une molécule à plusieurs facettes : – elle a des propriétés communes avec l’ADN et peut en particulier servir de support à de l’information génétique ; – elle se comporte aussi comme une protéine. Le brin simple d’ARN peut en effet prendre des formes complexes, car des morceaux complémentaires du même brin sont capables localement de s’apparier, ce qui peut forcer la molécule d’ARN à former des méandres. La molécule d’ARN acquiert ainsi une structure tridimensionnelle et ressemble à une protéine, ce qui peut lui conférer une activité de catalyseur. Cela fait que l’ARN joue différents rôles dans la cellule. Tout d’abord, il sert de copie transitoire à l’information génétique originale contenue dans l’ADN, lorsqu’il s’agit d’utiliser cette information (voir plus loin). Cette molécule est également fortement impliquée dans la synthèse des protéines. Une de ses variantes, l’ARN du ribosome, joue un rôle de machine moléculaire, comme le ferait une protéine.

129

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

HN 2

ARN de transfert

CH CO

OH

CH 2

C O NH 2

Acide aminé

ARN messager

Figure 47 | Des séquences de bases d’une molécule peuvent s’apparier à des séquences situées plus loin sur cette même molécule. Cela impose une forme bien précise de l’ensemble. Ci-dessus, schéma « à plat » d’un ARN de transfert qui sera évoqué plus loin. La boucle du bas peut s’apparier à une séquence de trois bases d’une molécule d’ARN messager (adénine, uracile, guanine, cytosine) et la partie supérieure accroche un acide aminé précis par une liaison covalente. En réalité, il est replié dans l’espace et prend grossièrement la forme d’un L.

CONSTRUIRE UNE CELLULE L’autoassemblage À notre échelle, il y a peu de chances que, si l’on met toutes les pièces d’un jeu de construction dans un sac et que l’on secoue, l’objet à assembler se forme spontanément. Dans le monde microscopique, tout change. Les pièces de base (des molécules) peuvent présenter des motifs autorisant un emboîtement, cet emboîtement étant assisté par des forces d’attraction. Et aussi, l’agitation thermique fait que chaque pièce « tente » des centaines de milliards d’emboîtements chaque seconde. Les molécules du vivant présentent des surfaces offrant une grande diversité de formes et de propriétés (zone polaire, zone avec charge électrique, parties non polaires…). Cela autorise des interactions très sélectives entre elles, en ce sens que seule une molécule B bien précise 130

NANOMONDE

LES NANOMACHINES NATURELLES

s’emboîte sur une molécule A avec une énergie d’interaction rendant cet assemblage stable. C’est ainsi que les systèmes du vivant se construisent et fonctionnent, grâce à des processus d’autoassemblage faisant appel à des interactions hautement sélectives. Des structures relativement complexes peuvent ainsi se fabriquer toutes seules à partir de leurs « pièces détachées ». – L’un des premiers exemples a été mis en évidence en 1955 par Heinz Fraenkel-Conrat et Robley Williams de l’université de Californie. Il s’agit de la capside du virus de la mosaïque du tabac, virus qui avait été purifié dans les années 1930. Il est composé d’un brin d’ARN de 6 390 bases, protégé par une capside en forme de bâtonnet (300 nanomètres de long et 18 nanomètres de diamètre). Cette « boîte » est formée de 2 130 molécules d’une même protéine (laquelle est composée de 158 acides aminés) emboîtées ensemble. Lorsque l’ARN et ces protéines sont mis en solution, ils s’assemblent spontanément en un virus. Cela n’est toutefois pas une propriété générique des virus. D’autres virus, plus complexes, ne s’assemblent en effet qu’avec l’aide de la machinerie moléculaire des cellules qu’ils infectent. – Un autre exemple historique, qui date du milieu des années 1960, est l’autoassemblage par Masayasu Nomura et ses collègues (université du Wisconsin), d’une sous-unité d’un ribosome de bactérie (le ribosome est « l’usine » qui, dans la cellule, fabrique des protéines). Il s’agit d’un complexe d’ARN de 1 540 bases et de 21 protéines, donc d’un objet assez compliqué. On montre ainsi que des ensembles relativement complexes peuvent s’assembler spontanément à partir de leurs constituants. Dans ces cas d’autoassemblage « simples », les composants s’assemblent spontanément pour former l’objet final. En d’autres termes, l’information sur la structure finale a été encodée dans les pièces de base. Toutefois, cela ne fonctionne pas si les objets à assembler sont trop complexes. Le processus doit alors être plus sophistiqué, avec un séquencement dans le temps des opérations et des règles du type « C 131

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

ne peut se lier à B que lorsque A est déjà fixé à B », des intermédiaires qui servent d’outillage, par exemple d’échafaudages qui ont un rôle stabilisateur. Ces mécanismes complexes ne peuvent exister que s’il y a déjà quelque chose capable de servir de support à des opérations complexes. Par exemple, si l’on met en solution toutes les molécules que contient une cellule, il n’y a aucune chance que ses milliards d’éléments se mettent spontanément à leur place. Une cellule ne naît que si elle part déjà d’une partie du cytoplasme d’une cellule mère. C’est par exemple ce qui est fait lors du clonage d’un animal. On insère l’ADN issu d’une cellule de l’animal à cloner dans un ovule, qui fournit l’environnement cellulaire nécessaire pour que les opérations d’assemblage qui mèneront à un embryon puissent se faire. La synthèse des protéines Les protéines, les molécules les plus abondantes de la cellule après l’eau, sont synthétisées suivant les « plans » contenus dans le génome. De manière simplifiée, les étapes sont les suivantes. Q

La transcription

Tout commence par la lecture du plan. L’extrémité de la partie de l’ADN correspondant à la protéine à fabriquer est « reconnue » puis accrochée par un gros complexe (de l’ordre de 100 000 atomes) composé d’une douzaine de protéines reliées entre elles par des liaisons faibles, l’ARN polymérase. Celui-ci recouvre l’ADN sur environ 80 paires de bases. Ce complexe de protéines n’agit pas seul, car il est accompagné par d’autres protéines que l’on appelle les facteurs de transcription, qui l’aident notamment à s’ancrer sur l’ADN au bon endroit. L’ARN polymérase écarte les deux brins de l’ADN sur une longueur de 15 paires de bases pour dégager l’accès à la « tête de lecture » et permettre la copie « en négatif » de l’un des deux brins, le brin « matrice ». « En négatif » veut dire que la copie est un brin ARN dont les bases sont les complémentaires du brin d’ADN matrice. Par exemple la séquence CAAGTA sur l’ADN est copiée en GUUCAU sur 132

NANOMONDE

LES NANOMACHINES NATURELLES

l’ARN. On appelle ce brin d’ARN un ARN messager, parce qu’il va convoyer cette information sur les plans de la protéine jusqu’au lieu de fabrication. Pour fabriquer l’ARN messager, l’ARN polymérase enfile des ensembles « ribose + base » à la vitesse de vingt éléments par seconde, à partir d’éléments présents dans l’environnement (blocs ribose + base + trois groupements phosphate). Ces éléments jouent un double rôle : matière première pour la construction de l’ARN et source d’énergie (du fait des trois groupes phosphate) pour que l’accrochage se fasse solidement (voir encadré « L’ATP »). Le taux d’erreur à la copie est de un pour cent mille.

Figure 48 | Principe de la transcription. Ce complexe de protéines (en grisé) ouvre le brin d’ADN et en tire une copie ARN en négatif. Les briques pour l’assemblage de l’ARN sont incorporées par l’ARN polymérase. L’énergie nécessaire à la fabrication de la liaison chimique qui allonge le brin d’ARN en cours de fabrication est tirée de trois groupements phosphate symbolisés par les points.

L’ARN polymérase se déplace le long de l’ADN et, en avançant, débobine le brin d’ARN messager fraîchement assemblé. Lorsque la « demande » est importante, plusieurs ARN polymérases se suivent de près sur la molécule d’ADN à copier et chacune débite son ARN messager. On peut préciser ce que l’on entend par « demande ». La cellule doit pouvoir exprimer telle ou telle protéine pour faire face à un événement extérieur (chaleur, arrivée d’une hormone, pénurie 133

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

d’aliments…). Il existe une série de mécanismes qui peuvent soit activer la transcription, soit l’inhiber, qui seront discutés en fin de chapitre. Dans une cellule humaine, il y a à tout instant quelques centaines de milliers de molécules d’ARN messager. Certains de ces ARN messagers sont très abondants, avec dix mille copies, d’autres beaucoup plus rares avec une dizaine de copies. Q

Opérations supplémentaires

Avant d’être utilisé, l’ARN messager subit quelques modifications, comme des ajouts de molécules en début et en bout de chaîne, notamment pour le protéger de mauvaises « rencontres » (il existe des molécules qui dégradent les séquences ARN non protégées). L’ARN messager subit aussi des modifications plus importantes, comme la coupure d’une partie de la séquence de bases qu’il véhiculait. En gros, il s’agit de nettoyer la simple copie de l’ADN, qui donne le plan des protéines plus des parties « inutiles » qui sont enlevées. Q

La traduction

L’ARN messager est ensuite traité par un ribosome. C’est un gros complexe moléculaire (20-30 nanomètres, quelques centaines de milliers d’atomes) composé d’ARN et de protéines. Comme l’ARN polymérase, l’ARN messager agit, assisté par d’autres molécules qui aident au lancement de l’opération, les facteurs de démarrage. Le ribosome joue le rôle d’une chaîne de montage : il « lit » la séquence des bases de l’ARN messager et l’interprète comme une liste d’acides aminés, qui constitue les plans de la protéine. Le code qui permet de passer de l’un à l’autre a été compris dans les années 1960, grâce en particulier aux travaux de Marshall Nirenberg et Philip Leder. Il apparaît que les bases de l’ARN se lisent par bloc de trois, que l’on appelle les codons. La combinaison des quatre bases (adénine, uracile, guanine, cytosine) par blocs de trois donne 4 × 4 × 4 = 64 codons possibles, plus qu’il n’en faut pour nommer chacun des vingt acides aminés qui composent les protéines. Certains codons jouent 134

NANOMONDE

LES NANOMACHINES NATURELLES

un rôle privilégié, comme le codon de l’acide aminé méthionine, qui donne le signal du démarrage de la traduction, et les codons stop (il y en a trois), qui indiquent son arrêt. Souvent, les protéines ont plusieurs codes possibles. On a représenté quelques exemples dans le tableau 2. Tableau 2 | Exemples de codages.

Acide aminé

Codon

Valine

guanine guanine guanine guanine

– – – –

uracile uracile uracile uracile

– – – –

uracile cytosine adénine guanine

Asparagine

guanine – adénine – uracile guanine – adénine – cytosine

Lysine

adénine – adénine – adénine adénine – adénine – guanine

Méthionine

adénine – uracile – guanine

« Stop »

uracile – adénine – adénine uracile – adénine – guanine uracile – guanine – adénine

Le ribosome avance le long de l’ARN messager, qui se comporte comme une bande contenant des instructions. Il lit les codons de l’ARN messager et assemble des acides aminés « inscrits » sur l’ARN. La vitesse d’assemblage d’une protéine est comprise entre cinq et vingt acides aminés par seconde, c’est-à-dire qu’une protéine moyenne est fabriquée en une minute. Le taux d’erreur est de l’ordre de un sur dix mille acides aminés. Comme la plupart des protéines sont plus courtes, beaucoup sont assemblées correctement. Comme c’était déjà le cas pour la transcription, plusieurs ribosomes peuvent se suivre de près, en lisant le même ARN messager, chacun fabriquant sa protéine. Dans une cellule humaine, il y a quelques millions de ribosomes. 135

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Le ribosome agit en complémentarité avec d’autres composants, que l’on peut considérer comme ses « mains » (à ceci près qu’ils ne sont pas reliés au ribosome par des bras) : les ARN de transfert. Il en faut au moins de vingt sortes, un par acide aminé, mais en pratique il y en a plus. Il s’agit de courts brins d’ARN qui se replient en forme de « L ». Une extrémité du L fixe un acide aminé précis par son bout « COOH » grâce à une liaison covalente (c’est une protéine spécifique qui se charge de l’amarrage de l’acide aminé sur l’ARN de transfert). L’autre extrémité contient la séquence complémentaire du codon associé à cet acide aminé. Lorsque le ribosome, dans sa « lecture » de l’ARN messager, en arrive à un certain codon, un ARN de transfert porteur de l’acide aminé correspondant à ce codon se colle dessus, par des liaisons hydrogène. Il présente ainsi « son » acide aminé. Le ribosome décroche l’acide aminé (il casse la liaison covalente qui le fixait à l’ARN de transfert) puis le fixe au brin de protéine déjà formé. L’ARN de transfert, débarrassé de son acide aminé, est éjecté. Et l’opération recommence avec le codon suivant. Il faut être conscient du caractère aléatoire de ce fonctionnement : lorsque le ribosome en arrive à un codon donné, il n’y a aucun mouvement « volontaire » des ARN de transfert correspondants (une machine construite par l’Homme saisirait la bonne pièce pour la positionner). Tous explorent l’espace au gré de chocs avec leurs voisines, et lorsque qu’un « bon » ARN passe, il se colle au codon. Si l’on prend le coefficient de diffusion de l’encadré « Diffusion brownienne » du chapitre 2, juste pour avoir un ordre de grandeur, on note qu’un ARN de transfert a très largement le temps d’explorer les alentours du ribosome en moins d’une milliseconde.

136

NANOMONDE

LES NANOMACHINES NATURELLES

Figure 49 | Principe du fonctionnement du ribosome. À gauche : les ARN de transfert chargés avec un acide aminé se fixent sur le ribosome quand ils correspondent au codon sur l’ARN messager. Le dernier arrivé (à droite) va alimenter la protéine en cours de fabrication car le ribosome va créer une liaison peptidique entre « son » acide aminé et le dernier de la chaîne en cours de formation (1). Il sera ensuite décalé sur la gauche (2) et un nouvel ARN de transfert sur le site de droite va accrocher à son tour la protéine. Il est ensuite éjecté à gauche hors du ribosome (3) sans son acide aminé. À droite : les ARN de transfert sont « chargés » par des enzymes qui les reconnaissent et fixent un acide aminé.

QUELQUES EXEMPLES DE « NANOMACHINES » DU VIVANT Nanomachines et nanomoteurs Le tour d’horizon rapide de la section précédente avait pour but de montrer la variété des constituants du vivant et de montrer les différences qui existent entre les méthodes de fabrication humaines pour fabriquer des nanoobjets et celles, infiniment plus complexes, mises en œuvre par le vivant. L’un des points importants est le fait que le vivant « fonctionne » grâce à des sortes de machines, très différentes de ce que nous connaissons. Le tableau 3 en donne quelques exemples.

137

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Tableau 3 | Exemples de « nanomachines naturelles ».

Nom

taille

Rôle

Protéasome

Masse de 4 × 10–21 kg Environ 4 ×105 atomes Taille 15 nm

Assemblage de protéines en forme de tonneau qui dégrade les protéines « périmées » dans la cellule. Il y en a environ un million par cellule.

Ribosome

Masse de 7 × 10–21 kg Environ 6 × 105 atomes Taille 25 nm

Complexe ARN et protéines qui réalisent la synthèse des protéines. Il y en a cinq à dix millions par cellule.

Complexe du pore nucléaire

Masse de 2 × 10–19 kg Environ 2 × 107 atomes Taille 150 nm

« Porte » qui régule les échanges entre le noyau de la cellule et le cytoplasme. Il y en a 1 000 par cellule.

Une classe particulière de nanomachines est celle des nanomoteurs. Ils sont composés de protéines qui peuvent induire des mouvements de rotation, de flexion ou de translation (en « rampant » le long d’un filament). Certains d’entre eux travaillent collectivement. C’est le cas des molécules de myosine, qui donnent aux muscles la force que nous connaissons. La plupart des moteurs tirent leur énergie de l’hydrolyse de l’ATP (voir encadré « L’ATP », ci-après). L’ATP synthase tire son énergie d’une différence de concentration d’ions de part et d’autre de la membrane sur laquelle elle est fixée. Il existe différents types de moteurs moléculaires. Pour citer les plus connus : – la myosine est une protéine qui se déforme et « rampe » le long d’un filament. Elle est à l’origine de la contraction des muscles. Ses propriétés ont été mises en évidence dans les années 1940 ; – la dynéine, identifiée dans les années 1960, peut aussi induire des mouvements de translation. Un agencement particulier composé d’un filament et de molécules de dynéine, fixé sur la paroi d’une 138

NANOMONDE

LES NANOMACHINES NATURELLES

cellule, peut faire osciller un flagelle ou des cils, ce qui propulse la cellule (tout en veillant à satisfaire les exigences du théorème de la coquille Saint-Jacques discuté au chapitre un) ; – la kinésine est le moteur qui permet le transport de protéines à l’intérieur d’une cellule. Comme la myosine, elle se déplace le long d’une fibre. Elle a été étudiée dans les années 1980 ; – l’ATP synthase est une molécule, fixée sur une membrane, qui tourne comme un moteur. Cette protéine, en tournant, fabrique des molécules d’ATP. Ces molécules ont une certaine parenté avec les molécules « moteurs » du chapitre précédent, mais elles sont plus complexes (des dizaines de milliers d’atomes) et utilisent des sources d’énergie plus compatibles avec le vivant (pas de laser, pas de réactif chimique agressif). Dans les sections suivantes, nous allons discuter deux exemples. Le cas des muscles Le muscle humain peut fournir une puissance de l’ordre de 100 watts par kilogramme, en gros dix fois moins qu’un moteur de TGV. Le muscle est composé de cellules géantes, qui sont des fibres ayant un diamètre de l’ordre de 50 microns (millionièmes de mètre). Elles contiennent elles-mêmes des centaines de myofibrilles formées de cylindres de 1 à 3 microns de long mis bout à bout. Ces cylindres, que l’on appelle des sarcomères, sont les véritables muscles. Ils sont composés de faisceaux de filaments moléculaires interpénétrés. Il y en a de deux sortes : – les filaments épais (diamètre 10 à 20 nanomètres) sont composés de quelques centaines d’exemplaires de molécules d’une protéine, la myosine. C’est une grosse protéine (environ 75 000 atomes) composée de deux chaînes enroulées ensemble, ce qui lui donne la forme d’un bâtonnet d’environ 130 nanomètres de long. Au bout de ce bâtonnet, deux « têtes » d’une quinzaine de nanomètres dépassent. Il y a donc quelques centaines de têtes par filament. 139

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Ce sont elles qui sont les vrais moteurs du muscle. Il y a environ 100 grammes de myosine par kilogramme de muscle, soit 2 × 1020 têtes ; – les filaments fins (diamètre 6 nanomètres) sont une paire torsadée de deux fils fabriqués avec une série de molécules d’actine, protéine en forme de boule, reliées entre elles comme un collier de perles. Ils contiennent d’autres protéines qui peuvent inhiber l’interaction entre l’actine et la myosine, ce mécanisme dépendant lui-même de la concentration locale en calcium. Une gigantesque protéine, composée d’environ 30 000 acides aminés, la connectine, tient la structure de l’ensemble. La myosine peut, dans certaines conditions, se déplacer le long des fibres d’actine, ce qui a pour effet de raccourcir le sarcomère. La mise en parallèle de l’action de tous les sarcomères fait que le muscle se contracte. Le moteur moléculaire est donc en fait le couple actinemyosine.

Figure 50 | En haut, molécule de myosine avec ses deux têtes. En bas, principe du sarcomère : les filaments épais (myosine) peuvent coulisser le long des filaments d’actine.

140

NANOMONDE

LES NANOMACHINES NATURELLES

Il est intéressant de détailler le fonctionnement du tandem actinemyosine tel qu’il fut élucidé dans les années 1950 par deux équipes de chercheurs britanniques. Tout vient du fait que les têtes de la myosine sont à proximité de filaments d’actine et peuvent se déplacer en « tirant dessus ». La manière dont cette traction est produite est désormais bien comprise. L’énergie est fournie par une molécule d’ATP. Tout le secret du « mécanisme » vient des interactions très particulières qui existent entre l’ATP et la tête de la myosine, la dernière « avalant » la première avant d’en recracher les morceaux. Le processus se déroule en quatre étapes illustrées à la figure 51. 1. Au départ, il n’y a pas d’ATP dans la myosine. Dans cet état, la molécule de myosine a une surface telle qu’elle a une très forte affinité pour l’actine et est donc bien collée. 2. Survient alors une molécule d’ATP, qui se fixe dans la tête de la myosine. Cela entraîne des modifications de la conformation de celle-ci et en particulier de la surface, qui devient beaucoup moins collante pour l’actine. La tête se décolle. 3. À l’étape suivante, l’ATP réagit avec une molécule d’eau et se dissocie en une molécule d’ADP et un groupe phosphate, qui restent piégés dans la cavité de la tête. Cette réaction produit de l’énergie car l’ADP et le phosphate tendent à se repousser. Cette « pression » dans la tête a un fort effet sur la myosine, qui se déforme et se « tend ». En même temps, la décomposition de l’ATP a restauré une partie de l’affinité de la myosine pour l’actine, d’où un nouveau collage, mais un peu plus loin qu’à l’origine puisque la tête s’est « tendue ». 4. Le collage modifie la cavité qui contient l’ADP et le phosphate. Ce dernier est libéré, ce qui supprime la « pression » interne. La myosine se colle dès lors plus fortement à l’actine mais surtout la tête de la molécule de myosine n’est plus « tendue ». Le choc des molécules d’eau environnantes ne tarde pas à lui faire prendre une position plus naturelle (bref moins « tendue »), et la myosine tire donc sur la 141

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

fibre sur une distance de l’ordre de quelques nanomètres avec une force de l’ordre de 5 × 10–12 N. C’est le même principe que celui de l’élastique, qui revient vers sa position la plus probable après avoir été tendu. Le travail mécanique fourni est donc de l’ordre de 10–20 J. L’ADP est libéré et on revient à la première étape du cycle. Celui-ci a duré environ 50 millièmes de seconde. Pour une tête, le temps de latence entre deux tractions est de l’ordre de 100 ms, c’est-à-dire qu’une molécule de myosine est un petit moteur d’une puissance de l’ordre de 10–19 watt.

Figure 51 | Principales étapes de la traction de la myosine sur le filament d’actine. 1 | Le site « ATP » de la tête de la myosine est vide. Actine et myosine sont collées. 2 | La molécule absorbe de l’ATP. Actine et myosine se décollent. 3 | La transformation d’ATP en ADP modifie la conformation de la molécule. La myosine se « tend » et se recolle à l’actine. 4 | Après libération d’un phosphate, la tête revient à sa configuration initiale en tirant sur la fibre.

On peut estimer à quelques dizaines de milliards le nombre de filaments de myosine, donc 1013 têtes par centimètre carré de muscle (pas toutes en train de tirer). On trouve bien l’ordre de grandeur de la force d’un muscle. En pratique, toutes les têtes « collaborent » en tirant dans le même sens. Cette collaboration donne l’impression 142

NANOMONDE

LES NANOMACHINES NATURELLES

d’un mouvement parfaitement déterministe à l’individu qui déplace un bras mais, au niveau de chaque tête, le processus de décollage, déplacement, recollage, traction est lié à l’agitation thermique, donc se fait au hasard. Il faut imaginer une vaste foule qui se déplace l’air volontaire lorsqu’on la regarde de loin, mais de façon plus désordonnée si on fait un gros plan sur quelques individus. L’ATP La nature utilise pour de nombreux processus un carburant « universel », l’adénosine triphosphate (ATP). Ce rôle de l’ATP a été découvert dans les années 1940 par Fritz Lipmann. Cette molécule est composée d’adénine (l’une des bases de l’ADN), de ribose (le sucre présent dans l’ADN) et de trois ions phosphate. Nous avons déjà rencontré des molécules de ce type, parce qu’elles interviennent dans le processus de transcription. En réagissant avec de l’eau, l’ATP peut se dissocier en ADP et en un ion phosphate, en libérant une énergie de 5 × 10–20 J. Pourquoi la nature a-t-elle sélectionné une telle molécule plutôt qu’une molécule plus « classique », par exemple l’éthanol, dont la combustion d’une molécule libère 42 fois plus d’énergie par molécule ? On peut y voir deux raisons : • tout d’abord parce qu’un dégagement d’énergie trop important détruirait les molécules concernées. Le niveau d’énergie libéré par la dissociation de l’ATP correspond à juste ce qu’il faut. Il est dix fois supérieur à l’énergie d’agitation des molécules mais reste inférieur à leur énergie de cohésion ; • une autre raison tout aussi importante est que l’ATP a des « poignées ». Cette molécule a en effet une conformation telle qu’elle peut s’adapter aux cavités d’une autre molécule et libérer son énergie en étant placée dans le lieu optimal et ainsi « pousser » dans la bonne direction. Il ne faut donc pas considérer l’ATP comme un carburant qui produit de la chaleur. Quand l’ATP se dissocie, cela se traduit plus par une force que par un mouvement désordonné. Il s’agit plutôt d’énergie

143

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

« mécanique » qui est utilisée pour faire avancer des moteurs naturels mais aussi pour assister des réactions chimiques, nombreuses, qui ont besoin d’un « coup de pouce » énergétique pour se produire.

Figure 52 | Vue d’une molécule d’ATP.

L’ATP est le carburant de base pour la plupart des événements qui se produisent dans une cellule. La consommation d’ATP varie beaucoup d’une cellule à l’autre (les muscles en consomment beaucoup). En ordre de grandeur, dans une cellule, on compte environ un milliard de molécules d’ATP, qui sont consommées et régénérées (on verra comment plus bas) au rythme de dix millions par seconde, ce qui correspond à une puissance de 5 × 10–13 watt. Si on multiplie la consommation d’ATP par cellule par le nombre de cellules dans le corps, on arrive à la conclusion que, tous les jours, l’ensemble des cellules du corps régénère des dizaines de kilogrammes d’ATP.

L’ATP synthase Chaque cellule contient, suivant ses besoins en énergie, de quelques centaines à quelques milliers de mitochondries. Ce sont de petites sous-unités d’une taille de l’ordre du micron, qui produisent l’ATP nécessaire à la cellule à partir de glucose et d’oxygène. La fabrication finale de l’ATP est réalisée dans un complexe de protéines (près de 100 000 atomes) en forme de champignon, l’ATP synthase. Le pied du champignon est solidement ancré dans 144

NANOMONDE

LES NANOMACHINES NATURELLES

une paroi, et la tête est une sorte de sphère de dix nanomètres de diamètre. Une partie légèrement asymétrique est logée selon l’axe du champignon et elle peut tourner comme le rotor d’un moteur. Dans une mitochondrie, il y a quelques milliers de tels champignons. C’est l’ATP synthase qui régénère l’ATP consommé par la cellule en « recollant » les ions phosphate à l’ADP. Cette opération demande de l’énergie, puisque c’est la réaction inverse de la dissociation de l’ATP qui en fournit. L’ATP synthase a été observée pour la première fois dans les années 1960 par l’Américain Humberto Fernandez-Moran. Le processus de synthèse de l’ATP a été proposé à la fin des années 1970 par Paul Boyer, de l’université de Californie et a été confirmé en 1994 quand le Britannique John Walker élucida sa structure (Boyer et Walker obtinrent pour ces découvertes le prix Nobel de chimie en 1997). La partie haute du champignon contient trois poches pouvant attirer des molécules d’ADP et des ions phosphate, puis les recoller. Quand le rotor central tourne, les poches subissent une série de déformations qui font que l’ADP et le phosphate sont, de manière simplifié, « pressés » l’un contre l’autre, puis détachés du site qui les maintenait fixés. Il ne faut pas oublier que ce recollage n’est pas spontané et consomme de l’énergie. Lorsque le rotor a fait un tour, la poche s’ouvre et l’ATP tout neuf est éjecté. Comme il y a trois poches, trois molécules d’ATP sont régénérées à chaque tour. Puis le cycle recommence, de telle sorte qu’une centaine de molécules d’ATP par seconde sont produites (avec 100 000 ATP synthase on en produit donc 10 millions par seconde, comme évoqué dans l’encadré « L’ATP »). Une question subsiste alors : qu’est-ce qui fait tourner le rotor ? Le mécanisme avait été proposé par le Britannique Peter Mitchell en 1961, avant que le fonctionnement de l’ATP synthase ne fût connu. Il s’agit d’une chaîne d’événements : – le processus de dégradation du glucose dans le corps de la cellule produit des molécules riches en énergie ; 145

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

– celles-ci interagissent avec la paroi de la mitochondrie. Un processus complexe, qui consomme de l’oxygène, extrait cette énergie, qui se retrouve stockée dans la mitochondrie sous la forme d’un excédent de protons. Une image pas trop fausse consiste à assimiler ces protons à un gaz sous pression qui gonfle l’espace intermembranaire de la mitochondrie ; – c’est cet excédent de protons qui, en s’échappant à travers le pied de l’ATP synthase, fait tourner le rotor. Cela évoque une turbine, le gaz chaud étant remplacé par des protons « sous pression ». On transforme de l’ordre (protons rangés dans la mitochondrie) en travail. On a montré que, pour produire une molécule d’ATP, il faut que 3,3 protons soient relâchés. Cela nous mène à un chiffre intéressant. Pour produire 10 kg d’ATP en une journée (une fraction de ce que nous produisons), soit 1,2 × 1025 molécules, il faut transférer 4 × 1025 protons à travers les molécules d’ATP synthase, ce qui correspond à un courant électrique d’environ 70 ampères pour l’ensemble du corps. Ce mouvement de rotation a été mis en évidence expérimentalement en 1997 par Masasuke Yoshida et ses collaborateurs. Ils ont réussi à greffer un long filament d’actine rendue fluorescente (donc facile à visualiser au microscope) sur le rotor et ont effectivement observé le petit filament tourner. Une propriété remarquable est que l’ATP synthase fonctionne dans les deux sens. On pourrait comparer à une machine électrique qui fait moteur et dynamo. Si on la place dans un milieu riche en ATP, la tête du champignon décompose l’ATP en ADP et phosphate et, ce faisant, crée une « surpression ». Cette surpression déforme la cavité, ce qui fait tourner le rotor. Le pied peut alors « gonfler » en protons l’intérieur de la cavité en dessous. C’est d’ailleurs cette activité « à l’envers » que l’on avait d’abord observée. En effet, dans les premières expériences, on ne travaillait que sur les têtes (les champignons étaient cueillis trop maladroitement) et ces têtes tournaient spontanément en détruisant l’ATP disponible dans le milieu. 146

NANOMONDE

LES NANOMACHINES NATURELLES

Figure 53 | Schéma de principe de la molécule d’ATP synthase. La tête qui effectue la transformation ADP-ATP est composée des protéines α et β. Le pied est quant à lui composé des protéines C. L’ensemble noté « a » sert à maintenir la tête immobile par rapport au pied. C’est le rotor (« axe vertical ») qui tourne. Le « pied » de cette molécule est placé dans l’espace intermembranaire, sorte de double paroi qui entoure la mitochondrie. Cet espace est enrichi en protons par la respiration de la cellule, qui consomme de l’oxygène. Cette « surpression » de protons fait tourner le rotor qui, dans son mouvement, modifie la conformation des protéines β. Ces protéines β piègent dans leur cavité des molécules d’ADP et des groupements phosphate qui sont convertis en ATP. En bas, représentation de la mitochondrie et de l’implantation des ATP synthase qui sont représentées par les gros points noirs. Les petits points dans la double paroi symbolisent l’excès de protons.

147

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

L’HYBRIDATION DES MACHINES MOLÉCULAIRES Les « machines moléculaires » que nous avons décrites fonctionnent également en dehors de la cellule, dans la mesure où on les place dans un environnement qui leur convient. On arrive à les extraire par des méthodes classiques en biologie, puis à les fixer sur des nanostructures fabriquées par les méthodes décrites au chapitre 3. Cette fixation peut se faire parce que le complexe de protéines extrait a une affinité chimique pour la nanostructure, ou parce que l’on a fixé sur la nanostructure une molécule qui est collante pour l’objet que l’on veut fixer. On peut citer deux exemples particulièrement emblématiques. Le premier exemple est le couple actine-myosine, celui qui fait fonctionner les muscles. On sait déposer de la myosine sur une surface, voire sur une portion de surface que l’on a définie par une opération de lithographie. On peut se représenter la surface comme hérissée de têtes telles que celles représentées à la figure 50. L’ensemble est placé dans une solution contenant de l’ATP. On dépose ensuite des filaments d’actine sur la surface recouverte de têtes de myosine, en reproduisant la configuration de la figure 51, sauf que les têtes sont en bas, fixées sur la surface. Les têtes « tirent » alors sur le filament qui est juste posé dessus. On voit les filaments d’actine se déplacer spontanément sur la surface. C’est ainsi qu’en 1995, Toshio Yanagida et Akihiko Ishijima ont pu mesurer la force avec laquelle une tête « tire » sur un filament d’actine, quelque 10–12 newton. Le deuxième exemple est l’ATP synthase. Nous avons vu que, dès 1997, une équipe japonaise avait greffé à ce complexe de protéines une « hélice » d’actine fluorescente pour mettre en évidence le mouvement de rotation. Carlo Montemagno et ses collaborateurs de l’université Cornell sont allés plus loin en 2000, en réalisant un véritable petit moteur d’une dizaine de nanomètres de diamètre en utilisant « la tête du champignon ». Ils ont tout d’abord modifié les « plans » de la machine moléculaire, en agissant sur le génome de la cellule qui la fabrique (une bactérie). Le but était d’ajouter des acides aminés

148

NANOMONDE

LES NANOMACHINES NATURELLES

destinés à relier ce moteur au monde extérieur, des pattes de fixation en quelque sorte : une cystéine (protéine contenant un groupement soufré qui se fixe aux métaux) au rotor et trois pieds en histidine (une autre protéine) aux sous-unités β (voir figure 53). Cela a permis de fixer par autoassemblage : • une petite barre en nickel au rotor ; cette barre a un diamètre de 150 nanomètres et une longueur de l’ordre du micron, et est donc observable au microscope ; • les sous-unités β (donc la base de la tête), aux sommets de poteaux de 200 nanomètres de haut. Le but est de bien isoler le barreau de la surface pour que les forces de van der Waals ne perturbent pas trop le mouvement. Un pour cent environ de ces moteurs ont effectivement tourné (pour les autres, l’assemblage s’est mal fait). Les moteurs, immergés dans une solution riche en ATP, tournaient à huit tours par seconde. C’est beaucoup moins rapide que l’ATP synthase seule, mais cet énorme barreau en nickel freinait le mouvement. On estime que, pour contrebalancer le freinage dans la solution, l’ATP synthase exerce un couple de 2 × 10–20 N/m. On peut en déduire la puissance de ce moteur, 10–18 W (joule par seconde). La consommation est de 24 molécules d’ATP par seconde (trois par tour), ce qui correspond à un rendement de 80 % de toute l’énergie contenue dans l’ATP consommé (24 fois 0,5 × 10–19 J/s, soit 1,2 × 10–18 W). Ce rendement est bien meilleur que celui des moteurs thermiques usuels. Ce moteur, qui a été réalisé quarante ans après le pari de Feynman, tient dans un cube de dix nanomètres de côté, soit quarante mille fois plus petit que celui du pari (voir encadré « Le défi de Feynman » au chapitre 3). De tels dispositifs, hybridant des microsystèmes artificiels et des « moteurs » naturels sont envisagés pour réaliser des microlaboratoires d’analyse dans lesquels les molécules à analyser pourraient être transportées d’une partie du microsystème à une autre.

149

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

POISONS ET NANOSYSTÈMES Beaucoup des processus décrits dans ce chapitre ont un point commun. Ils sont régis par des molécules complexes de quelques centaines de milliers d’atomes (ribosome, ARN polymérase, complexes de protéines), qui peuvent être affectées par des molécules « grains de sable », plus petites. Souvent celles-ci se collent en un endroit bien précis de la grosse molécule (un enchaînement d’acides aminés, une séquence de bases) et l’empêchent de fonctionner. Ces molécules « bloquantes » peuvent être spécifiques d’une espèce. En effet, beaucoup des processus que nous avons décrits (synthèse de protéines, mouvements) sont très répandus dans la nature, voire universels, mais il existe des différences entre les espèces en ce qui concerne les grosses molécules associées qui peuvent être vulnérables ou non. Ces molécules bloquantes peuvent être artificielles, mais il en existe beaucoup qui sont naturelles. Elles peuvent par exemple être fabriquées par un organisme pour éliminer les gêneurs. C’est le cas de diverses toxines et des antibiotiques. Suivant le cas (et parfois la dose), de telles molécules peut être utilisées comme ingrédients de biocides, de médicaments ou de poisons. Citons ici quelques exemples. Des molécules qui ciblent le fonctionnement du ribosome. La tétracycline, molécule composée de 56 atomes, a été découverte dans les années 1940. C’est un antibiotique qui est naturellement produit par des bactéries du genre Streptomyces (des bactéries filamenteuses que l’on trouve dans les sols). La tétracycline se fixe sur les ribosomes de nombreuses bactéries et inhibe l’arrimage des ARN de transfert chargés en acides aminés sur le ribosome (voir figure 49). D’autres composés sont moins sympathiques, comme la ricine, molécule formée de 43 atomes qui est issue d’un arbrisseau, le ricin commun (à ne pas confondre avec l’huile de ricin). La ricine s’attaque au ribosome humain. C’est un poison très violent, mortel à des doses de l’ordre du milligramme. C’est le poison qui a été utilisé dans le tristement célèbre « parapluie bulgare ».

150

NANOMONDE

LES NANOMACHINES NATURELLES

Des molécules qui ciblent l’ARN polymérase. La rifamycine (97 atomes) a été isolée en 1957, à partir d’une bactérie trouvée près de la ville de Saint-Raphael en France. Elle s’attache à l’ARN polymérase de certaines bactéries, ce qui bloque la fabrication des ARN messagers, donc de nouvelles protéines. Cette molécule est utilisée comme antibiotique. Moins populaires, les amatoxines, contenues dans les champignons comme l’amanite phalloïde, bloquent l’ARN polymérase humain. La dose létale est de quelques milligrammes chez l’adulte. Des molécules qui bloquent la synthèse de l’ATP. Le dinitrophénol est une molécule artificielle qui a été utilisée pour produire des explosifs durant la première guerre mondiale. En 1933, Maurice Tainter, de l’université Stanford, découvre l’effet amaigrissant de cette molécule sur l’Homme. Elle présente en effet la particularité de rendre les membranes des mitochondries poreuses, de telle sorte que la zone qui contient la « surpression » de protons destinés à actionner l’ATP synthase se « dégonfle ». En d’autres termes, la mitochondrie continue à brûler de l’énergie en remplissant en protons une zone qui fuit, mais ne peut fabriquer efficacement de l’ATP. On peut la comparer à une locomotive à vapeur trouée de toutes parts, dans laquelle il faudrait brûler beaucoup de charbon pour continuer à avancer un peu. Une conséquence est que cette substance provoque une perte de poids et, dans les années 1930, elle a été utilisée comme amaigrissant. Elle provoque aussi un échauffement du corps (puisqu’on brûle en vain de l’énergie pour produire de l’ATP) et elle aurait été utilisée pendant la seconde guerre mondiale par l’armée russe pour réchauffer les soldats « de l’intérieur ». Rapidement, on s’est rendu compte que cette molécule était dangereuse à cause de cet échauffement mais aussi d’autres symptômes qui pouvaient entraîner la mort. L’usage comme amaigrissant a été interdit à la fin des années 1930.

151

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

LA BIOLOGIE DE SYNTHÈSE Origines Nous venons d’évoquer quelques-unes des innombrables machines moléculaires que le vivant a spontanément mises en œuvre. Une autre approche consiste à considérer comme des machines, non plus des grosses molécules comme des protéines, mais la cellule elle-même. L’idée que l’Homme pourrait façonner, voire construire, des organismes vivants est ancienne. Si l’on voulait faire le parallèle avec Richard Feynman et son discours fondateur sur les nanotechnologies, un bon candidat est le physiologiste Jacques Loeb qui, dans un courrier envoyé en 1890 au physicien Ernst Mach, déclarait après avoir évoqué ses propres travaux « l’idée me vient que l’homme pourrait agir comme créateur y compris dans le domaine du vivant en le façonnant à volonté37 ». Peu de temps après, le biologiste Stéphane Leduc émettait l’idée, dans son ouvrage La biologie synthétique paru en 1912, que l’observation était insuffisante pour faire progresser la biologie et qu’il fallait « faire soimême » pour comprendre : « Non seulement la méthode synthétique est applicable à la biologie comme aux autres sciences, mais elle semble devoir être la plus féconde, la plus apte à nous révéler les mécanismes physiques des phénomènes de la vie dont l’étude n’est même pas ébauchée. » Le concept de la biologie de synthèse est revenu sur le devant de la scène sous une forme modernisée, il y a une dizaine d’années, avec le premier congrès international de biologie de synthèse, organisé à l’Institut de Technologie du Massachusetts, le MIT, en juin 2004. Ce congrès visait à rassembler les chercheurs qui conçoivent et fabriquent des « pièces biologiques » et des systèmes. Il s’agit toujours de « fabriquer » mais, on met en avant une vision d’ingénieur38. 37. Controlling Life: Jacques Loeb & the Engineering Ideal in Biology par Philip J. Pauly, Oxford Unity Press, 1987, p. 51. 38. Voir par exemple La biologie de synthèse, plus forte que la nature ? de François Kepes, publié aux éditions Le Pommier en 2011. Voir également le rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques publié en 2012 sous le titre « Les enjeux de la biologie de synthèse » (consulté en 2016 sur http://www. assemblee-nationale.fr/13/rap-off/i4354.asp)

152

NANOMONDE

LES NANOMACHINES NATURELLES

C’est-à-dire qu’on se met dans une situation où l’on comprend suffisamment le vivant pour le modéliser, pour définir une procédure de fabrication, quitte à procéder par essais-erreurs. Drew Endy, l’un des promoteurs de cette approche, publie en 2005, dans la revue Nature, un certain nombre de caractéristiques de cette approche d’ingénieur : la standardisation des pièces, la possibilité de découpler le problème en sous-problèmes indépendants qu’on sait résoudre, l’abstraction, c’est-à-dire la possibilité de décrire des sous-systèmes en termes généraux de telle sorte qu’on puisse les assembler sans avoir à chaque fois à repartir au niveau de base (par exemple on utilise une vis sans se soucier de la résistance du métal qui la compose ou de la forme de son filetage. Le concept de « vis » est associé à un certain nombre de propriétés supposées acquises). Le terme « biologie de synthèse » a été appliqué à des activités très variées. Nous allons en évoquer deux, en lien direct avec cette approche « cellule = machine », la production de substances chimiques. Des usines à produire des molécules Des processus chimiques au sein des microorganismes, des plantes ou des animaux produisent de nombreuses petites molécules qui varient d’une espèce à l’autre. Certains de ces processus ont été exploités industriellement pour faire des médicaments, des bio-carburants, des colorants, de l’alcool, etc., avant que la chimie de synthèse ne prenne parfois le relais. Considérons le cas des microorganismes. Leur utilisation, au début inconsciente, est une pratique millénaire. C’est dans les années 1850 que se produit une rupture, avec les travaux de Pasteur, quand on comprend leur rôle dans les transformations chimiques. Puis les procédés de fermentation se développent industriellement. Pour la petite histoire, on a parlé un moment de zymotechnologies pour décrire ces nouvelles techniques à cheval entre la microbiologie et 153

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

la chimie39. Un épisode emblématique, qui remonte à 1916, est la production d’acétone, utilisée pour la fabrication d’explosifs. Il s’agit alors pour les Britanniques de sécuriser leur approvisionnement (elle était importée d’Allemagne avant la guerre). Chaim Weizman, qui deviendra en 1948 le premier Président d’Israël, met au point un procédé de fermentation qui permet d’en produire de grandes quantités à partir d’amidon de maïs. Autre épisode historique, la production en masse d’antibiotiques à partir de cultures de Penicillium chrysogenum, qui a été développée aux États-Unis dans les années 1940. Dans les années 1970, on passe à la vitesse supérieure. Il ne s’agit plus de trouver la bonne bactérie, mais d’y insérer des fragments d’ADN pour l’amener à produire la substance désirée. Ainsi, en 1978, un gène codant l’insuline humaine est introduit dans une bactérie Escherichia coli et la production commerciale démarre en 1982. D’autres médicaments suivent, comme l’interleukine-2. La biologie de synthèse peut se définir comme une évolution de ces pratiques (pour certains dans la continuité, pour d’autres en rupture), qui a consisté à modifier plus en profondeur un microorganisme. Il s’agit de l’amener à réaliser en son sein une série de réactions chimiques aboutissant au composé désiré. C’est le cas du procédé de fabrication de l’hydrocortisone, découvert en 2003 dans le cadre d’une collaboration entre le CNRS et une entreprise40. C’est la levure du boulanger, Saccharomyces cerevisiae, qui a été utilisée. Il a fallu manipuler 13 gènes, dont une partie a été importée d’autres espèces (mammifères et végétaux). Un autre exemple, très récent, porte sur les opioïdes. Ce sont des molécules extraites du pavot (100 000 ha sont nécessaires pour satisfaire le marché mondial) utilisées comme médicaments contre la douleur, avec une demande mondiale de l’ordre de 800 tonnes. En 2015, l’équipe de Christina Smolke, de l’université Stanford, a modifié de la levure

39. Voir The uses of life. A history of biotechnology, par Robert Bud, Cambridge University Press, 1993. 40. http://www2.cnrs.fr/presse/communique/67.htm?debut=2368

154

NANOMONDE

LES NANOMACHINES NATURELLES

en y introduisant une vingtaine de gènes issus de plantes, notamment du pavot, du rat, et d’une bactérie. La levure a pu alors produire de l’hydrocodone et de la thébaïne à partir de sucre. Ces travaux récents pourraient un jour déboucher sur des applications industrielles. Il est à noter que Christina Smolke évoque dans sa publication les nouvelles questions que posent ces avancées, à savoir le risque qu’il devienne un jour très facile de produire des substances illicites. Il faut noter que, pour toutes ces réalisations, on reste relativement loin de l’idéal de l’ingénieur qui assemble rapidement des pièces. Les procédés décrits ci-dessus ont souvent demandé des années de mise au point. Un autre domaine d’intérêt majeur est la chimie biosourcée. Il s’agit de limiter l’usage qui est fait de ressources en carbone fossile pour produire de l’énergie ou comme matière première pour la chimie. Pour fixer les idées, selon un rapport du pôle interministériel de prospective et d’anticipation des mutations économiques41, dans le monde, en 2007, la chimie consommait 850 millions de tonnes de carbone, une moitié comme source d’énergie pour l’industrie chimique, l’autre moitié comme matière première. Sur ce dernier poste, environ 30 millions de tonnes étaient issues de la biomasse. La chimie biosourcée vise à utiliser des substances végétales plutôt que le pétrole comme matière première (donc indirectement l’énergie solaire) et à développer des procédés consommant moins d’énergie. De même, on l’associe souvent à des produits moins toxiques ou qui se recyclent dans l’environnement. Diverses firmes se sont engagées dans cette voie, utilisant des microorganismes pour transformer la biomasse en molécules ou en matériaux utiles, voire des plantes pour produire directement certains composés.

41. « Mutations économiques dans le domaine de la chimie » publié en février 2010. Consulté en 2016 sur http://archives.entreprises.gouv.fr/2012/www.industrie. gouv.fr/p3e/etudes/chimie/chimie_abrege.pdf

155

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

UN EXEMPLE EMBLÉMATIQUE : L’ARTÉMISININE L’exemple le plus cité pour illustrer ce qu’est la biologie de synthèse est l’artémisinine. Cette molécule permet de traiter le paludisme, maladie qui, selon l’OMS, a atteint 214 millions de personnes en 2015, et a causé 438 000 décès. Cette molécule est présente dans l’armoise annuelle, une plante qui en contient environ 1 % de son poids sec. Ses propriétés ont été découvertes en 1972 par Youyou Tu, une chercheuse chinoise, après que celle-ci, à la recherche d’un remède contre le paludisme, eut épluché des vieux traités de médecine traditionnelle chinoise. Youyou Tu a obtenu le prix Nobel de médecine en 2015 pour sa découverte. L’artémisinine est devenue particulièrement intéressante quand le parasite à l’origine du paludisme est devenu résistant aux autres traitements. Depuis 2005, des traitements contre le paludisme contenant cette substance en combinaison avec d’autres sont recommandés par l’Organisation mondiale de la santé. La demande actuelle correspond à un besoin dont l’ordre de grandeur est estimé entre 150 et 200 tonnes. L’artémisinine est produite à partir de cultures d’armoise annuelle et son prix fluctue en fonction des récoltes et de la demande (entre 200 et 800 dollars le kilogramme). En 2006, Jay Keasling et son équipe de l’université de Californie modifient des levures ou des bactéries en y introduisant une douzaine de gènes issus de bactéries, de levure et de plantes. Les microorganismes deviennent alors capables de synthétiser un précurseur de l’artémisinine. Le procédé est ensuite amélioré pendant de longues années, ce qui débouche en 2013 sur la réalisation d’un prototype industriel, visant des volumes de production de l’ordre de 50-60 tonnes par an. Le procédé est rentable pour un prix de l’artémisinine de l’ordre de 400 dollars par kilogramme. Selon le journaliste scientifique Mark Peplow, la production aurait été stoppée en 2015, les prix étant restés trop bas42. 42

42. Mark Peplow. « La première drogue contre la malaria issue de la biologie synthétique se heurte à la résistance du marché. » http://www.nature.com/news/syntheticbiology-s-first-malaria-drug-meets-market-resistance-1.19426

156

NANOMONDE

LES NANOMACHINES NATURELLES

C’est un cas d’école pour des acteurs de visions variées. Pour certains, c’est un exemple d’apport de la science à la santé dans le monde, pour sécuriser la production d’un médicament majeur. D’autres mettent en avant le risque de déstabilisation pour les fermiers qui vivent de la production d’armoise, ou le risque de captage de la production par un petit nombre d’acteurs.

Des systèmes pour traiter l’information Beaucoup font le rapprochement entre l’informatique et la biologie, et ceci depuis les années 1950. En effet, une cellule traite l’information contenue dans son ADN, un peu à la manière des machines de Turing, qui sont des modèles théoriques d’ordinateurs imaginés dans les années 1930 par le mathématicien du même nom. On a ainsi découvert, au début des années 1960, des « circuits logiques génétiques », qui mettent en jeu le couplage entre des protéines et des gènes, ce qui permet à la cellule de réguler son fonctionnement en agissant sur la manière dont son « programme » contenu dans l’ADN est lu. La découverte de ce phénomène a valu à François Jacob, Jacques Monod et André Lwoff le prix Nobel de physiologie ou médecine de 1965. L’un des « circuits » les mieux connus est l’opéron lactose, qui permet à une bactérie de « choisir », en fonction du milieu dans laquelle elle est, si elle va se nourrir au glucose ou au lactose (voir figure 54). De manière générale, on peut décrire les opérations ainsi. Une protéine A peut jouer le rôle de répresseur pour la synthèse d’une protéine B en bloquant la transcription de l’ADN qui la code. Donc la présence de A empêche la fabrication de nouvelles protéines B. Au contraire, A peut jouer le rôle d’activateur en favorisant l’expression de B. Dans ce cas, plus A est présent, plus la concentration en protéines B augmente. Il y a des variantes permettant de réaliser des opérations logiques plus complexes : par exemple si un activateur A n’agit qu’associé à une autre protéine A’ ; 157

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

donc B ne sera exprimée que si A et A’ sont présentes, etc. Ensuite, il peut y avoir des chainages, si B modifie à son tour l’expression d’une protéine C, etc. Il faut noter que ces processus sont lents et que, contrairement au cas des circuits électroniques, les temps d’évolution des circuits se mesurent en heures (donc se prolongent sur plusieurs générations de microorganismes).

Figure 54 | Schéma de principe de l’opéron lactose. Un certain nombre de protéines permettant de métaboliser le lactose sont encodées dans l’ADN, qui est représenté sur cette figure comme une suite de séquences avec des fonctions différentes. Pour que l’ADN soit transcrit, l’ARN polymérase qui, pour démarrer son « travail », s’accroche sur le site promoteur, doit pouvoir circuler vers la droite. Il est bloqué par une protéine répresseur, qui est fabriquée continûment par le gène placé à gauche. Le répresseur se déverrouille dès que du lactose apparaît dans la cellule. Une molécule issue de ce lactose (les petits triangles) peut en effet se lier au répresseur et le décoller. Donc c’est une sorte de circuit logique, qui ne lance la fabrication des protéines que quand c’est nécessaire. D’autre part, en cas de manque de glucose (la bactérie est en état de famine), des protéines viennent se fixer sur le site CAP pour activer le travail de l’ARN polymérase.

Tableau 4 | Hiérarchie du vivant et du traitement de l’information.

Réseau

158

Organisme

Ordinateur

Cellule

Module

Voie métabolique (suite de réactions chimiques impliquant diverses protéines qui « collaborent » pour réaliser une fonction donnée)

Circuit

Protéines et gènes couplés ensemble

Composant

Protéine-gène

NANOMONDE

LES NANOMACHINES NATURELLES

Cette analogie a été exploitée par différentes équipes qui ont travaillé sur des microorganismes modifiés pour réaliser une fonction logique. Un premier exemple marquant est le « repressilateur », publié en 1999 par Michael B. Elowitz et Stanislas Leibler, de l’université de Princeton. Il s’agit d’une colonie de bactéries Escherichia coli qui ont été modifiées pour y installer une chaîne de trois protéines (chaîne qui est refermée sur elle-même), chaque protéine inhibant la production de la suivante. Il en résulte un comportement oscillant, qu’on peut visualiser en associant une protéine fluorescente au circuit. Plus récemment, en 2012, Christopher Voigt et son équipe de l’Institut de technologie du Massasuchetts, ont assemblé des portes logiques en série, ce qui permet de réaliser des fonctions comme (A et B) et (C et D). En 2013, Timothy Lu et ses collaborateurs de ce même Institut ont réalisé un circuit logique qui garde la mémoire de la dernière opération. Dans ce cas, on a utilisé des protéines qui atténuaient ou amplifiaient l’expression d’une autre protéine en modifiant l’ADN des sites promoteurs. Cela a pour conséquence que le microorganisme garde la mémoire d’un événement chimique, durant de nombreuses générations. Il suffit de lire l’ADN du promoteur pour voir s’il a été modifié ou non. On dispose de nombreux outils pour modifier des bactéries comme Escherichia coli et il est possible d’introduire des gènes issus d’autres espèces, de les placer sous le contrôle d’un autre gène, d’exclure d’autres gènes, etc. On peut, par exemple, modifier un microorganisme pour qu’il détecte différentes molécules dans son environnement, traite l’information et réagisse. Ce genre d’activité est un domaine de recherche. C’est aussi l’objet d’un concours, créé en 2003, qui s’adresse aux étudiants. Il s’agit de l’IGEM (pour « compétition internationale des machines génétiquement modifiées »), compétition qui a réuni 2 700 participants en 2015. Certaines applications pour la santé ou l’environnement ont été proposées. Par exemple, en 2015, une équipe tchèque a remporté un 159

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

prix en proposant un système pour détecter des cellules tumorales circulant dans le sang43. D’autres applications sont plus inattendues. Citons la pellicule photographique vivante, mise au point en 2005 par des étudiants de l’université du Texas. Des bactéries sont modifiées pour « noircir » en présence de lumière et sont déposées sur une plaque. L’ensemble se comporte comme une pellicule photo avec une bonne résolution, puisqu’on atteint 15 mégapixels par centimètre carré. La sensibilité laisse toutefois à désirer, le temps de pose se mesurant en heures. Mais, rappelons-nous que les premières photos de Niépce, dans les années 1820, demandaient des durées d’exposition encore plus longues.

Figure 55 | À gauche, l’image de Andrew Ellington (l’un des membres de l’équipe) et à droite, l’image « bactérienne ». Crédit photo: Aaron Chevalier and Nature (http://www. utexas.edu/opa/media/051123photos.php).

43. http://2015.igem.org/Team:Czech_Republic/Project

160

NANOMONDE

5 Quelle convergence ?

MACHINES ARTIFICIELLES ET LE VIVANT Deux mondes microscopiques On a longtemps pensé que la substance qui constituait le vivant avait un caractère à part et qu’elle était animée par une force vitale qui lui était propre. La matière organique, celle qui compose le vivant, et la matière inorganique semblaient donc de nature différente. C’est au cours du XIXe siècle que cette différence s’estompe. Une étape symbolique a été, en 1828, la synthèse par le chimiste allemand Friedrich Wöhler de l’urée, qui est une molécule produite par le vivant, synthèse réalisée à partir de substances minérales. Un pont existait donc. Un autre épisode important fut la compréhension des mécanismes de fermentation par Eduard Buchner, qui obtint pour cela le prix Nobel de chimie en 1907. Il a en effet montré que la fermentation est due à des molécules fabriquées par le vivant et qui gardent leur activité une fois extraites des microorganismes, c’est à dire que la fermentation n’est pas un phénomène mystérieux lié à une force vitale, mais de la simple chimie. 161

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

On a également longtemps cru à la génération spontanée, c’està-dire que la vie, cette chose à part, pouvait apparaître spontanément, par exemple les asticots dans la viande ou les germes dans de l’eau qui croupit. C’est également au XIXe siècle que cette théorie a décliné, notamment suite aux expériences de Pasteur, qui a montré que les microorganismes responsables de la fermentation n’apparaissaient pas spontanément. Si la différence entre organique et inorganique s’est estompée, il y a cent cinquante ans, il n’en reste donc pas moins que le vivant n’est engendré qu’à partir d’autres êtres vivants. Cela lui confère un caractère bien à part, séparé de l’inanimé (comme nous le verrons plus loin, rien n’est jamais définitif). Vivant et non vivant, même s’ils obéissent aux mêmes lois de la physique, constituent deux mondes séparés. Comparons les nanoou micromachines créées par l’Homme et celles qui entretiennent la vie dans les cellules. Les machines conçues par l’Homme le sont en général par un ingénieur qui en fait le plan, en fonction d’un but précis. Pour le vivant, la question est toute autre. Un être vivant n’est pas fabriqué comme on l’entendrait pour des machines humaines. Il provient d’un ou deux êtres vivants « parents » et on peut remonter ainsi jusqu’à la première cellule vivante qui aurait engendré toutes les autres il y a quelques milliards d’années. La notion de conception par un ingénieur est remplacée par celle d’évolution. Le vivant peut évoluer, à travers des modifications de l’information génétique qu’il contient. Si une modification donne un avantage à un être vivant, celui-ci survit mieux et se reproduit plus, ce qui tend à perpétuer cet avantage. C’est ainsi que l’on est arrivé en quelques milliards d’années aux espèces actuelles avec toute leur complexité, que l’on pourrait comparer à des « solutions » différentes trouvées par le processus évolutif pour maintenir la vie dans diverses niches écologiques. Il reste à trouver d’où vient la cellule d’origine à partir de laquelle le vivant s’est créé. Il existe un consensus sur le fait que les molécules, briques de base de la vie, ont pu être produites sur Terre, par des 162

NANOMONDE

QUELLE CONVERGENCE ?

processus naturels, peu après sa formation. Cette idée, émise dans les années 1920 par Alexander Oparine et John Haldane, a été confortée par la célèbre expérience de l’Américain Stanley Miller en 1953. Celui-ci a fabriqué de nombreuses molécules (par exemple des acides aminés) en soumettant un mélange gazeux, représentant l’atmosphère supposée de l’époque, à des décharges électriques. De telles expériences continuent de nos jours. Ainsi en 2016, des équipes du CNRS et de deux universités ont annoncé avoir fabriqué du ribose (l’un des constituants de l’ARN) en simulant la chimie à la surface d’une comète44. La vie serait apparue suite à divers assemblages, à l’occasion d’un processus qui aurait duré des centaines de millions d’années45. Des fonctionnements très différents Au sein des cellules, les opérations de base sont effectuées par diverses molécules animées d’un mouvement d’agitation perpétuel, du fait de la température. Elles tirent pleinement parti des lois de la physique telles qu’elles s’expriment dans le nanomonde. Tout est gouverné par l’agitation thermique, les liaisons fortes qui définissent la structure chimique des constituants, les liaisons faibles qui définissent la conformation des molécules et les interactions entre elles. Il faut donc voir l’intérieur de la cellule comme un ensemble de constituants flexibles, animés de mouvements perpétuels, qui s’apparient et se séparent au gré des événements, ce que le chimiste anglais Richard Jones appelle des machines molles46. Les nano- ou micromachines réalisées par l’Homme résultent la plupart du temps de la miniaturisation de machines macroscopiques. Elles sont fabriquées par des méthodes top-down, comme les MEMs 44. http://www2.cnrs.fr/presse/communique/4497.htm 45. Voir par exemple D’où vient la Vie, Marie-Christine Maurel, éditions Le Pommier (2014). 46. Richard A. Jones, Les machines molles : les nanotechnologies et la vie, Oxford University Press (2004). En anglais.

163

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

(voir chapitre 3). Pour ces machines, les effets qui prennent de l’ampleur dans le nanomonde, comme les forces de van der Waals ou l’agitation thermique, sont en général des phénomènes parasites. Elles fonctionnent d’ailleurs dans un milieu sec, l’eau exacerbant les effets microscopiques (liaisons hydrogène, forces « hydrophobes », chocs incessants de ces molécules). Il y a quand même des exceptions. C’est le cas des nanomoteurs obtenus par synthèse chimique. Mais justement, ceux-ci font appel à l’agitation thermique pour se déformer. Autre différence, la complexité. Depuis la fin du XXe siècle, des machines humaines peuvent être remarquablement complexes, certaines contenant des millions de pièces, voire des milliards pour les processeurs. Mais elles restent plus simples que les cellules vivantes. Outre le nombre considérable d’éléments qui les composent, des milliards, les cellules mettent en œuvre de nombreux processus simultanés, couplés de manières variées avec une part de hasard. D’autre part, la cellule est « reconfigurable ». Les protéines qu’elle contient sont perpétuellement détruites par des protéasomes, des sortes de déchiqueteuses, de telle sorte que leur durée de vie varie entre quelques minutes et quelques jours. Cette destruction est équilibrée par la synthèse de nouvelles protéines au sein des ribosomes, sous le contrôle de molécules variées qui activent ou inhibent cette fabrication. Cette reconfigurabilité n’est pas de mise pour la partie matérielle des machines humaines. Juste pour donner un point de repère, on peut noter que les moteurs moléculaires présentés au chapitre 3 s’inspirent directement des moteurs moléculaires naturels, même s’ils sont loin d’en avoir atteint la complexité. Ainsi, les nanomachines moléculaires construites par l’Homme décrites dans le chapitre 3 sont composées de mille fois moins d’atomes que leurs homologues naturels décrits dans le chapitre 4. Autre caractère résultant de la complexité du vivant : contrairement aux machines, les cellules peuvent s’autorépliquer, c’est-à-dire 164

NANOMONDE

QUELLE CONVERGENCE ?

qu’une cellule mère, en se divisant, donne naissance à deux cellules filles. Ce processus est relativement rapide puisqu’une bactérie comme Escherichia coli, qui pèse 10–15 kilogramme, met vingt minutes à se dupliquer. En une journée (soit 72 fois 20 minutes), une bactérie pourrait donner naissance à 4,7 × 1021 filles, progéniture plus qu’encombrante puisqu’elle pèserait 4 700 tonnes. En pratique, le processus est limité par les matières premières disponibles. L’image la plus proche de ce fonctionnement de la cellule est peut-être celle d’une société humaine, avec ses aspects variés et son fonctionnement à moitié déterministe, à moitié lié au hasard. Le cas des systèmes informatiques Il existe une création humaine intermédiaire entre les machines et le monde du vivant, les systèmes informatiques. Ceux-ci présentent quelques points communs avec le vivant, comme la complexité (dans le cas de systèmes à grande échelle qui peuvent mettre en lien des milliards d’éléments), la reconfigurabilité, l’autoréplication (un virus informatique), l’évolution pour les logiciels (il existe des méthodes de programmation génétique où on fait évoluer des programmes). L’AUTORÉPLICATION Il s’agit de la capacité d’une entité à se dupliquer. Il convient de préciser que cette notion n’a vraiment de sens que si on précise la règle du jeu, c’est-à-dire quelles sont les matières premières disponibles pour cette duplication et éventuellement les lois qui spécifient comment cette entité interagit avec les pièces. L’autoréplication peut être quelque chose de facile ou d’insurmontable. Tout dépend en effet : • des opérations à réaliser pour l’assemblage : liaison chimique, assemblage mécanique… ; • de la complexité des pièces disponibles (atomes, biomolécules, pièces préfabriquées…) ;

165

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

• de l’intervention de systèmes extérieurs pour aider à l’assemblage ou non. Plus c’est difficile (pièces rudimentaires, peu d’aide extérieure), plus un système ayant la capacité de s’autorépliquer doit être complexe. On peut considérer divers exemples. • Un robot composé de quelques éléments préfabriqués qu’il suffit d’assembler. Ce concept est dans la ligne du travail de Victor Zykov47, de l’université Cornell. Il a conçu des briques cubiques motorisées qui peuvent se lier les unes aux autres et former des articulations mobiles, constituant des robots évolutifs. • Certaines molécules peuvent se dupliquer. C’est le cas d’un brin d’ADN. Un tel brin, plongé dans une solution contenant les quatre briques de base (ensemble désoxyribose-A/T/G/C-phosphate) peut se dupliquer en formant une image en négatif. Pour cela, il faut ajouter une amorce, c’est-à-dire une petite séquence, le début du travail en quelque sorte, qui va s’apparier au brin de départ. Un enzyme présent dans le bain, l’ADN polymérase, tricote la suite de l’amorce pour obtenir le brin complémentaire du brin initial à la vitesse d’environ 1 000 bases par minute. En chauffant un peu, on détache les deux brins. En compliquant un peu le dispositif (on part non pas d’un brin mais d’un double brin, il y a une amorce par brin), on arrive à enchaîner quelques dizaines de cycles de duplication, qui multiplient par quelques millions la quantité d’ADN initiale. • Un virus. C’est avant tout de l’information. Il détourne un système extérieur pour se dupliquer (l’organisme qu’il infecte s’il s’agit d’un virus porteur d’une maladie, ou un ordinateur pour un virus informatique). Ce parasitage fait qu’un virus peut être très simple. Un virus informatique est une suite de zéros et de uns stockés dans une mémoire d’ordinateur, qui se sert du processeur de l’ordinateur pour se dupliquer et se propager. Un virus biologique est une séquence d’ADN ou d’ARN (quelques milliers de paires de bases) qui pirate les ribosomes des cellules pour se reproduire. 47

47. http://www.roboticsproceedings.org/rss01/p22.pdf consulté en mai 2016.

166

NANOMONDE

QUELLE CONVERGENCE ?

• Les cellules se dupliquent en se divisant. Elles se nourrissent de matières premières spécifiques (protéines, glucides, lipides) qu’elles convertissent en énergie ou en éléments de construction. L’une des plus simples est la bactérie Mycoplasma genitalium, qui est tout de même définie par un brin d’ADN de 580 000 paires de bases. • Éric Drexler imagine dans les années 1980 des machines de peut-être un milliard d’atomes, qui puisent leur matière première sans aide extérieure, sous forme d’atomes dans l’environnement. On attribue à John Von Neumann, un Américain d’origine hongroise (il fut mathématicien, physicien, économiste, informaticien) un rôle clé dans la théorisation du concept d’autoréplication dans les années 1950. Il s’interrogeait sur la faisabilité d’une machine qui se reproduirait elle-même et évoquait un robot entouré de pièces, programmé pour se construire des congénères. Von Neumann réalise que les règles du jeu dans le monde réel sont trop complexes et il se projette alors dans un monde imaginaire, une sorte de damier dans lequel des éléments interagissent entre eux en changeant d’état en fonction de celui de leurs voisins suivant des règles du jeu prédéfinies. En 1953, il conçoit un « constructeur universel » de 200 000 éléments, qui peut se dupliquer dans l’univers simplifié où il « vit ». Celui-ci contient aussi un ensemble de 84 000 éléments qui jouent le rôle de séquences d’instructions.

LA VISION DE DREXLER Les engins de création L’une des questions qu’on peut se poser est « sera-t-il possible de s’inspirer de systèmes vivants pour réaliser des machines tout aussi sophistiquées ? ». C’est une question qui a fait couler beaucoup d’encre au début des années 2000. Cela a commencé avec la vision d’un monde peuplé de nanomachines, proposée à la fin des années 1970 par un étudiant au MIT (Massachusetts Institute of Technology) alors âgé de 26 ans, Éric Drexler. Il était passionné de sujets mêlant technologie et science-fiction, comme la colonisation de l’espace. Les nanotechnologies allaient lui offrir un sujet de prédilection. En 1981, dans un premier article, intitulé « Ingénierie moléculaire : une approche pour 167

168

Forte parenté avec un analogue macroscopique.

En général considérés comme effets parasites (collage, mouvement thermique). Fonctionne en milieu sec. Utilisés dans certains cas (détection de molécule).

Systèmes en dur avec très peu de parties mobiles. Beaucoup de liaisons fortes, ou van der Waals, mais pour pièces immobiles (colle).

Fabrication transposée de méthodes classiques (usinage, dépôt, soudure). Utilisation de la chimie pour assembler des éléments.

Sensible aux poussières. Sensible aux écarts − milieu contrôlé.

Analogies avec le monde macroscopique

Effets « nano » (mouvement brownien, forces intermoléculaires…)

Caractéristiques

Méthodes de fabrication

Écarts

Machines artificielles (NEMS, MEMS)

Tableau 5 | Comparaison entre le monde du vivant et les machines artificielles.

NANOMONDE

Peu sensible aux impuretés, capacité d’adaptation à diverses agressions.

Spécifique au vivant. Autoassemblage, séquençage des opérations, circuits très complexes.

Très forte importance des parties mobiles et des liaisons faibles. Souvent déformable.

À la base du fonctionnement. Doit fonctionner en milieu humide.

Pas toujours d’analogue direct.

Monde du vivant

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

QUELLE CONVERGENCE ?

le développement de capacités pour la manipulation moléculaire48 », Éric Drexler exposa ses idées. Il les développa ensuite dans son livre Engins de création publié en 1986. Sa thèse pourrait se résumer ainsi : – de nombreux sous-systèmes du vivant correspondent à des éléments mécaniques : moteurs (comme ceux qui actionnent les flagelles de bactéries), déplacements linéaires (actine-myosine), câbles (fibres de collagène), etc. L’existence de cette panoplie signifie pour lui que de vrais systèmes mécaniques peuvent être construits à petite échelle. Ces machines pourraient agir conformément à un programme ; – des protéines peuvent favoriser des réactions chimiques simplement en agençant de la bonne manière les molécules à faire réagir. Un dispositif conçu pour positionner des molécules dans la bonne configuration devrait susciter des liaisons covalentes permettant de réaliser des « soudures » (c’est ce que font par exemple les ribosomes). Cela serait beaucoup plus efficace que ce que font les chimistes, qui laissent l’agitation thermique réaliser au hasard ces confrontations entre molécules ; – si le vivant permet de montrer la faisabilité de tels systèmes, on peut envisager des systèmes de seconde génération qui seraient construits autour de molécules plus résistantes à la température et à la pression, et feraient mieux. L’évolution est un formidable outil de conception, mais il a ses limites. Drexler cite l’exemple d’un éleveur de chevaux qui ne peut pas, en croisant ses meilleurs chevaux, obtenir une jeep. Éric Drexler évoque les assembleurs, nanomachines qui seraient constituées de quelques centaines de millions d’atomes, et agiraient avec des petits bras, selon une séquence d’instructions bien définie. Ces assembleurs fabriqueraient des objets, atome par atome ou molécule par molécule, au rythme d’un million d’opérations par 48. http://www.ncbi.nlm.nih.gov/pmc/articles/PMC348724/pdf/pnas00660-0023. pdf consulté en mai 2016.

169

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

seconde. C’est en effet une vitesse observée pour certaines protéines. Pour fabriquer un objet complet, il suffit qu’ils soient assez nombreux. Si on y regarde de près, ce n’est pas si simple. Construire en une semaine un objet en fer d’un kilogramme (1025 atomes), avec des assembleurs effectuant un million de « collages » par seconde, demande une « équipe » de dix-huit mille milliards d’assembleurs, équipe qui ne pèserait que quelques dizaines de milligrammes. Mais comment les fabriquer ? Cela mène Éric Drexler à l’autoréplication. Si un assembleur fabrique un congénère en mille secondes, cela veut dire qu’au bout de deux mille secondes, il y en aura quatre, et ainsi de suite. Le nombre voulu sera atteint en douze heures, à la quarante-quatrième génération. Ce schéma, appelé la fabrication exponentielle, a lui aussi suscité beaucoup de polémiques. S’il était possible, il aurait des conséquences considérables, qui sont d’ailleurs évoquées par l’auteur lui-même : – le bouleversement des équilibres mondiaux : une telle technique rend le coût des objets, mais aussi celui de leur conception (on pourrait concevoir des ordinateurs hyperpuissants qui feraient le travail) quasiment nul. Comment se répartiraient alors les richesses ? – des applications militaires, qu’il s’agisse de la fabrication d’armes en masse ou du développement de nouvelles armes ; – le risque que la race humaine se fasse dépasser par sa création. Un scénario célèbre est celui de la gelée grise, dans lequel un amas de machines microscopiques qui se multiplie sans bornes en finit par dévorer la Terre. Quelques ordres de grandeur Pour montrer l’écart entre les assembleurs de Drexler et d’autres systèmes évoqués dans cet ouvrage, on peut résumer les choses dans le tableau 6 où l’on a considéré trois systèmes de nano- ou micromachines travaillant collectivement : – l’ensemble des dix mille ribosomes d’une bactérie, qui fabriquent environ 2 × 10–20 kg de protéines par seconde ; 170

NANOMONDE

QUELLE CONVERGENCE ?

– un système existant, composé d’un million de micromiroirs oscillants (d’une dizaine de micromètres de côté) utilisés pour projeter des images à partir d’un ordinateur. Chaque miroir dévie la lumière à quelques milliers de hertz pour former un pixel d’une image avec ses niveaux de gris ; – des assembleurs tels que décrits par Éric Drexler dans son livre Engins de création au chapitre « Engins d’abondance ». On en considère un peu moins de vingt mille milliards, ce qui permet d’assembler un objet d’un kilogramme en une semaine. Tableau 6 | Comparaison de trois nanosystèmes artificiels ou naturels fonctionnant de manière collective.

Système considéré

Ribosomes d’une bactérie

Réseau de micromiroirs

Assembleur

Fonction

Assemble des acides aminés

Dévie de la lumière pour former une image

Assemble des atomes

Élément de base

Un ribosome

Un miroir de 13 micromètres

Un assembleur

Taille de cet élément (nombre d’atomes)

6 × 105

1013

108 à 109

Nombre d’éléments qui coopèrent

104

106

1,8 × 1013

Énergie par opération (J)

4 × 10–20

0,7 × 10–10

10–19

Fréquence moyenne (Hz)

10

3 × 104

106

Puissance moyenne par élément (W)

4 × 10–19

2 × 10–6

10–13

Sources d’énergie

ATP et GDP49

Électrique

Chimique

49. Adénosine triphosphate et Guanosine triphosphate.

171

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

La grosse différence est la rapidité des assembleurs et, de ce fait, la puissance qu’ils consomment et qui se retrouve ensuite dans l’environnement sous forme de chaleur. Un assembleur dissipe ainsi 10–13 watts. C’est une puissance énorme qui, ramenée par unité de masse, représente 10 kilowatts par kilogramme (100 fois plus qu’un muscle en plein effort). Polémiques Engins de création est un livre qui peut paraître déconcertant, par son positionnement intermédiaire entre le raisonnement scientifique et le récit de science-fiction. Il mêle des considérations techniques et des spéculations sur la possibilité de fabriquer des assembleurs, ainsi que les conséquences possibles. Ce livre a eu un retentissement considérable et a suscité de nombreuses réactions, surtout lorsque l’on a commencé à parler de l’essor des nanotechnologies, avec la National Nanotechnology Initiative (NNI), l’initiative nationale pour les nanotechnologies, lancée par le président Bill Clinton au début des années 2000. – d’un côté la peur, par l’ampleur des conséquences attendues si les idées de Drexler se concrétisaient un jour. Le romancier Michael Crichton popularise cette question dans son roman La proie50, publié en 2002 en anglais, histoire qui met en scène des nanomachines proches de celle imaginées par Drexler. Des organisations non gouvernementales (ONG) se mobilisent, comme le groupe ETC, qui publie en 2003 un rapport intitulé The Big Down51, mettant en garde contre les nanotechnologies. Le prince Charles, au Royaume-Uni, s’en est ému et la presse a amplifié largement ses propos, en faisant l’amalgame entre la gelée grise et les craintes du prince. Ainsi un journal écossais a publié le 27 avril 2003 un

50. Publié en français par Robert Laffont en 2003. 51. Ce rapport en anglais peut être téléchargé sur http://www.etcgroup.org/fr/ node/172, consulté en mai 2016.

172

NANOMONDE

QUELLE CONVERGENCE ?

article intitulé « Charles craint que la science ne supprime toute vie sur Terre52 » ; – la réserve, pour ne pas dire l’irritation, de la plupart des scientifiques devant les thèses de Drexler, qu’ils assimilent à de la science-fiction. Le prix Nobel de chimie Harold Kroto critique publiquement l’intervention du prince Charles en arguant du fait que, incompétent en chimie, il a été influencé par des livres stupides53. D’autres émettent de sérieux doutes sur les idées de Drexler. C’est le cas en particulier des chimistes comme le prix Nobel de chimie Richard Smalley (l’un des co-inventeurs des fullerènes) et George Whitesides, de l’université Harvard. Smalley reproche fortement à Drexler sa démarche : « Vous, et les gens autour de vous, avez effrayé nos enfants. Je n’espère pas vous stopper mais j’espère que d’autres dans la communauté des chimistes me rejoindront pour faire la lumière sur le sujet… ». Même si elles sont remises en doute par les scientifiques et ont quitté le devant de la scène depuis une dizaine d’années en tant que polémique scientifique, les visions d’Éric Drexler ont l’avantage de susciter une réflexion sur l’avenir, notamment sur ce que la science pourrait permettre de réaliser un jour. Elles ont également inspiré les auteurs de science-fiction, comme nous le verrons au chapitre 6. Toutefois, des questionnements proches ont ressurgi avec la montée en puissance de la biologie de synthèse, comme cela sera discuté ci-après.

52. http://www.scotsman.com/news/uk/charles-fears-science-could-kill-life-onearth-1-1384775, consulté en mai 2016. 53. « He should take a degree in chemistry, or at least talk to someone who understands it, rather than reading silly books. » Voir l’article en anglais « Nanotechnology in the firing line » de Philip Ball, en 2003, sur le site nanotechweb, http://www.nanotechweb.org/cws/article/indepth/18804

173

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

LA FEUILLE DE ROUTE DES NANOTECHNOLOGIES Mihail Roco est l’un des acteurs clés de la NNI, l’initiative nationale américaine pour les nanotechnologies, l’un des premiers gros programmes de financement des nanotechnologies. Il est notamment connu pour sa feuille de route des nanotechnologies, abondamment reprise au début des années 2000. Cette feuille de route décrit un chemin qui mène de la situation du début des années 2000 à un univers qui s’inspire de Drexler, même s’il est exprimé en termes prudents. Mihail Roco décrivait ainsi un développement en quatre générations successives : • avant 2000 : des produits contenant des « nanostructures passives » (par exemple des nanoparticules renforçant un polymère) ; • avant 2005 : des nanostructures actives, c’est-à-dire des nanosystèmes capables d’une action comme un mouvement, une opération de calcul, la détection d’une molécule. Cela peut être par exemple un complexe libérant un médicament au bon endroit ; • avant 2010 : des systèmes complexes, en d’autres termes des nanomachines dignes de ce nom, réalisés par des techniques diverses. Il cite des opérations chemo-mécaniques (c’est-à-dire couplant interactions mécaniques et chimie, des NEMs, des nanomachines pour intervenir sur des cellules ciblées ; • avant 2015 : la mise au point de systèmes moléculaires avec des propriétés émergentes qui se rapprocheraient du vivant (mais plus rapides). Il cite parmi les applications la santé, l’agriculture, des interfaces hommes-machines au niveau du système nerveux et des tissus et plus généralement, la convergence « nanotechnologiebiologie-informatique-cognition ». On en trouve une description plus approfondie dans l’article de M. Roco et du comité nanoscience et nanotechnologie (NSET), publié en 2004, « Science et technologie à l’échelle nanométrique. Unifier et transformer les outils54 ». 54

54. “Nanoscale Science and Engineering: Unifying and Transforming Tools”.

174

NANOMONDE

QUELLE CONVERGENCE ?

LE DÉBAT DREXLER-SMALLEY Le numéro de septembre 2001 de la revue Scientific American contient un article de Richard Smalley : « De la chimie, de l’amour et des nanorobots55 ». Il y mentionne des arguments devenus célèbres : • faire qu’une liaison covalente conforme à ce que veut le « constructeur » s’établisse entre deux atomes demande un positionnement précis de ceux-ci mais aussi de leurs voisins, les électrons impliqués dans cette potentielle liaison étant sensibles à tout l’environnement. Richard Smalley fait le lien entre la complexité d’une liaison chimique et celle des relations amoureuses, « un garçon et une fille ne tombent pas amoureux simplement parce qu’on les pousse l’un vers l’autre ». Bien positionner des atomes pour forcer une réaction chimique demanderait plusieurs bras manipulateurs et il n’y aurait pas assez de place56. C’est ce que Smalley appelle « le problème des gros doigts » ; • la matière, à cette échelle, est collante. Il est difficile de manipuler des atomes sans qu’ils se collent au manipulateur, ce que Smalley appelle « la question des doigts collants ».

Miel

Figure 56 | Gros doigts et doigts collants. 5556

55. On peut trouver cet article, en anglais sur http://cohesion.rice.edu/ NaturalSciences/Smalley/emplibrary/SA285-76.pdf consulté en mai 2016. 56. La description du fonctionnement de l’ATP synthase au chapitre 5 donne effectivement l’impression qu’il suffit de pousser de l’ADP contre un groupe phosphate pour qu’ils s’étreignent en donnant naissance à de l’ATP. En fait, il se passe ce que dit Smalley : la surface interne de la poche a une configuration très précise qui agit comme une multitude de doigts qui assurent ce couplage.

175

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Un débat animé s’ensuivit58, résultant de la confrontation de ce que Bernadette Bensaude Vincent, philosophe de l’université Paris X, appelle deux cultures59 : celle des ingénieurs, qui pensent pouvoir fabriquer des machines reproduisant ce que fait le vivant, et celle des chimistes, qui mettent en avant les limites du possible. Les deux clans assènent leurs arguments par le biais de lettres ouvertes. Éric Drexler (l’ingénieur) rétorque que des protéines arrivent à forcer des réactions chimiques, sans que pour autant elles aient des problèmes de doigts. Richard Smalley répond que le vivant arrive à réaliser des opérations d’assemblage mais que c’est dans des conditions très particulières et que l’on ne peut pas généraliser, en particulier hors de l’eau. Point intéressant, le débat fait souvent référence au vivant, et à la possibilité d’imiter voire de surpasser ses processus ; en revanche, il y a relativement peu d’allusions à la complexité qui caractérise le vivant.

5758

Il existe bien d’autres visionnaires, qui voient dans les nanotechnologies des applications potentiellement révolutionnaires. Citons Ray Kurzweil, connu pour diverses inventions, et aussi pour ses prédictions. Ainsi, dans son livre The age of spiritual machines, publié en 1999, il prédisait que, grâce aux nanotechnologies, l’Homme serait rapidement capable de construire des machines plus intelligentes que lui et que, en 2029, on pourrait interfacer directement des machines avec le système nerveux. Travaillant désormais pour Google, Ray Kurzweil poursuit son activité de réflexion sur le futur. Un article récent dans la revue Tech Insider59 fait état de 57. Voir les échanges sur le site http://pubs.acs.org/cen/coverstory/8148/8148coun terpoint.html, testé en mai 2016. 58. L’article est consultable sur http://www.hyle.org/journal/issues/10-2/bensaude. htm 59. http://www.techinsider.io/ray-kurzweil-most-extreme-predictions-2015-11

176

NANOMONDE

QUELLE CONVERGENCE ?

ses prédictions les plus en rupture. Parmi elles, des nanorobots qui permettraient de soigner les maladies ou d’interfacer directement le cerveau et les sens, donnant accès à une expérience d’une réalité virtuelle totale.

MICROMACHINES ET MICROFABRICATION À côté de la vision de Drexler, il y a la réalité des nano-micromachines faites par l’Homme en ce début de XXIe siècle, comme les transistors, les MEMS ou les NEMS, telles que discutées au chapitre 3. On pourrait les classer en deux catégories : des nano-microéléments non mobiles, qui collaborent, associés en grand nombre, des petits systèmes autonomes. Association en grand nombre Dans beaucoup d’applications, des microéléments ou des nanoéléments sont fixés à un substrat. Sur ce même substrat se trouvent également des systèmes fournissant l’énergie (souvent des dizaines de watts pour l’ensemble), des signaux de commande et de contrôle et la régulation de la température. On peut imaginer quelques évolutions : – dans le domaine des processeurs, on s’attend à une poursuite de la progression de la miniaturisation des transistors, qui s’arrêtera pour des raisons techniques (chaleur, baisse de fiabilité, limites imposées par la physique) et économiques (le prix peut devenir disproportionné par rapport aux avantages apportés), probablement vers 2020 avec une finesse de détail de cinq nanomètres ; – dans le domaine de la chimie ou de la biologie, on assiste au développement des laboratoires sur puce. Il s’agit d’une série de petites chambres dans lesquelles on réalise des transformations chimiques éventuellement proches de ce que fait le vivant, régulées par des systèmes tels que pompes, microvannes, capteurs, mélangeurs, asservissements de température, calculateurs ; 177

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

– dans le domaine des matériaux, des capteurs et des actionneurs pourraient être insérés en volume ou à la surface. Cela pourrait devenir un domaine d’application des moteurs moléculaires dans la ligne des exemples présentés en fin de chapitre 3. On pourrait ainsi concevoir des matériaux dont certaines propriétés (densité, surface, couleur) changent sous l’effet d’un stimulus. Des micromachines indépendantes Plus proche des visions de Drexler, il existe des micromachines indépendantes, mais elles sont tout de même un milliard de fois plus grosses (des centaines de millions de milliards d’atomes) et infiniment moins complexes. Il faut dire qu’il est difficile de miniaturiser des petits robots. – Dans le domaine du micron, comme nous l’avons vu au chapitre 1, on ne maîtrise plus vraiment les déplacements, car les objets subissent les forces de van der Waals et les forces capillaires en présence d’humidité. D’autre part, le déplacement est dominé par le mouvement brownien (plus les autres sollicitations telles que les courants d’air et les vibrations). En fait, les machines que nous considérerons restent au-dessus des cent microns et la question ne se posera pas. – Si on veut commander ces machines ou avoir accès à leurs capteurs, il faut des communications. Or, il est de plus en plus difficile de communiquer par onde si l’objet est trop petit, car l’antenne doit avoir une taille suffisante (pas trop petite devant la longueur d’onde soit, pour les fréquences usuelles, de l’ordre du millimètre) et l’émetteur doit avoir une puissance compatible avec la portée. Par exemple, si l’on interprète les chiffres liés au Bluetooth (norme de communication entre matériels informatiques), il faut environ 10–9 joule par bit d’information transmis à dix mètres ; à moins qu’un jour on n’imite le vivant avec des signaux chimiques. – Se déplacer, mesurer, calculer, communiquer, tout cela demande de l’énergie, et cette demande peut devenir incompatible avec une 178

NANOMONDE

QUELLE CONVERGENCE ?

source d’énergie trop petite (par exemple pour communiquer), à moins de limiter considérablement la puissance de la machine par unité de masse. Les êtres vivants ont la solution. Ils tirent leur énergie du milieu ambiant en absorbant de la lumière ou des molécules riches en énergie, à un rythme qui dépend de leur consommation énergétique. Pour un petit système artificiel, il faudra imaginer des solutions équivalentes, le stockage de l’énergie (comme les piles dans les petits appareils à notre échelle) étant limité par le volume disponible. Pour donner un ordre de grandeur, les densités d’énergie qu’on peut stocker sont de l’ordre de 2,5 × 10–8 joule par micron cube de glucose, ou 4 × 10–9 pour des batteries. En tout cas, il existe des recherches pour réaliser des microbatteries ou des systèmes de récupération de l’énergie. Voyons maintenant quelques exemples de micromachines qui peuvent se déplacer librement. Le premier correspond à des machines dont la taille est de quelques millimètres à quelques centimètres. A priori, elles ne devraient pas entrer dans le périmètre de cet ouvrage, mais elles ont ceci d’intéressant que c’est à cette échelle qu’on arrive (un peu) à approcher le degré de complexité les nanomachines issues du vivant ou des assembleurs (on peut notamment y loger un processeur). Entre dans cette catégorie le concept de poussière intelligente, introduit en 2001 par Kristopher Pister, de l’université de Berkeley en Californie. Il s’agit de capteurs communicants qu’on disséminerait pour mesurer des paramètres ambiants. Les applications potentielles sont par exemple la surveillance d’un local, d’un processus industriel, de l’environnement. Une réalisation d’un concept proche est le robot Alice réalisé à l’EPFL en Suisse à la même époque. C’est un petit cube à roulettes d’environ 2 centimètres de côté, doté de capteurs infrarouges et de systèmes de communication par radio. Doté d’une batterie, il tient dix heures. Certains de ces systèmes font l’objet de recherche sur les comportements collectifs. C’est le cas des kilobots, développés 179

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

par l’université de Harvard aux États-Unis au début des années 2010. Ces petits robots (3 centimètres) se déplacent sur des pattes vibrantes, embarquent un petit processeur, un émetteur infrarouge et des capteurs de lumière visible et infrarouge, et ont une autonomie de quelques heures. Ils sont programmés pour travailler en essaim de mille unités et pour collaborer60. Un autre concept est celui des microrobots, dont la taille se mesure en centaines de micromètres. Ceux-ci se déplacent par diverses méthodes : fil, vibration, forces électromagnétiques, voire de petites pattes. Ils entrent dans la catégorie des MEMs décrits dans le chapitre trois. On peut citer le MagMite, développé par l’ETH en Suisse61 ou le MagPieR développé à l’institut Femto-ST en France. Entrent aussi dans cette catégorie les petites « fusées » de Joseph Wang, de l’université de Californie à San Diego, décrites au chapitre 3. Toutes ces machines sont guidées de l’extérieur et alimentées en énergie sous des formes variées (vibrations, champs électromagnétiques, énergie chimique). Elles pourraient avoir des applications, par exemple pour manipuler de petits objets comme des cellules. Notons au passage que ces robots développent des forces de l’ordre de 10–5 newton alors qu’ils ne pèsent que 10–7 N, c’est-à-dire cent fois leurs poids. Rappelons-nous le chapitre 1, quand Scott, haut de 18 micromètres, pouvait soulever 25 000 fois son poids. Les nano-micromachines sur lesquelles on spécule le plus sont celles à usage médical. Il s’agit de capsules microscopiques qui peuvent atteindre une partie malade, la reconnaître et agir en larguant un médicament. Il existe des réalisations, mais on ne peut pas encore les comparer à des nanomachines.

60. Voir un exemple sur https://www.youtube.com/watch?v=JmyTJSYw77g 61. Vidéo du robot MagMite à l’action. https://www.youtube.com/ watch?v=lnLGpl1N7Ns, consultée en mai 2016.

180

NANOMONDE

QUELLE CONVERGENCE ?

En conclusion Si on voulait résumer ces réflexions, on doit s’attendre surtout à un important essor de machines complexes (des milliards de composants) intégrées à un ensemble traitant soit de l’information pure (processeur), soit de la matière et de l’information (circuit intégré, mini laboratoire de chimie, matériaux intelligents). Il existe également des réalisations intéressantes de MEMs qui se comportent comme des microrobots. Ceux-ci pourraient avoir des applications intéressantes en matière de surveillance de l’environnement, de manipulation d’objets micrométriques comme les cellules. Ils sont toutefois pour l’instant dépendants d’une source d’énergie extérieure. Rien n’empêche de spéculer sur leurs descendants, qui pourraient être des machines plus ambitieuses, dotées de capteurs et de circuits logiques, mais surtout continûment approvisionnées en énergie par leur environnement, par exemple fonctionnant dans un bain de solution nutritive (glucose ou ATP). Il existe déjà des piles à combustibles produisant de l’électricité à partir du glucose (en reproduisant de manière simplifiée ce que fait le vivant).

181

182

NANOMONDE

4 × 10–2

5 × 10–13

0,8 × 10–4

10–15

Abeille butineuse

Bactérie E. coli 500

500 0,5 heure

0,5 heure

Puissance par Autonomie avec un stockage unité de masse en énergie (sucre) W/kg représentant 5 % de la masse 1,2 200 heures 50 5 heures

Robot Asimo (Honda) Robot Nao (Aldebaran Robotics) Robot Alice (EPFL Suisse) Magmite (ETH Suisse) Assembleur (E. Drexler)

1 200

20

15 × 10–3

1,25 × 10–7

10–13

5,8

2 × 10–2

2,5 × 10–8

10–17

Puissance W

50

Masse kg

10 000

5

0,8

3,5

secondes

3 heures

20 heures

4,4 heures

Puissance par Autonomie avec batterie unité de masse représentant 5 % de la masse W/kg 24 0,6 heure

Tableau 7b | Activité et besoins en énergie de systèmes artificiels des assembleurs aux robots humanoïdes.

100 2,5 × 10–1

80 5 × 10–3

Puissance W

Homme Colibri

Masse kg

Tableau 7a | Activité et besoins en énergie d’êtres vivants.

Externe

Batterie 1 200 Wh Autonomie 1 h Batterie 27,6 Wh Autonomie 90 min Batterie 0,15 Wh Autonomie 10 h Externe

En pratique

3 repas par jour Plusieurs mini repas par heure Repas fréquents. Partie de la récolte (0,5 mg par km) Baigne dans un milieu nutritif

Alimentation en énergie en pratique

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

QUELLE CONVERGENCE ?

S’INSPIRER DU VIVANT Produire des cellules minimales Les propriétés du vivant sont fréquemment utilisées dans l’industrie, notamment dans l’agroalimentaire (fermentation), l’industrie pharmaceutique (biotechnologie) et l’industrie de l’environnement (épuration des eaux). Dans tous les cas, on tire parti de deux propriétés spécifiques du vivant : – sa capacité à se reproduire, ce qui permet d’obtenir le nombre de microorganismes nécessaires pour produire de grandes quantités ; – sa capacité à provoquer des réactions chimiques grâce à des protéines, de manière plus sélective et plus douce, c’est-à-dire dans des conditions de température et de pression standard, sans solvants dangereux. On fait souvent appel à des microorganismes naturels qu’on a sélectionnés. Dans d’autres cas, on modifie leur génome pour les programmer afin de produire une molécule spécifique. On peut comparer ce que font les biotechnologies avec les visions de Drexler. On fait appel à des cellules vivantes, qui constituent les unités de fabrication. Supposons qu’on cherche à produire, à partir d’Escherichia coli, une petite protéine (10–23 kg par molécule). Chaque bactérie, avec ses 10 000 ribosomes, assemble quelques 106 molécules de la protéine, à partir des pièces détachées que sont les acides aminés. Si on veut en produire un gramme en une heure, soit 1020 molécules, il faudra donc quelques 1013 bactéries. On les obtient en plaçant quelques bactéries modifiées dans un milieu optimisé. Celles-ci se divisent toutes les vingt minutes et le bon nombre est obtenu en environ 15 heures. La grosse différence avec les assembleurs de Drexler, c’est que les ribosomes travaillent cent mille fois moins vite. On part donc d’organismes existants, relativement complexes. Par exemple, l’ADN d’Escherichia coli comporte environ 4,5 × 106 paires de bases et celui de Saccharomyces cerevisiae 13 × 106. Une autre manière de voir les choses est de tenter de construire des systèmes qui utilisent 183

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

les même processus que les êtres vivants, mais plus simples. Il s’agirait en quelque sorte de combler le fossé entre les deux mondes évoqués en première partie de ce chapitre. Si, un jour, l’Homme arrive à assembler des molécules pour en faire une cellule artificielle simplifiée, le spectre des applications ci-dessus pourrait être considérablement élargi. On peut penser à la synthèse de molécules de manière simple, à de nouvelles formes de médecine (thérapie génique, alternatives aux antibiotiques…), au nettoyage de zones polluées, à la fabrication de matériaux. Cela nous mène à la recherche sur les cellules minimales. Schématiquement, il existe deux voies de recherche. La voie bottom-up Dans la voie dite bottom-up, on cherche à créer, à partir de molécules de base, des proto-cellules, c’est-à-dire des objets plus simples que les microorganismes actuels, mais qui en auraient les propriétés de base : avoir une identité, c’est-à-dire être contenus dans un volume clos, avoir une activité métabolique, se répliquer. C’est le concept de « chemoton » introduit dans les années 1950 par le biologiste hongrois Tibor Ganti. Il existe des systèmes ayant partiellement ces propriétés (de petits vésicules formés des membranes décrites à la figure 45 peuvent se diviser et croître, l’ADN peut se dupliquer, des ribosomes peuvent fonctionner en dehors d’une cellule). Mais ceux-ci restent très rudimentaires. Pour aller plus loin, une voie de recherche consiste à utiliser les molécules qui constituent les êtres vivants ou qui s’en inspirent. Elle vise aussi la compréhension des formes d’organisation de la matière, qui ont fait que la vie a émergé sur Terre à partir d’une soupe primordiale. Il s’agit de reconstituer ces états intermédiaires entre l’inanimé et le vivant, a priori plus simples que la première cellule. C’est aussi une voie de recherche pour réaliser des dispositifs médicaux (des cellules artificielles) ou des microréacteurs chimiques qui remplaceraient les microorganismes utilisés en biologie de synthèse. 184

NANOMONDE

QUELLE CONVERGENCE ?

Plusieurs équipes travaillent à la réalisation de telles proto-cellules. Il s’agit de réaliser des membranes proches de celle représentée à la figure 57 et d’y incorporer un minimum d’ingrédients, soit de l’information génétique sous forme d’ADN ou d’ARN et des protéines qui font « fonctionner » l’ensemble. Ce système peut être plus simple qu’une cellule, en particulier parce qu’on peut amener de l’extérieur ce qui manque. La proto-cellule a ainsi moins de tâches à réaliser qu’une cellule. Par exemple, une source d’énergie interne n’est pas indispensable, dans la mesure où de l’ATP peut être fourni de l’extérieur. De nombreux résultats ont été publiés. Par exemple on a pu, en incorporant les ingrédients nécessaires dans les protocellules, faire en sorte que des protéines y soient synthétisées comme dans une vraie cellule, ou mimer une division cellulaire avec séparation en deux de la membrane et duplication du matériel génétique. Toutefois il reste beaucoup à faire pour réaliser un objet qui remplisse les trois éléments du « cahier des charges » : un volume clos, une activité métabolique, se répliquer. Il existe d’ailleurs un écart considérable entre ces proto-cellules et les organismes minimaux obtenus par la méthode top-down discutée ci-après, ces derniers mettant en jeu quelques centaines de protéines.

Figure 57 | Exemples de structures fermées se formant spontanément. Le principe de base des proto-cellules est d’incorporer des molécules à l’intérieur pour recréer un métabolisme. La paroi peut être également modifiée pour qu’elle puisse échanger des molécules avec le monde extérieur (© Mariana Ruiz Villarreal).

185

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

La voie top-down Dans la voie top-down, on cherche à simplifier un microorganisme existant en enlevant des gènes qui ne sont pas indispensables. L’idée est d’obtenir ce qu’on appelle une cellule « chassis », sur laquelle on peut greffer différents gènes pour lui faire fabriquer telle ou telle substance. Comme point de départ, on choisit des microorganismes, les plus simples possibles, « simple » signifiant avec un génome de petite taille. Le minimum pour une bactérie qu’on trouve dans l’environnement semble être de l’ordre de 1,1 × 106 paires de bases. Des génomes plus petits existent chez des organismes parasites qui vivent dans des milieux stables leur fournissant divers composés qu’ils n’ont pas besoin de produire. C’est le cas des virus mais aussi de parasites, comme Mycoplasma genitalium qui vit dans le tractus uro-génital humain, bactérie rendue célèbre par la très petite taille de son génome, soit 5,8 × 105 paires de bases. Le travail consiste ensuite à éliminer des gènes qui ne semblent pas vitaux pour le microorganisme en question, quitte à lui fournir diverses molécules pour lui « simplifier la vie ». C’est ainsi que l’équipe de Clyde Hutchinson et Craig Venter a publié en 2016, dans la revue Science, un article intitulé « Conception et synthèse d’un génome bactérien minimal ». Leur publication expose la procédure qui leur a permis de produire le JCVI-syn3.0, un microorganisme viable, qui se reproduit, dont le génome ne comporte que 5,3 × 105 paires de bases. Un tel résultat a été rendu possible par l’emploi de méthodes de test de chaque gène et par la capacité de cette équipe à entièrement fabriquer le génome de ce nouvel organisme (voir encadré « Génome bactérien artificiel »). Cet organisme inédit contient seulement 473 gènes, dont 229 liés au traitement et à la conservation de l’information de l’ADN (notamment la fabrication de protéines), 84 liés à la fabrication des constituants de la membrane, 81 liés aux protéines qui font « fonctionner » le microorganisme. Quant aux 79 gènes restants, il n’a pas été possible de les ranger avec certitude dans l’une des catégories précédentes.

186

NANOMONDE

QUELLE CONVERGENCE ?

GÉNOME BACTÉRIEN ARTIFICIEL En juillet 2010, Daniel Gibson et ses collaborateurs du Craig Venter Institute publient dans la revue Science un article intitulé « Création d’une bactérie contrôlée par un génome artificiel ». Les auteurs de ces travaux ont fabriqué de toutes pièces l’enchaînement des 1,08 million de paires de bases d’une petite bactérie, Mycoplasma mycoides. Ils ont même inséré quatre séquences d’un millier de paires de bases, qui constitue une sorte de filigrane ; elle contient notamment le nom des auteurs et trois citations dont une de Richard Feynman « Je ne comprends pas ce que je ne peux créer62. » Ils sont partis de la connaissance de la liste des paires de bases qui constituent le génome de cette bactérie, obtenue par séquençage, et sont passés par une série d’étapes successives qui font appel à différentes méthodes, des enzymes pour coller ensemble les petits doubles brins, des procédés de biotechnologie pour dupliquer les brins de plus en plus longs (ceux-ci sont insérés dans le génome de microorganismes comme Escherichia coli puis Saccharomyces cerevisiae pour les reproduire). On peut résumer le processus de manière simplifiée ainsi : • fabrication en associant un par un les blocs « ensemble désoxyribose-A/T/G/C-phosphate » par les méthodes de la chimie pour aboutir à 1 078 « cassettes » de 1 080 paires de bases chacune. Chaque cassette représente environ un millième du génome. Elles se chevauchent légèrement, chacune recouvrant 80 paires de bases de ses voisines (ce qui est nécessaire pour que les voisines se reconnaissent entre elles quand on va les coller) ; • ces cassettes sont collées ensemble par paquets de dix, à l’aide d’enzymes qui dénudent les extrémités des cassettes et recollent les bouts qui se chevauchent, ce qui mène à 109 brins de dix mille paires de bases ; 62

62. On peut le décoder si on applique une table de correspondance entre les codons et vingt lettres de l’alphabet. Par exemple « TAG » = « A ».

187

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

• ces 109 brins sont ensuite assemblés pour produire 11 brins d’environ cent mille paires de bases. À cette étape, l’équipe a testé la viabilité de chacun de ces onze brins, et a notamment mis en évidence une erreur dans l’un des brins (une base qui manquait et suffisait à rendre le génome non viable) ; • ces 11 brins synthétiques sont ensuite assemblés pour produire un double brin circulaire d’ADN, qui est le chromosome complet de Mycoplasma mycoides ; • le chromosome est ensuite incorporé à une autre bactérie, Mycoplasma capricolum. Cette bactérie a accepté le génome synthétique et s’est ensuite développée comme une nouvelle espèce, qui a été baptisée Mycoplasma mycoides JCVI-syn1.0.

QUESTIONNEMENTS La biologie de synthèse et les développements que nous venons de traiter suscitent des espoirs mais aussi des inquiétudes. Parmi les espoirs, ceux de développer une industrie biosourcée, qui peut limiter la pression de l’Homme sur l’environnement en limitant l’usage de ressources non renouvelables et de substances dangereuses. Souvent aussi, on met en avant les retombées dans le domaine de la santé. Comme on l’a vu, ces techniques permettent en effet de fabriquer divers principes actifs de médicaments. Les inquiétudes sont de natures diverses. On pourrait les classer en quatre grandes catégories. – Le risque pour l’Homme. Les recherches, voire un processus industriel mal maîtrisé, ne pourraient-ils pas répandre dans la nature de nouvelles espèces pathogènes ? Ce n’est pas complètement une histoire nouvelle. En 1975, cent quarante scientifiques se réunissent à Asilomar (en Californie) pour débattre des risques et des promesses des techniques toutes nouvelles de l’époque permettant de modifier le génome d’un microorganisme. Cette phase de doute dura quelques années jusqu’à ce que, l’accumulation de 188

NANOMONDE

QUELLE CONVERGENCE ?

connaissances aidant, on arrive à une réglementation adaptée. Toutefois, des techniques nouvelles qui sont apparues dans les années 2000 posent de nouvelles questions. Un exemple récent, discuté dans l’encadré qui suit, est la création de virus potentiellement dangereux à des fins de recherche. – Le risque pour l’environnement et la biodiversité, notamment pour les développements hors confinement. Par exemple, une nouvelle espèce pourrait échapper à son confinement et interagir de manière non prédictible avec les écosystèmes. C’est une crainte qui est associée aux OGM depuis la fin des années 1990 et qui ne peut qu’être exacerbée avec des organismes plus profondément modifiés. Ces questions sont particulièrement préoccupantes pour des applications concernant de vastes tonnages, comme la fabrication de biocarburants ou la séquestration de gaz carbonique. – Des développements qui seraient contraires au bien commun : compétition avec l’alimentation, situation de monopole, appropriation de la nature par quelques firmes, injustice économique. – La légitimité de l’Homme à jouer avec la nature en l’instrumentalisant. Ce questionnement est parfois explicite. Lorsque l’équipe de Daniel Gibson et Craig Venter créa ce qu’ils appelaient une forme de vie synthétique, certains considérèrent cela comme une transgression. Un exemple de ces débats est illustré dans un article du Dayly Mail « Des scientifiques accusés de jouer à être dieu après avoir créé une forme de vie artificielle en créant un microbe à partir de rien. Mais cela ne pourrait-il pas effacer l’humanité ?63 ». Il est intéressant de noter que la fresque La création d’Adam de Michel Ange a été détournée de manières diverses pour représenter la biologie synthétique. On la trouve ainsi faisant la couverture d’un numéro de

63. « Scientist accused of playing God after creating artificial life by making designer microbe from scratch - but could it wipe out humanity?” par Fiona Macrae, le 3 juin 2010. Consultable sur http://www.dailymail.co.uk/sciencetech/article-1279988/ Artificial-life-created-Craig-Venter--wipe-humanity.html

189

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

The Economist64 ou celle du rapport « Ingénierie génétique extrême » de l’ONG ETC65. – En 2012, une centaine d’organisations non gouvernementales prennent à leur compte un rapport intitulé « Les principes de la surveillance la biologie de synthèse66 » et demandent l’application d’un moratoire sur l’usage commercial d’organismes synthétiques, le temps d’une prise de recul sur ces techniques, les risques, les alternatives. FABRIQUER UN VIRUS Un virus est composé d’une structure protéique appelée la capside, contenant de l’information génétique (ADN ou ARN selon les virus) qui en constitue le « plan ». Cette dernière représente quelques milliers à des dizaines de milliers de bases. Ce sont des entités relativement simples, intermédiaires entre l’inanimé (c’est ce qu’ils sont en dehors d’une cellule hôte) et le vivant (une fois dans la cellule hôte, ils se multiplient comme un être vivant). Savoir séquencer et synthétiser des brins d’ADN ou d’ARN correspondant à l’information génétique des virus revient à dire, pour beaucoup de virus, qu’on peut les fabriquer en introduisant cette information dans une cellule dont la machinerie interne peut lire et exécuter les instructions de fabrication qu’ils constituent. C’est ainsi qu’en 2002, le virus de la polio (7 741 bases) a été synthétisé par l’équipe d’Eckard Wimmer (université Stony Brook de New York). Ces techniques permettent de travailler beaucoup plus efficacement sur les maladies mais sont aussi à l’origine d’inquiétudes sur les conséquences de ces manipulations. Par exemple, éradiquer un virus n’a plus vraiment de sens si on dispose de son code génétique.

64. http://www.economist.com/node/16163154 65. http://www.etcgroup.org/sites/www.etcgroup.org/files/publication/602/01/ synbioreportweb.pdf 66. http://www.synbioproject.org/process/assets/files/6620/_draft/principles_for_ the_oversight_of_synthetic_biology.pdf

190

NANOMONDE

QUELLE CONVERGENCE ?

Une polémique récente a porté sur les virus de la grippe. Ceux-ci sont composés de huit brins distincts d’ARN qui représentent au total 13 500 paires de base. Cet ARN code pour 11 protéines qui composent le virus ou servent à sa fabrication au sein des cellules infectées. Il en existe plusieurs variantes, qui peuvent infecter l’animal (grippe aviaire, porcine) et/ou l’Homme. Ces variantes peuvent muter ou se recombiner, en donnant parfois naissance à un virus particulièrement virulent pour l’Homme. C’est ce qui s’est passé en 1918, avec l’émergence de la grippe espagnole. Le génome complet de ce virus a pu être déterminé à partir de biopsies pulmonaires faites à l’époque ou de victimes enterrées dans des sols gelés. Le virus a été reconstitué en 1998 par une équipe du Centre de prévention et de contrôle des maladies américain (CDC), ce qui a permis de l’étudier pour comprendre pourquoi il fut si redoutable. L’une des questions qui se posent pour les organismes en charge de la surveillance des virus est la « distance » séparant les virus actuellement présents dans la nature et un virus qui pourrait se révéler à la fois contagieux pour l’Homme et à l’origine de formes de grippe très graves. En 2012, deux équipes ont publié simultanément des travaux sur ce sujet, l’une de l’Institut Erasmus de Rotterdam, l’autre de l’université du Wisconsin. Il s’agissait pour elles de fabriquer des mutants du virus de la grippe aviaire, sélectionnés pour être contagieux pour les mammifères (pour ces études il s’agissait de furets). Avant même leur publication, ces travaux ont suscité de vifs débats, même s’ils visaient à éviter une future pandémie et si les équipes avaient pris les précautions nécessaires. L’Organisation mondiale de la santé a notamment organisé des consultations portant sur ces « recherches préoccupantes à usage dual », c’est-à-dire qui peuvent conduire à des applications à la fois civiles et militaires et qui posent ainsi le problème de la possibilité d’un détournement pour une utilisation malveillante67. Ce sujet a récemment été repris en France notamment dans l’article d’Yves Sciama, intitulé « Virus mutants. Les furets de la discorde », publié dans Le Monde du 12 mars 201468. 6768

67. http://www.who.int/csr/durc/en/ 68. http://www.lemonde.fr/sciences/article/2014/03/10/virus-mutants-les-furetsde-la-discorde_4380437_1650684.html

191

6 Nanomachines et imaginaires NANOMACHINES ET FICTION Les peurs qui plaisent La science-fiction fournit périodiquement des récits de grandes peurs, inspirées par le contexte historique du moment qui se croise avec les connaissances scientifiques disponibles. Parfois certains thèmes durent, prolongés par des versions successives de plus en plus riches en effets numériques, et aussi par des parodies. Pour citer quelques exemples : – après l’usage des armes nucléaires dans les années 1940, les effets mystérieux des radiations et leur cortège de mutants, avec Godzilla, le plus célèbre d’entre eux ; – à la fin des années 1950, sur fond de guerre froide et de conquête spatiale, la vague des ovnis et les invasions d’extraterrestres ; – le règne de machines dotées d’intelligence artificielle, avec comme emblème la série des films Terminator ; – les films de fin du monde (astéroïdes, dérèglement du climat, tremblements de terre…) ou de films décrivant des pandémies, avec un goût particulier pour les virus qui se transforment en zombies.

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Les nanocréatures dans la littérature Mais qu’en est-il des nanotechnologies ? La vision d’un monde peuplé d’êtres microscopiques date du XVIIe siècle, avec notamment les travaux de van Leeuwenhoek qui, avec un microscope amélioré, observa divers microorganismes. Deux siècles plus tard, on trouve des allusions à ce nanomonde chez Victor Hugo qui, dans Les travailleurs de la mer, écrit une phrase qui se termine avec des accents drexleriens : « Dans d’autres profondeurs la goutte d’eau se fait monde, l’infusoire pullule, la fécondité géante sort de l’animalcule, l’imperceptible étale sa grandeur, le sens inverse de l’immensité se manifeste ; une diatomée en une heure produit treize cents millions de diatomées. » De même, Guy de Maupassant dans sa nouvelle Lettre d’un fou écrit, à propos de l’œil : « S’il avait même cent millions de fois sa puissance normale, s’il apercevait dans l’air que nous respirons toutes les races d’êtres invisibles, ainsi que les habitants des planètes voisines, il existerait encore des nombres infinis de races de bêtes plus petites et des mondes tellement lointains qu’il ne les atteindrait pas. » Mais revenons au XXe siècle, avec son cortège de découvertes sur les propriétés de la matière vivante ou inerte, qui inspira abondamment les auteurs de science-fiction. C’est à cette époque qu’apparaissent divers récits qui mettent en scène des nanocréatures, qu’elles soient mécaniques ou d’origine biologique. En ce qui concerne l’écrit, nous nous intéresserons ici à seize romans ou nouvelles, qui traitent de machines artificielles miniatures69. Premier constat : pour ceux qui veulent imaginer à quoi ressemble une nanomachine, il faut se la représenter avec un chapeau de cow-boy plutôt qu’avec un béret basque. Sur les seize auteurs du tableau 8, treize en effet sont américains. Force est de constater que le cinéma n’a pas été inspiré autant que la littérature par les nanotechnologies. Pas de film catastrophe

69. Une exception, la première de la liste pour laquelle il y a une ambiguïté, car on est proche d’une histoire de contagion. Elle a été retenue car les « nano entités » qui y sont décrites ont des points communs avec les autres.

194

NANOMONDE

NANOMACHINES ET IMAGINAIRES

montrant des nanoparticules s’échappant de quelque laboratoire secret et semant la panique, avant qu’un sympathique scientifique ne parvienne à les contrôler en gagnant le cœur de la fille du directeur du laboratoire. Souvent les nanotechnologies sont là, mais avec un second rôle, juste pour justifier que quelque chose d’extraordinaire soit tout à fait normal. Cela peut être par exemple l’armure d’Iron man, ou le robot liquide T1000 dans Terminator 2. Toutefois, les nanomachines sont vraiment présentes dans quelques séries ou épisodes de séries. Le tableau 9 en donne quelques exemples. Tableau 8 | Quatorze récits mettant en scène des nanocréatures.

Titre

Auteurs. Pays si non américain

Première parution

Suicide

John Campbell

1938

L’Invincible

Stanislas Lem (Pologne) 1962

Édition française Robert Laffont3, 1992 Robert Laffont, 1972

La musique de sang Greg Bear

1985

Gallimard, 2005

La reine des anges

Greg Bear

1990

Robert Laffont, 1993

Les assembleurs de l’infini

Kevin J. Anderson et Doug Beason

1993

Bantam books, 1993

L’âge de diamant

Neal Stephenson

1995

Payot et Rivages, 1996

Oblique

Greg Bear

1997

Robert Laffont, 1999

La proie

Michael Crichton

2002

Robert Laffont, 2003

La vendetta Lazare

Robert Ludlum et Patrick Larkin

2004

Bernard Grasset, 2006

Nano

John Robert Marlow

2004

Ventus

Karl Schroeder (Canada) 2005

Plague Year

Jeff Carlson

2007

Spirale

Paul Mc Euen

2011

Ixelles Éditions, 2011

BRZK

Michael Grant

2012

Gallimard Jeunesse, 2012

Nano

Robin Cook

2013

Albin Michel, 2013

2014

Édition numérique

Projet Bradbury #32 Neil Jomunsi (France/ (nano) Allemagne)

Folio, 2005

195

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

Tableau 9 | Quelques séries ou épisodes de séries mettant en scène des nanocréatures.

Star Trek, la nouvelle génération Saison 3 (Évolution)

1989

États-Unis

Jake 2.0

2003

États-Unis

Docteur Who (Drôle de mort et épisode suivant)

2005

Royaume-Uni

Kali

2009

France

Révolution. Saison 1

2012

États-Unis

TROIS VISIONS DU FUTUR De manière simplifiée, on peut classer les contextes associés aux histoires de nanomachines en trois grandes catégories. Celles-ci se distinguent par l’époque où se situe l’intrigue par rapport au moment où l’Homme découvre les nanotechnologies. Les nano-aliens Ces récits mettent en scène des nanomachines très sophistiquées, d’origine extraterrestre, qui échappent à la compréhension de l’Homme, dans la mesure où celui-ci ne maîtrise pas ou à peine ces technologies. L’Homme est confronté à ces nanocréatures et, au fil de l’intrigue, il comprend la logique de leur action. C’est ainsi que, dans le roman L’Invincible, un vaisseau spatial se pose sur la planète Régis III. Son équipage a pour mission de retrouver un autre vaisseau porté disparu. Il doit faire face à des pseudoinsectes qui se révèlent être les descendants de machines extraterrestres, qui sont devenus une forme de vie à part entière, plutôt hostile. De même, dans Les assembleurs de l’infini, les occupants d’une base lunaire sont confrontés à des nanomachines qui s’emploient à construire une gigantesque structure. Ils comprennent progressivement qu’elles ont été conçues par des extraterrestres et disséminées dans l’espace, quasiment à la vitesse de la lumière, avec pour mission la construction de bases avancées sur d’autres 196

NANOMONDE

NANOMACHINES ET IMAGINAIRES

planètes. C’est en effet un moyen d’explorer l’espace, les nanoparticules (ou dans ce cas les nanomachines) pouvant être accélérées à de telles vitesses. Pendant ce temps, l’humanité se livre ellemême à ses premières expériences sur des nanomachines autorépliquantes. Dans la même catégorie, on peut ranger la nouvelle Suicide, qui date de la fin des années 1930. Une mission découvre une civilisation très avancée dont tous les membres se sont suicidés. Les explorateurs découvrent un peu tard les raisons de ce suicide collectif. On peut également ranger dans cette catégorie l’épisode Évolution de la série Star Trek, la nouvelle génération. Ce récit se passe au vingt-quatrième siècle, dans le vaisseau Enterprise. Mais, même à cette époque, l’Homme n’a pas tout compris. Un adolescent fait des expériences avec deux nanites dans le cadre d’un projet scolaire. Ces nanites sont à l’origine des nanorobots chirurgiens, destinés à réparer les cellules, stockés dans l’infirmerie du vaisseau. Il les égare et celles-ci se multiplient rapidement en s’améliorant d’une génération à l’autre. En quête de matière première pour assurer leur croissance, les nanites commencent à dévorer l’ordinateur du vaisseau, ce qui ne passe pas inaperçu. L’équipage de l’Enterprise se retrouve alors confronté à ce qui est devenu une véritable forme de vie, dotée d’une intelligence collective, mais son commandant est habitué à de telles rencontres. Le thème du nanorobot médical hors contrôle est également développé dans la série Docteur Who. Des nanogènes, là aussi des nanochirurgiens, destinés à soigner toute blessure, s’échappent d’un vaisseau spatial ambulance qui s’est écrasé sur Terre dans les années 1940. Les nanogènes ne connaissent pas la race humaine et prennent pour modèle le premier humain rencontré, un cadavre avec un masque à gaz. Croyant bien faire, ils tentent de « réparer » tous les humains qui ne sont pas conformes au modèle.

197

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

L’émergence des nanomachines Dans cette catégorie, on classe les histoires liées à la mise au point de nanomachines par l’Homme, dans un cadre qui se veut réaliste. Ces romans s’apparentent plus à des thrillers qu’à des romans de science-fiction. Souvent l’histoire se situe dans l’univers des start-ups high-tech, la plupart du temps dans le domaine médical. Toutes ces entreprises luttent pour innover et convaincre les investisseurs. Une note d’ambiance peut être ajoutée, avec des clôtures ou des lieux isolés, des services de sécurité sans scrupules, des complots. En ce qui concerne l’intrigue, les ingrédients les plus communs sont des expériences risquées ou illégales pour réussir à tout prix (les investisseurs attendent), une perte de contrôle de l’invention, souvent liée à un facteur humain. Suivant le cas, l’intrigue finit bien (tout rentre dans l’ordre) ou très mal (la quasiextinction de l’humanité), toujours après quelques morts horribles. C’est le cas de romans tels que La musique de sang, La proie, La vendetta Lazare, Plague year, Spirale, les deux premiers nano du tableau 8. Prenons, comme exemple le Nano de Robin Cook. Le personnage principal est une chercheuse qui est recrutée par la société « Nano » pour travailler sur des microbivores, c’est-àdire des nanomachines qui peuvent traquer les microbes. De quoi envoyer les antibiotiques au musée. Cette société semble viser des buts louables, mais s’entoure d’un impressionnant système de sécurité. Progressivement, le personnage principal découvre que l’entreprise se livre aussi à des essais visant à améliorer les performances des athlètes et pratique des essais illégaux sur l’humain, essais qui font des victimes. Dans Plague War, tout commence dans une start-up qui met au point des nanomachines auto-répliquantes qui, une fois injectées dans le corps, tuent des cellules cancéreuses. À plus long terme, c’est l’immortalité que vise la fondatrice de cette société, des versions améliorées de ces machines pouvant tout réparer. Un collaborateur travaillant dans cette startup vole l’invention et une chaîne d’événements (inconnue) mène 198

NANOMONDE

NANOMACHINES ET IMAGINAIRES

à la rupture du confinement. Très vite, ces nanomachines envahissent la Terre entière, tuant cinq milliards de personnes et tous les animaux à sang chaud, en se multipliant exponentiellement. Le seul refuge est en haute montagne. De même, la saison 1 de la série Révolution décrit une situation d’émergence plutôt chaotique des nanomachines. Des recherches militaires en libèrent un grand nombre et celles-ci absorbent l’électricité sur toute la planète en entraînant le déclin de la civilisation. Les séries télévisées américaines abordent plus volontiers le thème de l’augmentation d’un individu grâce aux nanotechnologies. Il semble que, dans ces séries, le risque le plus sérieux encouru, après avoir été exposé à des nanomachines, est d’être enrôlé par les services secrets. C’est le thème de la série américaine de 2003, Jake 2.0. Notre héros se retrouve accidentellement contaminé par des « nanites », pas si antipathiques que cela, puisqu’elles lui donnent des pouvoirs surhumains. De même, l’héroïne de la série française de 2009 Kali est une femme amnésique, mais bourrée de nanotechnologies. Dans un registre proche, la série américaine de 2014 Intelligence a pour héros un agent secret avec une puce implantée dans le cerveau. Les nanomachines familières Quelques romans se situent dans un futur lointain, dans lequel les nanomachines font partie du décor voire le construisent. Elles ne sont pas toujours l’élément central de l’intrigue, mais sont partout. Il y a deux grands cas de figure. • Dans le premier, elles sont utilisées en routine par l’homme. C’est le cas des romans L’âge de diamant, Oblique, La reine des anges, Projet Bradbury #32, BRZK. Les nanomachines y sont utilisées à des fins variées, inspirées au moins partiellement par les visions d’Éric Drexler ou de Ray Kurzweil, telles que discutées au chapitre 5. Il y a tout d’abord la fabrication d’objets (y compris de repas chauds) à partir de briques de 199

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

base standardisées (« l’alim » chez Neal Stephenson) ou de n’importe quel objet qui est déconstruit pour fournir de la matière première. D’autres usages sont décrits tels que l’interaction avec le corps, notamment le système nerveux, l’espionnage, l’armement, l’audiovisuel, des formes de communication mêlant image et interfaces avec le système nerveux, utilisés par l’industrie pornographique (le « Yox » chez Greg Bear). Le summum de la banalisation est sans doute celui dépeint dans L’âge de diamant. Dans l’univers de ce roman, les machines sont devenues omniprésentes, comme le sont pour nous les bactéries ou les acariens. Par exemple, en cherchant avec un microscope, on en trouve facilement un millier par centimètre carré de peau sur n’importe quel individu. • Dans le second cas de figure, les nanomachines sont omniprésentes mais elles sont devenues une forme de vie à part entière, étrangère à l’Homme. Celui-ci doit composer avec elles, mais ne les comprend plus (sauf un cercle d’initiés). Le roman Ventus décrit une telle situation. Les nanomachines ont été initialement conçues par l’Homme pour terraformer une planète. Omniprésentes, elles continuent à entretenir la planète, habitant chaque brin d’herbe. Mais elles ne reconnaissent plus les colons, lointains descendants de leurs créateurs. De même, la saison 2 de la série américaine Révolution décrit un monde qui, après l’accident initial, est désormais peuplé de nanomachines qui ont leur logique propre.

200

NANOMONDE

NANOMACHINES ET IMAGINAIRES

58 | Les nanocréatures sont souvent indésirables.

Que sont-elles et comment les fabriquer ? La grande majorité des machines qui peuplent ces romans sont fabriquées par des techniques extrapolées de ce qui existe dans les laboratoires depuis les années 1990. Parfois l’auteur traite de questions évoquées dans les chapitres précédents de cet ouvrage, comme l’alimentation en énergie de telles machines, leur programmation, la chaleur dégagée par des assembleurs. Pour une partie des romans, c’est plutôt l’attirail du physicien qui est de mise : métaux et semi-conducteurs, salles blanches, pompes, microscopes électronique ou à force atomique, des techniques de lithographie, parfois de la robotique. D’autres auteurs se sont plutôt inspirés des biotechnologies en mettant en scène des bactéries, des phages, des enzymes, des ribosomes. Souvent les deux mondes coexistent. Les versions les plus futuristes développent les idées de Feynman ou de Drexler, avec des opérations de manipulation à l’échelle atomique. Dans L’âge de diamant, on visite un atelier de conception dans 201

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

lequel la matière est assemblée atome par atome, par un nanomanipulateur commandé par la main de l’opérateur. Sa main est placée dans un gant à retour d’effort qui lui transmet les forces entre atomes, après amplification, de quoi vivre en direct la situation représentée à la figure 56. Heureusement, pour les tâches répétitives, un ordinateur prend le relais. Chez Anderson, Cook, Crichton, Mc Euen, Ludlum, Stephenson, les grands anciens sont cités, soit à travers une citation, à travers leur portrait accroché dans un centre de nanotechnologie, soit au détour d’une digression scientifique. C’est le cas de Feynman, Drexler, Merkle70, parfois associés à d’autres noms de pionniers de l’informatique ou de l’intelligence artificielle. Une autre constante de ces laboratoires est la sécurité. Parce que ces machines peuvent être dangereuses, il faut des filtres, des sas, des scaphandres. Le summum est les NIL (laboratoire d’isolation des nanotechnologies) décrits dans Assembleurs de l’infini. Ce sont des laboratoires situés dans des lieux très isolés, la Lune et l’Antarctique. Ils sont dotés d’un système d’autodestruction qui noie les locaux sous une avalanche de rayons X si les choses tournent mal (et bien sûr, ça arrive). La sécurité est également omniprésente autour des installations pour protéger des secrets militaires ou industriels. Très souvent donc, ces installations sont secrètes avec des accès très soigneusement contrôlés. Une galerie de personnages pittoresques Voyons quelques-unes de ces nanocréatures, par ordre chronologique. Q

Les nuages noirs du roman L’invincible (1962)

Ce sont en quelque sorte les ancêtres des nanomachines, le roman ayant été publié quand Drexler n’avait que sept ans. Les nuages noirs 70. Ralph Merkle est à l’origine un informaticien. À la fin des années 1990, il s’intéresse aux nanotechnologies et est recruté par la société Zyvex.

202

NANOMONDE

NANOMACHINES ET IMAGINAIRES

sont composés de nanocréatures qui ressemblent à des insectes, sans doute de taille millimétrique. L’auteur fait allusion à leurs éléments, plusieurs centaines de fois plus petits qu’un grain de sable, soit des micromètres. Chaque nanocréature, de couleur noire, en forme de Y, est relativement impuissante et peu intelligente. Elle est tout juste capable de voleter. Mais elle peut se fixer à trois voisines par les branches du Y, pour former des petits agrégats. Elles partagent alors force et intelligence et agissent principalement en générant de puissants champs électromagnétiques et de la chaleur. Des nombres considérables de ces agrégats peuvent se déplacer en nuages quasiment indestructibles. Ils tirent leur énergie du rayonnement solaire ou des nuages d’orage. Dans ce roman, l’auteur évoque le futur tel qu’imaginé à la fin des années 1950, c’est-à-dire l’univers du film Planète interdite : des technologies spatiales, de la robotique, des armes à rayon dirigé, mais pas de nanotechnologies. Mais Stanislas Lem n’a pas besoin d’avoir imaginé le laboratoire nano du futur. En effet, contrairement à beaucoup de leurs consœurs, ces machines n’ont pas été conçues et encore moins fabriquées. Elles ont pour ancêtre des machines plus grosses, à l’origine destinées à des tâches de maintenance, qui ont évolué pendant des millions d’années en se miniaturisant. Q

L’essaim de La proie (2002)

C’est en effet le mot qui vient à l’esprit pour nommer ces nanomachines, car elles ne fonctionnent qu’en groupe. Elles sont conçues à l’origine pour réaliser des films de l’intérieur du corps, mais aussi comme dispositif d’observation d’un champ de bataille. Elles peuvent accomplir ces tâches grâce à leur capacité à se déplacer et à se positionner de façon très précise les unes par rapport aux autres. Elles ressemblent à des calmars, avec une petite masse arrondie et des filaments/flagelles à l’arrière. Leur taille est un dixième de globule rouge, soit 500 nanomètres. Elles se déplacent en volant, en « utilisant la viscosité de l’air », mais se propulsent aussi dans les liquides avec 203

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

leurs flagelles. Elles présentent un double aspect organique-inorganique. Elles sont construites à partir de biotechnologies mais ont des caractéristiques de microsystèmes (caméra, programmation, communication radio). Q

Les nanophages de La Vendetta Lazare (2004)

À l’origine, ce sont des systèmes destinés à détruire des cellules cancéreuses ou des microorganismes. Mais des individus moins bien intentionnés font en sorte qu’ils ciblent toutes les cellules. Les nanophages sont fabriqués par des procédés chimiques par séries de millions jusqu’à cent milliards (pour les applications terroristes) mais ne se répliquent pas. Ils se présentent sous la forme de sphères semi-conductrices (un peu de microélectronique) de 200 nanomètres remplies de structures moléculaires complexes. Elles ont une petite source d’énergie interne sous forme d’ATP. On n’est pas loin des proto cellules du chapitre précédent. Q

Archos de The plague year (2007)

Les nanomachines appelées Archos sont produites dans une startup. Elles sont conçues pour entrer dans le corps de tous les êtres à sang chaud et s’y reproduire en tuant (d’abord) des cellules cancéreuses. Mais elles ne sont pas encore au point, il manque notamment un bouton stop, défaut qui va poser quelques problèmes, comme on peut s’en douter. Par précaution, Archos est conçu pour se détruire à basse pression (l’équivalent de 3 000 m d’altitude), ce qui permet en théorie d’éliminer les nanomachines après traitement d’un patient, et de les confiner en enfermant le laboratoire dans un caisson à basse pression. Les nanomachines Archos sont produites par des techniques de nanofabrication telles qu’assemblage par microscope à force atomique, faisceau d’électrons, lasers ultraviolets. Elles ressemblent à des petits robots en forme d’insectes avec une apparence métallique et des formes géométriques. Point important, elles contiennent une unité de calcul qui définit leur comportement. Elles sont formées de quelques 204

NANOMONDE

NANOMACHINES ET IMAGINAIRES

milliards d’atomes de carbones (soit des 10–17 kilogramme) et leur taille se situe donc dans la gamme des 100 nanomètres. Q

Les micro-rampants de Spirale (2011)

Cette création sort du registre des machines « à la Drexler » pour se rapprocher de celui de la microrobotique. Les micro-rampants sont des microrobots, tout à fait banals dans l’univers du roman. Ils peuvent réaliser des tâches variées (nettoyage, médecine, biologie…). Dans Spirale, ce sont des microjardiniers qui cultivent des moisissures dans un laboratoire, mais sont aussi utilisés à des fins terroristes comme transporteurs de toxine. Ils sont décrits comme des sortes d’insectes avec six pattes en silicium très tranchantes qui font un tintement caractéristique quand ils se déplacent. Ils travaillent éventuellement en petits groupes. Ce sont des MEMS, dont les plans sont disponibles en open source. Ils sont fabriqués par les techniques de la microélectronique en 47 étapes. L’aspect nano est dû au fait que leurs pièces peuvent être nanométriques, ce qui les rend très complexes, comme c’est le cas avec un microprocesseur. Les microrampants se nourrissent de composés organiques (sucre, maïs) et une cellule biologique digère ces aliments pour produire du carburant. Il est en effet impossible d’installer une batterie suffisante à l’intérieur. On peut les voir comme les descendants des robots centimétriques décrits au chapitre précédent. Q

Les nanocréatures biologiques

Mentionnons une autre famille de nanocréatures, tout aussi redoutables, celles d’origine purement biologique. Elles auraient pu tout aussi bien être rangées avec les innombrables histoires de contagion, mais elles présentent des points communs certains avec nos histoires de nanorobots. On peut en citer deux. Les molécules intelligentes de la nouvelle Suicide (1938). Ce sont des molécules proches des protéines, formées d’une centaine de millions d’atomes. Elles peuvent penser et tirent leur énergie de la 205

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

lumière. Surtout, elles prennent le contrôle des protéines de leur hôte. Elles s’inspirent de la biologie du début du vingtième siècle. La notion de macro-molécule date d’ailleurs de 1922. Les lymphocytes intelligents de La musique de sang. Ces sont des cellules humaines qui ont été modifiées par l’ajout de circuits logiques biologiques, à l’image de ce qui a été discuté en fin de chapitre 4 dans la section « Des systèmes pour traiter l’information ». Au début, elles sont capables de communiquer entre elles, de franchir des labyrinthes, de contrôler le corps d’un hôte, puis deviennent une forme de vie à part entière. Dans ce roman, c’est un chercheur qui opère ces modifications à l’aide de techniques de la biologie, et déclenche la catastrophe en cherchant à continuer ses travaux à tout prix, malgré l’hostilité de son employeur. Il en résulte une incroyable forme de vie qui modifie radicalement la surface du continent américain. Une intelligence collective Si on devait citer quelle est la caractéristique la plus partagée de nos nanocréatures, la réponse serait, sans le moindre doute, l’intelligence collective. Il y a certes quelques récits qui les mettent en scène en petits nombres, comme BRZK ou Spirale. Mais dans l’écrasante majorité des cas, nos nanocréatures sont très nombreuses, soit qu’elles aient été fabriquées en grand nombre, soit qu’elles s’auto-répliquent. Et ces nuages, essaims, collectifs de nanocréatures ont un point commun : ils sont intelligents. L’auteur peut adopter une approche qui se veut réaliste. Il met par exemple l’accent sur les circuits ou le logiciel qui contrôlent les machines. Le comportement du collectif apparaît alors comme une propriété émergente de la programmation, comme nous l’avons évoqué au chapitre 5 à propos des kilobots. C’est ainsi que, dans La proie, Michael Crichton évoque la programmation d’un essaim de machines destinées à travailler collectivement, pour filmer un champ de bataille. Le héros de ce roman est d’ailleurs un informaticien, qui cherche à imiter le comportement collectif des insectes dans ses programmes. Il appelé pour réparer un problème… De même, 206

NANOMONDE

NANOMACHINES ET IMAGINAIRES

dans le roman L’invincible, publié en 1962, alors que la cybernétique (l’ancêtre de l’intelligence artificielle) était en plein essor, Stanislas Lem décrit des petites machines très rudimentaires qui peuvent se brancher entre elles pour former une puissante intelligence collective. Au début de La musique de sang, un scientifique parvient à modifier des Escherichia coli puis des globules blancs, pour qu’ils puissent calculer en utilisant des séquences « bio-logiques » d’ADN, jusqu’à ce qu’un simple globule acquière l’intelligence d’un singe rhésus. Dans ce cas de figure, le collectif, ce sont les biomolécules à l’intérieur de la cellule, puis plus tard l’ensemble de ces cellules transformées. Mais l’intelligence ne s’arrête parfois pas là. Dans quelques récits, du système informatique « multi-agents » émerge une forme de conscience. Suivant le récit, cette pensée peut être impénétrable à l’Homme qui, s’il perçoit le comportement intelligent des machines, ne comprend pas leur but, par exemple dans Les assembleurs de l’infini. Dans d’autres cas, cette intelligence collective communique avec l’Homme ou, du moins, des initiés. Dans La proie, l’essaim finit par contrôler des personnages et s’exprime par leur voix. Dans Révolution, saison 2, les nanomachines prennent une forme humaine pour s’adresser à l’un des personnages. Dans Suicide, Ventus ou dans La musique de sang, le héros les entend sous la forme d’une voix intérieure. Dans Star Trek, la nouvelle génération, les nanites sont proches de puces informatiques et elles communiquent avec l’Homme par l’intermédiaire d’un robot humanoïde.

QUELS SONT LEURS EFFETS ? Un peu d’horreur Dans la plupart des récits traités dans ce chapitre, les nanocréatures font peur. Deux registres sont exploités. Le premier c’est celui de la contagion. Dans Suicide, Assembleurs de l’infini, Plague Year, La musique de sang, les nanomachines pénètrent furtivement dans le corps avant de se multiplier et de causer des dommages. C’est la 207

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

peur de la contamination qui hante les protagonistes de l’histoire. Le vocabulaire est celui de la maladie infectieuse, de la contamination, de l’infection. Le second registre, c’est celui de l’insecte, qu’il soit mouche, ou fourmi. La plupart des récits font le rapprochement entre des nanomachines et des insectes, à cause de leur aspect (pattes, crochets, surface brillante, mouvement) et aussi de leur action en essaim. Quels dommages ces nanomachines causent-elles à leurs malheureuses victimes ? Pour réaliser un bon roman, il semblerait qu’il faille faire son choix dans les quatre familles qui suivent, parfois sans se limiter. Michael Crichton a emprunté à trois d’entre elles dans son roman La proie. – Tout d’abord, ces nanocréatures peuvent agir comme des insectes. Par exemple, dans La proie, les personnes atteintes meurent parce que l’essaim pénètre dans leurs voies respiratoires et les étouffe. Le summum de l’horreur est sans doute le texte de Spirale avec des micro-rampants, sortes de cafards en silicium aux pattes tranchantes, qui sont introduits dans l’estomac de leur victime. – Ensuite, elles peuvent agir au niveau moléculaire en dissolvant littéralement leur victime. C’est ce qui est décrit dans Nano de John Robert Marlow, La vendetta Lazare, Plague year, Oblique. Il y a différentes nuances. Suivant leur vitesse de destruction, cela va de l’infection qui ronge lentement certains organes à l’attaque massive de toute matière organique, avec une victime qui se gélifie en hurlant. Dans Les assembleurs de l’infini, cela ne vaut guère mieux, les nanomachines situées sur la Lune dissolvent les scaphandres de ceux qui s’approchent trop. Dans quelques rares cas, de telles scènes ont été portées à l’écran, comme dans la série Révolution, qui montre des nanomachines attaquant leur cible. – L’une des actions les plus récurrentes de ces machines est la prise de contrôle du cerveau. Le premier exemple est celui de la nouvelle Suicide. Des molécules intelligentes asservissent les molécules de leurs hôtes, qui n’ont pour moyen d’évasion que le suicide. Dans L’invincible, un nuage de nanomachines génère 208

NANOMONDE

NANOMACHINES ET IMAGINAIRES

un puissant champ magnétique (des centaines de teslas), qui efface toute la mémoire de sa victime. Dans La proie, l’essaim prend complètement le contrôle de ses victimes, de la matière qui compose son corps à son esprit. Dans BRZK, des nanomachines télécommandées sont utilisés par deux camps rivaux pour s’emparer de la volonté de leurs ennemis. Parmi ces machines, des « fileurs » établissent des connexions qui court-circuitent celles des neurones des cerveaux de leur cible pour les contrôler. On rejoint ici les leviers exploités par les récits de virus qui transforment leurs victimes en zombies. – Dernier cas, pour les amateurs d’horreur pure, l’assimilation. La victime ne meurt pas vraiment et des morceaux de son corps peuvent être conservés, mais elle se trouve « refondue » dans un ensemble plus vaste. C’est le cas de La musique de sang ou des Assembleurs de l’infini, romans dans lesquels les auteurs décrivent des scènes horribles. De même, dans La Proie, le corps des protagonistes contrôlés par des nanocréatures sont modelés par celles-ci. L’humain augmenté La nanomachine hostile est donc une espèce très fréquente dans la science-fiction. Il y a toutefois des exceptions. Parfois, elles donnent à la personne qui les a absorbées des capacités physiques ou mentales hors du commun, mais se retrouvent alors reléguées au second rôle, derrière le super-héros qu’elles ont créé. C’est le cas, comme nous l’avons vu, des séries Kali ou Jake 2.0, mais l’augmentation de l’humain apparaît aussi chez Greg Bear ou dans le roman Ventus. Dans ce dernier cas, l’un des protagonistes est animé par un réseau de « nanotech » qui le rend immortel et lui donne des pouvoirs quasi divins. Divers films décrivent des humains augmentés grâce à des nanotechnologies qui jouent des rôles secondaires, que cela soit explicite ou suggéré par des images qui suggèrent des nanoobjets qui agissent 209

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

sur son corps. Pour ne citer que quelques exemples, citons Transcendance de Wally Pfister et Lucy de Luc Besson, tous deux sortis en 2014 et, dans une moindre mesure, 007 Spectre (2015), film dans lequel James Bond se voit injecter des nanomachines (plus pour le localiser que pour l’augmenter ; il est inutile d’augmenter James Bond).

LES NANOMACHINES DE L’IMAGINAIRE En conclusion, les nanomachines qui peuplent l’imaginaire sont la plupart du temps des êtres dotés d’une intelligence collective, capables de contrôler la matière et l’esprit. Beaucoup font peur, car elles sont cousines des microorganismes qui infectent ceux qui passent trop près, mais aussi des insectes qui pénètrent dans le corps par millions. Le lien entre ces récits de fiction et la réalité du laboratoire est complexe : – d’un côté, leurs auteurs s’inspirent du monde de la recherche. On trouve ainsi dans ces romans des éléments réalistes, comme des descriptions d’installations de nanotechnologies ou de biotechnologie, qui visent à rendre l’histoire crédible et à la présenter comme une extrapolation du présent. On y aborde parfois des questions qui ont été traitées dans cet ouvrage sur leur fabrication, leur programmation collective, la question de leur alimentation en énergie ; – d’un autre côté, pour faire des nanocréatures un personnage à part entière, il leur faut ajouter des ingrédients supplémentaires. Beaucoup d’auteurs s’inspirent ainsi des idées de Drexler, qui attribue à ses assembleurs les propriétés d’une forme de vie (s’alimenter, agir, se reproduire). Ils vont souvent plus loin, en attribuant à leurs petits personnages une intelligence voire une conscience.

210

NANOMONDE

Conclusion

Depuis le discours de Richard Feynman, la notion de nanomachine a fait du chemin. De concept hypothétique faisant l’objet d’un pari à la fin du discours, cette notion a évolué pour devenir un concept courant. D’un côté il y a le monde des machines artificielles, qui correspond déjà à une réalité de laboratoire, voire industrielle. On y manipule des composants parfois nanométriques, obtenus par lithographie ou par synthèse chimique. Mais, souvent, on s’arrête au micromètre, les enjeux se situant plus en termes de diversification que de diminution de la taille. Ces filières mèneront à des systèmes parfois complexes, composés de micro- ou de nanoéléments associés pour remplir une fonction, qu’il s’agisse de calcul, de chimie ou d’action mécanique. On peut en attendre de réelles innovations dans le domaine du calcul, de la médecine, de la chimie voire des matériaux intelligents. De l’autre côté, l’observation du monde du vivant a révélé une multitude de nanosystèmes naturels qui peuvent être considérés comme des machines. En tirant parti des liaisons faibles entre atomes, et aussi de l’agitation thermique du milieu ambiant, ces nanosystèmes se révèlent très adaptés aux propriétés du nanomonde. Ils sont une source d’inspiration, notamment pour les chimistes qui cherchent à réaliser des nanomoteurs moléculaires. Tout comme l’Homme a utilisé la traction animale avant d’inventer le moteur, il a su utiliser les processus du vivant par exemple pour fabriquer des substances 211

NANOMONDE : LES FRONTIÈRES DU POSSIBLE

chimiques, avec un éventail des possibles qui s’accroît chaque jour. Désormais, on tente également de fabriquer des dispositifs inspirés du vivant. De là l’expression « biologie de synthèse ». Chose notable, dans ces deux domaines, qu’on peut qualifier de « frontière », des concours mondiaux ou des prix sont organisés pour stimuler l’imagination. Dans cet ouvrage, nous en avons cité trois. Le premier est le prix Feynman de l’Institut Foresight, qui récompense l’excellence de travaux liés à la « réalisation de l’objectif de Feynman en nanotechnologies ». Pour les dispositifs moléculaires, citons la « nanocar race » organisée en France à l’automne 2016. Enfin pour la biologie de synthèse, il y a l’iGEM, c’est-à-dire la Compétition internationale de machines génétiquement modifiées. Nous sommes actuellement à un carrefour. Les progrès des nanotechnologies et des biotechnologies font que les deux univers tendent à se confondre. On assiste ainsi à l’émergence de techniques permettant d’hybrider des systèmes naturels et artificiels. Il peut s’agir par exemple de minuscules petits laboratoires, voire d’usines mettant en œuvre des processus cousins de ceux du vivant. Mais cette convergence pourrait-elle être plus profonde ? Un obstacle à cette convergence est la complexité du vivant. Si pour les machines artificielles il existe un chemin pour concevoir des générations successives de la plus simple à la plus complexe, pour le vivant tel que nous le connaissons, une complexité minimale semble nécessaire pour qu’un organisme soit viable. Cette affirmation est à nuancer par le fait que, par essais successifs, la nature a trouvé un tel chemin pour passer de la « soupe primordiale » à la première cellule. On peut ainsi spéculer sur l’émergence de dispositifs autonomes qui imiteraient le vivant et, comme lui, tireraient mieux parti des lois de la physique à l’échelle nanométrique. On s’attend à un fort impact sur la médecine mais aussi à l’émergence de procédés plus doux, voire de nouveaux matériaux ou dispositifs aux propriétés inédites. Cette convergence des nanotechnologies et des biotechnologies, si elle a lieu, est également porteuse de questionnements quant à notre rapport à la nature. 212

NANOMONDE

CONCLUSION

La nature montre qu’il existe un ensemble de processus physicochimiques permettant de faire que la vie existe. Même si les connaissances sur le vivant ont beaucoup progressé, il reste un mur de complexité entre ce que fait la nature et ce que peut réaliser l’Homme. De là, dans cet ouvrage, un récit qui fait des navettes entre artificiel et vivant, puis évoque les spéculations quant à une possible convergence entre les deux mondes.

213