Au commencement était le verbe: Une histoire personnelle de l'ADN 9782759818846

Bertrand Jordan, physicien nucléaire à l’origine, s’est reconverti à la biologie aussitôt après avoir soutenu sa thèse,

148 106 3MB

French Pages 110 Year 2015

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Au commencement était le verbe: Une histoire personnelle de l'ADN
 9782759818846

Table of contents :
SOMMAIRE
1 SUR LA ROUTE DE MEYRIN
2 AU COMMENCEMENT ÉTAIT LE VERBE
3 FEU LA BIOLOGIE MOLÉCULAIRE ?
4 Les fingerprints de Sanger
5 LE PRINTEMPS DES CLONEURS DE GÈNES
6 ON APPREND À LIRE
7 LES VINGT GLORIEUSES DE LA NOUVELLE GÉNÉTIQUE MÉDICALE
8 UNE IDÉE FOLLE
9 L’INVASION DES « PUCES À ADN »
10 LE GRAAL N’EST PLUS CE QU’IL ÉTAIT
11 PUCES ET MALADIES COMPLEXES
12 LE RÉVEIL DES SÉQUENCEURS
13 UNE MÉDECINE ENFIN PERSONNALISÉE ?
14 ACTEUR OU TÉMOIN ?
GLOSSAIRE
INDEX DES ACRONYMES

Citation preview

AU COMMENCEMENT ÉTAIT LE VERBE Une histoire personnelle de l’ADN

Crédits photos Image de couverture : DNA-Music of Life (© Chris Madden). Page 34 : dessin © Marc Chalvin.

AU COMMENCEMENT ÉTAIT LE VERBE Une histoire personnelle de l’ADN Bertrand Jordan

Du même auteur Voyage autour de Génome, le tour du monde en 80 labos. Paris : Inserm/John Libbey Eurotext, 1993. Voyage au pays des gènes. Paris : Les Belles Lettres, 1995. Génétique et Génome : la fin de l’innocence. Paris : Flammarion, 1996. Les Imposteurs de la génétique (Prix Roberval 2000). Collection Science ouverte. Paris : Seuil, 2000. Le Chant d’amour des concombres de mer. Collection Points sciences. Paris : Seuil, 2002 et 2006. Chroniques d’une séquence annoncée. 1992-2002 : dix ans de programmes Génome. Paris : Éditions EDK, 2003. Les marchands de clones. Collection Science ouverte. Seuil, 2003. Le clonage : fantasmes et réalité. Paris : Milan, 2004. Thérapie génique : espoir ou illusion ? (Prix Jean Rostand 2007). Paris : Odile Jacob, 2007. L’humanité au pluriel, La génétique et la question des races (Prix La science se livre 2009). Collection Science ouverte. Paris : Seuil, 2008. Autisme, le gène introuvable. Paris : Seuil, 2012.

EDP Sciences 17, avenue du Hoggar PA de Courtabœuf 91944 Les Ulis Cedex A, France Tél. : 01 69 18 75 75 Fax : 01 69 86 06 78 www.edpsciences.org © EDP Sciences, 2015 ISBN : 978-2-7598-1710-8 Il est interdit de reproduite intégralement ou partiellement le présent ouvrage – loi du 11 mars 1957 – sans autorisation de l’éditeur ou du Centre Français d’Exploitation du Droit de Copie (CFC), 20, rue des GrandsAugustins, 75006 Paris.

SOMMAIRE

1. Sur la route de Meyrin .......................................................................................

7

2. Au commencement était le Verbe ......................................................................

10

3. Feu la Biologie Moléculaire ?..............................................................................

20

4. Les fingerprints de Sanger .................................................................................

24

5. Le printemps des cloneurs de gènes ..................................................................

31

6. On apprend à lire ...............................................................................................

37

7. Les vingt glorieuses de la nouvelle génétique médicale .....................................

44

8. Une idée folle .....................................................................................................

54

9. L’invasion des « puces à ADN » .........................................................................

61

10. Le Graal n’est plus ce qu’il était.......................................................................

67

11. Puces et maladies complexes ...........................................................................

76

12. Le réveil des séquenceurs ................................................................................

84

13. Une médecine enfin personnalisée ? ................................................................

93

14. Acteur ou témoin ? ...........................................................................................

99

Glossaire.................................................................................................................

103

Index des acronymes..............................................................................................

109

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

SUR LA ROUTE DE MEYRIN

1 SUR LA ROUTE DE MEYRIN

Printemps 1965. La vieille 2CV – ma première voiture – s’époumone sur un faux plat, dans la longue ligne droite qui mène de Meyrin à Genève. J’ai vingt-cinq ans, je termine un doctorat de physique sur « La production de particules dans les collisions proton-proton à 19,6 GeV/c », au sein d’une équipe travaillant au grand accélérateur de particules du CERN (Centre européen pour la recherche nucléaire)1. Depuis quelques mois, j’ai pris conscience que ce type de recherche ne me convient qu’à moitié, que ce travail ne correspond pas vraiment à mes aspirations. Certes, on y emploie des techniques de pointe : j’y ai fait mes débuts en informatique, alors dans ses prémices, et dans bien d’autres secteurs (électronique, calculs de mécanique quantique...) ; certes, l’ambiance du groupe dans lequel je travaille est très sympathique, et la vie de « fonctionnaire international » à Genève tout à fait agréable. Mais la physique des particules a déjà un côté Big Science affirmé (cela ne s’est pas arrangé depuis), avec des équipes nombreuses dans lesquelles le rôle de chaque chercheur s’apparente à celui d’un petit engrenage dans une grosse machine, et une coupure presque totale entre les expérimentateurs et les théoriciens. Bref, je me sens motivé pour la recherche, mais une recherche dans laquelle je puisse moi-même interpréter mes expériences, en réaliser plusieurs chaque mois (au lieu d’une par année au CERN), et où je puisse espérer que mon travail et ma réflexion jouent un réel rôle dans le développement de la science. J’envisage donc de me réorienter vers un autre domaine scientifique, et, depuis quelques mois déjà, m’intéresse à une nouvelle venue, la « biologie moléculaire ». Quelques lectures m’ont confirmé dans cette voie, et m’ont convaincu que cette nouvelle manière d’aborder l’étude du vivant, en cherchant à identifier les molécules et les mécanismes et en privilégiant l’étude du message héréditaire dont on sait depuis peu qu’il est inscrit dans la molécule d’ADN2, va sans nul doute révolutionner la biologie et ouvrir des opportunités de recherches passionnantes. De plus, beaucoup des grandes figures de cette science récente sont des physiciens reconvertis, apportant à des études jusque-là très descriptives la rigueur et, parfois, le formalisme mathématique qui leur manquaient encore. J’ai appris qu’à l’université de Genève avait été fondé un tout nouvel « Institut de biologie moléculaire », et son directeur, Edouard Kellenberger – un ancien physicien, lui aussi – a accepté de me donner un rendez-vous pour cet après-midi. Kellenberger me reçoit en effet, et parle de ses travaux sur les « bactériophages », ces virus qui parasitent certaines bactéries et dont l’étude, lancée par Max Delbrück (encore un physicien reconverti), a posé, grâce à un système expérimental simple et facilement manipulable, les bases de la nouvelle biologie. C’est notamment grâce à ces « phages » que Hershey et Chase [1] ont pu confirmer, en 1952, que l’ADN est bien la molécule porteuse de l’hérédité – ce qu’Avery, Macleod et McCarthy [2] avaient déjà démontré en 1944 sans que leur découverte rencontre un grand écho. Mais ce directeur est un homme très occupé, et je me retrouve rapidement à discuter dans un laboratoire 1. Voir l’Index des acronymes, page 109. 2. Voir le Glossaire, page 103.

7

AU COMMENCEMENT ÉTAIT LE VERBE

souterrain, presque une cave, avec un petit homme rond au fort accent suisse-allemand, plus accueillant et plus prêt à me consacrer du temps. À travers mes lectures, je sais que l’une des questions centrales qui préoccupent les chercheurs de ce domaine est celle du « code génétique ». La formule des protéines qui assurent le fonctionnement de tous les organismes est, on le sait alors depuis quelques années, inscrite dans l’ADN par la suite des bases (ou nucléotides) T, A, G ou C qui se succèdent le long de chaque chaîne de cette très longue molécule. Mais les protéines sont formées d’une suite d’acides aminés, dont il existe vingt variétés (de l’alanine à la lysine en passant par la méthionine) : il doit donc exister une correspondance entre le langage de l’ADN, qui ne comprend que quatre lettres, et celui des protéines qui en emploie vingt. Une correspondance, un code, comme le code morse qui représente chacune des vingt-six lettres de notre alphabet par une suite de « longues » et « brèves »3. Diverses expériences, dont l’interprétation est encore discutée, laissent penser que chaque acide aminé est représenté dans l’ADN par un groupe de trois bases. Mais lesquelles ? On pense généralement que ce problème va occuper les chercheurs pendant bien des années : il va falloir déterminer la suite des acides aminés dans une protéine et celle des bases dans le gène correspondant et comparer les deux pour, peu à peu, en déduire le code qui les fait correspondre. La tâche n’est pas facile : on sait à peu près, et non sans mal, séquencer une protéine, à condition qu’elle ne soit pas trop complexe ; mais on ne sait pratiquement pas lire la suite des bases dans un ADN... Peut-être y a-t-il eu des progrès récents, car mes informations reposent sur des livres ou des articles scientifiques, et ont donc quelques mois de retard sur les avancées des laboratoires. Mais Werner Arber (c’est le nom de mon interlocuteur) ne me parle pas de cela, il me raconte ses travaux sur des enzymes bizarres, extraites de certaines bactéries, et qui semblent avoir pour rôle principal de couper l’ADN d’autres bactéries. Cela paraît extrêmement compliqué, avec des résultats difficiles à interpréter, et pour tout dire j’ai de la peine à le suivre dans ce sujet qui visiblement le passionne... Je profite finalement d’un « blanc » dans la conversation pour lui demander où on en est du déchiffrage du code génétique. Son visage s’éclaire et, avec un large sourire, il sort de la poche de sa blouse blanche une feuille ronéotée (nous sommes en 1965, avant les ordinateurs et même avant que les photocopieuses fassent partie du matériel de bureau courant) sur laquelle est inscrit ce code génétique ! D’ingénieuses expériences menées aux États-Unis par un chercheur talentueux, Marshall Nirenberg, ont fourni un raccourci pour déterminer le code, et celui-ci est maintenant en voie d’être entièrement élucidé. Voilà donc résolue une question centrale sur laquelle on imaginait que les chercheurs allaient trimer une bonne dizaine d’années – encore un exemple des progrès foudroyants de cette nouvelle biologie... Je reprends le volant de ma guimbarde, retrouvant son odeur familière (essence, vieille huile, et légers relents de moisi – la capote n’est plus étanche depuis longtemps, et il pleut beaucoup à Genève), et reprends la route de Meyrin en ayant conscience d’avoir assisté presque en direct à une avancée décisive. J’ignore, bien sûr, que ces obscures enzymes dont m’a parlé Arber vont, dix ans plus tard, être un des éléments essentiels de la révolution du Génie génétique, et lui vaudront le prix Nobel en 1978... Mais ce que j’ai perçu suffit à me séduire, et je suis plus décidé que jamais à entamer ma réorientation. Quel contraste avec la physique des particules que je pratique depuis trois ans, au sein d’une équipe de vingt personnes qui travaille toute une année pour préparer une expérience (concevoir des appareils, des circuits électroniques, faire de fastidieux calculs avec des machines à calculer mécaniques ou avec les premiers ordinateurs), la réaliser (un mois « sur le faisceau » de l’accélérateur de particules, à faire des mesures jour et nuit) 3. Ce code Morse est un peu oublié de nos jours – mais le lecteur se souvient sans doute du signal SOS (Save Our Souls) figuré par trois brèves, trois longues et trois brèves, lancé pour la première fois par le Titanic en 1912 et encore utilisé aujourd’hui...

8

Bertrand JORDAN

puis enfin dépouiller les résultats... tout cela pour préciser un peu la durée de vie d’une particule instable ou évaluer plus exactement sa probabilité d’apparition. Dans cette nouvelle biologie, on touche aux secrets les plus intimes de la vie, les progrès sont quasi quotidiens, et ils sont le fait d’individus ou de petites équipes, pas de monstres un peu anonymes comme le CERN. Oui, décidément, c’est là que je veux travailler... Cet aprèsmidi d’avril 1965 fut un tournant majeur dans ma vie professionnelle, et je me suis toujours félicité d’avoir suivi le sentiment qui m’habitait alors sur la route de Meyrin : j’ai pu ainsi, durant les quarante années de ma carrière de chercheur, participer à une véritable révolution qui a transformé la biologie et a fait de cette science un acteur essentiel de notre XXIe siècle [3]. C’est un peu de cette histoire que je veux raconter dans ce livre, à travers l’éclairage tout personnel de ma vie avec l’ADN...

Références et lectures conseillées 1. Hershey A, Chase M. Independent functions of viral protein and nucleic acid in growth of bacteriophage. J Gen Physiol 1952 ; 36 : 39-56. 2. Avery OT, MacLeod CM, McCarty M. Studies of the chemical nature of the substance inducing transformation of pneumococcal types. Induction of transformation by a desoxyribonucleic acid fraction isolated from Pneumococcus type III. J Exp Med 1944 ; 79 : 137-58. 3. Morange M. Histoire de la biologie moléculaire. Paris : La Découverte, 2013. Une excellente histoire de la biologie moléculaire, par un expert reconnu. Apporte de très nombreuses informations et une mise en perspective rigoureuse – contrairement à la vision personnelle, forcément parcellaire et incomplète, que développe le présent ouvrage.

9

AU COMMENCEMENT ÉTAIT LE VERBE

2 AU COMMENCEMENT ÉTAIT LE VERBE

« Au commencement était le Verbe, et le Verbe était avec Dieu, et le Verbe était Dieu [...] Toutes choses ont été faites par lui, et rien de ce qui a été fait n’a été fait sans lui » : c’est ainsi que débute dans notre Bible l’évangile selon Jean. Le Verbe, la parole, le message... nous voici tout près du cœur de la biologie actuelle, la molécule d’ADN et l’information dont elle est porteuse ! Interrogation millénaire sur notre origine, interrogation plus concrète sur la manière dont se construit un être humain : comment, de l’union d’un homme et d’une femme, apparaît un enfant à la fois semblable et différent de ses deux parents ? Comment cet embryon formé au départ de quelques cellules toutes pareilles arrive-t-il à se complexifier au cours de son développement en suivant un plan très précis, pour aboutir à un organisme comportant des dizaines d’organes spécialisés, des centaines de tissus différents ? Il n’y a pas si longtemps régnait l’idée de la préformation, de la présence dans le spermatozoïde d’un « homoncule », sorte d’être humain miniature (Figure 1) qui allait se développer dans l’utérus de la mère, selon la métaphore de la graine et de la terre nourricière. Conception qui, tout en niant le rôle maternel, débouchait sur l’absurde, puisque dans cette hypothèse l’homoncule aurait dû lui-même contenir un homoncule qui lui-même...

Les débuts de la génétique Une fois cette idée abandonnée pour celle d’une contribution de chaque parent aux caractères de l’enfant, restaient bien des mystères : n’était-il pas logique de penser que la descendance était un « mélange » à parts égales des deux géniteurs, et ne devait-on pas dans ce cas s’attendre à une certaine uniformisation, à tendre vers un type « moyen » au sein de nos populations ? L’apparition d’enfants aux yeux bleus, ou aux cheveux roux alors qu’aucun des parents ne possédait ces particularités restait une énigme. C’est Mendel qui éclaira en 1865 cette question en montrant, avec ses fameux petits pois, que sont transmis des déterminants – nous disons aujourd’hui des gènes – « discrets » (au sens de « non continus ») et que certains de ceux-ci sont « dominants », d’autres « récessifs ». Ainsi le croisement d’une plante à pois lisses avec une autre à pois ridés donne uniquement, à la génération suivante, des plantes hybrides portant des pois lisses – et non des pois un peu lisses, un peu ridés. En fait, ces plantes ont le « génotype » (le jeu de caractères héréditaires) lisse et ridé, mais le caractère ridé est « récessif » et n’est pas visible sur la plante, ne fait pas partie de son « phénotype ». Si ensuite l’on croise ces hybrides entre eux, on trouve parmi leurs descendants trois quarts de plantes à pois lisses (celles qui possèdent les déterminants lisse/lisse ou lisse/ridé) et un quart de plantes à pois ridés (celles qui possèdent le déterminant ridé/ridé) : l’assortiment des déterminants au sein de la descendance obéit aux lois de la statistique. Soulignons que Mendel n’avait aucune idée de la nature du support de l’hérédité, et que le mot gène lui-même ne devait être inventé qu’une cinquantaine d’années plus tard. Charles Darwin, qui publie en 1859 sa théorie de l’évolution, « L’origine des espèces », et a eu connaissance des travaux de Mendel sans apparemment leur accorder d’importance, n’en sait pas plus que

10

Bertrand JORDAN

Figure 1. Représentation d’un spermatozoïde contenant un homoncule (Nicolas Hartsoeker, Traité de dioptrique, 1694).

ce dernier sur les mécanismes sous-jacents à l’évolution. Il ne tranche pas sur le fait de savoir si les variations qui, avec la sélection par l’environnement, sont le moteur de l’évolution, apparaissent au hasard ou sont liées au déroulement de la vie de l’individu concerné, comme le soutient Lamarck. C’est seulement après la mort de ces deux savants, et la redécouverte des travaux de Mendel au début du XXe siècle, que se fait la synthèse que l’on appellera le néo-darwinisme. Elle reste le fondement de la biologie contemporaine même si, bien sûr, de nombreux aménagements lui ont été apportés au fil des années. Néo-darwinisme dont on peut résumer le message essentiel de la manière suivante : chaque espèce produit potentiellement beaucoup plus d’individus qu’il n’en peut survivre ; de petites variations génétiques aléatoires se produisent d’une génération à la suivante ; certaines de ces variations rendent l’individu qui les porte mieux adapté à l’environnement

11

AU COMMENCEMENT ÉTAIT LE VERBE

présent à cette époque ; les individus ainsi favorisés ont une descendance plus nombreuse (un meilleur « succès reproductif ») ; les versions de gènes correspondantes s’imposent donc progressivement au sein de la population. C’est ainsi, par exemple, que l’on comprend aujourd’hui pourquoi les Européens, dont les ancêtres, venus d’Afrique il y a 60 ou 70 000 ans, étaient sûrement noirs de peau, ont un épiderme clair : les mutants dépigmentés apparus par hasard il y a des dizaines de milliers d’années ont prospéré, grâce à leur meilleure capacité à synthétiser la vitamine D malgré la faible luminosité1, et ont progressivement supplanté leurs congénères à la peau foncée.

De quoi sont faits les gènes ? Jusqu’au milieu du XXe siècle et malgré les très grands progrès de la génétique, la nature des gènes, leur support matériel, leur mode de transmission et de mise en œuvre restaient un grand mystère. Des travaux menés notamment sur la drosophile (la mouche du vinaigre des généticiens) indiquaient que les gènes étaient disposés de manière linéaire sur des filaments que l’on pouvait parfois voir dans le noyau des cellules et que l’on appela les chromosomes. On avait pu construire une « carte génétique », une sorte de balisage des gènes, en analysant de nombreux croisements entre mouches appartenant à des souches différentes ; l’observation des chromosomes géants présents dans certains organes de la mouche (Figure 2) permit alors de relier cette carte génétique avec la morphologie des chromosomes et les bandes plus ou moins foncées observées au microscope.

Figure 2. Gènes et chromosomes chez la drosophile. A. Carte génétique (établie par l’étude de croisements entre mouches appartenant à différentes souches) indiquant la position relative de différents gènes (par exemple, hy désigne le gène Humpy dont la mutation entraîne une déformation du thorax de la mouche), et (en dessous) sa correspondance avec les « bandes » que l’on peut observer sur les chromosomes géants des glandes salivaires de la mouche. B. Microphotographie d’un tel chromosome : on y distingue effectivement des bandes, mais elles sont bien moins nettes que sur leur représentation idéalisée. 1. La phase finale de la synthèse de la vitamine D se fait dans la peau et est favorisée par la lumière. L’insuffisance en vitamine D entraîne le rachitisme. Une alimentation abondante et variée apporte suffisamment de vitamine D pour que sa synthèse par l’organisme ne soit plus nécessaire.

12

Bertrand JORDAN

Mais en quoi consistaient ces gènes ? On savait qu’ils renfermaient chacun la formule de fabrication d’une protéine, selon l’adage célèbre « un gène, une protéine, une fonction »2. On avait aussi compris que les protéines, ces grosses molécules très complexes qui assurent l’intendance au sein de nos cellules et de notre corps, ces enzymes qui dégradent les sucres pour fournir de l’énergie, qui transportent l’oxygène à travers nos vaisseaux, qui assurent la coagulation du sang en cas de blessure... que ces protéines étaient formées d’une suite d’acides aminés, une sorte de collier de perles linéaire se repliant sur lui-même pour prendre une forme caractéristique lui permettant d’assurer son rôle dans l’organisme. Les chromosomes devaient donc, d’une manière ou d’une autre, renfermer la formule des milliers de protéines différentes nécessaires à la construction et au fonctionnement d’un être vivant – bactérie, végétal, animal ou homme.

L’ADN et la double hélice : le tournant décisif L’analyse chimique ne donnait pas la réponse à cette question : les chromosomes contiennent, en quantité à peu près équivalente, des protéines et de l’ADN (acide désoxyribonucléique). La composition de cet ADN, connu depuis sa découverte par Friedrich Miescher, au dernier quart du XIXe siècle (il l’appelait « nucléine »), n’en faisait pas, a priori, une molécule très intéressante : il était formé d’une suite monotone de quatre entités chimiques (les « bases » adénine, guanine, cytosine et thymine, A, G, C et T), et l’on pensait que sa structure était celle d’une répétition d’unités formées d’un assemblage de ces quatre éléments. Une telle répétition de motifs identiques pouvait difficilement renfermer un message, et, très logiquement, l’opinion générale situait le support de l’hérédité au niveau des protéines, bien plus complexes et multiformes. Et lorsque Avery, McCarthy et Mc Leod, en 1944 [4], démontrèrent que c’est l’ADN qui porte l’information génétique, ils se heurtèrent à beaucoup d’incrédulité et leurs travaux eurent peu d’écho. Ils étaient pourtant parfaitement concluants : ces chercheurs avaient pu transférer un caractère génétique d’une souche de bactéries à une autre à l’aide d’un extrait bactérien dont ils pouvaient éliminer soit les protéines, soit l’ADN. Et c’est seulement lorsque l’extrait contenait l’ADN que l’expérience réussissait. Malgré leur qualité technique, ces expériences restèrent largement ignorées jusqu’à ce qu’elles soient reproduites dans un autre système par Hershey et Chase, en 1952 [5], et surtout jusqu’à ce que la structure en double hélice découverte par Watson et Crick en 1953 [6] soit publiée et éclaire tout ce domaine en montrant comment l’ADN pouvait renfermer de l’information et également assurer sa propre reproduction, sa duplication. La double hélice est donc bien une de ces avancées qui illuminent un secteur de la science (en l’occurrence, toute la biologie) et changent fondamentalement notre manière de penser la nature. Sa découverte, racontée sans détour dans le livre éponyme de Jim Watson [7], fut le fruit de rencontres, d’imagination créative, d’approches sans tabous et parfois sans scrupules, et aboutit à ce superbe modèle d’une double hélice formée de deux brins « complémentaires », la suite des bases T, A, G ou C présente sur un brin s’appariant avec les bases complémentaires (A, T, C ou G) présentes sur l’autre (Figure 3).

2. Adage dont on sait aujourd’hui qu’il est faux en ce sens qu’il constitue une simplification abusive de la réalité – mais une simplification qui a bien servi à faire avancer la science durant plusieurs décennies.

13

AU COMMENCEMENT ÉTAIT LE VERBE

Figure 3. La double hélice de l’ADN (représentation très schématique). Les bases T, A, G, C constituent les « barreaux » de l’hélice, appariées selon la règle T-A et G-C. La séquence (suite des bases) portée par un brin détermine donc celle qui est portée par l’autre. Les deux chaînes externes constituent le « squelette ». Cette structure suggère que pour la réplication les deux chaînes se séparent et que chacune sert de « moule » pour en fabriquer une nouvelle – à l’arrivée on a deux doubles hélices identiques à cette du départ (voir Figure 4).

14

Bertrand JORDAN

Du coup la forme de la molécule est parfaitement régulière quelle que soit la suite des bases le long d’une chaîne : elle peut donc renfermer n’importe quel message, et les deux brins portent la même information : la séquence de l’un peut être déduite de celle de l’autre puisqu’en face d’un C on a obligatoirement un G (et vice versa), en face d’un A un T. On imagine immédiatement comment une telle double hélice peut être dupliquée (voir Figure 4) : comme l’indiquent Watson et Crick à la fin de leur bref article, dans un magistral understatement à la britannique, « Il ne nous a pas échappé que ce modèle suggère immédiatement un mode de reproduction de l’information génétique » Indeed...

Figure 4. Réplication de l’ADN (lors de la division d’une cellule). La double hélice s’entrouvre et une nouvelle chaîne est formée sur chacun de ces deux brins. À l’arrivée, on a deux doubles hélices identiques à celle du départ.

15

AU COMMENCEMENT ÉTAIT LE VERBE

Le « dogme central » C’est donc à cette date que l’on peut situer le vrai début de la « biologie moléculaire », qui allait constituer le secteur le plus dynamique des sciences du vivant pendant deux décennies avant de les envahir toutes entières. Les années qui suivirent la double hélice virent l’élucidation, dans les grandes lignes, du mécanisme de la réplication de l’information biologique, à savoir comment une cellule transmet l’intégralité de son patrimoine génétique aux deux cellules filles qu’elle forme en se divisant. On put aussi comprendre les modalités de l’expression génique, comment la formule d’une protéine inscrite dans l’ADN est lue pour diriger l’assemblage de la protéine correspondante (Figure 5). Sans rentrer dans les détails, la réplication implique la séparation des deux brins de la double hélice, la synthèse sur chaque brin d’un brin

Figure 5. Expression de l’ADN. Celle-ci passe dans un premier temps par la « transcription », fabrication d’une molécule d’ARN messager (ARNm, « copie de travail » de l’ADN), puis par la « traduction » au cours de laquelle le message est lu par les ribosomes et la protéine correspondante synthétisée.

16

Bertrand JORDAN

complémentaire, aboutissant à deux exemplaires de la molécule initiale ; l’expression, elle, passe par la fabrication dans le noyau de la cellule (où réside l’ADN) d’une copie de travail du gène, l’ARN messager3, qui passe ensuite dans le cytoplasme où son message est lu par des organites spécialisés (et dont nous reparlerons), les ribosomes, avec l’aide d’adaptateurs, les ARN de transfert, qui associent une séquence de trois bases avec un acide aminé. Les ribosomes, en se déplaçant le long de l’ARN messager, fabriquent la chaîne d’acides aminés qui se replie ensuite sur elle-même pour former la protéine fonctionnelle (Figure 5). L’ensemble constitue ce que Francis Crick a appelé le « dogme central » de la biologie moléculaire : ADN r ARN r protéine [8] – dogme qui devait subir quelques modifications une dizaine d’années plus tard. L’établissement de ce schéma fut l’œuvre d’un ensemble de pionniers (parmi lesquels les Français François Jacob, Jacques Monod et François Gros) encore très minoritaires parmi les biologistes et biochimistes « classiques », et d’ailleurs souvent vus avec une certaine défiance par ceux-ci. J’avais par exemple constaté que l’édition parue en 1958 d’un manuel de biochimie faisant autorité (celui de Fruton et Simmons) [9] mentionnait à peine la double hélice (pourtant publiée cinq ans plus tôt) en la qualifiant d’ « ingénieuse spéculation »...

L’élucidation du code génétique L’un des tours de forces de cette période fut le déchiffrage, en 1964/1965, du « code génétique », de la correspondance entre le langage de l’ADN et celui des protéines – résultat que je devais découvrir lors de ma visite à Werner Arber, à Genève. Rappelons que l’ADN comporte quatre lettres, T, A, G et C, alors que les protéines sont formées à partir de vingt acides aminés différents, de l’arginine à la valine en passant par la méthionine et la tyrosine... Ces acides aminés sont de petites molécules présentant de légères différences, et c’est l’ordre dans lequel ils sont disposés le long de la chaîne de la protéine, sa séquence, qui va donner à cette dernière sa forme et ses propriétés. Bien sûr, on peut tout écrire avec quatre lettres, avec vingt-six comme dans notre alphabet ou avec deux (0 et 1) dans nos ordinateurs... encore faut-il savoir comment on passe d’un alphabet à l’autre. Une série d’expériences très élégantes résolut le problème en quelques mois et montra que l’ADN codait chaque acide aminé par un groupe de trois lettres, un « codon » formé de trois bases successives dans l’ADN. Comme on peut former 64 codons si l’on dispose de quatre lettres différentes, ce code est « dégénéré », c’est-à-dire qu’un même acide aminé peut correspondre à plusieurs codons différents. Par exemple, l’acide aminé leucine peut être codé par CTA, CTC, CTT ou CTG4 ; en revanche, la méthionine a un seul codon, ATG (Figure 6). Ce sont ces codons qui sont reconnus, grâce au ribosome, par les ARN de transfert qui apportent l’acide aminé correspondant à la protéine en formation.

3. L’ARN (acide ribonucléique) a une structure très proche de celle de l’ADN (acide désoxyribonucléique), la nature de la chaîne est légèrement différente et les bases dans l’ARN sont A, G, C et U (uracile) au lieu de A,G, C et T (thymine). 4. Dans la copie du gène portée par l’ARN messager, la base qui correspond à T (thymine) dans l’ADN est l’uracile (U), structure légèrement différente mais ayant les mêmes propriétés. Les codons mentionnés sont donc, dans l’ARN, CUA, CUC, CUU et CUG.

17

AU COMMENCEMENT ÉTAIT LE VERBE

Figure 6. Le code génétique. Dans chaque case, l’acide aminé correspondant au codon (première base à gauche, deuxième base en haut, troisième base à droite – par exemple UUU code pour l’acide aminé Phe (phénylalanine). Le codon AUG (méthionine) est aussi le signal de « début de message » ; les codons UGA, UAA et UAG signalent la fin de message (STOP). Dans l’ADN, le U (uracile) est remplacé par la thymine (T) qui a les mêmes propriétés.

Ainsi, en 1965, les éléments principaux de la nouvelle biologie étaient en place, on savait (dans les grandes lignes) où et comment était inscrit le message héréditaire reçu de nos parents et que nous transmettons à nos enfants, et de quelle manière ces informations étaient lues pour produire les différentes protéines nécessaires à la construction et au fonctionnement d’un organisme. En une dizaine d’années à peine, les mécanismes de base de la Vie avaient été dévoilés : avancées spectaculaires marquant le début d’une véritable révolution qui allait se poursuivre au cours des décennies suivantes.

Références et lectures conseillées 4. Avery OT, MacLeod CM, McCarty M. Studies of the chemical nature of the substance inducing transformation of pneumococcal types. Induction of transformation by a desoxyribonucleic acid fraction isolated from Pneumococcus type III. J Exp Med 1944 ; 79 : 137-58. Première démonstration que c’est l’ADN qui porte l’information génétique – largement ignorée à l’époque.

18

Bertrand JORDAN

5. Hershey A, Chase M. Independent functions of viral protein and nucleic acid in growth of bacteriophage. J Gen Physiol 1952 ; 36 : 39-56. Nouvelle démonstration mieux acceptée que la précédente. 6. Watson JD, Crick F. A structure for deoxyribose nucleic acid. Nature 1953 ; 171 : 737-8. Un bref article qui marque le vrai début de la biologie moléculaire. 7. Watson JD. The double helix. A personal account of the discovery of the structure of DNA. Atheneum Press : New York, 1968 (et plusieurs éditions plus récentes). Édition française la plus récente : La double hélice. Paris : Éditions Robert Laffont, 2003. Un récit passionnant et révélateur, écrit sans langue de bois, qui fit scandale à l’époque. 8. Crick F. Central dogma of molecular biology. Nature 1970 ; 227 : 561-3. Discussion et historique du concept qui n’a pas été formellement publié lorsqu’il fut proposé quelques années plus tôt. 9. Fruton JS, Simmonds S. General biochemistry. New York : John Wiley and Sons, 1958. Un manuel de biochimie qualifiant, en 1958, le modèle de Watson et Crick d’« ingénieuse spéculation » : la double hélice n’a pas été immédiatement acceptée...

19

FEU LA BIOLOGIE MOLÉCULAIRE ?

3 FEU LA BIOLOGIE MOLÉCULAIRE ?

C’est donc à ce moment clé de l’histoire de la biologie que j’allais tenter de m’y faire une place, motivé par mes contacts à Genève et par cette rencontre impromptue avec le code génétique nouvellement déchiffré. J’avais déjà anticipé ce virage en choisissant mon sujet de « deuxième thèse »1. À partir de quelques lectures et de discussions avec des experts du domaine, j’avais rédigé un opuscule intitulé « Le suicide radioactif des bactériophages ». Ce titre pittoresque désignait un ensemble d’expériences menées sur ces virus bactériens en les rendant radioactifs, puis en les stockant un certain temps congelés à - 80 degrés avant les réveiller en les ramenant à température ambiante – ces entités très élémentaires supportent normalement bien un tel traitement. Mais, dans le cas présent, les phages avaient incorporé des éléments radioactifs dans leur ADN, et au cours de leur « sommeil », les radiations introduisaient des coupures dans leur matériel génétique, avec une fréquence liée à la durée du maintien en congélation – c’est en ce sens que l’on pouvait parler de « suicide radioactif ». En mesurant la viabilité de ces virus après leur réveil, leur capacité à infecter de nouvelles bactéries et à s’y multiplier, on pouvait tenter d’approcher le fonctionnement de leur matériel génétique. Le sujet m’avait bien intéressé, et il me semblait avoir rédigé une mise au point de bonne qualité, aussi fus-je fort déçu lorsque, après la présentation de mes travaux de physique nucléaire, le président de séance m’interrompit dès le début du deuxième exposé pour annoncer que le jury allait se retirer pour délibérer... L’essentiel pourtant était que j’obtins le titre de Docteur d’État en Sciences Physiques – « avec mention très honorable », comme il se doit.

Un virage... et quelques surprises Restait bien sûr, tout diplômé que j’étais, à mettre en place ma reconversion vers la biologie moléculaire. Fort heureusement, les pouvoirs publics français s’intéressaient fort au développement de cette nouvelle discipline et, par l’intermédiaire de la DGRST (Délégation générale à la recherche scientifique et technique), cherchaient à y attirer de jeunes chercheurs ayant une bonne formation en physique ou en chimie. C’est donc facilement que, inspiré par mes lectures et mes rencontres, bien conseillé par un des « grands » de cette science récente, François Gros, j’obtins un « contrat de formation », une bourse de deux ans destinée à faciliter ma reconversion. Je me souviens m’être présenté dans les locaux de la DGRST pour y demander, la bouche en cœur, comment bénéficier d’un tel financement. J’eus la très nette impression que ma demande n’était pas prise au sérieux et, pour tout dire, que l’on était prêt à me rire au nez. Il faut dire que j’avais vingt-cinq ans, que j’en paraissais plutôt vingt, et que j’étais assez réservé, presque timide. On me demanda tout de même où j’en étais dans mes études et, lorsque 1. Les doctorats d’État comportaient à l’époque une « deuxième thèse », étude bibliographique sur un thème différent du sujet principal, censée montrer la capacité du candidat à assimiler et exposer un sujet dans un domaine distinct de son secteur de recherche.

20

Bertrand JORDAN

j’indiquai que je venais d’obtenir mon doctorat d’État de physique nucléaire, je constatai un net changement d’ambiance... Mon contrat attribué dès 1965, je satisfis à mes obligations militaires en enseignant durant deux ans dans un lycée en Algérie, à Constantine. Ce fut une période très intéressante à de multiples points de vue, expérience d’enseignement face à des classes nombreuses mais sympathiques, découverte d’un pays magnifique, et surprise de recevoir un accueil très chaleureux des Algériens, trois ans à peine après la fin d’une guerre cruelle. Retour en France, j’avais accepté le laboratoire que l’on me proposait à Marseille pour y effectuer ma reconversion, et y atterris à l’été 1967. Ce fut tout d’abord un choc culturel et scientifique. Choc culturel : les mœurs et la hiérarchie dans un laboratoire de biologie n’avaient rien à voir avec celles, très décontractées et démocratiques, que j’avais connues à Genève, au CERN. Je me souviens de deux conversations qui me marquèrent. Un jeune responsable d’équipe, qui devait juste avoir dépassé la trentaine, me parla d’un membre de son groupe en ces termes : « Un jeune polytechnicien qui travaille sous moi »... Un autre, auprès duquel je cherchais à me renseigner sur les organisations syndicales du milieu, me répondit « Oh, tu sais, le meilleur syndicat c’est un bon “patron” ! »... Je devais vite le comprendre, plus on se rapproche de la Faculté de médecine, plus la hiérarchie devient pesante, la notion de Maître et d’élève déterminante, et plus les risques de népotisme augmentent. Mon patron, Roger Monier, était loin d’être le pire, c’était même quelqu’un de bien – mais j’eus tout de même du mal à m’adapter, d’autant plus que j’étais dans une position un peu bizarre, à la fois détenteur d’un doctorat en physique de l’université de Paris (donc d’une qualification universitaire reconnue) et en même temps totalement ignorant du travail de laboratoire, n’ayant reçu aucune formation en biologie depuis le lycée. Choc scientifique aussi : la physique des particules m’avait déçu parce qu’on y trimait à quinze ou vingt personnes pendant toute une année (entre la préparation de l’expérience, l’expérience proprement dite, et le dépouillement des résultats) pour finalement obtenir un résultat extrêmement mince. Mais au moins savait-on très précisément ce que l’on faisait quand on réglait un circuit électronique, que l’on mettait en place une chambre à étincelles ou que l’on calculait le trajet des particules à travers des aimants de trente tonnes. En biologie, même moléculaire, il y avait au contraire moult recettes qu’il fallait appliquer sans se poser trop de questions sur le pourquoi de telle étape ou de la quantité de tel ou tel réactif. Un côté empirique, « cuisine », qui ne manqua pas de me déconcerter et de me frustrer.

Trop tard dans un monde trop vieux ? Plus grave : il semblait que l’âge d’or de la biologie moléculaire soit passé, que j’y arrive trop tard, une fois les grands concepts établis (la double hélice, le code génétique, le dogme central) et qu’il ne restait plus qu’à compléter un édifice déjà structuré, grâce à un travail patient et utile mais modérément excitant. Un des pionniers de cette science, Günther Stent, dont j’avais lu avec passion le livre [10] publié en 1963, parlait, dans un article paru au printemps 1968, de la « sénescence imminente » de cette science et de son proche déclin [11]. De son côté, un des plus célèbres savants de l’époque, Sir Macfarlane Burnet, prix Nobel de médecine en 1960, affirmait en 1971 dans un ouvrage grand public intitulé La génétique, rêves et réalité [12] que la phase des découvertes essentielles était terminée, qu’il n’y aurait plus de prix Nobel en biologie moléculaire et que « la contribution de la science expérimentale à la médecine (était) virtuellement terminée ». De fait, les travaux de laboratoire se heurtaient à des limites apparemment infranchissables. L’objectif de la génétique, surtout si elle est moléculaire, c’est naturellement d’étudier les gènes... mais ceux-ci restaient insaisissables. Certes, nous savions qu’il s’agissait de régions de l’ADN longues de quelques centaines ou milliers de bases, ren-

21

AU COMMENCEMENT ÉTAIT LE VERBE

fermant (selon un code génétique maintenant connu) les formules des protéines, mais aucun procédé ne nous permettait d’isoler l’une d’elles. L’immense complexité de l’ADN (trois milliards de bases chez l’homme, portant des dizaines de milliers de gènes) se combinait à sa structure parfaitement monotone pour interdire tout espoir d’en purifier une zone particulière. Un des points forts de la découverte de Watson et Crick avait justement été de montrer que n’importe quelle séquence d’ADN (appariée avec sa séquence complémentaire sur l’autre brin) donnait une hélice parfaite que rien ne différenciait d’une hélice portant une autre séquence : magnifique modèle, mais décourageant résultat. Un gène, quelques centaines ou milliers de bases le long de l’ADN humain qui en comporte trois milliards, c’est un tout petit morceau d’un énorme écheveau : comment identifier une bribe de cette très longue molécule, alors que rien ne la différencie en apparence de ses voisines ? Et, à supposer que par miracle une nouvelle technique permette d’isoler un gène à partir de cet immense ensemble, un calcul très simple montrait que pour en obtenir quelques microgrammes2, minimum indispensable pour envisager la moindre étude, il faudrait partir de dizaines ou centaines de grammes d’ADN, une quantité inimaginable3. Accessoirement, les quelques laboratoires spécialisés qui essayaient de lire la suite des bases dans l’ADN de virus (ADN plus petits, longs de quelques dizaines de milliers de bases seulement et que l’on savait extraire des cellules infectées et purifier) arrivaient à grand peine à lire une dizaine de bases [13]... Le grand livre de l’ADN nous restait obstinément fermé. Il fallait donc se contenter de ce qui était accessible, soit, pour notre laboratoire comme pour de nombreux autres, le ribosome.

Le ribosome, faute de mieux... Cette organite joue un rôle central dans l’expression des gènes puisque c’est là que l’ARN messager est lu (grâce aux ARN de transfert) pour fabriquer la chaîne d’acides aminés qui, une fois repliée, deviendra la protéine fonctionnelle (voir la Figure 5 du chapitre 2, « Au commencement était le Verbe »). Ce rôle central a pour conséquence qu’une cellule vivante contient beaucoup d’exemplaires (identiques) de ces ribosomes : des centaines de milliers dans une seule cellule humaine. Dans une bactérie, ils peuvent représenter jusqu’à un tiers de la masse totale, et ils sont relativement faciles à purifier. Une bonne partie du travail du laboratoire consistait donc à cultiver des colibacilles Escherichia coli (une souche de laboratoire inoffensive, bien sûr) dans de grandes flasques contenant des litres de milieu nutritif, à récolter les bactéries par centrifugation, à les faire éclater de manière à libérer leur contenu et à purifier enfin les ribosomes en centrifugeant à très haute vitesse et dans des conditions très précises le lysat (le produit de la dissociation, la lyse, des bactéries) ainsi préparé. On obtenait, les bonnes semaines, jusqu’à un gramme de ribosomes, une quantité suffisante pour envisager une étude de leurs composants – car les ribosomes sont eux-mêmes des édifices complexes contenant un grand nombre de composants tant protéiques que nucléiques4. L’intérêt du laboratoire était fixé sur un constituant particulier de ces assemblages complexes. Un ribosome bactérien est formé de deux sous-unités dont la plus grande, appelée « 50S » dans le jargon scientifique, contient une trentaine de protéines différentes 2. Millième de milligramme – dès cette époque, les techniques d’analyse permettaient d’obtenir un résultat à partir de quelques microgrammes d’ADN. 3. Un gène long de mille bases représente un trois-millionième de l’ADN humain : pour en obtenir dix microgrammes, il faudrait donc partir de trente grammes d’ADN – en supposant que tous les rendements de la purification sont égaux à 100 %, ce qui est chimérique. 4. Acides nucléiques, c’est un terme générique désignant aussi bien l’ADN que l’ARN. Dans le cas des ribosomes, il s’agit d’ARN.

22

Bertrand JORDAN

et deux ARN appelés « 23S » et « 5S ». Il ne s’agit pas là d’ARN messagers, contenant la formule d’une protéine, mais de molécules jouant un rôle dans la structure (et peut-être la fonction) du ribosome. L’ARN 23S, long de près de 3 000 bases, était à l’évidence hors de portée des techniques de l’époque ; en revanche, l’ARN 5S ne mesurait que 120 bases et apparaissait donc comme une bonne base de départ pour des études moléculaires. De plus, il avait été découvert dans ce laboratoire même, quelques années auparavant [14] – c’était donc un choix logique. À partir des ribosomes purifiés, on pouvait extraire les ARN qu’ils contiennent et purifier sans trop de problèmes ce 5S. Ce n’était pas un sujet d’étude idéal : mieux aurait valu avoir en main un gène fonctionnel, mais c’était au moins un acide nucléique faisant partie d’un organite vital pour l’expression génique, et, dans l’idéal, on arriverait peut-être à comprendre son rôle dans le fonctionnement du ribosome... C’est alors que tomba, à l’automne 1967, une information importante : quelqu’un avait réussi à mettre au point une technique permettant de séquencer l’ARN, et l’avait appliquée au 5S, lisant l’ensemble des cent vingt bases (ou nucléotides) qui le constituent. Et quelques mois plus tard, nous apprîmes une excellente nouvelle pour le laboratoire : un chercheur canadien sachant pratiquer la technique en cause allait bientôt arriver chez nous à Marseille.

Références et lectures conseillées 10. Stent GS. Molecular biology of bacterial viruses. San Francisco : W.H. Freeman and Co, 1963. Un des livres marquants des débuts de la biologie moléculaire, qui a suscité de nombreuses vocations. 11. Stent GS. That was the molecular biology that was. Science 1968 ; 160 : 390-5. Un article très désenchanté sur le (supposé) déclin de la biologie moléculaire. 12. Macfarlane Burnet F. Genes, dreams and realities. Dordrecht : Kluwer Academic Publishers, 1971. Traduction française, La génétique, rêves et réalité, Paris : Flammarion, 1973. Une vision très pessimiste de l’avenir de la biologie moléculaire, totalement démentie par les événements dès l’année suivante... 13. Wu R, Taylor E. Nucleotide sequence analysis of DNA. II. Complete nucleotide sequence of the cohesive ends of bacteriophage lambda DNA. J Mol Biol 1971 ; 57 : 491-51. Première lecture de dix bases dans l’ADN – au prix d’efforts héroïques... 14. Rosset R, Monier R, Julien J. Les ribosomes d’Escherichia coli. I. Mise en évidence d’un ARN ribosomique de faible poids moléculaire. Bull Soc Chim Biol (Paris) 1964 ; 46 : 87-109. La mise en évidence de l’ARN 5S, cheval de bataille du laboratoire marseillais à l’époque où j’y arrive.

23

LES FINGERPRINTS DE SANGER

4 Les fingerprints de Sanger

Fred Sanger et l’école britannique L’inventeur de cette nouvelle technique n’était autre que Frederick Sanger [15], un chercheur exceptionnel, pur produit de cette école scientifique anglaise qui se caractérise à la fois par une exigence intellectuelle très pointue et par l’extrême sobriété des moyens mis en œuvre – ce que, outre-Manche, on appelle la string and sealing wax school. Cette expression désuète désigne une manière de réaliser des expériences avec beaucoup d’astuce mais grâce à des appareillages très sommaires : ficelle, cire à cacheter, pâte à modeler et petits tubes de verre étirés à la flamme. École très britannique, bien distincte de l’attitude germanique qui tend à s’appuyer sur des systèmes précis, peaufinés et surdimensionnés comme une Mercedes ou une BMW, ou de l’approche américaine qui, elle, ne fait pas dans la dentelle, ne s’attarde pas aux détails mais ne lésine jamais sur les moyens... Personnage de surcroît très sympathique, discret, presque effacé – c’est pourtant lui qui a joué un rôle essentiel dans la mise au point des techniques de séquençage des protéines (dans les années 1950), des ARN (à la fin des années 1960), et qui a inventé en 1977 la méthode de lecture de l’ADN qui a rendu possible le séquençage du génome humain. Cela lui valut deux prix Nobel de Chimie, en 1958 et 1980, et le titre de chevalier de l’Empire britannique (knighthood) – qu’il s’empressa de refuser, sa modestie ne souffrant pas l’idée de devenir Sir Sanger1 (Figure 7). Il a raconté de manière très vivante ses travaux dans un article intitulé Sequences, sequences, and sequences [16]. Je devais travailler quelques années plus tard dans son laboratoire, au très célèbre Laboratory of Molecular Biology de Cambridge – et fus impressionné par sa simplicité, son absence de prétention mais aussi par la qualité de son travail expérimental mené avec des moyens apparemment tout simples. Sa technique des fingerprints (« empreintes ») était révolutionnaire : elle autorisait le séquençage d’ARN à une échelle jusque-là inaccessible. Oh, il ne s’agissait pas de lire des gigabases (des milliards de bases) comme aujourd’hui – mais séquencer intégralement un ARN de cent vingt nucléotides (ou bases, les termes sont équivalents dans ce contexte) comme l’ARN 5S, même s’il fallait y consacrer une année de travail, c’était déjà un très grand progrès. En fait, Sanger ne fut pas tout à fait le premier à séquencer un petit ARN, il avait été précédé de peu par l’Américain Holley, en 1964, mais la méthode employée par ce dernier était beaucoup plus lente, plus laborieuse et fut rapidement abandonnée – non sans lui valoir le prix Nobel de médecine en 1968, prix qu’il aurait dû logiquement partager avec Sanger (lequel aurait alors, fait unique, accumulé trois Nobel).

1. Sanger est décédé fin 2013, à l’âge de 95 ans, après trente années d’une retraite paisible principalement consacrée à cultiver son jardin.

24

Bertrand JORDAN

Figure 7. Frederick Sanger, vers 1970 (© Wikipedia Creative Commons).

25

AU COMMENCEMENT ÉTAIT LE VERBE

Une « cuisine » artisanale Les méthodes de la biologie moléculaire de cette époque étaient essentiellement manuelles : pas de grosses machines aux voyants clignotants, pas d’ordinateurs (ils commençaient seulement à jouer un rôle en physique), peu de microscopes contrairement à l’image répandue du biologiste, vêtu d’une blouse blanche et l’œil rivé à l’oculaire. Cela s’apparentait plutôt à de la chimie, mais à une échelle très miniaturisée : les mélanges de réactifs se faisaient dans de tout petits volumes, quelques microlitres (millièmes de centimètre cube), à l’aide de minuscules « micropipettes » en verre étiré à la flamme, les réactions avaient généralement lieu à 37oC, température optimale pour les enzymes utilisées, et il fallait prendre beaucoup de précautions pour ne pas altérer les produits biologiques (l’ARN 5S, par exemple) sur lequel on travaillait. Ces molécules sont en effet fragiles et le simple fait de toucher l’intérieur d’un tube laissait sur le verre une trace d’une enzyme appelée RNAse2, qui s’empressait alors de dégrader l’ARN contenu dans la solution... Il fallait donc être très précis, très minutieux et très ordonné pour espérer mener à bien une expérience, et une réelle habileté était requise pour devenir un chercheur efficace. Heureusement j’étais bricoleur, donc assez manuel, j’aimais faire la cuisine (occupation qui n’est pas sans rapport avec le travail du biochimiste !), et j’étais plutôt organisé, ce qui me permit d’obtenir assez rapidement de bons résultats.

Un « post-doc » très attendu Néanmoins, lorsqu’il s’agit d’importer au laboratoire une nouvelle méthode, comportant un ensemble de manipulations complexes et requérant quelques tours de main, le fait d’être initié par quelqu’un qui pratique déjà cette technique constitue un avantage décisif. C’était l’apport attendu de Bernard Forget, notre nouveau « post-doc ». Un postdoc, c’est un jeune chercheur qui, après avoir obtenu son doctorat, travaille deux ou trois ans dans un autre laboratoire pour compléter sa formation, mettre à son actif de nouvelles publications et se constituer ainsi un dossier pour postuler à une position dans une université ou un institut de recherche. Cette étape était quasi institutionnalisée dans le monde anglo-saxon, mais encore peu courante en France. Chez nous, compte tenu de l’abondance des postes disponibles à cette époque d’expansion de la recherche, le jeune chercheur était souvent recruté dès sa thèse soutenue, et, dans la plupart des cas, par le laboratoire même où il avait effectué sa formation. Situation fort confortable pour les intéressés, mais catastrophique sur le plan de leur culture scientifique : ils étaient nommés chercheurs à vie3 sans avoir dû faire leurs preuves dans un autre environnement (à l’étranger de préférence), sans avoir eu à maîtriser l’anglais, langue internationale de la science, et sans avoir démontré leur capacité à aborder un nouveau sujet de recherche. Cela a changé depuis, mais les recrutements massifs et peu sélectifs des années 1970 ont plombé pour longtemps la recherche française en peuplant nos laboratoires de scientifiques pour lesquels la recherche n’était pas une maîtresse exigeante mais « un métier comme un autre ». Dans le fonctionnement d’une équipe, le post-doc représente souvent l’élément le plus dynamique : jeune, déjà formé mais ayant encore à faire ses preuves, il (ou elle) est bien plus productif que les « thésards » qui en sont encore à apprendre leur métier ; plus performant aussi que les chercheurs « statutaires » (c’est-à-dire en poste à l’université, 2. Pour le malheur des apprentis biologistes moléculaires, ces enzymes sont présentes un peu partout et notamment dans la transpiration, elles jouent peut-être un rôle dans la défense contre les virus (dont le matériel génétique est souvent constitué d’ARN). 3. Les chercheurs CNRS ou Inserm sont devenus fonctionnaires en 1983. Dans les années 1960, ils étaient « contractuels de la fonction publique », mais en pratique leur emploi était garanti et il fallait vraiment tuer père et mère pour que l’administration commence à s’émouvoir.

26

Bertrand JORDAN

au CNRS ou à l’Inserm), qui ont souvent une vision plus routinière de leur travail et une implication moins affirmée. Il y avait peu de post-doc dans les laboratoires français, et arriver à attirer un Américain constituait une réelle performance. Notre Américain était en fait Canadien, un peu plus âgé que moi, mais très accessible et fort sympathique. Médecin de formation, il avait effectué un premier post-doc dans l’équipe d’une des « figures » de la biologie moléculaire de l’époque, Sherman Weissman, à l’université de Yale. Sanger ayant décrit sa technique de séquençage dans un article paru fin 1965, Weissman s’était aussitôt attelé à la mettre en place dans son laboratoire – et y avait réussi en utilisant uniquement les indications données dans la publication. Cela constitue une belle performance : la section « matériel et méthodes » des articles scientifiques est généralement assez sommaire et ne décrit pas en détail les tours de main souvent essentiels pour réussir les manipulations décrites. Mais Weissman (que je devais rencontrer à plusieurs reprises bien des années plus tard) était un chercheur ingénieux, doué et acharné, et, avec Bernard Forget, il réussit bel et bien à « importer » les fingerprints dans son laboratoire. Il s’offrit même le luxe d’entrer en concurrence avec Sanger en séquençant l’ARN 5S humain [17] tandis que Sanger effectuait le même travail sur la molécule correspondante issue de la bactérie Escherichia coli4 [18]. Désirant faire un deuxième post-doc et intéressé par une expérience européenne, Forget avait très logiquement souhaité effectuer ce stage dans le laboratoire qui avait découvert l’ARN 5S (le nôtre), et avait obtenu l’une des rares bourses des National Institutes of Health (NIH) disponibles pour un séjour hors des États-Unis. Il joua un rôle très positif pour le laboratoire et notre collaboration fut sans nuages. Bien sûr, il commença par jurer qu’il n’était pas venu pour faire des fingerprints, et qu’il voulait changer de sujet, mais la logique de la situation était qu’il nous transmette la technique et c’est bien ce qui se passa.

Des « manips » délicates Le procédé n’était pas de tout repos. Il fallait d’abord obtenir un ARN fortement radioactif, ce que l’on faisait en cultivant les bactéries (nous travaillions toujours sur le colibacille Escherichia coli) dans un milieu contenant du phosphore radioactif en quantité importante5 : des centaines de millions de becquerels, alors qu’aujourd’hui on s’alarme pour quelques centaines de becquerels dans la chair d’un poisson ou dans l’eau. Après avoir purifié l’ARN à séquencer à partir du lysat (fortement radioactif lui aussi), on faisait agir sur lui une enzyme coupant la molécule en quelques points bien précis. Ce mélange de fragments était alors appliqué, à l’aide d’une minuscule « micropipette » en verre étiré, sur une bande d’un papier spécial placé ensuite dans une cuve qui permettait d’y faire passer un courant électrique sous une tension de plus de mille volts. Après une ou deux heures, cette bande de papier (sur laquelle les fragments, radioactifs mais invisibles, avaient chacun parcouru une certaine distance dépendant de leur taille et de leur composition en bases) était déposée sur une grande feuille d’un autre type de papier lequel était soumis une nouvelle fois à une forte tension électrique durant quelques heures. Finalement, on ressortait cette feuille de la cuve où avait eu lieu la migration (l’électrophorèse), on la laissait sécher, on l’enfermait dans une boîte métallique étanche à la lumière, au contact d’un film radiographique ultra-sensible... et on attendait le temps nécessaire, une nuit, deux jours ou une semaine selon la quantité de radioactivité mise en jeu, avant de développer le film. Si tout s’était bien passé, on voyait un ensemble de taches noires correspondant aux endroits auxquels avaient migré les différents fragments (Figure 8). La position de ces taches donnait de précieuses indications sur la nature de 4. Au niveau génétique, la parenté entre la bactérie et l’homme est importante, et on retrouve, peu modifiés, les mêmes constituants de base – y compris les ribosomes et l’ARN 5S. L’antériorité de Sanger fut respectée puisqu’il publiait la séquence de l’ARN 5S d’Escherichia coli en août 1967 tandis que Forget et Weissman présentaient la leur en décembre de la même année. 5. Le phosphore est un constituant des ARN et des ADN.

27

AU COMMENCEMENT ÉTAIT LE VERBE

Figure 8. Un « fingerprint » obtenu à partir de l’ARN 5S de l’algue microscopique Chlorella. C’est l’image formée sur un grand film à rayons X (30 x 40 cm) par les taches radioactives obtenues après le processus décrit dans le texte. La position de chaque tache (numérotée pour son repérage ultérieur) donne une indication sur la taille et la composition du fragment d’ARN correspondant (© Document de l’auteur, 1972).

28

Bertrand JORDAN

chaque fragment, indications qu’il fallait confirmer et préciser en récupérant le fragment à partir du papier et en le soumettant à d’autres analyses – tout un travail très minutieux mené « à la main » avec des moyens techniques très simples mais demandant une certaine habileté et beaucoup d’attention – sans parler des précautions liées à la radioactivité. Et bien d’autres expériences étaient encore nécessaires pour définir l’ordre de ces fragments dans la molécule étudiée... Lors de l’année que passa Bernard Forget au laboratoire, nous pûmes caractériser une forme particulière de l’ARN 5S d’Escherichia coli, et montrer qu’il s’agissait d’une entité intermédiaire apparaissant lors de la synthèse de cette molécule et en différant par trois bases additionnelles à une des extrémités de l’ARN. Résultat bien mince, sans importance biologique évidente : cette petite étape, que nous avions mise en évidence, jouait-elle un rôle quelconque dans la fonction de l’ARN 5S ? Nous ne savions même pas si cette molécule avait une fonction précise6... C’était donc vraiment un tout petit caillou, un grain de sable ajouté à l’édifice de la connaissance en biologie – et pourtant cela nous valut une publication dans la revue Science [20], le nec plus ultra parmi les journaux scientifiques en biologie7. C’est dire à quel point la biologie moléculaire de l’époque manquait d’informations sur la structure des ARN et des ADN, et combien tout résultat, même minuscule et sans signification biologique évidente, était considéré comme important... Je devais un peu plus tard séquencer, par la même méthode, deux autres ARN 5S, celui de l’algue monocellulaire Chlorella et celui de la mouche Drosophila melanogaster. Entreprises de longue haleine : il me fallut à chaque fois une année entière pour lire les cent vingt bases de ces molécules. Entreprise plutôt « sportive » aussi, surtout pour la drosophile où il avait fallu obtenir de l’ARN 5S radioactif à partir de larves ou même de mouches adultes. Pour ce faire, je cultivais des levures dans un milieu très fortement radioactif, puis les incorporais (les drosophiles en sont très friandes) dans la « pâtée », le milieu nutritif dont se nourrissent les larves et les adultes au laboratoire. Et, à la fin, je broyais les mouches radioactives dans une sorte de mortier en verre et en extrayais les ribosomes puis l’ARN, avant de commencer les expériences proprement dites... Un de ces « ingénieurs hygiène et sécurité » qui surveillent aujourd’hui les travaux menés dans les laboratoires frémirait d’horreur à la description de ces manipulations, à l’évocation des quantités proprement industrielles de radioéléments employés, à la pensée de drosophiles fortement radioactives échappées des fioles où on les élevait et voletant dans le laboratoire... Je me souviens, dans le même ordre d’idées, qu’un collègue belge était venu à cette époque travailler sur l’ARN 5S du crapaud Xenopus laevis, qu’un batracien avait disparu, et que, grâce à un compteur Geiger portatif, on l’avait retrouvé des semaines plus tard, desséché mais toujours radioactif, caché sous une armoire dans le couloir du laboratoire. Reste qu’en ce tout début des années 1970, il était devenu possible de lire, de séquencer de petits ARN. C’était une étape importante, et de nombreux ARN furent ainsi étudiés à l’époque. Un laboratoire français, à Strasbourg, se lança même dans l’entreprise héroïque consistant à séquencer l’ARN 16S, composant de la petite sous-unité du ribosome bactérien et long d’environ 1 600 nucléotides. Entreprise héroïque, car elle était vraiment à la limite des possibilités de la méthode, d’ailleurs elle n’aboutit pas ou plutôt fut rattrapée avant son achèvement par de nouvelles techniques bien plus efficaces autorisant la lecture directe du gène correspondant (voir Chapitre 6, « On apprend à lire »). On pouvait aussi envisager de séquencer de petites zones d’ADN, en les recopiant au laboratoire en ARN radioactif puis en séquençant ce dernier. Néanmoins, tout cela restait 6. On n’est guère plus avancé aujourd’hui pour lui attribuer un rôle précis dans le fonctionnement du ribosome [19]. 7. Il existe des centaines de revues scientifiques en biologie, avec une hiérarchie très précise. Bien entendu, plus la revue est prestigieuse, plus il est difficile d’y publier. À l’époque, les meilleures revues étaient Science et Nature, on y ajouterait aujourd’hui Cell.

29

AU COMMENCEMENT ÉTAIT LE VERBE

très laborieux, et l’ADN humain, avec ses milliards de bases, paraissait durablement hors de portée, d’autant que les gènes humains restaient cachés dans les immenses molécules qui constituent les chromosomes. Mais une nouvelle révolution, celle du Génie génétique, allait bientôt changer la donne.

Références et lectures conseillées 15. Watts G. Frederick Sanger. Lancet 2013 ; 382 : 1872. Présentation brève mais intéressante de la vie et de l’œuvre de Sanger. 16. Sanger F. Sequences, sequences, and sequences. Annu Rev Biochem 1988 ; 57 : 1-28. Par Sanger lui-même, le récit assez savoureux de sa carrière et de ses travaux. 17. Forget BG, Weissman SM. Nucleotide sequence of KB cell 5S RNA. Science. 1967 ; 158 : 1695-9. La séquence de l’ARN 5S humain. 18. Sanger F, Barrell BG, Brownlee GG. Nucleotide sequence of 5S-ribosomal RNA from Escherichia coli. Nature 1967 ; 215 : 735-6. ... Et celle du colibacille. 19. Dinman JD. 5S rRNA : structure and function from head to toe. Int J Biomed Sci 2005 ; 1 : 2-7. Dernières hypothèses sur le rôle de l’ARN 5S. 20. Forget BG, Jordan B. 5S RNA synthesized by Escherichia coli in presence of chloramphenicol : different 5’-terminal sequences. Science 1970 ; 167 : 382-4. Le travail réalisé à Marseille avec Bernard Forget en 1969.

30

LE PRINTEMPS DES CLONEURS DE GÈNES

5 LE PRINTEMPS DES CLONEURS DE GÈNES

L’émergence des « recombinaisons in vitro » Effectivement, le blocage de la fin des années 1960 n’était que temporaire et l’on allait bientôt assister à un nouveau développement explosif de la biologie moléculaire, infligeant ainsi un démenti cinglant à tous ceux qui avaient proclamé son essoufflement. Les prémices en apparurent, en fait, dès le début des années 1970 – mais, absorbé par mes travaux sur les ARN 5S et par la routine du laboratoire (où j’étais maintenant à la tête d’une petite équipe de cinq personnes), je n’en pris pas conscience immédiatement. Plusieurs laboratoires, aux États-Unis, avaient commencé à « bricoler » des ADN purifiés (provenant de divers virus) en utilisant les « enzymes de restriction » découvertes par Werner Arber, qui coupent la molécule en des points bien précis. Par exemple, l’enzyme appelé EcoR1 (Eco parce qu’elle est extraite de la bactérie Escherichia coli, R pour restriction, 1 parce que c’est la première enzyme de restriction isolée à partir de cette bactérie) coupe l’ADN uniquement lorsqu’elle rencontre la séquence GAATTC. En la faisant agir sur l’ADN purifié d’un bactériophage ou d’un autre virus, long de quelques dizaines de milliers de bases, on découpe cet ADN en un petit nombre de fragments bien définis. En 1972, l’équipe de Paul Berg, à l’université de Stanford en Californie, était parvenue à « recoller » ensemble de tels fragments provenant de deux virus différents, le bactériophage lambda (un virus bactérien) et un virus de singe appelé SV40 (simian virus 40). Et surtout, elle avait montré que cet assemblage pouvait être introduit dans la bactérie Escherichia coli (qui est l’hôte habituel du phage lambda) et qu’il était capable de s’y multiplier [21]. Bricolage ésotérique sans portée pratique ? Non, cette expérience était conceptuellement très importante : pour la première fois, un être vivant1 avait été construit au laboratoire à partir d’ADN provenant de deux espèces distinctes. On avait pratiqué une « recombinaison in vitro », combiné deux ADN différents au laboratoire. Et, de fait, comme l’anatomie de la double hélice est la même chez tous les êtres vivants (même si les séquences qu’elle contient diffèrent), on peut combiner entre eux des ADN provenant de n’importe quelle espèce : certaines plantes transgéniques d’aujourd’hui contiennent un segment d’ADN de méduse. La possibilité théorique de tels assemblages n’était donc pas nouvelle – mais le fait que cela soit effectivement réalisé ouvrait tout un ensemble de possibilités. Paul Berg n’était pas le seul : plusieurs équipes de pointe (toujours aux États-Unis) travaillaient dans le même sens, notamment Herbert Boyer et Stanley Cohen (également à Stanford) qui réussissaient, en 1974, l’insertion d’un segment d’ADN du crapaud Xenopus laevis dans un « plasmide » bactérien (une petite molécule d’ADN circulaire normalement présent dans certaines bactéries) et la réintroduction de ce plasmide modifié dans une bactérie que l’on pouvait ensuite multiplier à l’infini [22]. Pensons « ADN humain » au lieu d’ADN de crapaud... et voici que les gènes humains deviennent subitement accessibles !

1. En admettant qu’un virus est un être vivant, ce qui est un peu « limite » mais pas totalement faux.

31

AU COMMENCEMENT ÉTAIT LE VERBE

La grande peur des « manipulations génétiques » Mais, avant que l’on en arrive là, il fallut tenir compte des craintes que suscitaient ces expériences. Craintes sans doute largement liées à l’idée d’une transgression majeure perpétrée par le chercheur, trafiquant cet ADN sacré et s’arrogeant le droit de lier ce qui est séparé dans la nature (dans la création, selon certains) ; mais craintes légitimes, audelà de cette approche idéologique. En associant ainsi des ADN qui avaient évolué séparément au sein d’espèces différentes, ne pouvait-on craindre des résultats inattendus et peut-être catastrophiques ? Le fait que l’expérience princeps de Berg implique le virus SV40, qui est cancérigène chez le singe, donnait une ampleur particulière à ces inquiétudes – d’autant plus que l’on imaginait alors que la plupart des cancers humains étaient dus à des virus. Dans l’ambiance idéologique conflictuelle de l’époque, marquée par les contrecoups des révoltes de 1968, l’opposition aux « manipulations génétiques » (c’est ainsi que les adversaires de ces travaux les désignaient) était un thème porteur, et les débats furent très vifs. Je me souviens, en 1976, d’un séminaire sur les recombinaisons in vitro aux États-Unis, où la porte de la salle était gardée par le shérif local afin de prévenir tout débordement... Berg et ses collègues allumèrent un contre-feu en organisant la conférence d’Asilomar (en 1975), qui discuta des dangers potentiels, tenta d’établir une hiérarchie de dangerosité des expériences, et définit des mesures de protection [23, 24]. La polémique devait durer quelque temps puis s’éteindre peu à peu ; on en retrouve certains échos dans les mouvements anti-OGM actuels. Quoiqu’il en soit, dans les années qui suivirent, une bonne partie de l’activité des chercheurs allait être consacrée à « cloner un gène », à obtenir, grâce à l’ensemble de techniques désigné par le terme de « Génie génétique » (« génie » au sens d’ingénierie), un segment d’ADN correspondant à leur gène favori, isolé dans une bactérie et multipliable à volonté. Les échos de cette révolution en marche n’avaient pas manqué d’atteindre Marseille, et il fut rapidement question d’installer dans mon institut un « laboratoire P2 ». La conférence d’Asilomar avait en effet défini les mesures de protection à prendre en fonction de l’estimation du danger potentiel des manipulations – pour des études dont le risque potentiel était considéré comme faible, comme, dans notre cas, l’insertion de segments d’ADN de drosophile dans des plasmides, il fallait néanmoins – compte tenu des inconnues – faire en sorte que les molécules recombinantes restent confinées dans le laboratoire et ne puissent en aucun cas atteindre l’environnement. On s’en assurait en utilisant comme bactéries porteuses des souches « affaiblies » ayant besoin dans leur milieu de culture d’ingrédients qui ne se trouvent pas dans la nature, donc très peu susceptibles de survivre hors du laboratoire. De plus, les travaux étaient effectués dans des locaux spécialement aménagés, maintenus en dépression vis-à-vis de l’extérieur (afin que rien ne puisse en sortir), accessibles par un sas, et agencés de manière à ce que tous les déchets soient stérilisés avant leur sortie. Si le danger potentiel semblait plus élevé, la réglementation imposait un laboratoire P3, sorte de sous-marin presque totalement isolé de l’extérieur ; pour des expériences jugées plus anodines, un P1 (laboratoire normal un peu aménagé) suffisait. Divers comités se chargeaient de classer les projets qui leur étaient présentés, de leur attribuer une catégorie de risque, et d’homologuer les installations. Même dans ces conditions, ces travaux suscitaient débats et craintes. Il faut dire que le fonctionnement de ces laboratoires complexes et très coûteux n’était pas toujours conforme aux critères prédéfinis, que parfois la ventilation était en panne ou l’autoclave défectueux, et que bien des chercheurs (je devais le constater lors d’un stage en Angleterre où je travaillai dans une des premières de ces installations) ne prenaient pas trop au sérieux les règles édictées, d’après eux, par des bureaucrates tatillons et des experts ayant peur de leur ombre. En fait, et toujours dans le sillage de mai 1968, l’opposition aux « manipulations génétiques » était teintée d’une idéologie anticapitaliste et parfois antiscience (sinon même antirationaliste), tandis que les partisans des « recombinaisons

32

Bertrand JORDAN

in vitro » s’identifiaient volontiers à une science dynamique, sans complexes, prête à collaborer avec le secteur privé et très influencée par les valeurs de la société nord-américaine. Il est sans doute utile de réfléchir un peu sur les vives réticences qui se manifestèrent lors de la naissance de cette technologie, sur cette opposition dont les échos se retrouvent aujourd’hui dans le combat de certains écologistes contre « La guerre au vivant » qui serait menée par ce qu’ils appellent les « nécrotechnologies » [25]. Les grandes avancées techniques s’accompagnent généralement de résistances et de craintes, dont les motivations sont souvent plus idéologiques et symboliques que factuelles – ce qui ne veut pas dire pour autant qu’elles soient futiles ou négligeables. Avant le premier essai d’une bombe atomique dans le désert du Nouveau-Mexique, en juillet 1945, certains craignaient que cette explosion déclenche une réaction en chaîne s’étendant à la terre entière, et une partie de l’opposition au développement de l’énergie nucléaire s’appuie sur le sentiment que l’homme usurpe une prérogative divine en s’autorisant à intervenir au cœur de la matière. Les accidents de Tchernobyl et surtout celui de Fukushima ont montré les risques bien réels des centrales nucléaires et alimenté l’opposition à cette forme d’énergie. L’opinion publique oublie néanmoins que l’exploitation du charbon au cours du XXe siècle a tué 100 000 (cent mille) mineurs aux États-unis, et est aujourd’hui responsable de 10 000 morts chaque année en Chine – encore ne comptabilise-t-on là que l’effet des accidents survenant lors de l’extraction du combustible, et non ceux de la pollution liée à son utilisation massive. C’est bien plus, en tous cas, que les estimations les plus élevées des décès dus aux deux accidents nucléaires majeurs survenus en plus de cinquante ans. Notons encore que les études très approfondies menées sur plus de cent mille survivants de Hiroshima et de Nagasaki, et sur leur descendance, ont montré une augmentation significative (mais modérée) de l’incidence de cancers sur ces personnes très fortement irradiées (mille fois la dose limite admise en France) et une absence totale d’effet génétique sur leur descendance [26] – alors que toute caricature d’une installation nucléaire est aujourd’hui presque obligatoirement associée à l’image d’un enfant dramatiquement malformé...

On se calme... Les recombinaisons in vitro, ou manipulations génétiques comme les appelaient leurs opposants, ont été diabolisées parce qu’elles apparaissaient comme une transgression à l’ordre naturel, une intervention de l’homme au cœur du vivant, autant et plus que pour les dangers hypothétiques qu’elles pouvaient présenter. Ces dangers ne s’étant pas vérifiés, et sous la pression des scientifiques impatients de pouvoir utiliser l’extraordinaire boîte à outils qui s’offrait à eux, l’opposition est retombée. Il y a à cela plusieurs raisons. Tout d’abord, aucun événement catastrophique ne se produisit, et personne ne fut rendu malade par ces expériences, contrairement à la manipulation mal contrôlée de virus infectieux ou l’utilisation sans précaution suffisante de réactifs toxiques qui sont responsables de plusieurs décès chaque année. De plus, les résultats obtenus grâce à ces techniques montrèrent que les mécanismes de l’expression génique chez les bactéries étaient assez différents de ceux qui opèrent chez les organismes supérieurs, de sorte que le fonctionnement « par inadvertance » d’un gène humain inséré dans Escherichia coli était encore bien plus improbable qu’imaginé au départ. Et surtout, les progrès des connaissances rendus possibles par le Génie génétique furent tellement foudroyants qu’il devenait intenable de s’y opposer. Les « éléphants blancs » construits à grand frais, ces laboratoires équipés pour manipuler dans des conditions de très haute sécurité des bactéries en fait bien inoffensives, furent désaffectés ou recyclés pour effectuer des travaux sur des virus présentant, eux, des dangers bien réels comme celui de la variole, de diverses maladies tropicales et bien sûr, un peu plus tard, le virus VIH. La technologie

33

AU COMMENCEMENT ÉTAIT LE VERBE

des recombinaisons in vitro se répandit rapidement, les normes de sécurité furent revues à la baisse, et chacun se mit à essayer de « cloner son gène ».

Le clonage passe par le criblage Cloner un gène : l’ensemble de l’ADN humain, donc l’ensemble des gènes, était en principe disponible sous forme de « librairies » ou « banques » d’ADN, établies par les quelques laboratoires les plus avancés et mises à la disposition des chercheurs du monde entier – souvent moyennant la participation (signature) des « constructeurs » sur tout article ayant utilisé leur banque. Une librairie2 dans le plasmide pBR322, par exemple, c’était un ensemble de bactéries contenant chacune un « plasmide recombinant », une molécule pBR322 dans laquelle est inséré un petit morceau d’ADN humain3. Un petit morceau, quelques kilobases (milliers de bases) tout au plus... Comme l’ADN humain comporte trois milliards de bases, on voit qu’il faut au bas mot un million de bactéries contenant chacune un plasmide différent (avec un segment d’ADN humain différent) pour obtenir une représentation de notre génome, et pour espérer y trouver la bactérie contenant le plasmide qui porte « notre » gène. Comme l’exprime la Figure 9, le problème du clonage est en fait celui du criblage, du repérage du « bon » clone bactérien au milieu de centaines de milliers d’autres.

Figure 9. Le « clonage » de gènes, ou l’aiguille dans la botte de foin. Ce dessin illustre bien le problème des chercheurs à cette époque : les « librairies » contenaient en principe tous les gènes humains (toutes les cartes), mais comment repérer la bonne ? (© Marc Chalvin). 2. C’est un anglicisme, il faudrait dire « bibliothèque » qui est la traduction correcte de library. 3. Les plasmides sont des molécules d’ADN circulaires, longues de quelques milliers de bases, qui sont portées par les bactéries en plus de leur propre ADN principal. Ils contiennent souvent un gène de résistance aux antibiotiques et sont ainsi utiles à leur hôte. C’est le transfert de plasmides entre différentes bactéries qui est responsable de la diffusion des résistances aux antibiotiques.

34

Bertrand JORDAN

Les cloneurs devaient donc commencer par « étaler » la banque, c’est-à-dire diluer le précieux mélange de bactéries (reçu dans un petit tube) puis le répandre à la surface d’une gélose nutritive préparée dans des centaines de boîtes de Pétri, de manière à ce que chaque bactérie soit isolée de ses voisines. En incubant ensuite ces boîtes durant une nuit dans une étuve à 37o, chaque bactérie se multipliait pour former à la surface une petite « colonie », un amas de bactéries gros comme une tête d’épingle, toutes identiques puisque « filles » de la même bactérie initiale, donc portant le même plasmide contenant le même morceau d’ADN humain. Cet ensemble d’individus identiques, c’est ce que l’on appelle un clone – d’où l’expression « cloner un gène »... On était donc en présence de centaines de milliers de clones, restait à identifier le bon. Il fallait pour cela disposer d’une « sonde », une préparation d’ADN (ou d’ARN) susceptible de « reconnaître » l’ADN recherché parmi toutes ces colonies. On peut en effet, grâce aux propriétés de la double hélice, apparier un ADN à un autre ADN qui lui ressemble en dissociant les deux brins de l’hélice puis en la laissant se reformer (par exemple par une élévation puis un abaissement de la température). La « sonde » va alors se fixer préférentiellement sur la ou les colonies qui renferment un ADN similaire, et, si la sonde est radioactive, elle « marquera » cette colonie. À l’issue de l’expérience, les colonies qui ont fixé de la radioactivité doivent contenir au moins une partie du gène recherché (Figure 10).

Figure 10. Criblage d’une banque d’ADN. On devine la forme ronde de la boîte de Pétri sur laquelle ont été déposées les bactéries ; après application d’un filtre sur la boîte, puis incubation de ce filtre (qui a retenu une empreinte de chaque colonie bactérienne) avec la sonde radioactive, il a été exposé à un film à rayons X. Les colonies bactériennes « positives » (ayant fixé la sonde) apparaissent comme des points noirs ; les marques à la périphérie ainsi que les chiffres ont été inscrits sur le filtre à l’encre radioactive (et sur la boîte avec un crayon-feutre) et permettent de retrouver les colonies positives pour les cultiver en masse et en extraire l’ADN recherché (© document de l’auteur, 1981).

35

AU COMMENCEMENT ÉTAIT LE VERBE

On voit la complexité et la difficulté de ces manipulations, avec un point critique qui est l’obtention de la sonde – à l’époque, cela demandait des mois, parfois des années de travail avant d’aboutir. Dans notre cas, puisque nous nous intéressions toujours à l’ARN 5S, la tâche était relativement facile : pour trouver, parmi les innombrables colonies d’une banque d’ADN de drosophile, celles qui correspondent au gène de notre ARN, il suffisait d’utiliser comme sonde cet ARN lui-même rendu radioactif. Pour nos collègues qui cherchaient à cloner le gène humain codant pour leur protéine préférée, les choses étaient plus compliquées – mais on trouva peu à peu des astuces permettant d’y arriver. Un pas essentiel avait été franchi : on pouvait maintenant accéder – non sans mal, certes – à n’importe quel gène humain ou animal ; une fois le « bon » clone (la colonie bactérienne contenant le segment d’ADN recherché) identifié, il était facile de cultiver en masse les bactéries et d’obtenir le gène en grande quantité, des dizaines ou des centaines de microgrammes : un résultat inimaginable jusque-là. Et, du fait même de la méthode d’obtention, cet ADN était parfaitement pur en ce sens qu’il n’était pas accompagné de traces, même infimes, d’autres gènes humains. Le progrès était donc considérable. Reste que, au milieu de ces années 1970, il manquait encore un outil essentiel : une technique permettant de déterminer rapidement la séquence, la suite des bases dans cet ADN que l’on savait maintenant isoler. À l’évidence, il allait falloir lire des gènes s’étendant sur des milliers ou même des dizaines de milliers de bases dans l’ADN, et il n’était pas question d’y passer des années...

Références et lectures conseillées 21. Jackson D, Symons R, Berg P. Biochemical method for inserting new genetic information into DNA of simian virus 40 : circular SV40 DNA molecules containing lambda phage genes and the galactose operon of Escherichia coli. Proc Natl Acad Sci USA 1972 ; 69 : 2904-9. Première publication décrivant une recombinaison in vitro. 22. Morrow JF, Cohen SN, Chang AC, Boyer HW, Goodman HM, Helling RB. Replication and transcription of eukaryotic DNA in Escherichia coli. Proc Natl Acad Sci USA 1974 ; 71 : 1743-7. La propagation d’ADN de crapaud dans une bactérie... 23. Berg P, Baltimore D, Brenner S, Roblin RO, Singer MF. Summary statement of the Asilomar conference on recombinant DNA molecules. Proc Natl Acad Sci USA 1975 ; 72 : 1981-4. Les conclusions de la conférence d’Asilomar. 24. Un bilan d’Asilomar et de ses suites, publié en 2000 dans La Recherche, et en libre accès à : http://www.larecherche.fr/idees/autre/asilomar-vingt-cinq-ans-apres-01-06-2000-86943 25. Berlan JP. La guerre au vivant, OGM et mystifications scientifiques. Marseille : Éditions Agone, 2001. Une vision très polémique des OGM, par un opposant farouche. 26. Jordan B. Les leçons inattendues d’Hiroshima. Med Sci (Paris) 2014 ; 30 : 211-3. Résumé des études sur les effets génétiques des radiations, avec les références aux articles originaux.

36

ON APPREND À LIRE

6 ON APPREND À LIRE

Cloner son gène, c’est bien – mais l’objectif, c’est de comprendre comment il fonctionne, quelle est la structure de la protéine dont il renferme la formule, plus tard peutêtre de l’employer pour fabriquer un produit ou traiter une maladie. Tout cela suppose le déchiffrage, la lecture de la suite des bases dans l’ADN que l’on a finalement réussi à obtenir. La préparation du « matériel » ne pose guère de problème : il suffit de cultiver la bactérie, une culture dans un litre de bouillon nutritif en fournit plusieurs grammes, d’extraire son ADN et de purifier le plasmide (aisément séparé en raison de sa petite taille et de sa forme circulaire) – on en obtient facilement une fraction de milligramme, ce qui est beaucoup à l’échelle du laboratoire. Mais s’il faut ensuite lire cet ADN par la technique des fingerprints de Sanger, cela risque de prendre beaucoup de temps : rappelons qu’il fallait des mois et des mois pour déchiffrer une centaine de bases par cette approche (Chapitre 4, « Les fingerprints de Sanger »).

Souvenir d’un tournant Nous avons presque tous en mémoire ce que nous faisions à certains instants clés de l’histoire, le jour de l’assassinat de John F. Kennedy, ou celui de l’attentat contre le World Trade Center. Personnellement, je me souviens aussi de cette soirée de 1976 où, lors d’un congrès dans la station de ski de Keystone1, au Colorado, j’appris l’existence d’une technique de séquençage révolutionnaire. Nouvelle de seconde main : les résultats avaient été présentés lors d’une session parallèle à laquelle je n’assistais pas, et c’est un collègue canadien qui me les rapportait. Je ne compris pas très bien comment cela marchait, mais le résultat était spectaculaire : les expériences aboutissaient à la lecture directe de la séquence, et on pouvait en une seule « manip » lire des dizaines, peut-être même des centaines de bases ! Tout d’un coup, le séquençage de gènes entiers devenait une perspective réaliste. Je revois les sièges en velours et les boiseries sombres de la salle de conférence provisoirement inoccupée où nous nous étions installés pour discuter, et où mon collègue, tout excité, me rapportait cette avancée spectaculaire... La méthode en question était celle dite de « Maxam et Gilbert » [27]. Walter Gilbert, un des « pontes » de la biologie moléculaire aux États-Unis, et son technicien Allan Maxam, avaient mis au point un ensemble de manipulations chimiques sur l’ADN qui permettait d’obtenir un mélange de fragments dont une extrémité était fixe tandis que l’autre s’arrêtait à la base G (ou A, ou T, ou C selon les réactifs employés). Ces fragments étaient ensuite analysés par migration dans un système très résolutif permettant de séparer des morceaux différant d’une seule base dans leur longueur. Après la séparation et la révélation des 1. Les chercheurs nord-américains, qui ne prennent presque jamais de vacances, sont friands de ces congrès tenus dans des stations de ski, qui leur donnent l’occasion de passer un peu de temps sur les pentes. Pour un Européen, la formule est assez désastreuse, elle impose des séances tôt le matin et tard le soir ce qui, conjugué aux effets du décalage horaire, est assez épuisant – et les collègues avec lesquels l’on aimerait discuter entre deux sessions sont généralement partis sur les pistes.

37

AU COMMENCEMENT ÉTAIT LE VERBE

positions des fragments (radioactifs) par exposition à un film à rayons X, on déduisait directement la séquence de la position des bandes correspondant à chaque fragment (Figure 11). C’était une véritable révolution ! En fait, Fred Sanger avait de son côté mis au point une méthode un peu différente, qui fut publiée quelques mois après celle de Maxam et Gilbert [28]. Elle se terminait de la même manière, par une série de bandes sur un film à rayons X, mais les fragments à séparer étaient produits par un ensemble de réactions enzymatiques et non par dégradation chimique de l’ADN. Comme le dit Sanger dans ses mémoires, « Bien que l’on doive accueillir favorablement tout progrès scientifique, je ne peux pas prétendre que j’aie été réellement réjoui par l’apparition d’une méthode concurrente »2. Sens exquis de l’understatement britannique, dont je vécus plusieurs exemples lors de mes séjours dans ce pays si proche mais si différent : je me souviens entre autres d’une publicité qui invitait le lecteur à demander une notice et précisait 4d in stamps would be appreciated (« nous apprécierions quatre pennies en timbres ») – au lieu, comme chez nous, d’enjoindre au lecteur d’envoyer une enveloppe timbrée.

Figure 11. Résultat d’une expérience de séquençage (méthode de Maxam et Gilbert). Les fragments d’ADN ont été séparés selon leur taille, les plus courts vers le bas. La colonne la plus à gauche montre les fragments se terminant par un G, la suivante ceux qui finissent par un A, la troisième ceux qui comportent un C, et la dernière à droite ceux qui se terminent par un C ou un T. On peut ainsi lire directement la séquence du fragment d’ADN étudié, elle a été inscrite au crayon (à droite) sur le film (à lire de gauche à droite, en remontant) (© document de l’auteur, décembre 1980). 2. While [...] one must welcome any scientific progress, I cannot pretend that I was altogether overjoyed by the appearance of a competitive method.

38

Bertrand JORDAN

Un an plus tard, à l’automne 1977, j’étais à Londres pour une année sabbatique – pour les scientifiques, il ne s’agit pas d’une année de vacances, mais d’un séjour dans un laboratoire différent, presque toujours à l’étranger, pour s’initier à un nouveau domaine et/ou apprendre de nouvelles techniques. J’eus, en 1978, le privilège de pouvoir effectuer un séjour de deux semaines au célèbre Laboratory of Molecular Biology, à Cambridge (Grande-Bretagne), afin d’être formé au séquençage d’ADN. Accueilli au saint des saints, dans l’équipe de Sanger, je fis mon apprentissage sous la houlette de son proche collaborateur George Brownlee... pour être initié à la méthode de Maxam et Gilbert ! Je ne connais pas le fin mot de l’histoire, mais cet enseignement de la technique concurrente au cœur du laboratoire de Sanger ressemble fort à une révolte contre le Père... Je m’exerçai donc à manipuler les substances très toxiques (mais heureusement mises en œuvre en toute petite quantité) que supposait ce procédé, et acquis une compétence qui devait bientôt m’être très précieuse.

Anatomie d’une « première » scientifique C’est peu après, en effet, que j’eus l’occasion et la chance de réaliser une première scientifique qui eut, à l’époque, un certain écho. Je venais, à l’automne 1980, de quitter mon laboratoire du CNRS et mes travaux sur la drosophile pour aller créer une équipe de biologie moléculaire dans un excellent institut de recherche, le Centre d’Immunologie Inserm/CNRS de Marseille-Luminy (CIML). L’immunologie, l’étude des mécanismes par lesquels l’organisme se défend contre les infections virales et bactériennes, s’est d’abord intéressée à l’étude des organes (moelle osseuse, rate, thymus) et des cellules (« globules blancs » ou lymphocytes B et T) impliqués dans ces mécanismes, puis a abordé l’analyse des protéines (les immunoglobulines ou anticorps) qui en sont les agents. En 1980, alors que l’ADN devenait accessible à l’étude, il fallait bien sûr étendre les investigations vers les gènes correspondants. Mon souhait de m’implanter au CIML (très attractif car nettement plus dynamique que mon laboratoire d’origine) avait été accueilli avec enthousiasme par ses responsables et approuvé par la direction du CNRS. Et, peu après que j’y aie créé une équipe de cinq ou six personnes, une occasion en or se présenta : le frère (Philippe Kourilsky) du directeur du CIML (François Kourilsky, récemment disparu) avait réussi à isoler un gène d’histocompatibilité de souris... et était disposé à le mettre à notre disposition pour tenter d’identifier le gène correspondant chez l’homme. Histocompatibilité : il s’agit là de protéines (dites HLA chez l’homme), présentes à la surface des cellules, et qui interviennent notamment dans le rejet de greffe : une greffe (de rein par exemple) ne « prend » que si donneur et receveur possèdent des protéines HLA identiques ou très proches3. Bien sûr, ce n’est pas leur rôle normal (elles interviennent de manière essentielle dans les interactions entre les différentes catégories de lymphocytes), mais c’est ce phénomène qui permit de les mettre en évidence, ce qui valut au Français Jean Dausset le prix Nobel de médecine en 1980. Dans le virage vers le moléculaire qu’était en train de prendre l’immunologie, le clonage et le séquençage des gènes correspondants constituait un enjeu majeur. L’approche rendue possible par la proposition de Philippe Kourilsky apparaissait risquée : on imaginait qu’il devait y avoir une certaine parenté entre gènes d’histocompatibilité de souris et d’homme... mais rien à l’époque n’assurait que cette parenté serait suffisante pour qu’une « sonde » de souris soit efficace sur une librairie d’ADN humain. Après discussion, il fut décidé de tenter l’aventure, je partis travailler quelques semaines dans le laboratoire de Philippe Kourilsky à l’institut Pasteur... et en revins avec, dans une dizaine de petites fioles de verre, autant de bactéries dont il semblait qu’elles contiennent des segments d’ADN humain apparentés au gène d’histocompatibilité de la souris. « Il semblait » – à en croire 3. Aujourd’hui, l’utilisation de médicaments « immunosuppresseurs » permet dans une certaine mesure de s’affranchir de ces limites.

39

AU COMMENCEMENT ÉTAIT LE VERBE

le criblage de la banque ; mais il restait à en apporter la preuve, ce qui allait reposer sur la lecture de ces fragments d’ADN humain. On connaissait en effet la séquence, l’enchaînement des acides aminés pour deux protéines HLA humaines, et, avec un peu de chance, la lecture notre ADN nous dirait si celui-ci était susceptible de renfermer la formule d’une protéine de cette famille.

L’instant de grâce C’est ainsi qu’un lundi de décembre 1980, j’arrivai au laboratoire et m’enfermai dans la chambre noire pour développer le film radiographique exposé la veille et qui allait révéler le résultat de ma première expérience de séquençage sur le premier fragment étudié. Je n’en attendais pas de révélation immédiate : à supposer que le « clone » étudié contienne effectivement un morceau de gène HLA, rien ne laissait supposer que les bases T, A, C ou G que j’allais lire tomberaient dans une zone reconnaissable... Mais tout de même, cette première expérience allait sans doute augurer de la suite. Elle montrerait si j’avais toujours la technique en main, alors que je ne l’avais plus pratiquée depuis quelques mois : dans ces ensembles compliqués de manipulations, il suffit qu’une enzyme ait perdu de son activité, qu’une solution ait été contaminée par une moisissure ou qu’un produit chimique contienne une impureté... pour que l’analyse échoue et que son résultat soit ininterprétable. La « manip ratée », on en parle peu et elle n’apparaît pas dans les comptes rendus très lisses (« sanitisés » comme disent nos collègues nordaméricains) que sont les articles scientifiques – mais elle fait partie du quotidien du laboratoire, comme le découvrent à leurs dépens les chercheurs débutants. Bien d’autres éléments pouvaient interférer avec cette tentative : l’ADN que j’avais purifié, à partir d’un système de clonage dans les bactéries nouveau pour moi, serait-il suffisant en qualité et quantité ? Avais-je bien emballé, dans l’obscurité totale de la chambre noire, le bloc d’acrylamide polymérisé sur lequel avait été réalisée la séparation des fragments d’ADN ? Et avais-je bien évalué leur radioactivité ? Aurait-elle, en une nuit d’exposition, laissé des traces lisibles sur le film radiographique que j’étais en train de développer ? Je suis dans le noir absolu – ces films sont très sensibles à la lumière, et il ne s’agit pas de les voiler. Le film, bien accroché sur son cadre métallique, a été développé durant les trois minutes règlementaires, rapidement rincé dans la cuve suivante, et est maintenant placé dans la troisième, celle qui contient le fixateur. Je vais pouvoir allumer le plafonnier et jeter un premier regard, voir s’il porte les « pattes de mouche » bien nettes d’une expérience techniquement réussie ou au contraire les traces floues d’une « manip ratée ». De manière tout à fait irrationnelle (mais les chercheurs aussi sont superstitieux), il me semble que ce résultat présagera de la suite, qu’il va m’annoncer un parcours semé d’embûches et de problèmes techniques, ou, au contraire, me dire que tout ira bien. C’est donc le cœur battant que je soulève le cadre et examine cette grande radiographie toute ruisselante de fixateur (dont j’évite avec soin les gouttes, qui laissent sur les vêtements de vilaines taches brunes indélébiles). Cela se présente bien : j’aperçois une belle série de bandes noires bien nettes, bien contrastées, qui annoncent une lecture facile. Je vais pouvoir lire cent, deux cents, peutêtre même trois cents bases, un morceau significatif de séquence à partir de l’extrémité du fragment d’ADN que j’ai soumis – après l’avoir rendu radioactif – à la longue « cuisine » des réactions chimiques selon Maxam et Gilbert. Je suis soulagé et content : le travail s’annonce bien, et je peux raisonnablement prévoir qu’en quelques semaines et une vingtaine d’expériences de ce style je saurai si « mon » clone contient ou non un fragment de gène HLA. Impatient, comme un enfant qui déchire à la hâte l’emballage de son cadeau de Noël, je rince rapidement le film dans l’eau courante et commence à le lire, encore tout mouillé, sans attendre de l’appliquer, une fois sec, sur la table de lecture lumineuse qui facilite son déchiffrage. Je lis ainsi, « à la sauvage », une cinquantaine de

40

Bertrand JORDAN

bases (Figure 11), et, tandis que le film s’égoutte et sèche, je tente de les interpréter. Rien ne dit qu’ils soient significatifs : lorsqu’on isole ainsi un clone d’ADN, et à supposer qu’il contienne effectivement une partie du gène recherché, la lecture d’un petit fragment a bien des chances de tomber en dehors du gène, devant (avant le début du message), derrière, ou même à l’intérieur, dans l’un de ces « introns », ces zones d’ADN sans signification précise qui interrompent les régions codantes des gènes et qui seront éliminées par la cellule lors de la fabrication de l’ARN messager. Mais sait-on jamais...

C’est gagné ! Il s’agit donc de voir si cette suite d’une cinquantaine de bases, lue à la hâte sur le film mouillé, peut coder pour une protéine – et si celle-ci ressemble à une protéine HLA. C’est le code génétique qui va me permettre de répondre à cette question, puisqu’il indique quel acide aminé est codé par chaque « codon », chaque série de trois bases dans l’ADN. Mais je ne sais pas si la séquence que j’ai lue commence juste au début, au milieu ou à la fin d’un codon. Il y a donc trois lectures possibles – et comme je ne sais pas non plus comment est orienté mon segment par rapport au gène, il y en a en fait six – j’écris donc, sur une feuille de papier quadrillé, les six traductions possibles de ma séquence. Et, cela fait, je me reporte à un article publié l’an dernier par le réputé laboratoire américain de Jack Strominger, à Harvard – laboratoire qui, lui aussi, est actuellement en train d’essayer d’isoler un gène HLA. Cette publication rapporte une partie de la structure de deux protéines HLA, déterminée à grand-peine en analysant les protéines purifiées. Il y a donc là une suite d’acides aminés, une séquence, montrant la constitution de deux de ces protéines. Elles sont souvent légèrement différentes d’une personne à une autre (et c’est pour cela qu’elles peuvent provoquer le rejet d’une greffe), mais elles ont tout de même un air de famille prononcé, une « homologie » comme nous disons, qui normalement devrait me permettre de savoir si l’une de mes traductions possibles rattache mon morceau d’ADN à un gène HLA – pour autant que je sois tombé dans une région codante. Bien sûr, l’on aurait aujourd’hui recours à un ordinateur pour une telle comparaison, et, une fois les séquences introduites dans la machine, la réponse serait immédiatement apparente... mais nous sommes en 1980, et il n’y a pas un seul ordinateur dans cet institut de pointe qui regroupe plus de cent personnes ! C’est donc mon regard qui va de la feuille de papier quadrillé à la publication du groupe de Strominger, en espérant déceler une ressemblance. Et mon pouls s’accélère quand je m’aperçois qu’en effet l’une des traductions de ma séquence a l’air de « coller » avec la région centrale de la protéine HLA-B7 publiée par cette équipe ! Je réécris ma séquence sur une nouvelle feuille (Figure 12), porte la « bonne » traduction au-dessus, transcris la protéine de Strominger à la ligne supérieure, vérifie fébrilement, gomme les erreurs, relis la radiographie pour être sûr de mon fait : pas de doute, ma traduction est identique, à deux différences près, à la protéine de Strominger sur toute la longueur de ce que j’ai pu lire, correspondant à trente-cinq acides aminés (une centaine de bases sur l’ADN). Une telle coïncidence ne peut pas être due au hasard : elle signifie que ce segment d’ADN que j’ai isolé porte bel et bien un morceau d’un gène HLA, les deux différences provenant du fait qu’il doit s’agir d’un autre membre de la famille. Il est neuf heures trente, ce 21 décembre 1980, et je suis apparemment le premier au monde à avoir « cloné » un gène HLA, enjeu d’une course éperdue entre les plus grands laboratoires mondiaux, de la Suède aux États-Unis en passant par la Grande-Bretagne.

41

AU COMMENCEMENT ÉTAIT LE VERBE

Figure 12. Feuille de papier quadrillé portant la première séquence d’ADN lue et sa traduction. Au-dessus de la séquence d’ADN, l’une de ses traductions possibles en acides aminés ; au-dessus de celle-ci, la séquence de la région centrale de la protéine HLA-B7 publiée par le groupe de Jack Strominger. On voit que celles-ci sont identiques à deux différences près, entourées d’un trait de crayon. Les acides aminés sont figurés ici selon un code abrégé qui fait correspondre une seule lettre à chacun d’eux, par exemple V = valine ou L = lysine (© document de l’auteur, décembre 1980).

Bonne fortune La chance qui avait voulu que cette première expérience apporte la réponse désirée ne devait pas me quitter : il s’avéra que « mon » clone contenait un gène HLA entier (ce qui n’avait rien de certain a priori, il aurait aussi bien pu n’en porter qu’un morceau), et, avec deux jeunes chercheurs habiles et motivés (Marie et Bernard Malissen, devenus depuis des stars de l’immunologie moléculaire), nous pûmes le lire dans son ensemble en un temps record et effectivement réaliser une première scientifique [29], avec des publications prestigieuses, qui placèrent mon institut dans la Mecque de la nouvelle immunologie et me valurent un superbe diplôme signé de la main de François Mitterrand et m’octroyant l’ordre du Mérite à titre scientifique. Aujourd’hui, où tous les gènes humains (du moins leur séquence) sont à portée de main, cette « première mondiale » semble bien mince, mais dans le contexte de l’époque c’était effectivement une étape importante. Le système HLA posait un certain nombre d’énigmes, par exemple la raison d’être des différences entre individus aboutissant au rejet de greffe, et l’isolement du premier gène allait effectivement permettre de découvrir qu’il en existait toute une famille et, peu à peu, de comprendre leur rôle dans les pro-

42

Bertrand JORDAN

cessus de défense de l’organisme, notamment contre les infections virales. Au cours des années 1980, l’immunologie allait être profondément transformée, et l’isolement du premier gène HLA fut un des jalons du début de cette mutation. Ce succès n’avait été possible que grâce à la sonde fournie par le laboratoire parisien, et à une chance insolente dans le choix presque au hasard du premier clone à analyser et du premier fragment à séquencer. La suite du travail allait devoir beaucoup à mes collaborateurs, à mon équipe et aux collaborations au niveau de l’institut dans lequel je travaillais. La caractère collectif de la recherche est essentiel, mais, tout de même, c’est bien moi qui avais abouti à ce premier morceau de séquence et qui avais eu le privilège de me dire, devant ce film mouillé lu à la hâte et cette feuille de papier couverte de signes cabalistiques « ça y est, j’ai cloné HLA ! ». Éclatante justification de mon choix quinze ans plus tôt de passer de cette physique nucléaire où je me sentais « petit rouage dans une grande machine » à une science toute nouvelle, la biologie moléculaire. J’ai voulu raconter cette histoire [30], d’abord bien sûr parce qu’elle représente un temps fort – peut-être même le plus fort – de ma vie de scientifique. Aussi parce qu’elle restitue l’ambiance de cette époque où chaque équipe tentait de « cloner son gène », en sous-estimant souvent tout ce qu’il resterait à faire, une fois le gène isolé, pour en tirer une information biologique ou le traitement d’une maladie. On allait le découvrir dans la décennie suivante et tout particulièrement une fois que l’ensemble de l’ADN humain, notre génome, aurait été séquencé dans le cadre d’un grand programme international qui allait durer dix ans et susciter des investissements tout à fait inhabituels pour la biologie. Mais, comme disait Kipling, tout cela est une autre histoire, que nous aborderons plus tard, et, à l’aube des années 1980, c’est un âge d’or qui s’ouvrait. Un couple quasiment invincible était formé : clonage et séquençage allaient, durant de nombreuses années, être les deux mamelles de la biologie moléculaire, et singulièrement de la génétique médicale.

Références et lectures conseillées 27. Maxam AM, Gilbert W. A new method for sequencing DNA. Proc Natl Acad Sci USA 1977 ; 74 : 560-4. La technique de séquençage Maxam/Gilbert. 28. Sanger F, Nicklen S, Coulson AR. DNA sequencing with chain-terminating inhibitors. Proc Natl Acad Sci USA 1977 ; 74 : 5463-7. ... Et celle de Sanger, qui allait s’imposer. 29. Malissen M, Malissen B, Jordan BR. Exon/intron organization and complete nucleotide sequence of an HLA gene. Proc Natl Acad Sci USA 1982 ; 79 : 893-7. Isolement et séquence de « notre » gène HLA. 30. Jordan B. Cloning and sequencing the first HLA gene. Genetics 2010 ; 184 : 879-86. Une description détaillée de l’isolement du premier gène HLA.

43

LES VINGT GLORIEUSES DE LA NOUVELLE GÉNÉTIQUE MÉDICALE

7 LES VINGT GLORIEUSES DE LA NOUVELLE GÉNÉTIQUE MÉDICALE

L’élucidation des maladies héréditaires fait un pas de géant C’est ainsi qu’au début des années 1980 s’ouvre une ère nouvelle pour la génétique médicale, cette discipline de la biologie qui cherche à découvrir la cause des maladies héréditaires afin de comprendre leur mécanisme et d’en tirer des traitements plus efficaces. L’étude de ces affections était déjà ancienne, mais elle allait prendre une nouvelle dimension grâce aux possibilités ouvertes par le clonage de gènes et le séquençage d’ADN. L’approche traditionnelle était longue et difficile, et supposait que l’on ait déjà un début de compréhension du mécanisme impliqué. Évoquons par exemple l’hémophilie, une des plus anciennement connues de ces maladies héréditaires. C’est une anomalie qui retarde la coagulation du sang et entraîne notamment l’infirmité de ses porteurs en raison des saignements qui détruisent le cartilage des articulations. On avait depuis longtemps constaté que l’hémophilie était présente chez les enfants mâles dans certaines familles, mais qu’elle sautait souvent une génération pour réapparaître à la suivante – comme chez les descendants de la reine Victoria dans les familles royales d’Angleterre et de Russie. Après de longues études pour élucider le mécanisme très complexe de la coagulation du sang, on avait pu montrer qu’il manquait aux patients un « facteur de coagulation », une protéine appelée facteur VIII ou IX selon les cas. Le mode de transmission particulier s’expliquait par le fait que le gène correspondant est situé sur le chromosome X : les mères porteuses de l’affection sont elles-mêmes indemnes parce que, ayant deux chromosomes X, l’un de ceux-ci contient le gène normal et produit le facteur de coagulation ; seuls les enfants mâles héritant du « mauvais » X sont atteints. À partir de l’ensemble de ces connaissances, on avait finalement réussi, au début des années 1980, à isoler les gènes codant pour le facteur VIII et le facteur IX, gènes qui sont en effet situés vers l’extrémité du bras long du chromosome X. On était donc allé de la maladie à la protéine affectée puis au gène. Itinéraire qui comporte d’importantes difficultés : arriver à isoler la protéine qui est défectueuse chez les malades suppose d’avoir déjà une compréhension assez approfondie de l’affection – or beaucoup de maladies héréditaires sont mystérieuses et l’on n’a aucune idée de leur mécanisme ; et remonter ensuite de la protéine au gène n’a rien d’évident, comme on l’a vu dans le chapitre précédent pour l’isolement d’un gène HLA, objet des efforts de multiples laboratoires alors que la protéine était connue depuis de nombreuses années.

Une nouvelle approche Les possibilités offertes par les techniques du génie génétique allaient changer la donne et permettre l’essor de ce que l’on appela la « génétique inverse » [31] – inverse parce qu’elle faisait le trajet dans le sens opposé de l’approche jusque-là employée : elle allait de la maladie au gène puis ensuite seulement à la protéine (Figure 13). Plus préci-

44

Bertrand JORDAN

sément, l’étude génétique de familles dans lesquelles l’affection est présente permettait de « pister » le gène impliqué (celui qui cause la maladie lorsqu’il est défectueux – et l’évite lorsqu’il est fonctionnel) et de déterminer sa position approximative sur l’un de nos chromosomes. Une fois cette information obtenue, une analyse approfondie de la région ainsi désignée allait permettre d’identifier le gène. L’étude génétique reposait sur la présence de polymorphismes dans notre ADN, c’est-à-dire de points auxquels la séquence de l’ADN est souvent différente d’une personne à une autre. Diverses techniques permettaient repérer ces points variables, et de déterminer sous quelle forme (quel allèle) ils se trouvent chez une personne donnée, sans passer par le séquençage proprement dit, inenvisageable à cette époque. On pouvait alors prélever un peu de sang de chaque membre d’une famille s’étendant sur plusieurs générations et comportant un certain nombre de personnes affectées, et déterminer sous quelle forme se trouvent une série de marqueurs polymorphiques chez chacun de ces individus. Si un allèle particulier de l’un de ces marqueurs se retrouvait systématiquement chez les malades, et pas chez les autres, cela suggérait fortement que ce polymorphisme était associé à la maladie. Il n’en était pas forcément la cause, mais il devait se trouver à proximité du gène recherché, suffisamment près pour que l’on observe cette association ou « liaison génétique ». Bien entendu, cela supposait que l’on dispose d’un ensemble de marqueurs polymorphiques préalablement étudiés et répartis sur l’ensemble du génome (au moins quelques centaines), et de familles nombreuses et bien caractérisées. Une fois cette étape franchie – on disait que le gène était « localisé » – restait à étudier en détail la zone ainsi désignée, qui couvrait généralement un petit morceau de chromosome, une ou deux dizaines de millions de bases sur l’ADN. Étendue encore considérable, pouvant contenir des dizaines ou même des centaines de gènes qu’il fallait étudier en détail pour voir lequel d’entre eux était systématiquement altéré chez les malades et devait donc être la cause de l’affection. La séquence de son ADN donnait alors immédiatement la formule de la protéine, indiquant dans une certaine mesure sa fonction et favorisant la compréhension du mécanisme par lequel son altération entraîne la maladie – d’où l’amélioration du diagnostic et, à terme, de la thérapie (Figure 13). Tous ces travaux (et, plus tard, leur application au diagnostic) furent puissamment aidés par une invention géniale, la PCR (polymerase chain reaction). Mise au point par Kary Mullis (prix Nobel de Chimie en 1993), cette technique permet d’amplifier une petite région d’ADN à partir d’une très faible quantité de matériel initial, à condition de connaître la séquence au voisinage de la zone à amplifier. Dès sa publication en 1986, cette méthode fut adoptée par tous les laboratoires et déclinée sous de nombreuses variantes adaptées à ses différents usages en recherche et en diagnostic ; elle joua notamment un rôle essentiel dans la mise en place du diagnostic prénatal en permettant l’examen de l’état d’un gène donné dans un prélèvement ne contenant que quelques cellules fœtales. Elle reste essentielle dans la quasi-totalité des travaux menés aujourd’hui.

À la recherche du gène de la mucoviscidose La démarche de la « Génétique inverse » peut sembler d’une complexité décourageante – elle allait pourtant se révéler très efficace et permit d’élucider la cause de la plupart des maladies héréditaires dites « mendéliennes » – c’est-à-dire dont le mode de transmission indique qu’elles doivent être pour l’essentiel dues à un seul gène défectueux : il en existe plusieurs milliers, pour la plupart très rares. Voyons rapidement l’exemple de la mucoviscidose, la plus fréquente des maladies génétiques infantiles graves (une naissance sur 2 000 – en l’absence de diagnostic prénatal – pour les populations européennes). Les symptômes observés sont multiples, le plus grave étant l’envahissement des poumons par un mucus épais qui entraîne de grandes difficultés respiratoires. La mucoviscidose est transmise selon le mode « autosomique récessif » : si les deux parents

45

AU COMMENCEMENT ÉTAIT LE VERBE

Figure 13. Génétique inverse. L’étude de la transmission de la maladie chez les familles affectées (en haut à gauche, personnes atteintes en noir) associe l’affection (donc son gène) à une zone d’un chromosome : c’est la localisation. Une analyse détaillée de cette zone par diverses techniques expérimentales et par le recours aux bases de données aboutit finalement à l’identification du gène responsable (lorsqu’il est défectueux) de l’affection. En découle immédiatement la possibilité d’un diagnostic précis (y compris prénatal) et, à terme, la compréhension du mécanisme pathogène et l’amélioration de la thérapie – y compris éventuellement par thérapie génique.

46

Bertrand JORDAN

sont porteurs, un enfant sur quatre en moyenne sera atteint. Aucune donnée biologique ne permettait de comprendre ce qui se passe dans cette maladie et encore moins d’imaginer quelle protéine peut être impliquée : c’est donc la génétique inverse qui allait donner la réponse. Au début des années 1980, plusieurs équipes, notamment aux États-Unis et en Grande-Bretagne, tentaient de localiser le gène impliqué dans cette affection : c’est celle d’un Chinois de Hong-Kong installé au Canada, Lap-Chee Tsui, qui y parvint la première et publia en 1985 [32] la localisation du gène sur le chromosome 7, plus précisément dans la bande 7q31 (la lettre q indique que l’on se trouve sur le bras long du chromosome, 31 désigne l’une des bandes repérées par l’examen au microscope). Alors s’engagea une course éperdue entre de nombreux laboratoires pour identifier le gène en cause : puisqu’on connaissait sa position approximative, toute équipe suffisamment compétente pouvait tenter sa chance... Mais la région désignée par la localisation couvrait plusieurs millions de bases et renfermait des dizaines de gènes : avec les techniques de l’époque, l’identification restait très difficile, et c’est finalement un travail collaboratif entre trois excellents laboratoires (dont celui de Lap-Chee Tsui) qui parvint au but en 1989, quatre années plus tard [33] - ce qui donne une idée de la difficulté du travail. Mais le jeu en valait la chandelle : la découverte du gène donna immédiatement la clé de la maladie. La protéine dont la séquence (la suite d’acides aminés) était déduite de la séquence (en bases) du gène identifié présentait la structure caractéristique d’un « canal ionique », une sorte de soupape qu’utilisent les cellules pour réguler leur concentration interne en ions chlore, potassium ou magnésium. En l’espèce, c’était un « canal chlore » – et la mutation retrouvée chez les malades, une « délétion » de trois nucléotides supprimant un acide aminé dans la protéine, rendait celle-ci totalement inactive. Or les équilibres cellulaires dépendent de manière critique du maintien d’une concentration précise en ions : une mauvaise régulation de l’ion chlore a donc de multiples conséquences, notamment l’accumulation de mucus à l’extérieur des cellules et une sécrétion anormale de sel. Une sueur salée est d’ailleurs un des symptômes de la mucoviscidose – les sages-femmes léchaient autrefois le front du nouveau-né pour savoir s’il serait sujet aux congestions pulmonaires. Le mucus, qui s’accumule notamment dans les poumons, favorise des infections bactériennes à répétition qui imposent parfois une transplantation de poumon, opération très délicate comme on peut aisément l’imaginer. Grâce aux connaissances ainsi acquises, on a pu mettre en place un diagnostic prénatal (DPN) pour les couples « à risque » (deux parents porteurs) permettant une interruption de grossesse en cas de fœtus atteint, et, plus récemment, un diagnostic préimplantatoire (DPI) qui fournit la même information à partir de l’analyse d’une seule cellule de chaque embryon obtenu par fécondation in vitro – ce qui autorise la réimplantation dans l’utérus de la future mère d’un embryon à coup sûr indemne. Le traitement de l’affection a également progressé, au point que la plupart des malades, dans les pays développés, atteignent maintenant la quarantaine alors qu’en 1960 leur espérance de vie ne dépassait pas une année. En revanche, et malgré de multiples tentatives, il n’a pas encore été possible de réaliser une thérapie génique rétablissant la fonction normale du canal chlore par apport du gène fonctionnel dans les cellules pulmonaires.

La concurrence en recherche : absurde ou nécessaire ? Un mot peut-être sur la concurrence entre équipes à laquelle j’ai fait allusion cidessus – et que nous allons retrouver plus loin à propos d’autres affections. Cette phase de la génétique médicale a en effet été marquée par de nombreuses « courses au gène » dans lesquelles plusieurs laboratoires visaient le même but, l’élucidation d’une maladie génétique, la localisation puis l’identification du gène en cause. Elle a parfois abouti à des situations absurdes, comme lorsqu’en 1992 quatre articles annonçant l’identification du même gène pour une même affection neurodégénérative (la maladie de Charcot-Marie-

47

AU COMMENCEMENT ÉTAIT LE VERBE

Tooth) parurent dans le même numéro de la revue Nature Genetics (Figure 14) Il y a là un évident gaspillage de ressources puisque le même travail a été réalisé en quatre exemplaires, qui plus est avec des ressources fournies par l’État ou par des organisations caritatives. Ce gaspillage choque ceux qui le découvrent, et singulièrement les malades, qui imaginaient naïvement que les chercheurs, dévoués au bien public, travaillent la main dans la main avec pour seul objectif de faire avancer la connaissance et le progrès médical... La réalité est toute autre : obtenir un résultat significatif et le publier rapidement dans une revue de bon standing, c’est pour le chercheur assurer son avancement futur, faciliter le financement de son laboratoire, attirer les meilleurs étudiants et les post-doc les mieux formés – c’est donc une nécessité vitale. Comme les idées réellement originales sont rares, même en recherche, les sujets qui, à un moment donné, apparaissent importants du point de vue scientifique, médical et médiatique (comme la mucoviscidose) sont activement étudiés par plusieurs équipes, chacune faisant le maximum pour arriver au but la première (et donc ne partageant pas ses informations, sinon au moment des publications). Il faut arriver le premier : le second, même s’il a fait essentiellement le même travail, même s’il n’a atteint le but que quelques semaines après le premier, n’aura que des miettes, il aura même du mal à publier son travail (puisqu’il n’apporte pas de résultat nouveau). Un certain niveau de concurrence est sûrement bénéfique : il incite les équipes à donner le meilleur d’elles-mêmes sans s’endormir dans la routine, à tenter des raccourcis audacieux qui parfois se révèlent payants... mais il est vrai que dans cette phase de la génétique médicale elle a parfois atteint des niveaux absurdes.

Figure 14. Titres de quatre articles parus dans le même numéro de la revue Nature Genetics, en juin 1992, rapportant le même résultat, l’implication du gène PMP-22 dans la maladie de Charcot-Marie-Tooth (une affection neurodégénérative).

48

Bertrand JORDAN

Sur la piste de l’X fragile La concurrence, je l’avais connue avec l’isolement du premier gène HLA, et à l’époque nous avions gagné, presque par surprise, une course où l’on ne nous attendait pas. J’allais la retrouver lorsque je décidai de travailler sur un thème de génétique humaine, vers 1985 et, fort de nos succès passés, de m’intéresser au syndrome de l’X fragile. Affection à la fois mystérieuse et séduisante sur le plan scientifique : il s’agit d’un retard mental héréditaire qui touche essentiellement les garçons, comporte quelques signes morphologiques caractéristiques (visage allongé, grandes oreilles, macroorchidie1...), et est associé à un aspect très particulier du chromosome X dont l’extrémité, au bout du bras long, semble sur le point de se détacher, d’où le terme d’X fragile (Figure 15).

Figure 15. Un chromosome X fragile (flèche) au sein d’un caryotype, et (en bas à gauche) un X fragile à côté d’un X normal (© document Marie-Geneviève Mattei).

Ce signe, invariablement associé à un syndrome par ailleurs bien défini, indiquait la localisation du gène en cause : ce dernier devait donc se trouver dans (ou à proximité de) la région fragile vue sur le chromosome. Encore auréolés de notre succès sur HLA quelques années plus tôt, nous nous sentions à la hauteur de ce nouveau défi. De plus, nous pûmes rapidement mettre en place une collaboration avec une excellente équipe médicale travaillant sur ce sujet à l’hôpital de La Timone (Marseille), celle de Jean1. Hypertrophie des testicules.

49

AU COMMENCEMENT ÉTAIT LE VERBE

François Mattéi2. Collaboration enrichissante, je découvrais la génétique à l’hôpital, les études de cas, l’incarnation dans des drames familiaux d’un sujet de recherche jusque-là passablement abstrait... Je découvrais aussi la hiérarchie médicale, bien plus présente que dans mon institut (c’était la première fois qu’on m’appelait « Monsieur »), et je nouais une relation amicale et confiante avec Jean-François dont j’appréciai beaucoup les qualités intellectuelles et humaines, en dépit de nos divergences idéologiques : il était catholique pratiquant et politiquement de droite, j’étais athée et de gauche. À partir de 1987, nous nous lancions donc dans l’étude moléculaire de la région du chromosome X portant le site fragile, mettant en œuvre les dernières techniques à la mode pour explorer de grandes zones d’ADN, notamment le chromosome jumping (saut le long des chromosomes), une méthode assez acrobatique pour baliser de telles régions, et même, en collaboration avec un laboratoire japonais, la microdissection de chromosomes : l’équipe du professeur Joh-E Ikeda, installée dans le tout nouveau parc scientifique de Tsukuba, près de Tokyo, avait mis au point le découpage sous microscope et par faisceau laser de chromosomes, afin d’isoler des segments d’ADN provenant d’une région bien définie. Un des chercheurs de mon équipe partit au Japon pour appliquer cette approche au site fragile, mais, entre ses problèmes d’acclimatation à l’ambiance très particulière de la recherche japonaise et le fait que la technique était nettement moins au point qu’annoncé, le résultat ne fut pas à la hauteur de nos espérances [34]. Et la compétition était très vive : le syndrome en cause étant relativement fréquent (il touche un garçon sur deux ou trois mille) et posant une question scientifique très intrigante (qu’est-ce donc qu’un site fragile ?), une trentaine d’équipes travaillaient sur ce sujet. De sorte que lorsque le gène en cause fut finalement isolé, au printemps 1991 [35], nous ne fîmes pas partie du « peloton de tête » des trois équipes qui arrivèrent au but de manière à peu près simultanée. Nous avions gagné la course HLA, nous perdîmes, malgré nos atouts, celle de l’X fragile. Le résultat obtenu était effectivement nouveau et intéressant [35] : le gène identifié, baptisé FMR-1 (pour fragile X mental retardation 1), comporte à son début une répétition de l’ADN, une séquence CGG répétée quelques dizaines de fois dans la version normale du gène. Chez les personnes atteintes du syndrome, le nombre de répétitions est plus élevé, atteignant parfois plusieurs centaines, ce qui perturbe le fonctionnement du gène et provoque l’apparition du site fragile. On a depuis identifié une vingtaine de maladies héréditaires dans lesquelles un mécanisme de ce type est impliqué, ce sont pour la plupart des affections neurodégénératives : chorée de Huntington, dystrophie myotonique... maladies présentant des caractéristiques jusque-là mystérieuses et que cette découverte a éclairé. L’élucidation du syndrome de l’X fragile était bien une question scientifique et médicale importante, au-delà même de la maladie en cause.

Premier accroc avec les médias Ce thème me donna aussi l’occasion, quelques années plus tard, d’une première confrontation avec la traduction médiatique des données génétiques. Ce fut la découverte, dans le numéro de fin août 1996 de la revue Courrier International, d’un titre surprenant : « À la recherche du gène de la criminalité » – titre étonnant car, même si certaines versions de certains gènes peuvent influer sur la tendance à l’agressivité, on n’a jamais mis en évidence un « gène de la criminalité »... Ma surprise augmenta en constatant, dans le corps de l’article, que le gène en question était celui de l’X fragile : ce reportage affirmait donc que chaque porteur de cette anomalie était un criminel en puissance – affirmation évidemment fausse, et très dommageable pour les malades et pour leur famille. J’écrivis donc à 2. Futur ministre de la Santé de 2002 à 2004, son nom est resté injustement attaché à l’épisode de la canicule de 2003 où il servit de bouc émissaire médiatique et politique aux multiples dysfonctionnements des systèmes d’alerte de nos institutions.

50

Bertrand JORDAN

la revue et exigeai un rectificatif... que je finis par obtenir sous forme d’un entrefilet de trois lignes noyé dans le courrier des lecteurs, alors que l’article en cause (qui était en fait la reprise d’un papier du journal italien La Stampa, lui-même inspiré par le quotidien britannique Daily mail) s’étalait sur une demi-page. Je touchais ainsi les limites de l’influence d’un chercheur sur les informations publiées dans la grande presse. L’âge d’or de la génétique médicale se poursuivit au cours des années 1990, avec une constante accélération liée à l’amélioration des techniques et aux premiers résultats du programme Génome. Ce programme permit, dès ses débuts, d’établir des cartes précises de notre génome, grâce notamment au travail pionnier de l’équipe de Jean Weissenbach au Généthon (puissant laboratoire de génétique créé et financé par l’Association Française contre les Myopathies grâce aux fonds récoltés lors du Téléthon), ce qui rendit bien plus efficace l’étape de localisation. Avant même que la séquence ne soit obtenue, les informations moléculaires et un début de catalogue des gènes facilitèrent également la deuxième étape. De 1980 à 1990, on avait identifié une centaine de gènes impliqués dans des maladies héréditaire (dont cinquante rien que pour 1990) ; en 2000, le nombre total s’élevait à plus de 1 000 (Figure 16), il est d’environ trois mille aujourd’hui. Mais, comme pour la mucoviscidose, ces connaissances ne furent pas immédiatement traduites en progrès thérapeutiques. Certes, le diagnostic prénatal puis, à partir de 1992, le diagnostic préimplantatoire permettaient aux familles concernées d’avoir des enfants indemnes ; mais la thérapie proprement dite fut loin de suivre le rythme effréné des découvertes, nous y reviendrons.

Figure 16. Nombre de maladies génétiques pour lesquelles le gène correspondant a été découvert chaque année de 1981 à 2000. On voit que le rythme s’accélère considérablement à partir de 1989, pour atteindre près de 200 affections chaque année. Le total en 2000 est de plus de 1 000 maladies élucidées (données extraites du site Mendelian Inheritance in Man, http://www.omim.org/).

51

AU COMMENCEMENT ÉTAIT LE VERBE

Le flop des maladies génétiques complexes Enhardis par ces succès, de nombreuses équipes voulurent s’attaquer à des maladies plus fréquentes et constituant un enjeu majeur de santé publique : diabète, maladie de Crohn3, affections psychiatriques comme la schizophrénie ou la psychose maniaco-dépressive (aujourd’hui rebaptisée syndrome bipolaire). Ces affections comportent une composante génétique significative, mise en évidence notamment par des études de jumeaux, et leur héritabilité (leur « part génétique ») est souvent de l’ordre de 0,5 (celle d’une maladie purement génétique étant de 1). Ce ne sont pas des affections mendéliennes, dues à l’altération d’un seul gène, toujours le même, celles dont l’élucidation avait fait de tels progrès dans les années précédentes, l’analyse des arbres généalogiques des familles indique qu’elles mettent en jeu plusieurs gènes. On pouvait néanmoins espérer que ceux-ci pourraient être identifiés puis localisés par l’approche de la génétique inverse. Hélas, ce fut un flop retentissant : les localisations trouvées et rapidement publiées par différents laboratoires étaient généralement différentes, parfois même lorsque l’étude portait sur les même malades, et, après plusieurs années et des dizaines de publications, aucune conclusion claire n’émergeait, aucun gène n’était impliqué de manière concluante. Au point que deux articles de synthèse, publiés dans la très cotée revue Nature Genetics, s’intitulaient (pour la psychose maniaco-dépressive) « Une histoire maniaco-dépressive » (A manic depressive history) [36] et, pour la schizophrénie, « L’affolante recherche des gènes de la folie » (The maddening hunt for madness genes) [37]. Rétrospectivement, ces études trop vite publiées souffraient de nombreux défauts : témoins et malades en nombre insuffisant, diagnostics mal objectivés, traitement statistique des données insuffisamment rigoureux. C’est seulement à partir des années 2000 que de nouvelles méthodes expérimentales accompagnées d’un traitement statistique bien plus sophistiqué permirent d’aborder de tels travaux de manière rationnelle et reproductible, et d’obtenir des résultats solides – tout en révélant que le nombre de gènes impliqués dans ces affections est bien plus grand qu’attendu, ce qui explique les difficultés rencontrées dans les années 1990. Finalement, en vingt ans, la connaissance des maladies héréditaires « simples » avait fait d’immenses progrès, avec l’identification du gène impliqué pour nombre d’entre elles et un début de compréhension du mécanisme pathogénique pour beaucoup. Certes, on avait échoué à étendre cette approche aux affections dont la part génétique est complexe ; bien sûr, les progrès thérapeutiques étaient considérablement plus lents que ne l’espéraient médecins et malades ; mais il s’agissait tout de même d’une révolution importante et d’un progrès très significatif. Et, tandis que d’innombrables équipes couraient après « leur » gène, un grand programme systématique s’était mis en marche et approchait de son but, le séquençage de l’ADN humain – non sans produire au passage des outils très précieux pour la génétique médicale, notamment des cartes détaillées de notre génome.

Références et lectures conseillées 31. Jordan B. L’émergence d’une nouvelle génétique (pp. 31-42) et Le hit-parade de la génétique inverse (pp. 43-68). In : Les imposteurs de la génétique, Paris : Seuil, 2000. Deux chapitres détaillant les approches et les résultats de la démarche. 32. Tsui L, Buchwald M, Barker D, et al. Cystic fibrosis locus defined by a genetically linked polymorphic DNA marker. Science 1985 ; 230 : 1054-7. La localisation du gène impliqué dans la mucoviscidose – dont la connaissance allait déclencher une course éperdue pour l’isoler. 33. Kerem B, Rommens JM, Buchanan JA, et al. Identification of the cystic fibrosis gene : genetic analysis. Science 1989 ; 245 : 1073-80.

3. Une maladie inflammatoire intestinale chronique dont la composante génétique est importante.

52

Bertrand JORDAN

Isolement du gène par l’équipe qui l’avait localisé – en même temps que deux concurrents... 34. Djabali M., Nguyen C, Biunno I, et al. Laser microdissection of the fragile X region : identification of cosmid clones and of conserved sequences in this region. Genomics 1991 ; 10, 1053-60. Nos efforts (infructueux) pour « cloner l’X fragile » par microdissection du chromosome X. 35. Oberlé I, Rousseau F, Heitz D, et al. Instability of a 550-base pair DNA segment and abnormal methylation in fragile X syndrome. Science. 1991 ; 252 : 1097-102. Sous un titre sibyllin, l’identification du gène de l’X fragile (avec simultanément deux articles de laboratoires concurrents). 36. Risch N, Botstein D. A manic depressive history. Nat Genet 1996 ; 12 : 351-3. L’échec de la recherche sur les gènes impliqués dans la maladie bipolaire (alors appelée psychose maniaco-dépressive). 37. Moldin SO. The maddening hunt for madness genes. Nat Genet 1997 ; 17 : 127-9. Échec aussi pour la schizophrénie.

53

UNE IDÉE FOLLE

8 UNE IDÉE FOLLE

Une question absurde ? Printemps 1987. Je suis de passage à l’Institut Pasteur, pour une session d’une de ces commissions scientifiques dont je fais partie depuis que notre succès avec le gène HLA m’a fait accéder au statut de « biologiste honorablement connu » auquel on pense dans les ministères lorsque l’on a besoin d’un expert. J’y croise François Rougeon, l’un des responsables du département d’Immunologie de Pasteur, structure avec laquelle mon institut, le Centre d’Immunologie de Marseille, entretient des relations étroites. Il me lance à brûle-pourpoint : « Que penses-tu du séquençage du génome humain ? ». Je suis pris de court ; mais, à vrai dire, la question me semble passablement farfelue. Ayant quelques années plus tôt déchiffré de mes mains la majeure partie des cinq mille nucléotides de notre fameux HLA, puis coordonné dans mon équipe le séquençage de deux autres gènes de la même famille, je ne suis que trop conscient de la somme de travail que représente une telle détermination. Je sais que la technique évolue, et que les premières « machines à séquencer » commencent à apparaître – mais de là à s’attaquer à notre génome, aux trois milliards de nucléotides que renferment les chromosomes humains... il y a un gouffre qui me semble infranchissable. Lire des kilobases (une kilobase, mille bases ou nucléotides), c’est faisable, et cela va sans doute devenir plus rapide avec l’amélioration et l’automatisation partielle des méthodes ; mais s’attaquer à la lecture intégrale de cet ensemble de trois milliards de nucléotides, quasiment un million de fois mon gène HLA, cela me paraît vraiment impossible, à moins d’une révolution technique majeure.

Un scepticisme largement partagé Ma réaction n’a rien d’original, et, à cette époque où l’on commence à évoquer un « Projet Génome » dont le but ultime serait la lecture complète de l’ADN humain, les biologistes sont en majorité hostiles à une telle entreprise. Leurs arguments sont apparemment solides : le but semble irréaliste, l’entreprise condamnerait des milliers de chercheurs et de techniciens à un travail répétitif, abrutissant et sans contenu intellectuel, et, comme l’on sait déjà que les gènes proprement dits n’occupent que 1 à 2 % de notre ADN1, on obtiendrait beaucoup de séquences sans fonction biologique et donc sans grand intérêt. De plus, les sommes énormes (on parle de milliards de dollars) nécessaires au financement de ce projet stupide amputeraient forcément les budgets consacrés à la « vraie biologie ». De fait, ceux qui poussent au lancement d’un programme Génome humain ne sont pas des biologistes mais des physiciens ou des administrateurs de la recherche. Ils rêvent d’une grande entreprise en biologie, à la hauteur du projet Apollo qui avait culminé, en 1969, avec les premiers pas d’un homme sur la lune. Le premier 1. C’est la place qu’occupent dans notre ADN les séquences codantes proprement dites. Le reste de l’ADN, autrefois appelé Junk DNA ou « ADN poubelle », comporte des régions impliquées dans la régulation des gènes mais, dans sa majorité, n’a probablement pas de fonction précise.

54

Bertrand JORDAN

organisme de recherche à s’y impliquer, dès 1986 aux États-Unis, sera le Department of Energy (DOE), l’équivalent de notre CEA, et non les National Institutes of Health (NIH) qui correspondent à peu près à notre Inserm. Pourtant, malgré ces réserves, le programme, poussé par quelques lobbyistes efficaces, séduit le Congrès des États-Unis et obtient des fonds conséquents. Le NIH s’y rallye en 1990, Jim Watson, toujours auréolé de son prestige de découvreur de la double hélice, en prend la tête, la Grande-Bretagne puis le Japon lancent leurs propres projets ; en France, on discute, mais rien de concret ne se déclenche au niveau des pouvoirs publics. Parallèlement, le contenu évolue, et un accord général est trouvé sur le fait de commencer par établir des cartes précises de l’ensemble du génome, afin d’orienter et de faciliter le travail de séquençage proprement dit. En tout état de cause, ces cartes seront très utiles pour la recherche et pour tous les travaux de génétique médicale, et cela aide significativement à rallier les sceptiques. Quand arrive 1990, le programme Génome humain est un fait établi ; les leaders en sont les États-Unis et la Grande-Bretagne, d’autres contributeurs apparaissent (Japon, URSS, France...) et une certaine coordination internationale se met en place.

Pendant ce temps, à Marseille... Pour ma part, je suis toujours au Centre d’Immunologie de Marseille – je viens même d’en prendre la direction, en 1989, et souffre du classique écartèlement du chercheur accédant à des responsabilités institutionnelles : la gestion d’un institut d’une bonne centaine de personnes ne laisse pas beaucoup de temps pour l’animation d’une équipe de recherche, et encore moins pour le travail personnel « à la paillasse ». C’est d’ailleurs à cette époque que, à mon grand regret, j’ai définitivement cessé de « maniper », de réaliser des expériences de mes propres mains. Heureusement, cet institut fonctionne sur le principe de la direction tournante : chaque chef d’équipe a vocation à en prendre la tête pour deux ou quatre ans, ce qui évite bien des tares du système français, notamment l’immobilisme et la sclérose de laboratoires dirigés durant des décennies par la même personne. Pour ma part, je n’ai accepté qu’un bail de deux ans et ai bien l’intention de m’y tenir, malgré les amicales pressions de mes collègues... Par ailleurs, mon équipe de recherche arrive à un tournant, peut-être même à une impasse. Après notre succès pour le premier gène HLA, nous avons poursuivi quelques années sur cette lancée, isolé et séquencé d’autres gènes de cette famille, mis en place des travaux afin d’utiliser ces gènes pour mieux comprendre le fonctionnement du système immunitaire humain. Mais pour diverses raisons – manque de compétences locales dans certains domaines essentiels pour cette phase, choix stratégiques contestables, trop petite taille de l’équipe – nous avons perdu du terrain et ne sommes plus, comme au début, au premier plan de la compétition internationale. En effet, en recherche de pointe, les places sont chères, et rien n’est jamais acquis... Nous nous sommes donc lancés sur la recherche du gène de l’X fragile, comme je l’ai déjà indiqué. Mais, en 1990, il apparaît que nous n’allons pas gagner cette compétition-là, que plusieurs équipes sont sur le point d’accéder au gène et l’ont peut-être même déjà trouvé. Dans la « course au gène » qui règne à cette époque, c’est le premier arrivé qui emporte l’essentiel des trophées : articles dans des revues de premier plan, facilité d’obtention de nouveaux crédits, attraction des meilleurs post-docs vers le laboratoire. Les seconds ou troisièmes, même s’ils ont réalisé un excellent et considérable travail, n’ont droit qu’aux miettes. Nous étions les premiers pour HLA – mais il semble clair que, pour l’X fragile, nous ferons au mieux partie du peloton.

Une année sabbatique inhabituelle Je projette donc, après mes deux ans de direction, de mettre mon équipe en standby et d’effectuer une année sabbatique, après laquelle nous pourrons repartir sur

55

AU COMMENCEMENT ÉTAIT LE VERBE

de nouvelles bases. Comme je l’ai déjà indiqué, il s’agit pour nous d’une année qu’un chercheur senior va passer dans un autre laboratoire (généralement à l’étranger) afin d’y acquérir un ensemble de techniques et/ou d’aborder un nouveau domaine d’investigations, tout en étant déchargé de ses responsabilités administratives et donc disponible pour ce recyclage scientifique. Cela suppose un laboratoire d’accueil et un projet précis : si ce dernier est approuvé, l’organisme (Inserm, CNRS...) qui emploie le chercheur lui maintiendra son salaire durant cette période. Reste un souci, le devenir de l’équipe durant l’absence de son responsable : la gérer à distance, par téléphone (nous sommes, en 1990, bien avant l’ère Internet) est fort difficile et nuit à la concentration sur le nouveau sujet ; la déléguer à un « second » fait courir le risque de ne plus avoir sa place à son retour... Là aussi, les règles particulières de mon Institut me facilitent la tâche : mon équipe peut être mise en sommeil (j’ai pris soin de ne pas avoir de jeune chercheur en cours de thèse), ses membres étant provisoirement accueillis dans d’autres groupes ou profitant de l’occasion pour faire eux-mêmes un stage à l’étranger... et mes locaux ne seront pas « squattés » (condition importante, car la nature a horreur du vide, et les espaces sont toujours rares dans les bons laboratoires), afin que je puise reconstituer une équipe à mon retour, sous réserve bien sûr de présenter un projet de recherche cohérent et agréé par mes collègues. Mais l’année sabbatique que je m’organise est particulière. Je ne prévois pas de m’installer pour un an dans un laboratoire aux États-Unis ou ailleurs, mais bien de consacrer cette période à une enquête mondiale sur l’avancement du projet Génome, en allant visiter les principaux centres impliqués dans cette aventure. J’en connais, pour la plupart, les responsables, rencontrés au fil des congrès spécialisés ; certains sont des collaborateurs, d’autres des concurrents, mais en tous cas nous faisons partie du même monde et nos relations sont simples et directes. Je suis au courant de ce qu’ils font, par leurs articles et leurs communications et aussi grâce à quelques conversations, mais ce que je prévois est de nature différente. Je compte en effet aller passer plusieurs jours dans chacun de leurs laboratoires, discuter non seulement avec le boss mais aussi avec les techniciens et les étudiants, voir si les machines dont on parle dans les congrès sont réellement utilisées – bref faire un véritable enquête in situ. J’ai déjà pu constater qu’il y a parfois une certaine distance entre ce qui est présenté dans les communications aux collègues, et ce qui fonctionne effectivement au laboratoire... Bref, cette enquête, si j’arrive à la mettre sur pied, devrait être passionnante, et pourrait aussi fournir des informations précieuses à ceux qui président aux destinées de la recherche biologique en France. Reste à m’assurer que je serai effectivement accueilli pour cette mission qui pourrait être perçue comme une forme d’espionnage industriel, reste aussi à financer tous ces voyages et séjours. J’envoie donc à une vingtaine de responsables de par le monde une série de lettres présentant brièvement mon projet, et reçois rapidement une brassée d’acceptations enthousiastes. À une ou deux exceptions près, on est prêt à me recevoir et, apparemment, à m’ouvrir toutes les portes. En relatant cela, j’ai conscience qu’une telle mission se heurterait de nos jours à de nombreuses difficultés, étant donné l’imbrication actuelle des travaux de recherche et de leur valorisation, et donc les problèmes de brevets, de « propriété intellectuelle ou industrielle » comme on dit. Mais à l’époque on était encore, même pour le programme Génome, dans une ambiance de recherche pure et de grande transparence – pour autant que l’on ne s’adresse pas à un concurrent direct. Bref, je savais pouvoir visiter en détail les quelques dizaines de laboratoires qui m’intéressaient – ceux qui, de par le monde, aux États-Unis, au Japon, en URSS... étaient déjà sérieusement engagés dans l’aventure du Génome humain.

Financé par surprise... Restait encore à financer ces presque douze mois de mission : même si je conservais mon salaire, il ne suffirait pas à couvrir tous ces déplacements et ces séjours à l’étranger.

56

Bertrand JORDAN

Un collègue administrateur se chargea d’évaluer ces besoins et d’élaborer un devis ; la direction du CNRS, ayant reconnu l’intérêt de mon projet et l’ayant approuvé, accepta d’en financer la moitié (en plus de mon salaire). Je m’apprêtais à rechercher de multiples financements complémentaires pour couvrir le reste (qui s’élevait à deux cent mille francs de l’époque2, une belle somme tout de même) quand je reçus, en tant que directeur du CIML, la visite de Bernard Barataud, le dynamique président de l’Association Française contre les Myopathies, organisatrice du Téléthon annuel. L’AFM, en effet, soutenait certaines de nos équipes, et B. Barataud venait voir sur place comment avançaient les travaux. À la fin de l’entretien, sachant que je quitte bientôt la direction, il s’enquiert de ce que je vais faire ensuite. Je lui expose mon projet, qui semble susciter un vif intérêt ; il me demande alors « Vous êtes financé ? » « À moitié » lui réponds-je. « Je vous paye l’autre moitié » rétorquet-il... Et de fait, je reçus le chèque correspondant dans la semaine. Je devais découvrir quelques années plus tard l’importance stratégique qu’avait revêtue mon enquête vis-à-vis des projets dans lesquels s’engageait l’AFM. En tous cas, mon financement était bouclé et, début 1991, je pouvais partir pour mon premier terrain d’exploration, les États-Unis, muni d’un superbe « papier à Fax » pour ma correspondance... (Figure 17).

Figure 17. Mon « papier à fax » pour le tour du monde. À l’époque, Internet n’existait pas, et le téléphone (sujet de plus aux problèmes de fuseaux horaires) était très coûteux. Le moyen de communication le plus rapide et commode pour l’organisation de mes visites était le fax (ou télécopie), aujourd’hui presque oublié. 2. Une quarantaine de milliers d’euros en équivalent 2014.

57

AU COMMENCEMENT ÉTAIT LE VERBE

J’ai raconté ailleurs en détail ce « Tour du monde en 80 labos » [38, 39] et les impressions que j’en retirai tant sur les évolutions techniques que sur le style des différents laboratoires. Je pus aussi observer les interactions entre les valeurs culturelles de chacun des pays visités et la manière d’aborder ce grand programme. Je fus impressionné par le dynamisme, l’inventivité, l’absence de complexe des équipes nord-américaines ; plus tard, j’appréciai le pragmatisme des laboratoires britanniques et leur façon d’obtenir d’excellents résultats avec des moyens somme toute modestes – c’est d’ailleurs à Cambridge que furent obtenus les premiers résultats encourageants au niveau du séquençage à grande échelle, sur un « organisme modèle », le nématode. Je fus en revanhe très déçu lors de mon séjour au Japon. Souvenons-nous qu’au début des années 1990 cette nation était en pleine ascension industrielle et qu’elle faisait peur même aux États-Unis. Déjà deuxième puissance économique mondiale, allait-elle bientôt devenir la première ? L’annonce que le Japon se lançait dans la course au Génome avait donc été reçue avec une certaine appréhension, et on imaginait que, forte de ses remarquables succès en électronique et en robotique, la science nippone ne ferait qu’une bouchée du génome humain. Je devais découvrir que c’était loin d’être le cas. Les structures très hiérarchiques de cette société (y compris dans ses laboratoires de recherche), fort efficaces pour améliorer et rendre accessibles à tous des objets techniques inventés ailleurs, n’étaient pas favorables à une véritable créativité : une culture dans laquelle l’étudiant ou le jeune chercheur ne peut pas avoir un avis différent du Sensei (le Professeur, le Maître) ne génère pas l’innovation. Et les incessantes luttes de pouvoir, héritage sans doute de l’ère des Shogun, les seigneurs de la guerre, n’arrangeaient rien : lors de ma visite, en mai 1991, il y avait quatre programmes génome concurrents au Japon, liés à différents ministères... Quant à l’URSS, qui allait disparaître à la fin de cette année en tant qu’entité politique, je n’arriverais à la visiter que deux ans plus tard, pour y trouver des instituts devenus des coquilles vides et désertés par les chercheurs dont le salaire mensuel suffisait à peine à acheter un kilo d’oranges...

Le succès du programme Génome En tous cas, le programme Génome était une réalité, et il allait réussir à atteindre son but – la lecture des trois milliards de bases de notre ADN – nettement plus vite que prévu, puisque le premier état de la séquence humaine était publié en 2001 et qu’une séquence considérée comme « finie » fut révélée en 2003, juste pour le cinquantenaire de la découverte de la double hélice. Cette grande entreprise, qui mobilisa des milliers de chercheurs et de techniciens à travers le monde, fut marquée par moult péripéties et parfois par des luttes d’influence féroces : le titre d’un livre consacré à cette histoire, « Les guerres du Génome » (The Gene Wars) [40] souligne cette ambiance. Aux États-Unis, ce furent les controverses sur le brevetage de séquences de gènes, un débat qui a fait en 2013 l’objet de décisions au niveau de la Cour Suprême3, puis, vers la fin du projet, la course entre une entreprise privée, Celera, et le secteur public. En France, on assista à la montée en puissance de l’AFM dans la recherche en Génétique avec la création de Généthon. L’AFM, qui existait depuis déjà quelques années, avait pris un puissant essor à partir de 1987 grâce à un président très dynamique, Bernard Barataud, et le premier Téléthon (formule alors inédite en France) avait rencontré un succès inattendu même par ses responsables : le compteur géant installé au studio de télévision pour afficher le total des dons s’arrêtait à 99 millions (de francs) et il avait fallu rajouter en catastrophe un chiffre pour répertorier les 193 millions récoltés... Avec une partie de ces fonds, l’AFM acheta un immeuble à Évry et décida d’y installer un très grand laboratoire capable de développer des recherches de grande ampleur pour faire 3. À propos des gènes de prédisposition au cancer du sein BRCA1 et BRCA2, la Cour Suprême a tranché dans le sens de la non-brevetabilité des gènes.

58

Bertrand JORDAN

avancer la connaissance du génome et la génétique médicale. Comme devait me le raconter Bernard Barataud quelques années plus tard, les rapports hebdomadaires que je lui envoyais lors de mon tour du monde du Génome étaient impatiemment attendus et scrutés avec la crainte d’y découvrir qu’un projet analogue était en cours aux États-Unis – mais je ne vis rien d’équivalent lors de mon enquête. Le Généthon commença à fonctionner réellement en 1992 et fournit une excellente carte génétique détaillée, œuvre du projet dirigé par Jean Weissenbach, qui donna instantanément un coup d’accélérateur aux recherches de génétique médicale. Les autres projets ne rencontrèrent pas le même succès en raison de problèmes techniques et organisationnels, mais néanmoins ce Généthon mit pour quelque temps la France au premier rang du projet Génome. Du côté des pouvoirs publics, le « Programme Génome français » annoncé en grande pompe en 1990 mit très longtemps à se matérialiser sous la forme d’un Groupement de recherche et d’études sur les génomes (GREG) lancé tardivement (1993), prématurément sabordé (1996), doté de moyens relativement modestes et miné par les rivalités internes à la communauté. [41]. Sur le plan technique, il devait s’avérer que les obstacles au séquençage à grande échelle étaient plus organisationnels que techniques. Au début des années 1990, plusieurs techniques révolutionnaires semblaient prometteuses, mais aucune ne s’avéra opérationnelle, et le résultat final fut obtenu grâce à la méthode de Sanger, datant de 1977, améliorée et partiellement automatisée mais sans réelle révolution. En revanche, il fallut apprendre à organiser le travail de manière industrielle et à s’éloigner de l’aimable improvisation des laboratoires universitaires. Les premières tentatives connurent un échec cuisant pour avoir insuffisamment pris en compte cet aspect organisationnel, mais, en Grande-Bretagne et aux États-Unis, on apprit rapidement à mieux gérer ces grands projets et les succès s’accumulèrent à partir du milieu de la décennie. Parallèlement, les cartes détaillées établies (notamment au Généthon) se révélaient d’une grande utilité pour tous les travaux de génétique médicale, favorisant un consensus sur la poursuite du programme. Un franc-tireur, l’Américain Craig Venter, vint troubler le jeu en prétendant obtenir la séquence humaine plus rapidement et à moins de frais – et en annonçant son intention de l’exploiter commercialement et donc d’en « protéger » (comprendre « breveter ») les éléments les plus intéressants. Nous y reviendrons ; toujours est-il que la séquence humaine fut annoncée en grande pompe, et de manière concertée entre les deux projets qui avaient conclu une sorte de trêve, pile pour le cinquantième anniversaire de la découverte de la double hélice, soit en avril 2003. C’était une séquence dite « finie » selon les critères de l’époque : on estimait qu’elle comportait moins d’une erreur toutes les 10 000 bases (« lettres »). Elle avait été précédée, en 2001, d’une séquence « brouillon » (draft) nettement plus approximative et comportant un grand nombre de « trous » (régions du génome où la séquence n’a pu être lue). Une séquence d’ADN – surtout lorsqu’elle porte sur des milliards de bases – ne peut jamais être exacte à 100 % : il reste toujours des incertitudes, des régions dont la lecture est difficile, des ambiguïtés, et le travail nécessaire pour gagner une fraction de pour cent sur l’exactitude est généralement considérable. La valeur atteinte en 2003 semblait raisonnable : elle assurait que la séquence d’un gène « moyen » long de dix mille bases ne risquerait de contenir qu’une erreur. Le programme Génome humain atteignait donc son but, avant même la date fixée : allait-il tenir ses promesses, révolutionner la biologie et, grâce à tous ces gènes enfin « décryptés »4, autoriser des avancées médicales rapides, comme on l’avait un peu imprudemment annoncé ? La séquence de notre ADN constituait indubitablement une avancée importante, et allait changer notre manière d’envisager la biologie. Mais, pour commencer, son analyse allait nous réserver quelques surprises, et son exploitation quelques déceptions. 4. On a tendance à dire (et à écrire) que le génome humain a été décrypté. C’est à mon sens une erreur : « décrypté » suggère que l’on en a compris le sens, alors que nous avons seulement lu la suite des trois milliards de bases – et que l’interprétation complète de cette séquence va encore demander des décennies.

59

AU COMMENCEMENT ÉTAIT LE VERBE

Références et lectures conseillées 38. Jordan B. Voyage autour du Génome : le tour du monde en 80 labos. Paris : Éditions Inserm/John Libbey Eurotext, 1993. 39. Jordan BR. Voyage au pays des gènes. Paris : Les Belles Lettres/Éditions Inserm, 1995. Version plus accessible et plus personnelle de l’ouvrage précédent. 40. Cook-Deegan R. The Gene Wars. Science, politics and the human genome. New York : W.W. Norton, 1994. Excellent récit (vu de l’intérieur) des débuts du programme aux États-Unis. 41. Jordan B. La belle et triste histoire du Programme Génome français. In : Jordan B. Génétique et génome, la fin de l’innocence. Paris : Flammarion 1996 : 181-96. Les dessous d’un échec.

60

L’INVASION DES « PUCES À ADN »

9 L’INVASION DES « PUCES À ADN »

Les interrogations du retour Mais revenons en 1992, au moment où, de retour de mon périple autour du monde, je retrouve le laboratoire et mes chercheurs. Une question se pose, naturellement : comment orienter le travail de l’équipe, compte tenu de tout ce que j’ai vu au cours de l’année précédente ? Participer à la course mondiale du séquençage ? Nous n’avons ni la dimension ni les crédits requis. Non, il faut chercher un créneau qui permette à un petit groupe (c’est la règle au Centre d’Immunologie, mon institut) d’apporter une contribution intéressante. L’idée qui s’impose – elle n’a d’ailleurs rien de très original – est de s’intéresser à l’activité, l’expression des gènes, en mettant au point des techniques permettant de la mesurer simultanément sur un grand nombre d’entre eux. Nous pourrons ensuite appliquer cette approche à l’un des systèmes biologiques étudiés dans mon institut. Pourquoi l’expression ? Le programme génome mondial est bien parti, j’ai pu le constater, et il est clair que l’on disposera bientôt de la séquence de tous nos gènes – à l’époque, on imagine que nous en possédons cent à deux cents mille. Mais la séquence n’est pas tout. Nos cellules, à quelques rares exceptions près, contiennent toutes le même ADN et donc les mêmes gènes – mais chacune n’en utilise qu’une partie, et c’est cela qui fait qu’une cellule de foie est différente d’une cellule de cerveau : elle ne met en œuvre qu’une partie spécifique de son répertoire, le reste étant silencieux. Il y a bien sûr un « tronc commun », un ensemble que nous appelons les « gènes de ménage » (mauvaise traduction de l’anglais housekeeping genes, les gènes qui assurent la bonne marche de la maison en effectuant les opérations de base du métabolisme), mais les fonctions caractéristiques de chaque cellule sont liées à l’expression de gènes particuliers. Si l’on arrivait à mettre au point une technique qui permette, à partir d’un échantillon biologique, de mesurer quels gènes y sont exprimés (mis en œuvre pour fabriquer un ARN messager qui dirigera la synthèse de la protéine correspondante), on serait certainement en mesure d’apporter des informations importantes pour la compréhension des mécanismes biologiques et, peut-être, pour la lutte contre diverses pathologies. Or la méthode généralement pratiquée, dite Northern blot, est lente, laborieuse, et ne peut examiner qu’un gène à la fois : il faut inventer une nouvelle manière plus efficace d’obtenir ces informations. Il s’agit donc, en partie au moins, d’un développement technologique, de la mise au point d’une technique qui n’existe pas encore – mais j’ai quelques idées sur la question et mon passé de physicien, ajouté à tout ce que j’ai vu au cours de ma récente enquête mondiale, m’incite à me lancer dans cette aventure.

Les affres de la mise au point Je présente donc un projet, il est agréé sans trop de mal par mes collègues du CIML, et nous nous lançons. Notre objectif est de parvenir à mesurer en une seule expérience le

61

AU COMMENCEMENT ÉTAIT LE VERBE

niveau d’expression d’un bon millier de gènes (cela paraît énorme à l’époque), et, pour ce faire, il nous faut acquérir puis mettre en œuvre des robots permettant de disposer les segments d’ADN correspondants de manière régulière sur des feuilles d’un matériau spécial1, ainsi qu’un appareil capable de mesurer la quantité exacte de radioactivité qui se sera fixée sur chacun de ces segments après incubation avec le mélange d’ARN messagers extrait de l’échantillon biologique et rendu radioactif. Il nous faudra aussi des ordinateurs pour traiter les résultats. C’est une petite révolution dans mon institut où l’outil principal du chercheur est encore la micropipette manœuvrée à la main ou le flacon de culture pour les lignées de cellules : au début des années 1990, et à l’exception des grands laboratoires déjà lancés dans la course au génome humain, l’instrumentation employée en biologie reste relativement simple, et presque tout se fait « à la main ». Quant aux ordinateurs, ce sont encore des bêtes rares, et c’est non sans mal que j’obtiendrai une connexion à Internet, la première au sein de mon institut. Elle est d’ailleurs si lente qu’elle est presque inutilisable dans un premier temps. Nos achats d’équipement suscitent chez mes collègues une certaine incompréhension et quelques réactions négatives devant ces dépenses inhabituelles – vite calmées par le fait que nous obtenons assez facilement des crédits supplémentaires pour réaliser cette tentative qui intéresse beaucoup les organismes (Inserm, CNRS, Ministère) qui régissent la recherche et sont conscients du retard français dans ce domaine que l’on n’appelle pas encore la Génomique. Nous commençons donc la mise au point. Notre idée est d’extraire en bloc l’ensemble des ARN messagers contenus dans un prélèvement biologique, de les rendre radioactifs, puis de mesurer la quantité de chacun d’eux en mettant ce mélange en présence de nombreux segments d’ADN représentant autant de gènes et disposés régulièrement sur nos membranes. En quantifiant, après l’expérience, la radioactivité fixée par chaque segment, on pourra évaluer la quantité de l’ARN messager correspondant présente dans le prélèvement – donc l’activité du gène correspondant. Comme on pouvait s’y attendre, nous nous heurtons à un certain nombre de difficultés techniques. Mais peu à peu les choses s’améliorent et, après les images brouillées et difficilement exploitables des premières semaines, nous parvenons à des résultats qui semblent tenir la route. Nous bénéficions d’une situation privilégiée : on ne nous demande pas de réussir instantanément, notre institut admet qu’il va nous falloir un certain temps pour obtenir des résultats convaincants et est prêt à nous soutenir durant cette période d’éclipse sur le plan des publications. Et du temps, il nous en faut, car nous avons quasiment tout à inventer, tout à apprendre, de la fabrication avec notre robot de ces réseaux comportant des centaines de segments d’ADN, à la « cuisine » qui va permettre à chacun de ces ADN de fixer les ARN messagers présents dans l’échantillon, puis à l’acquisition numérique de l’image grâce à un tout nouvel appareil de lecture (encore un gros investissement), et enfin à la mise au point de programmes informatiques qui vont transformer les données emmagasinées en valeurs d’intensité pour chaque point de notre image. Et peu de gens dans notre environnement sont compétents en informatique, en micromécanique ou en robotique : nous ne sommes pas dans un laboratoire de physique, mais au milieu de biologistes dont la culture en termes d’instrumentation est assez limitée.

Des résultats encourageants Les choses avancent néanmoins, et nous obtenons nos premiers résultats. Nous sommes maintenant capables de manipuler un millier d’ADN représentant autant de gènes, de les disposer (grâce au robot) de manière régulière sur une membrane de nylon spécialement traité, mesurant huit centimètres sur douze, et d’utiliser ce réseau (le terme anglais d’array va vite s’imposer) pour mesurer l’activité de chacun de ces mille gènes dans un prélèvement biologique (Figure 18). 1. Une sorte de membrane à base de nylon, souple, poreuse et capable de fixer l’ADN déposé à sa surface.

62

Bertrand JORDAN

Figure 18. Image de la membrane (macroarray) après révélation de la radioactivité retenue par chacun des 1 536 segments d’ADN disposés régulièrement à sa surface. Les taches les plus foncées (intensité plus élevée) correspondent aux gènes les plus fortement exprimés dans le prélèvement utilisé pour l’expérience (© document de l’auteur, mai 1994).

Cet échantillon, pour nos mises au point, est fourni par des cellules en culture, mais nous comptons bien sûr appliquer cette méthode à un thème propre à notre institut, et nous choisissons, en collaboration avec une autre équipe, de nous intéresser au fonctionnement du thymus chez la souris. Pour un immunologiste, le thymus est un organe très important car il joue un rôle essentiel dans la fabrication d’une catégorie de globules blancs (les lymphocytes T) qui sont indispensables à la défense de l’organisme contre les infections virales et bactériennes. Nous lançons donc différentes séries d’expériences qui nous permettent d’obtenir des informations nouvelles et, au fil des mois, de présenter nos résultats dans des revues de bon niveau [42]. Nous entamons aussi, en collaboration avec le centre régional de lutte contre le cancer, l’institut Paoli-Calmettes, l’application de notre méthode à l’analyse de tumeurs. On peut en effet espérer que la connaissance des gènes actifs dans une cellule cancéreuse (pour nous, il s’agit de tumeurs du sein dont nous analysons un petit fragment après qu’elles aient été retirées à la patiente) permette de mieux définir les caractéristiques de chaque cancer et, à terme, d’adapter le traitement en conséquence et d’améliorer les chances de guérison des malades (Figure 19). Notre approche commence à être connue au niveau international, nous recevons de très nombreuses demandes de collaboration auxquelles nous ne pouvons pas toutes répondre, et une importante entreprise européenne spécialisée dans les appareils de laboratoire nous fait des propositions alléchantes...

63

AU COMMENCEMENT ÉTAIT LE VERBE

Figure 19. Résultat numérisé de deux expériences visant à comparer le niveau d’expression de 1 536 gènes dans deux échantillons biologiques différents (tumeur et tissu normal de la même personne). Chaque point représente un gène, positionné en fonction de son activité dans la tumeur (échelle d’expression verticale) et dans le tissu normal (échelle horizontale). On voit que la majorité des points se situe sur (ou à proximité de) la diagonale, c’est-à-dire que l’activité du gène correspondant est à peu près la même dans les deux prélèvements. Quelques-uns en revanche sont plus actifs dans le premier échantillon (points au-dessus de la diagonale) ou dans le deuxième (points audessous de la diagonale) : ces gènes doivent être impliqués (comme cause ou conséquence) dans le processus cancéreux, c’est donc sur eux que va se focaliser la suite du travail (© document de l’auteur, mai 1994).

Dépassés par la concurrence... Tout semble donc aller pour le mieux... mais, au printemps 1995, un article émanant d’un excellent laboratoire américain et présentant une technique concurrente paraît dans la très prestigieuse revue Science [43]. Mes collaborateurs ne prennent pas la chose trop au sérieux : le système de nos compétiteurs, dans la version que décrit cet article, n’examine que 96 gènes à la fois, alors que nous en sommes à près de deux mille. Mais il présente un avantage de taille : il n’utilise pas d’éléments radioactifs, et a recours à une mesure optique, par fluorescence. Du coup, il peut être fortement miniaturisé, ce qui

64

Bertrand JORDAN

n’est pas possible pour des raisons techniques avec la radioactivité. Grâce aux dimensions très réduites du système, on peut alors analyser de tout petits prélèvements (ce qui est souvent le cas en cancérologie) et surtout envisager, à terme, l’examen de cinq ou dix mille gènes à la fois, peut-être même de l’ensemble des gènes humains en une seule expérience... En fait, nous venons d’assister à la naissance des microarrays ou « puces à ADN »2 qui, deux ou trois ans plus tard, rassembleront sur un petit rectangle de verre les éléments nécessaires pour suivre l’activité de vingt-cinq mille gènes – alors que nos membranes rectangulaires vingt fois plus grandes, nos macroarrays, arrivent péniblement à cinq mille gènes et nécessitent une bien plus grande quantité d’échantillon biologique. Notre méthode – qui conserve un avantage dans certaines applications – va se trouver progressivement marginalisée. Fait aggravant, l’industriel qui s’était intéressé à nous et devait nous permettre de mettre en œuvre à grande échelle la nouvelle technique en échange de notre précieuse expérience dans la réalisation et l’interprétation de ces expériences ne tiendra pas ses promesses et, pour tout dire, nous laissera royalement tomber. Habitué aux usages des chercheurs, qui ne signent pas de contrat mais tiennent (en général) la parole donnée, je découvrais ainsi les mœurs du monde des affaires et la valse des interlocuteurs (au fil des fusions, acquisitions et restructurations continuelles dans ce monde des entreprises multinationales), interlocuteurs qui bien sûr ne se sentent pas tenus par la parole de leurs prédécesseurs...

Le succès des puces à ADN Mais laissons là le récit de nos malheurs pour prendre un peu de recul et évoquer la saga des puces. Voilà une technologie qui arrivait à son heure, et qui allait marquer le début de la « biologie à grande échelle », approche tendant à faire les choses en grand : puisque, dès la fin des années 1990, on connaissait la séquence d’à peu près tous les gènes, on allait, grâce aux puces, pouvoir suivre leur mise en œuvre dans les différents tissus de l’organisme, et dans les diverses situations normales ou pathologiques. Il s’agit là d’un changement fondamental dans la conception d’une recherche en biologie : jusque-là, la démarche généralement employée était centrée sur un gène, un mécanisme, une fonction biologique précise. En quelque sorte, le chercheur suivait un fil conducteur à travers l’infinie complexité de la biologie, acquérant au passage des informations précises mais très parcellaires. Avec ces nouvelles techniques, on allait au contraire appréhender une situation dans son ensemble, globalement, et savoir très vite quels gènes étaient susceptibles de jouer un rôle essentiel dans le phénomène étudié. On pouvait, par exemple, mesurer l’activité de milliers de gènes dans un petit morceau d’une tumeur retirée à un malade et comparer toutes ces valeurs à celles observées lorsqu’on réalisait la même expérience à partir d’un fragment de tissu normal provenant du même organe (et de la même personne). Comme le montre la Figure 19, cela désigne très rapidement quelques gènes dont l’activité est augmentée ou au contraire diminuée dans la cellule cancéreuse. Cela indique qu’ils jouent vraisemblablement un rôle dans le processus cancéreux, et l’on va dès lors les étudier de manière plus approfondie pour en tirer des informations fondamentales, des procédés de diagnostic et peut-être même des applications thérapeutiques. L’avantage essentiel de cette nouvelle approche est d’aborder le phénomène (la cellule cancéreuse dans ce cas) globalement, sans a priori, et d’obtenir très rapidement des indications fortes sur les entités impliquées dans le processus. Les puces allaient dominer le paysage de la génomique pendant presque une décennie. Fabriquées au début de manière artisanale dans les laboratoires de recherche comme le nôtre, elles devenaient bientôt un enjeu industriel, et plusieurs entreprises se 2. Ainsi nommées par analogie avec les microprocesseurs ou « puces électroniques » apparues quelques années plus tôt.

65

AU COMMENCEMENT ÉTAIT LE VERBE

livrèrent à une vive concurrence pour fournir le marché de la recherche fondamentale et bientôt celui des entreprises pharmaceutiques. Malgré des prix initialement très élevés (une seule puce valait couramment plusieurs milliers d’euros vers 2000), l’industrialisation du procédé aboutissait à des produits bien plus fiables que ceux émanant des équipes de recherche et, la concurrence aidant, les prix n’allaient pas tarder à plonger. Les microarrays furent, au début, essentiellement employés pour étudier l’activité des gènes dans différents systèmes biologiques et diverses situations, mais on leur trouva bientôt un emploi en génétique, dans la recherche de gènes impliqués dans différentes maladies par « balayage du génome », et la logique de la mesure en parallèle de milliers de paramètres allait bientôt être étendue à d’autres entités, avec des puces de protéines, d’antigènes, d’anticorps... Encore un exemple d’un changement scientifique majeur, en biologie, provoqué par une révolution technique somme toute inattendue. De même que le clonage, au début des années 1970, avait tout d’un coup rendu les gènes accessibles à une étude détaillée, la mise au point des puces, au cours de la décennie 1990, autorisa – tandis que progressait le séquençage de notre génome – une approche globale du fonctionnement des gènes et de leur intervention dans le développement de l’embryon, la différenciation des tissus et dans diverses pathologies, au premier rang desquelles le cancer. Ces puces allaient quelques années plus tard jouer un rôle clé dans l’analyse génétique détaillée de maladies complexes et même pour la recherche de nos ancêtres (Chapitre 11, « Puces et maladies complexes »), et être produites par l’industrie à des millions d’exemplaires annuels. Elles sont bien représentatives de l’histoire récente de la biologie, avec ses tournants inattendus, ses innovations qui « changent le jeu » (gamechanging), et une imbrication étroite entre recherche fondamentale, bricolage créatif et industrialisation fulgurante.

Références et lectures conseillées 42. Nguyen C, Rocha D, Granjeaud S, et al. Differential gene expression in the murine thymus assayed by quantitative hybridization of arrayed cDNA clones. Genomics 1995 ; 29 : 207-15. Le premier article présentant notre technologie de macroarrays. 43. Schena M, Shalon D, Davis RW, Brown PO. Quantitative monitoring of gene expression patterns with a complementary DNA microarray. Science 1995 ; 270 : 467-70. Le premier véritable microarray.

66

LE GRAAL N’EST PLUS CE QU’IL ÉTAIT

10 LE GRAAL N’EST PLUS CE QU’IL ÉTAIT

Pendant que nous nous occupions de nos puces, le programme Génome humain avait poursuivi son chemin. Plus de doute : après les piétinements du début, on allait bel et bien arriver à obtenir la « formule d’un être humain » (vision réductrice s’il en est...), la longue séquence de trois milliards de lettres qui fait que l’ovule fécondé va produire, dans l’utérus de la mère, un petit d’homme et non une grenouille ou un éléphant. Cet objectif qui m’avait semblé (comme à beaucoup) hors de portée une dizaine d’années plus tôt était maintenant proche, sans d’ailleurs que les techniques de séquençage aient connu la révolution attendue. De fait, aucun des nouveaux procédés vantés au début des années 1990 ne s’était révélé opérationnel, et c’est la bonne vieille technique de Sanger (datant de 1977, autant dire l’antiquité), améliorée, un peu automatisée et surtout mise en œuvre de manière industrielle, loin de l’aimable improvisation du laboratoire académique, qui allait nous mener au but. Le premier état de la séquence – encore assez approximatif – fut révélé en 2001, et un résultat de bonne qualité devait être annoncé en grande pompe le 14 avril 2003, cinquante ans après la découverte de la double hélice. Résultat obtenu après une course inattendue, et qui allait comporter son lot de surprises et même de déceptions – mais n’anticipons pas.

Un positionnement qui change En effet, il faut d’abord que j’explique comment j’allais désormais suivre l’histoire de l’ADN. J’avais décidé de prendre ma retraite du CNRS fin 1999, à soixante ans, ce qui avait suscité un certain étonnement chez mes collègues. Il est habituel, chez les chercheurs « de haut niveau », de retarder le plus possible ce départ, jusqu’à 65 ans1 ou même un peu plus tard (certains postes honorifiques, comme le professorat au Collège de France, permettent de retarder l’échéance de deux ou trois ans). Passion réelle pour ce travail, goût du pouvoir et réticence à le transmettre, peur peut-être du vide de la retraite ? À chacun ses raisons. Pour ma part, j’avais commencé à goûter à l’écriture de livres, commençant par le récit un peu « vulgarisé » de mon « voyage autour du Génome » en 1991 [44] et continuant par deux autres ouvrages de Génétique se voulant « grand public » [45, 46]. Cela m’avait donné l’envie de poursuivre cette activité plus sérieusement, en somme de devenir un véritable écrivain en y consacrant le temps et l’énergie nécessaires. Activité qui me semblait incompatible avec la direction d’un laboratoire, à moins de le gérer de très loin et par procuration – ce que je ne sais pas faire... J’avais donc « fait valoir mes droits à la retraite », comme l’on dit, à l’âge tendre de 60 ans : ayant été recruté fort jeune à l’université puis au CNRS, j’avais acquis les trimestres nécessaires (selon les critères de cette époque). Je pus même bénéficier d’une prime substantielle du CNRS qui cherchait à l’époque à rajeunir ses cadres, considérant un peu naïvement que tout départ à la retraite serait nécessairement compensé par un nouveau poste ouvert au recrutement. Les temps ont bien changé... Toujours est-il que le 31 décembre 1999 je devenais pensionné de l’État français – et donc libre de me livrer aux activités de mon choix. 1. À l’époque, et depuis 1982, l’âge légal de départ à la retraite était fixé à 60 ans.

67

AU COMMENCEMENT ÉTAIT LE VERBE

L’épisode « Génopole » Naturellement, les choses ne se passèrent pas comme prévu, et, en réalité, je fus très loin de me retrouver écrivain à plein temps. Courant 1999, alors que mon dossier de départ était déjà déposé, le ministère de l’Éducation Nationale et de la Recherche dirigé par Claude Allègre lançait un grand programme « Génopole » destiné à susciter des regroupements régionaux pour mettre en commun (avec des financements ad hoc) de grands « plateaux techniques », ensembles d’appareils, de chercheurs et de techniciens capables de mettre en œuvre les nouvelles techniques de la génomique, les puces à ADN bien sûr, mais bien d’autres techniques nouvelles ou en train de changer de dimension. L’objectif, après la participation fort modeste de notre nation au programme Génome, était de remettre à niveau l’équipement du milieu scientifique français et de lui permettre de prendre sa place dans cette nouvelle époque de la biologie. Les financements annoncés pour chaque site se chiffraient en dizaines de millions de francs, et il s’agissait en fait d’une sorte de concours national pour lequel on devait présenter des dossiers bien construits et solidement argumentés, reposant sur des projets communs entre plusieurs laboratoires. Bien sûr Marseille était au rang des prétendants... Il fallait un chef de file pour organiser le projet et fédérer ses composantes, et il devint rapidement clair que l’on comptait sur moi pour jouer ce rôle, en raison de mon passé scientifique, de ma personnalité plutôt consensuelle, sans doute aussi du fait que, prenant ma retraite, je ne pouvais guère être soupçonné de « rouler » pour mon propre laboratoire. J’obtins en catastrophe le grade de « Directeur de recherches émérite » (une position où l’on est à la retraite, mais où l’on peut néanmoins continuer à travailler et à assumer certaines responsabilités), et allais consacrer une bonne partie des premières années de la décennie à organiser, faire reconnaître et faire fonctionner cette Génopole (Figure 20) qui s’étendit bientôt à toute la région du Sud-Est, avant de transmettre le flambeau à un collègue qui s’y était impliqué dès le début. Parallèlement, au gré de contacts et de concours de circonstances, je me retrouvais également à jouer un rôle de consultant auprès de plusieurs entreprises de biotechnologie, et découvrais peu à peu le versant appliqué, industriel et commercial de cette génomique qui jusque-là relevait pour moi de la recherche fondamentale. N’ayant plus de laboratoire à mon nom, plus de chercheurs à diriger ni de thésards à former, je n’étais plus directement producteur de connaissances ; mais mes nouvelles missions me permettaient de maintenir un contact direct avec cette recherche, de suivre de très près ses évolutions... et d’en tirer des livres dirigés vers le grand public et publiés au rythme d’un par année à peu près.

La course avec Celera et l’aboutissement du programme Mais revenons au début des années 2000, à l’aboutissement de ce programme Génome si critiqué à ses débuts. Vers la fin de la décennie 1990, il était visible que le projet allait atteindre son but : les travaux, menés principalement aux États-Unis et en Grande-Bretagne (avec une contribution nettement plus modeste du Japon et de la France) progressaient à un bon rythme et les sombres prévisions des Cassandres ne s’étaient pas réalisées. Non seulement les étapes prévues étaient franchies les unes après les autres selon le timing anticipé, mais, de plus, les résultats intermédiaires, principalement des cartes de plus en plus précises de notre génome, s’avéraient extrêmement précieux et favorisaient les progrès foudroyants de la génétique médicale (voir le Chapitre 7 « Les vingt glorieuses de la nouvelle génétique médicale »). Le programme n’avait plus guère de détracteurs, mais il allait avoir un concurrent très médiatique et sans scrupule, Craig Venter et son entreprise Celera. En 1998, C. Venter annonçait qu’il allait séquencer le génome humain par une nouvelle méthode, dix

68

Bertrand JORDAN

Figure 20. Carte de France des Génopoles (2001). Marseille-Génopole s’étendra bientôt à toute la région en devenant Marseille-Nice Génopole (© document du Réseau National des Génopoles, décembre 2001).

fois plus rapide et dix fois moins chère, et que ce travail serait réalisé dans le cadre d’une firme se réservant les droits d’exploitation des données les plus intéressantes commercialement. Il s’agissait en fait d’un coup de bluff. C. Venter comptait lire au hasard des millions de fragments d’ADN humain et ensuite « assembler » la séquence des trois milliards de bases en analysant par voie informatique tous les recoupements entre ces segments. Au contraire, le programme génome public avait d’abord établi des cartes précises et découpé l’ADN en grands morceaux longs de dizaines de milliers de bases, dont la position le long de notre génome était connue, chacun de ces grands morceaux étant alors séquencé de manière isolée. L’approche de C. Venter (dont il n’était d’ailleurs pas l’inventeur) était certes plus rapide, et pouvait être efficace pour des génomes pas trop grands comme ceux des bactéries (quelques millions de bases). Il était néanmoins

69

AU COMMENCEMENT ÉTAIT LE VERBE

assez évident pour toute personne compétente qu’elle serait vouée à l’échec pour notre génome en raison de la taille de ce dernier et aussi de la présence de séquences identiques en de nombreux points de nos chromosomes, rendant impossible l’assemblage proposé. Mais C. Venter, qui avait réalisé quelques jolis travaux dans le cadre public du NIH (National Institutes of Health) avant de passer au privé, qui était appuyé par d’importantes firmes, et qui se révélait très habile à manipuler les médias, réussit à persuader du bien-fondé de son approche nombre de personnalités, à mettre le public de son côté et faillit arriver à ses fins. Il espérait en fait provoquer l’arrêt du programme public et réaliser dans le cadre de Celera l’achèvement de la séquence (en utilisant toutes les données déjà accumulées) de manière à ce que l’entreprise en soit propriétaire et puisse monnayer par la suite l’accès à sa base de données et l’utilisation diagnostique ou thérapeutique des gènes révélés par cette séquence. Rappelons que nous étions peu avant 2000, à l’époque du succès des premières entreprises de biotechnologie (Biogen, Genentech...), où l’on croyait les applications médicales à portée de main, et où n’importe quel business plan, aussi irréaliste soit-il, trouvait des investisseurs prêts à le financer, comme on allait le voir bientôt dans un secteur connexe avec l’éclatement de la « bulle Internet » en 2000. Fort heureusement les responsables du programme public ne se laissèrent pas intimider. La Grande-Bretagne, grâce à la fondation Wellcome Trust, joua un rôle essentiel en augmentant immédiatement les crédits disponibles pour le projet Génome, et les États-Unis suivirent le mouvement. L’enjeu était d’importance : il s’agissait d’éviter que la séquence de notre ADN soit privatisée, que cette information tombe en possession d’une entreprise la révélant au compte-gouttes et contre espèces sonnantes et trébuchantes. Cette crainte n’était pas sans fondement comme l’a montré, depuis, l’affaire des brevets de l’entreprise Myriad Genetics sur deux gènes impliqués dans le cancer du sein [47]. Finalement, les résultats de Celera et ceux du Programme Génome furent publiés simultanément, en février 2001 – mais les conditions de la prétendue « course au génome » étaient biaisées : tout au long du travail, les résultats du projet public étaient immédiatement disponibles sur Internet, au jour le jour et sans conditions, tandis que ceux de Celera restaient confidentiels. L’entreprise avait donc eu tout loisir d’utiliser les données de son concurrent et de les combiner avec ses propres informations pour assembler « sa » séquence... En réalité, le projet public avait bel et bien gagné la partie et garanti que, pour l’essentiel, la formule de notre génome ne serait pas privatisée et resterait disponible pour tous.

25 000 gènes seulement ! Cette formule, cette suite de trois milliards de bases, nous réservait quelques surprises. La première fut la révélation du faible nombre de gènes présents dans notre ADN. Les travaux menés durant la décennie précédente sur des « organismes modèles », représentatifs des différents règnes du vivant, avaient montré une progression asses logique : deux ou trois mille gènes chez les bactéries, six mille pour un micro-organisme supérieur comme la levure, quinze ou vingt mille pour des animaux comme la drosophile (la mouche du vinaigre, outil essentiel des généticiens au début du XXe siècle) ou le nématode (petit ver très étudié à partir de 1970). Pour l’homme, organisme complexe, « sommet de la création », on attendait naturellement un chiffre bien plus important. Et, de fait, les études effectuées dans les années 1990 pour évaluer ce nombre (menées notamment par le même Craig Venter grâce à une technique d’analyse partielle et rapide assez astucieuse) suggéraient la présence de cent, cent cinquante ou même deux cent mille gènes chez Homo sapiens. Une des entreprises qui tentait d’exploiter des résultats de ce type obtenus dans son propre département de recherche annonçait même dans sa publicité, courant 1998 qu’elle disposait en exclusivité de soixante mille gènes (humains) sur un total estimé de cent vingt mille (Figure 21).

70

Bertrand JORDAN

Figure 21. Publicité de l’entreprise Incyte (parue dans la revue Nature en 1998) affirmant détenir les séquences (partielles) de 120 000 gènes humains, dont 60 000 en exclusivité (not available anywhere else). Affirmation qui prend toute sa saveur lorsqu’on sait qu’en fait notre génome contient en tout moins de 25 000 gènes.

71

AU COMMENCEMENT ÉTAIT LE VERBE

La question était largement débattue, au point que, lors du plus important colloque annuel sur le génome humain à Cold Spring Harbor (États-Unis), un pari (sweepstake) fut lancé sur le nombre de gènes humains : chaque parieur indiquait la valeur à laquelle, selon lui, l’on arriverait finalement, et le vainqueur, une fois le nombre connu, ramasserait le « pot ». La Figure 22 montre à quel point les estimations étaient variées : de 27 000 à 312 000... mais elles s’avérèrent toutes supérieures au chiffre finalement déterminé.

Figure 22. État des paris placés sur le nombre de gènes humains, en août 2000. Les règles du jeu de ce sweepstake appelé Genesweep étaient les suivantes : les paris étaient ouverts de 2000 à 2003, le montant du pari passant de 1 dollar américain en 2000 à 5 en 2001 puis 20 en 2002 (pour tenir compte du progrès des connaissances). Le parieur devait indiquer le nombre de gènes pronostiqué ; celui qui serait le plus proche du chiffre connu en 2003 remporterait le « pot » (extrait du site www.ensembl.org, 21 août 2000).

La disponibilité de la séquence complète allait trancher la question, grâce à une exploitation informatique intensive et à des programmes capables de reconnaître les gènes (leur début, leur séquence codante, leurs signaux caractéristiques et leur fin) avec une bonne fiabilité : on arriva assez rapidement à une valeur bien inférieure, 20 à 25 000 gènes, qui reste valable aujourd’hui. Chiffre surprenant, et plutôt vexant : comment, nous, sommet de la création, animal complexe entre tous avec ses capacités intellectuelles et créatives, nous n’avons guère plus de gènes qu’un vulgaire moucheron ? Telle est pourtant la réalité, qu’il fallut bien admettre... En ce qui concerne le sweepstake, comme personne n’avait fait un pari à moins de 25 000, le « pot » (qui s’élevait à 1 200 $) fut partagé entre les trois parieurs ayant donnée le chiffre le plus bas (dont un chercheur du Génoscope, le centre de séquençage français).

72

Bertrand JORDAN

Le retard des thérapies Au-delà de cette atteinte à notre amour-propre d’espèce « supérieure », une désillusion plus grave allait s’imposer : les retombées thérapeutiques prévues, attendues et parfois imprudemment promises par les promoteurs du programme génome s’avéraient bien plus lentes et plus limitées qu’annoncé. Le cas emblématique est celui de la thérapie génique, fondée sur une idée simple et séduisante : puisque certaines maladies héréditaires sont causées par une altération présente dans un gène dont le produit est essentiel au fonctionnement de l’organisme, on doit pouvoir les traiter en introduisant chez le malade, dans l’organe concerné, la version fonctionnelle du même gène. Celle-ci, une fois « installée », produira la protéine qui manque au patient et le guérira définitivement. Popularisée en France grâce au Téléthon organisé chaque année par l’Association Française contre les Myopathies (AFM), cette voie royale pour le traitement de maladies douloureuses et jusque-là incurables allait buter sur de multiples difficultés pour sa mise en œuvre, très loin des attentes dont témoignait, par exemple, le titre slogan du Téléthon 1993, « Des gènes pour guérir », ou la prévision, parue dans le magazine L’usine nouvelle en 1996, d’un chiffre d’affaires de cinquante milliards de dollars pour la thérapie génique à l’horizon 20102. Rien n’est fondamentalement erroné dans le schéma de la thérapie génique, mais sa mise en œuvre s’est heurtée à de multiples difficultés. Il s’avère très difficile de faire pénétrer l’ADN thérapeutique dans les cellules à traiter ; celles-ci bien souvent n’expriment pas le gène qu’elles ont reçu, ou du moins pas à un niveau suffisant pour être curatif. Et si même la protéine est produite, l’organisme du malade (qui ne l’a jamais « vue ») la prend souvent pour un corps étranger et génère des anticorps pour l’inactiver. Plusieurs accidents, certains mortels, au cours d’essais cliniques contribuèrent à l’abandon de nombreux programmes de recherche, et à la faillite de bien des entreprises qui s’étaient lancées sur ce créneau apparemment prometteur. L’approche ne commença en fait à connaître quelques succès que vers la fin des années 2000, appliquée à des maladies très rares qui, pour différentes raisons, constituent des cas particulièrement favorables. Elle reste un espoir pour l’avenir, mais à coup sûr elle ne constituera pas la panacée promise par certains [48]. Quant aux approches thérapeutiques plus classiques, ce que l’on pourrait appeler les thérapies fondées sur la connaissance des gènes, elles allaient, elles aussi, progresser moins vite qu’espéré. Certes, la connaissance du gène impliqué dans une affection indique immédiatement (via le code génétique) la formule de la protéine en cause, et aide puissamment à comprendre comment son absence ou son altération cause la pathologie observée ; mais les mécanismes sont souvent fort complexes, et leur élucidation prend du temps, beaucoup de temps. Reste ensuite à trouver une façon de compenser le défaut constaté, en mettant au point un médicament (souvent une petite molécule facilement absorbée par l’organisme) qui va, selon le cas, inactiver la protéine anormale et pathogène, stimuler au contraire son activité si celle-ci est trop faible, ou activer une voie métabolique alternative qui suppléera, au moins en partie, au défaut constaté. Tout cela prend du temps et beaucoup d’argent, et finalement la connaissance du génome ne fournit qu’un point de départ. Celui-ci est certes précieux, mais il ne raccourcit que d’un an ou deux un processus qui (en incluant les indispensables essais cliniques) s’étend sur une bonne décennie et mobilise, selon les dires des entreprises pharmaceutiques, près d’un milliard de dollars américains... Même si ces chiffres sont probablement gonflés pour les besoins de la cause, ils indiquent l’ampleur de la tâche et expliquent que la révélation de notre séquence n’ait pas été suivie à court terme d’une floraison de nouveaux médicaments efficaces. C’est seulement maintenant que la connaissance du génome commence réellement à avoir des applications médicales, dans le cadre de ce que l’on appelle souvent la « médecine personnalisée » – encore s’agit-il souvent d’une nouvelle « tarte à 2. En 2013, ce chiffre d’affaires n’est que de quelques millions de dollars.

73

AU COMMENCEMENT ÉTAIT LE VERBE

la crème » médiatique sur laquelle nous reviendrons (Chapitre 13, « Une médecine enfin personnalisée ? »).

Le gène devient un peu flou... Sur un plan plus fondamental, la poursuite des travaux à partir de cette séquence à la fois indispensable et insuffisante allait singulièrement obscurcir un élément capital, qui semblait pourtant bien établi : la notion même de ce qu’est un gène... Au départ, il s’agissait d’une entité abstraite suggérée par les travaux de Mendel (sans que le terme ne soit employé), puis explicitée en tant qu’élément génétique au cours de la première moitié du XXe siècle. Depuis les débuts de la biologie moléculaire, dans les années 1960, nous savions qu’un gène est une région d’ADN longue de quelques centaines ou milliers de bases et responsable de la synthèse d’une protéine. Le gène a un début, marqué par le codon ATG, et une fin, signalée par un codon TAG, TAA, ou TAG. Entre les deux se déroule la séquence codante qui fournit, selon le code génétique, la formule de la protéine dont il dirige la fabrication. Ce schéma simple s’était un peu compliqué, au fil des années, avec la mise en évidence de séquences régulatrices modulant l’expression et généralement situées à proximité du gène, et surtout avec la découverte que la séquence du gène est souvent interrompue par des « introns », zones d’ADN ne codant pas pour la protéine et qui seront éliminées lors de l’élaboration de la copie de travail, l’ARN messager, avant sa lecture par les ribosomes. Mais, pour l’essentiel, le schéma demeurait le même. Au fil des années 2000, maintenant que l’on disposait de la formule complète du matériel génétique, l’on découvrait qu’un même gène pouvait être lu de plusieurs manières, avec des points de début et de fin différents ou bien encore « à l’endroit » et « à l’envers » ; que de nombreuses zones de l’ADN étaient transcrites pour donner des molécules d’ARN non codant (ne contenant pas la formule d’une protéine) mais jouant néanmoins des rôles importants dans la régulation des processus, et susceptibles elles aussi de subir des mutations et d’être impliquées dans des maladies ; et enfin que des zones a priori très distantes au sein du génome pouvaient parfois s’associer pour constituer une entité fonctionnelle... bref, que la belle simplicité du concept de gène avait vécu. Il n’existe pas aujourd’hui une définition générale, précise et complète de ce qu’est un gène. Celui-ci n’en reste pas moins central dans tous les travaux menés aujourd’hui, opérationnel en termes de diagnostic, de thérapie ou d’utilisation à des fins de biotechnologie, et bien sûr en tant que point d’impact principal des processus de sélection responsables de l’évolution. Il est de bon ton aujourd’hui, pour les tenants de l’école « postmoderne » de sociologie des sciences, qui affirme que toute description du réel est une « construction sociale », un « récit » fabriqué par les chercheurs et reflétant leur position sociale, allant parfois jusqu’à considérer que les gènes n’existent pas [49]. Rien ne saurait être plus faux, et cette position idéologique n’est tenable que si l’on refuse l’idée de réalité objective, le réductionnisme et même la rationalité, en somme tout l’héritage du siècle des Lumières – ce qui est effectivement le cas de ce courant très influent dans les milieux de la sociologie et de la philosophie et dont les positions nourrissent un puissant mouvement anti-science, repris notamment par les opposants aux organismes génétiquement modifiés. Il ne faut donc pas se méprendre : ces « bémols », ces désillusions ne doivent pas occulter l’importance de la séquence de notre ADN, qui est aujourd’hui le fondement de toute une série d’études allant de la médecine à l’anthropologie en passant par la classification des espèces (la phylogénie), et qui en a significativement transformé certaines. Le fait de pouvoir aujourd’hui accéder facilement au génome de n’importe quel organisme (grâce au séquençage de nouvelle génération, comme nous le verrons plus loin) accélère considérablement toute recherche et change la nature même des questions que peut poser le chercheur. En ce sens, le programme génome a fondamentalement changé

74

Bertrand JORDAN

la biologie, sans doute autant que la découverte de la double hélice en 1953 ou, plus près de nous, que l’invention du génie génétique au début des années 1970. Les deux ou trois milliards de dollars qui y ont été investis (et qui ne représentent après tout que quelques pour cent des budgets de recherche en biologie sur la même période) ont donc été bien employés – même si les retombées n’ont pas correspondu exactement à ce qu’annonçaient ses promoteurs.

Références et lectures conseillées 44. Jordan B. Voyage au pays des gènes. Paris : Les Belles Lettres/Éditions Inserm, 1995. Version « soft » de mon tour du monde du Génome. 45. Jordan B. Génétique et génome, la fin de l’innocence. Paris : Flammarion,1996. Les premières années du programme, notamment en France. 46. Jordan B. Les imposteurs de la génétique. Paris : Seuil, 2000. Sous un titre polémique, une mise au point sur les dix années d’or de la nouvelle génétique (et sur les déviations médiatiques qui l’accompagnèrent). 47. Cassier M, Stoppa-Lyonnet D. Un juge fédéral et le gouvernement des États-Unis interviennent contre la brevetabilité des gènes. Med Sci (Paris) 2012 ; 28 : 11-5. Un point sur Myriad Genetics et son appropriation (battue en brèche) des gènes BRCA. 48. Jordan B. Thérapie génique, espoir ou illusion ? Paris : Odile Jacob, 2007. Un point critique sur la réalité de la thérapie génique en 2007 – encore valable aujourd’hui malgré quelques succès récents. 49. Latour B, Woolgar S, Biezunski M. La vie de laboratoire : la production des faits scientifiques. Paris : La Découverte, 1988 (traduction française de Laboratory life : the social construction of scientific facts. Princeton University Press, 1979). Nos résultats scientifiques sont-ils une « construction sociale » ?

75

PUCES ET MALADIES COMPLEXES

11 PUCES ET MALADIES COMPLEXES

Au cours de la décennie 2000, les puces à ADN devaient connaître un nouvel essor et permettre enfin des avancées solides dans la compréhension de ces maladies génétiques complexes sur lesquelles la « génétique inverse » s’était cassé les dents dans les années 1990. Systèmes inventés à l’origine pour étudier l’expression des gènes, les puces à ADN ou microarrays allaient aussi permettre l’exploration de la diversité de notre génome, avec de multiples applications parfois inattendues.

Tous parents, tous différents Diversité : car bien sûr l’étude de l’ADN humain n’allait pas s’arrêter après l’aboutissement du programme Génome et l’obtention d’une séquence « prototype » – qui d’ailleurs, pour des raisons historiques et techniques, était une sorte de patchwork provenant de différents individus. À partir de cette référence, on allait pouvoir comparer l’ADN de différentes personnes, d’abord de manière ponctuelle puis de plus en plus globalement, afin de comprendre les variations génétiques qui font que, au sein de l’espèce humaine, nous sommes « tous parents, tous différents »... On devait vite constater que la majeure partie de cette diversité se manifeste par des différences ponctuelles, des changements d’une seule base : en un point précis de notre ADN, on trouvera chez certains d’entre nous un G (par exemple) alors que chez d’autres ce sera un A. Ces polymorphismes portant sur une seule base, bientôt appelés SNP (pour single nucleotide polymorphism) ou, phonétiquement, snip, sont au nombre de plusieurs millions dans notre ADN et sont responsables de nos différences de taille, de couleur de peau, de métabolisme, de sensibilité à diverses maladies... Ce chiffre peut paraître élevé, mais il faut le mettre en rapport avec la taille de notre génome (trois milliards de bases), de sorte qu’en fait l’humanité est génétiquement homogène à 99,9 % : une très faible diversité (par rapport aux autres espèces animales), résultant de notre jeunesse en tant qu’espèce puisque Homo sapiens est apparu en Afrique il y a seulement deux cents mille ans, que nous descendons tous de quelques dizaines de milliers de personnes qui ont commencé à essaimer hors d’Afrique il y a cinquante ou soixante mille ans – et que nous n’avons cessé de migrer et de souvent nous mélanger les uns aux autres au fil de maints échanges pacifiques ou guerriers. Cette forte homogénéité – dont la valeur devait bientôt être révisée à 99,5 % pour prendre en compte des variations plus rares mais impliquant des segments entiers d’ADN et donc des dizaines ou des centaines de bases à chaque fois – donna lieu à des déclarations bien intentionnées sur l’inexistence des « races » humaines – affirmations qu’il fallut ensuite un peu nuancer [50], nous y reviendrons. Mais revenons à nos snip. Il était assez évident que ceux-ci allaient constituer un outil de choix pour la génétique humaine : des millions de sites polymorphiques, de balises réparties tout au long de notre génome, c’était vraiment inespéré alors qu’il avait fallu se contenter, à la fin des années 1980, de quelques centaines de points de référence, puis, à partir de 1993 et grâce à la carte du Généthon, de quelques milliers. Encore fallait-il disposer de techniques permettant de découvrir rapidement quelles versions de ces variants (quels allèles) sont présents dans

76

Bertrand JORDAN

un ADN donné – et pouvoir obtenir cette information pour un grand nombre de ces snip, des dizaines ou des centaines de milliers, afin de profiter réellement de ce balisage détaillé. Or, vers 2003, le coût de la détermination d’un seul snip chez un seul individu était de l’ordre de l’euro – il était donc hors de question d’en regarder cent mille chez des centaines de personnes... Fort heureusement, on trouva bientôt des procédés permettant d’employer pour ce faire des puces à ADN. Cette fois, les centaines de milliers de petits segments d’ADN disposés à la surface de ces gadgets très miniaturisés ne servaient pas à évaluer le niveau d’expression des gènes correspondants, mais à examiner l’ADN lui-même et à définir quelle base est présente en un point donné du génome de la personne étudiée. On mesurera le progrès en notant qu’aujourd’hui des entreprises commerciales peuvent analyser cinq cent mille points dans votre ADN pour seulement 99 dollars – tarif qui inclut, outre la mesure proprement dite, toute la logistique, la publicité, et bien sûr la marge bénéficiaire de la firme.

Snip et balayages du génome : les GWAS Dans ces conditions, un programme international appelé HapMap (Haplotype Map, carte des haplotypes, ce terme désignant l’ensemble des snip associés sur un segment d’ADN) put se développer, répertorier des millions de snip et définir leur position sur nos chromosomes. Cela ouvrait la voie à des études d’un nouveau type, qui allaient permettre de reprendre de manière bien plus rigoureuse la question des maladies dont la part génétique est complexe, c’est-à-dire implique plusieurs gènes, parfois même très nombreux. Il s’agissait de rechercher systématiquement les déterminants génétiques impliqués dans une telle affection, en étudiant cinq cent mille snip (par exemple) chez mille malades et mille témoins indemnes. Si un allèle particulier d’un snip (ou de plusieurs snip proches les uns des autres) se retrouve nettement plus souvent chez les malades que chez les témoins, cela indique qu’un gène dont certaines versions causent ou favorisent l’apparition de la maladie doit se trouver à proximité de ce (ces) snip : on a mis en évidence une association génétique entre l’affection et ce point du génome. Et on l’a fait de manière objective, sans hypothèse a priori, en balayant l’ensemble de notre ADN grâce aux cinq cent mille snip utilisés : ces études, baptisées GWAS (pour GenomeWide Association Studies), allaient connaître un grand essor dans la seconde moitié de la décennie. Malgré les impressionnants progrès techniques réalisés, l’étude d’une affection par cette approche reste une entreprise de grande ampleur : il faut d’abord rassembler un millier de malades et autant de témoins (afin que les résultats soient statistiquement significatifs), vérifier que les critères de diagnostic sont bien homogènes et s’assurer que malades comme témoins soient issus de populations comparables. En effet, si l’on analyse des malades européens et que les témoins sont d’origine asiatique, on va détecter toutes les différences génétiques entre ces deux populations, et non seulement celles qui sont éventuellement liées à la maladie. Il faut ensuite procéder à l’analyse de l’ADN de chaque individu (à partir d’un prélèvement sanguin) en mettant en œuvre, dans des conditions très bien standardisées, des puces à ADN ad hoc ; enfin, les résultats doivent être analysés par des programmes informatiques sophistiqués afin de détecter les éventuelles associations génétiques et s’assurer de leur validité statistique. En pratique, chacune de ces études GWAS implique au moins une dizaine de laboratoires, met en jeu des millions de dollars et le « papier » qui en résulte comporte cinquante ou cent auteurs, parfois plus encore. Néanmoins, le jeu en vaut la chandelle : on détecte généralement des associations, et surtout celles-ci « tiennent la route », sont presque toujours confirmées par les travaux ultérieurs. Cela montre que, contrairement à l’époque héroïque des années 1990, les méthodes dont nous disposons aujourd’hui permettent effectivement de « pister » les gènes impliqués dans des affections complexes.

77

AU COMMENCEMENT ÉTAIT LE VERBE

Un exemple concret Naturellement, les résultats dépendent de la maladie envisagée, selon que sa part génétique est gouvernée par un petit ou un grand nombre de gènes. La Figure 23 montre quelques exemples, tirés d’une grande étude britannique publiée en 2007 [51] et qui avait mobilisé une cinquantaine d’équipes pour étudier sept affections sur 17 000 personnes en tout (3 000 témoins normaux et 2 000 individus affectés pour chaque pathologie).

Figure 23. Résultats d’une grande étude GWAS recherchant les déterminants génétiques de sept affections fréquentes et complexes du point de vue génétique. Seuls les points ou groupes de points ressortant nettement du « bruit de fond » sur le diagramme indiquent une association génétique convaincante et donc révèlent un gène dont certaines versions favorisent l’apparition de la maladie [51] (voir le texte).

78

Bertrand JORDAN

Pour chaque maladie, la Figure 23 montre les chromosomes, du 1 au 22 de gauche à droite, et la hauteur du trait vertical indique la probabilité, pour chaque point examiné sur chaque chromosome, que l’association observée avec la maladie soit due au hasard : plus le trait est élevé, plus cette probabilité est faible1, donc plus l’association génétique observée est significative. Compte tenu du fait que l’on regarde un grand nombre de points (500 000 dans le cas de cette étude) sur un grand nombre d’échantillons d’ADN, on sait qu’il va y avoir énormément de « faux positifs »2... On ne va donc prendre en compte que les cas pour lesquels le calcul statistique indique que la probabilité d’un faux positif est très faible, inférieure à un sur cent mille dans le cas de ce travail. Seuls les points dépassant cette valeur peuvent être retenus comme indiquant une association génétique. L’examen de la Figure montre des résultats bien différents selon l’affection. En commençant par le haut, on voit qu’il ne ressort rien de net pour la maladie bipolaire (la psychose maniaco-dépressive) : la composante génétique en cause doit être répartie entre de très nombreux gènes, dont la découverte va être fort difficile (comme l’avaient vu à leurs dépens les généticiens des années 1990). Immédiatement au-dessous, en revanche, on voit que le cas de la maladie des artères coronaires est tout autre, puisqu’un gène situé sur le chromosome 9 se détache très nettement. En continuant l’examen de la Figure, on voit que pour la maladie de Crohn apparaissent une bonne dizaine de gènes, que rien de bien convaincant n’est vu pour l’hypertension, que la polyarthrite rhumatoïde et le diabète de type 1 donnent des résultats assez nets tandis que ceux du diabète de type 2 sont beaucoup plus confus. Soulignons qu’il ne s’agit pas ici d’évaluer si une affection a une composante génétique : cela a été établi au préalable pour chacune de ces maladies qui ont toutes une héritabilité (une « part génétique ») de l’ordre de 0,5 (ou 50 %). Ce que permet l’analyse GWAS, c’est d’évaluer le nombre de gènes impliqués dans cette héritabilité et, s’ils ne sont pas trop nombreux, de déterminer la localisation dans notre ADN des principaux d’entre eux. On voit, sur le cas de la maladie de Crohn, que la méthode permet effectivement d’en pister une bonne dizaine. À partir de là, on peut aller jusqu’à l’identification des gènes en cause (largement facilitée par l’existence d’une séquence intégrale de notre ADN) ; on peut aussi répéter l’exercice pour trouver des déterminants supplémentaires, en utilisant un balisage plus fin (un ou deux million de snip au lieu de cinq cent mille dans l’étude présentée) et en augmentant le nombre de sujets affectés et témoins, ce qui améliorera la précision statistique. Mais naturellement, tout cela a un coût.

L’héritabilité se cache... L’analyse de maladies complexes par GWAS a connu un grand succès, et a fait, au passage, la fortune des fabricants de puces à ADN puisqu’il en faut des milliers pour chaque projet. De 2005 à nos jours, on compte déjà plus de deux mille études publiées – rappelons qu’il ne s’agit pas de « petites manips », mais d’entreprises majeures mobilisant beaucoup de monde et des sommes importantes. Les résultats obtenus sont solides, et ont permis dans bien des cas d’avancer dans la compréhension de certaines affections ; mais les déceptions ont été nombreuses. Déceptions parfois dues tout simplement au fait que la composante génétique recherchée (et qui reste indéniable) est portée par un nombre de gènes si élevé que l’effet individuel de chacun est très faible et, à la limite, non détectable : c’est sans doute ce qui se passe, par exemple, pour la maladie bipolaire. Même lorsque les résultats sont nets et désignent une dizaine de gènes principaux (comme 1. C’est une échelle logarithmique, « 5 » par exemple indique une probabilité de 10-5 (un sur cent mille). 2. Un peu comme si l’on demande à mille voyantes de faire mille prévisions : il y en aura forcément certaines qui tomberont juste – ce qui ne signifie pas que la voyante connaît l’avenir.

79

AU COMMENCEMENT ÉTAIT LE VERBE

pour la maladie de Crohn, voir Figure 23), on constate qu’à eux tous ils ne rendent compte que d’une partie, un cinquième, un dixième, parfois moins, de l’héritabilité observée. En quittant le domaine de la pathologie, on peut prendre l’exemple de la taille à l’âge adulte : c’est un caractère complexe et fortement héritable, les parents qui sont grands ont de grands enfants : on estime son héritabilité à 0,8 (80 %). Ses déterminants ont bien sûr été recherchés par l’approche GWAS – et on en a trouvé plus d’une centaine à ce jour. Mais ces variants à eux tous ne rendent compte que d’un dixième de cette héritabilité ! C’est ce que l’on a appelé le problème de l’héritabilité manquante, problème non résolu à ce jour même si de nombreuses hypothèses ont été avancées. En somme, on a des maladies (ou des caractères) qui sont clairement gouvernés, en majeure partie, par l’hérédité ; on a une technique rigoureuse et très puissante pour trouver les gènes impliqués... et on n’arrive de cette façon qu’à rendre compte d’une petite partie de cette héritabilité. C’est fort ennuyeux... Certains aspects techniques de la méthode GWAS – trop complexes à décrire ici – peuvent expliquer une partie du problème. Par ailleurs, on a peut-être parfois surévalué l’héritabilité de l’affection étudiée. Il se peut aussi que l’on rassemble sous le même nom des maladies dont le substrat génétique est bien différent même si leurs manifestations sont similaires : c’est probablement ce qui se passe pour l’autisme, dont la part génétique est clairement démontrée mais où la recherche a trouvé une myriade de gènes dont chacun a un effet quasiment infinitésimal [52]. Mais il me semble que, plus généralement, cette difficulté montre que la manière dont nous passons de l’ADN (le génotype) à la personne qui en résulte (le phénotype) reste, malgré tous les progrès récents, encore très imparfaite. Nous avons bien lu, grâce au programme génome, l’ADN humain ; je peux aujourd’hui obtenir la même information sur mon propre génome pour quelques milliers d’euros seulement ; mais nous sommes loin de savoir réellement interpréter cette séquence qui pourtant détermine dans une large mesure ce que je suis en tant que personne... La valeur prédictive de l’étude du génome d’une personne, en termes de devenir médical individuel, est limitée : même si les gènes qu’ont trouvés les chercheurs ont effectivement une influence sur l’affection envisagée, celle-ci est faible, ne rend compte que d’une partie de l’éventuelle vulnérabilité génétique et ne prédit pas l’avenir de la personne [53].

Une exploitation commerciale Ce n’est pas ce qu’annoncent des entreprises qui ont fleuri aux États-Unis et qui vous proposent d’établir votre profil génétique, à un tarif qui est passé de plus d’un millier de dollars dans les débuts au chiffre magique (sweet spot) de 99 dollars aujourd’hui. Pourquoi hésiter ? Pour ce prix dérisoire, la firme 23andMe3 vous envoie un nécessaire de prélèvement (il suffit d’un peu de salive, qui contient suffisamment de cellules buccales pour permettre l’analyse), détermine quelques centaines de milliers de snip sur votre ADN, et vous indique quelques semaines plus tard si votre risque est élevé, moyen ou faible pour plus de cent affections. Certes, une mention en petits caractères indique que « ces informations sont uniquement à visée de recherche et d’éducation et ne doivent pas être considérées comme un diagnostic »4... mais tout le site suggère au contraire que ces résultats vont vous permettre d’adapter votre style de vie à votre constitution génétique et de mener une existence plus saine. En fait, vous apprendrez, par exemple, que votre risque de diabète de type I est 20 % plus élevé que la normale, en d’autres termes que votre « risque relatif » (votre risque comparé au risque moyen dans la population) est de 1,20. Cette augmentation de 20 % est effectivement établie, elle a un sens statistique et 3. Le nombre 23 se réfère à nos vingt-trois chromosomes (22 plus l’X ou l’Y). 4. « The information is intended for research and educational purposes only, and is not for diagnostic use » (sur le site Internet de 23andMe).

80

Bertrand JORDAN

prédit ce qui se passera si l’on observe un grand groupe de personnes, mais elle n’indique nullement votre « destin ». On considère généralement qu’il faut qu’un risque relatif soit très élevé, au moins de 10 (1000 % !), pour qu’il soit prédictif au niveau d’un individu. C’est par exemple l’ordre de grandeur du risque relatif de cancer du poumon pour les gros fumeurs par rapport à ceux qui n’ont jamais touché à une cigarette – et pourtant, nous connaissons tous des fumeurs ayant atteint un âge canonique sans cancer, et des non-fumeurs touchés par cette affection. En fait, ces entreprises surfent sur la croyance que ce qui est inscrit dans l’ADN détermine directement notre destin individuel (croyance renforcée par les premiers succès de la génétique médicale, qui a naturellement commencé par les maladies les plus faciles, celles dans lesquelles l’altération d’un gène entraîne en effet fatalement la maladie), sur l’impression que la recherche a maintenant tout compris des relations entre l’ADN et la physiologie (ce qui est loin d’être le cas) et sur la curiosité, le désir d’autonomie des personnes qui souhaitent percer les secrets de leur hérédité sans passer par le corps médical – souhait bien compréhensible, longtemps favorisé aux États-Unis par une législation très permissive. La Food and Drug Administration (FDA) a néanmoins pris récemment une décision interdisant à 23andMe de donner des résultats d’ordre médical tant que leur validité n’aurait pas été prouvée, décision qui me semble aller dans le bon sens. Rappelons aussi qu’en France les analyses génétiques ne peuvent être pratiquées que sur demande judiciaire ou médicale, et que la question se pose donc très différemment.

Des tests peu fondés Sans aller jusqu’à ces extrêmes, la tentation peut être forte pour une entreprise de promouvoir un test dont elle sait pertinemment qu’il est peu performant, si celui-ci répond à un besoin largement ressenti. Cela d’autant plus qu’il s’agit d’une analyse d’ADN, technique moderne bénéficiant d’un a priori favorable et d’une présomption de fiabilité qui, nous l’avons vu, n’est pas justifiée dans le cas présent. C’est ainsi que, en juillet 2005, on pouvait lire dans Le Monde un article intitulé « Le premier test de diagnostic de l’autisme va être lancé ». Lecture qui me fit sursauter : en 2005, les GWAS commençaient à peine, le bilan précédent des travaux sur l’autisme avait été tout aussi catastrophique que pour la maladie bipolaire ou la schizophrénie, et je savais que l’on était très loin d’avoir découvert les quelques gènes majeurs espérés. Ce n’est pas que la composante génétique de l’autisme soit douteuse : sauf pour quelques tenants attardés de la psychanalyse des années 1970 ou 80, il était déjà clair5 que l’héritabilité de cette affection est d’au moins 50 %, peut-être même 80 %. Mais, dès cette époque, on soupçonnait fort que le nombre de gènes impliqués était élevé – et donc que la mise au point d’un diagnostic génétique serait très malaisée. De fait, les données même (sûrement optimistes) fournies par l’entreprise responsable de cette annonce (Integragen, firme française) montraient des performances franchement mauvaises : seul un enfant sur dix considéré comme « à haut risque » d’après le résultat du test serait réellement autiste ! En d’autres termes, en essayant de détecter précocement les enfants risquant d’évoluer vers l’autisme, on en étiquetterait à tort comme « pré-autistes » neuf sur dix... et sachant combien les tests portant sur l’ADN sont généralement sur-interprétés, on plaint ces enfants, objets dès lors de l’attention anxieuse des parents... L’annonce était donc très largement prématurée. La commercialisation du test, annoncée pour 2006, n’eut lieu en fait qu’en 2011, sous une version légèrement améliorée mais aux performances toujours très insuffisantes. L’entreprise fut vertement critiquée, notamment par un article au vitriol dans un magazine de Handicap International. 5. Pour l’essentiel, par l’étude de vrais et faux jumeaux : la concordance pour l’autisme entre deux vrais jumeaux est beaucoup plus élevée que pour les faux jumeaux, ce qui signe un rôle prépondérant de l’hérédité.

81

AU COMMENCEMENT ÉTAIT LE VERBE

Elle attaqua en diffamation l’association... et gagna son procès, du moins sur le principe et pour un euro symbolique. Il faut dire que le texte en cause (« À qui profite le crime ? »), visiblement écrit sur le coup de l’indignation, était passablement violent et même injurieux envers les chercheurs d’Integragen – il aurait sans doute gagné à être relu à tête reposée. Cité comme témoin à ce procès, j’avais moi-même publié un article critiquant l’annonce de l’entreprise, mais ne fis pas l’objet de poursuites, sans doute parce que mon ton était plus mesuré même si les arguments étaient similaires. Il est instructif de constater qu’aujourd’hui pas moins d’une dizaine de firmes (dont Integragen) proposent des tests génétiques concernant l’autisme, alors qu’aucun d’eux ne présente des performances réellement satisfaisantes. C’est possible aux États-Unis où un test peut être mis sur le marché sans avoir fait la preuve de son efficacité, pour autant qu’il soit réalisé par l’entreprise qui le propose (et non vendu sous forme de « kit » à utiliser par d’autres laboratoires). De plus, dans cette nation, tout un chacun peut commander une analyse génétique portant sur son propre ADN, et même – dans certaines limites – sur celui de quelqu’un d’autre. Cela montre aussi que le marché est prometteur : parents d’un enfant autiste anxieux sur le devenir du rejeton suivant, médecins et pédiatres souhaitant n’avoir rien à se reprocher – tous convaincus qu’un test ADN a toutes les chances d’être sérieux et concluant.

Une fenêtre sur nos ascendants Décidément mises à toutes les sauces, les puces à ADN allaient aussi permettre d’explorer l’histoire de notre espèce et d’éclairer l’éternelle et très conflictuelle question des races humaines. Je découvris pour ma part ces travaux en janvier 2006, lors d’un congrès de cancérologie dans la jolie ville de Charleston (Caroline du Sud), qui garde quelques traces de ce que l’on appelle là-bas le style colonial (les majestueuses maisons à colonnades des propriétaires de plantations), et où l’on peut aussi voir le fronton d’un marché aux esclaves rappelant sur quoi était fondée cette prospérité... Congrès de cancérologie donc, rapportant en particulier les résultats d’essais cliniques de divers traitements, essais au cours desquels il est naturellement important d’apparier le groupe expérimental (ceux qui sont traités par le médicament) et le groupe témoin (ceux qui reçoivent un placebo inactif) afin d’être sûr qu’ils sont bien comparables sur le plan génétique. C’est dans ce contexte que se situait la communication de Mark Shriver (Université de Pennsylvanie), qui montrait comment l’étude d’un grand nombre de snip permet de définir l’ascendance d’une personne, d’indiquer la ou les populations ancestrales (africaine, européenne, asiatique...) dont il descend. Choc pour moi : venant d’un pays où le terme même de race est tabou (et, par ailleurs, antiraciste convaincu), influencé bien sûr par la publicité donnée aux fameux 99,9 % d’identité entre humains censée prouver l’inexistence des races, je n’imaginais pas que l’on puisse définir la région d’origine d’une personne à partir d’une analyse de son ADN. En réalité, ces travaux ne réintroduisent pas la notion de race, contrairement à ce qu’un examen superficiel pourrait laisser penser. Les groupes que l’on définit ainsi se recouvrent très largement, leur diversité interne est très élevée et leurs contours sont flous. D’ailleurs des analyses plus poussées (avec plus de snip) permettent de différencier Français, Suisses et Belges, communautés à propos desquelles personne ne songerait à parler de race. Ils montrent simplement que notre ADN garde la trace de nos ancêtres – quoi de plus normal ? – et que les méthodes modernes de la génétique permettent de retrouver cette trace. Je m’en suis expliqué dans un livre présentant ces approches jusque-là ignorées du grand public en France [50] – mais qui m’a tout de même valu d’être traité de « hyène raciste » par un écrivain d’origine antillaise [54]. En tout cas, ces études sont maintenant largement pratiquées aux États-Unis, elles font partie du « kit » proposé pour 99 dollars par 23andMe, et leurs résultats surprennent parfois les clients : beaucoup de personnes culturellement « afro-américaines » (« noires ») s’avèrent, à

82

Bertrand JORDAN

l’analyse génétique, être plus proches de la référence européenne que de l’africaine. Cette distorsion entre ascendance et race sociale s’explique par l’histoire : jusque vers la moitié du XXe siècle, toute personne ayant ne serait-ce qu’un seul Africain parmi ses ascendants (« une goutte de sang noir ») était répertoriée comme « noire », même si tous ses autres ancêtres étaient européens. Non, décidément, l’ascendance (donnée biologique) n’est pas la race, construction sociale qui se prétend souvent fondée sur la biologie. Obtention d’une séquence de l’ADN humain, mise au point des puces à ADN permettant d’explorer tant l’expression des gènes que les relations entre génome et maladies, et même l’histoire ancienne de notre espèce : la « biologie à grande échelle » née au tournant du siècle allait connaître, à partir de 2005, une nouvelle accélération avec l’apparition du séquençage ultra-rapide ou « séquençage de nouvelle génération » qui, en quelques années, divisait les coûts par dix ou cent mille et – passage du quantitatif au qualitatif – changeait profondément la manière de « faire de la biologie ».

Références et lectures conseillées 50. Jordan B. L’humanité au pluriel. La génétique et la question des races. Paris : Seuil, 2008. Comment évaluer l’ascendance d’une personne à partir d’une analyse détaillée de son ADN, et en quoi l’ascendance est-elle différente de la « race » telle qu’elle est généralement interprétée. 51. Wellcome Trust Case Control Consortium. Genome-wide association study of 14,000 cases of seven common diseases and 3,000 shared controls. Nature 2007 ; 447 : 661-78. Cet article compte 258 auteurs regroupés sous la bannière du Wellcome Trust Case Control Consortium. 52. Jordan B. Autisme, le gène introuvable. Paris : Seuil, 2012. Un point sur les aspects génétiques de l’autisme, et sur les controverses qui entourent ce syndrome. 53. Manolio TA. Bringing genome-wide association findings into clinical use. Nat Rev Genet 2013 ; 14 : 549-58. Un point tout récent sur les GWAS et leur utilité (éventuelle) en clinique. Excellent article, un peu coriace bien sûr, mais très clair et bien organisé. 54. http://www.alterinfo.net/Bertrand-Jordan-une-tentative-francaise-pour-rehabiliter-le-racisme-scientifique_a17852.html Une attaque en règle du livre (« L’humanité au pluriel ») cité ci-dessus – ne pas omettre de lire les commentaires à la fin...

83

LE RÉVEIL DES SÉQUENCEURS

12 LE RÉVEIL DES SÉQUENCEURS

L’évolution des techniques de séquençage de l’ADN illustre encore une fois le caractère imprévisible du progrès méthodologique. Après le bond en avant survenu en 1977 avec l’apparition simultanée des méthodes de Gilbert-Maxam et de Sanger, la deuxième prenant progressivement le dessus au cours des années suivantes, le paysage était resté relativement statique. Il était désormais possible de lire des milliers, des dizaines de milliers de bases, ce qui répondait aux besoins du jour avec l’isolement de nombreux gènes : la séquence ne constituait plus un goulet d’étranglement, celui-ci se situait plutôt au niveau de l’obtention du gène recherché et, ensuite, de sa caractérisation fonctionnelle, de la compréhension fine de son rôle dans l’organisme. Des perfectionnements progressivement apportés à la technique de Sanger, au niveau des réactifs et des procédures, rendaient sa mise en œuvre plus facile et plus fiable, sans pour autant constituer une révolution. L’apparition de « machines à séquencer » vers la fin des années 1980 représentait un progrès significatif – mais ces appareils ne prenaient en charge qu’une partie du processus, celle qui correspond à la lecture proprement dite de la séquence, et laissaient à la charge de l’expérimentateur toute la délicate série de manipulations préalables. Ils n’en devinrent pas moins un status symbol très recherché, tout comme, une décennie plus tôt, les microscopes électroniques : un laboratoire de pointe se devait de posséder un « séquenceur », même s’il n’en avait guère l’usage et si celui-ci allait trôner, portant en évidence la plaque de la collectivité territoriale ou de l’association qui en avait financé l’acquisition, sans être réellement intégré dans la pratique du laboratoire. Ne noircissons tout de même pas trop le tableau, la plupart des séquenceurs finirent par être utilisés.

Une tâche apparemment surhumaine La donne allait changer à partir de 1990, avec le démarrage du programme Génome. L’ampleur de la tâche était impressionnante : début 1992, la plus longue séquence d’ADN jamais lue était celle du chromosome III de la levure, soit 315 000 bases – grâce à un travail collaboratif impliquant plusieurs dizaines de laboratoires européens. Et l’on s’attaquait à un ensemble de trois milliards de bases... On visualise mieux le décalage à l’aide d’une figure publiée à l’époque par le Department of Energy nord-américain (Figure 24), qui suppose la séquence humaine écrite dans une série d’annuaires téléphoniques, à raison de 15 000 signes par page (dix fois plus qu’un roman, qui comporte environ 1 500 signes par page) : il faut alors 200 annuaires pour caser notre séquence, et celle du chromosome III de levure ne représente que 14 pages... D’où l’impression générale, à l’époque, que le projet Génome nécessiterait la mise au point de toutes nouvelles techniques bien plus performantes que la « vieille » méthode de Sanger.

84

Bertrand JORDAN

Figure 24. Le génome humain, une tâche surhumaine ? (extrait du livret Primer on Molecular Genetics édité par le Department of Energy, 1992). Le séquençage du génome humain apparaît comme une tâche gigantesque par rapport à la plus longue séquence connue à l’époque, celle d’un chromosome de levure (14 pages vis-à-vis de 200 000).

Les nouvelles méthodes échouent... Plusieurs approches prometteuses furent alors explorées par des équipes souvent situées à la frontière entre physique et biologie et soutenues par des financements spécifiques dans le cadre du projet Génome. L’une des plus médiatisées faisait appel à la technique de la « microscopie par effet tunnel », une découverte alors toute récente permettant, dans certaines conditions, de visualiser directement des atomes. L’espoir était d’arriver à examiner par ce procédé des molécules d’ADN, de reconnaître les différentes bases grâce à leurs formes légèrement différentes et donc de déterminer ainsi la séquence de l’ADN observé. Après beaucoup d’efforts et quelques publications spectaculaires [55] (Figure 25) il s’avéra que, dans la plupart des cas, les segments d’ADN visualisés n’étaient, en fait, que des rayures dans le substrat sur lequel avait été déposée la préparation...

85

AU COMMENCEMENT ÉTAIT LE VERBE

Figure 25. Visualisation de l’ADN par microscopie à effet tunnel. À gauche, l’image obtenue, à droite un modèle de la double hélice. On a bien l’impression de deviner une molécule d’ADN... mais ces résultats ne furent pas confirmés (figure extraite de l’article de Driscoll et al., publié en 1990 [55].

Les autres tentatives (spectrométrie de masse, « séquençage par hybridation »...) ne connurent guère plus de succès : on comptait sur elles pour effectuer l’essentiel du travail, mais aucune n’aboutit à une technique utilisable – on en restait donc à la méthode de Sanger. On pouvait du moins tenter d’automatiser plus complètement cette dernière : c’est la voie qui avait été explorée dès la fin des années 1970 par un scientifique Japonais réputé, Akiyoshi Wada, et qui fut reprise (après son échec initial) dans le tout nouveau parc scientifique de Tsukuba (près de Tokyo), avec une « usine à séquencer » baptisée HUGA que j’eus la chance de pouvoir visiter au printemps 1991, lors de mon « tour du monde du génome » (Chapitre 8, « Une idée folle »). Souvenons-nous du contexte : en 1991, le Japon est la puissance économique mondiale qui monte et qui fait peur à tout le monde, y compris aux États-Unis. Cette nation a industrialisé l’enregistreur vidéo, le microordinateur portable, et a inventé le walkman ; ses voitures, ses motos, fiables et bien finies, concurrencent durement les productions occidentales... Son implication dans le programme Génome qui débute tout juste est donc observée avec une certaine inquiétude par les laboratoires occidentaux. Des milliers de robots, paraît-il, peuplent les usines japonaises et renforcent la culture du Kaisen (l’amélioration continue des procédés industriels) : si une nation peut automatiser la séquence d’ADN, c’est bien le pays du Soleil Levant.

Une vision de la robotique japonaise L’Automated Sequencing System (l’usine à séquencer) que je visitai en mars 1991 rassemblait bel et bien un ensemble de machines (toutes de fabrication japonaise) prenant en charge la totalité des manipulations nécessaires au séquençage, regroupées

86

Bertrand JORDAN

autour d’une sorte de chaîne assurant le transfert des échantillons d’une étape à la suivante sous le contrôle d’une station de travail informatique [56]. Selon son concepteur, Eichi Soeda, elle supposait tout de même la présence deux ou trois opérateurs, mais elle devait avoir un débit de plus de cent mille bases par 24 heures. Il s’agissait là de séquence « brute » (raw sequence), correspondant à vingt ou trente mille bases de séquence confirmée (finished sequence, pour laquelle chaque base a été lue plusieurs fois afin d’éliminer les erreurs), mais c’était néanmoins une production considérable par rapport aux standards de l’époque et, bien sûr, aux cinq mille bases de ma séquence HLA obtenus en près d’une année... HUGA semblait confirmer les atouts japonais : investissement sur le long terme, robotique de pointe et implication de l’industrie (sept entreprises participantes) : je repartis assez impressionné. Mais les apparences peuvent être trompeuses : HUGA n’entra jamais réellement en production, l’intégration des différents processus n’était pas suffisante pour assurer son fonctionnement, et la contribution du Japon au programme Génome fut finalement modeste : on l’estime à 6 % de la séquence finale, les États-Unis en assurant 60 % et la (relativement) petite Grande-Bretagne 30 % (la part de la France se situant aux environs de 3 %). De plus, la participation japonaise fut le fait de laboratoires mettant en œuvre la technique de Sanger de manière classique, et non des systèmes automatisés qui avaient fait si peur aux concurrents. Finalement, à l’arrivée, tant la séquence « brouillon » annoncée en 2001 que celle, finie, dévoilée en 2003 [57] reposèrent exclusivement sur la technique de Sanger mise en œuvre de manière largement manuelle – mais bien sûr dans le cadre de centres très structurés sur le modèle industriel : c’est une organisation sans faille qui permit d’arriver au résultat sans avoir recours aux nouvelles méthodes tant attendues. Et c’est plus tard que, presque par surprise, on vit apparaître de nouveaux systèmes qui allaient, en quelques années, diviser par presque cent mille le coût du séquençage tout en augmentant sa vitesse dans des proportions comparables (Figure 26) : les techniques du séquençage de nouvelle génération (New Generation Sequencing, NGS) mettent aujourd’hui notre génome personnel à portée de main, ou plutôt de portefeuille.

L’apparition du New Generation Sequencing En quoi consistent donc ces techniques, pourquoi sont-elles aussi efficaces, et comment se fait-il qu’elles soient apparues à ce moment-là ? Sans entrer dans le détail de processus complexes, mis en œuvre dans des automates sophistiqués dont le coût unitaire frise souvent le demi-million d’euros, on peut résumer l’essentiel en disant que ces machines parviennent à lire simultanément des millions de segments d’ADN, alors que la méthode de Sanger en déchiffre un à la fois – ou, pour les automates les plus perfectionnés, quelques centaines en parallèle (3841, pour être parfaitement précis). Mais même dans ce dernier cas, on a en quelque sorte assemblé 384 séquenceurs élémentaires sous un seul capot, ils fonctionnent en parallèle mais chacun d’eux constitue un système à part entière. Rien de tel dans les machines de nouvelle génération dont le système optique très sophistiqué et hyperrésolutif observe simultanément des millions de brins d’ADN en train d’être lus et emmagasine en temps réel la progression de toutes ces séquences individuelles. De sorte qu’à l’arrivée, après une session qui a duré quelques jours et qui a consommé pour quelques milliers d’euros de réactifs, l’énorme disque dur de l’ordinateur associé contient plusieurs centaines de gigabases (milliards de bases) de séquence – de quoi obtenir, en séquence « finie », lue et relue plusieurs dizaines de fois pour assurer sa fiabilité, plusieurs génomes humains. Rappelons que la première lecture, objectif du programme Génome humain, avait mobilisé des centaines de laboratoires durant dix ans et coûté au total plusieurs milliards d’euros. 1. Ce chiffre bizarre provient d’un standard de fait qui s’est imposé pour les appareils de biologie, la « plaque à 96 puits » pour traiter en parallèle 96 échantillons (et non 50 ou 100). Du coup, on fonctionne avec les multiples de ce chiffre (384 = 4 x 96), on a même des plaques à 1 536 (16 x 96) échantillons.

87

AU COMMENCEMENT ÉTAIT LE VERBE

Figure 26. Évolution du coût du séquençage d’un génome humain (à un niveau de qualité équivalent à celui de la première séquence humaine publiée en 2003). L’évolution (coût en échelle logarithmique, soit un facteur dix pour chaque graduation) est comparée à celle des microprocesseurs qui animent nos ordinateurs. Pour ceux-ci, selon la formule empirique mais jusqu’ici vérifiée dite « loi de Moore », on constate un doublement de la puissance (donc une division par deux du coût de calcul) tous les dix-huit mois. On voit que jusqu’à 2007 le séquençage suit à peu près la loi de Moore (ce qui indique déjà des progrès très rapides), mais qu’à partir de 2007 il progresse beaucoup plus rapidement. Cette date correspond au début de la généralisation des nouveaux systèmes de séquençage, dont le tout premier a été mis sur le marché en 2005 (© figure provenant du site du NHGRI : https://www.genome.gov/images/content/cost_per_ genome.jpg).

Ces systèmes ultra-productifs sont donc arrivés après la bataille, alors qu’ils auraient été incroyablement précieux quelques années plus tôt. Certaines des idées qui leur ont donné naissance étaient déjà présentes dans les projets des années 1990, mais il a fallu pour leur donner une réalité que plusieurs technologies progressent bien au-delà de leur état à l’époque. Les capteurs optiques, élément essentiel de ces machines qui doivent observer avec précision des millions de points lumineux (segments d’ADN en cours de lecture) ont fait d’énormes progrès : souvenons-nous qu’en 2000 les appareils photos numériques – encore très chers et peu répandus – ne comportaient que des capteurs de deux ou trois mégapixels (millions de détecteurs élémentaires). Aujourd’hui, le moindre appareil d’entrée de gamme annonce quinze mégapixels, tout comme la plupart des téléphones portables qui en étaient alors dépourvus. D’autres avancées techniques étaient indispensables à l’émergence du NGS : le micromachining, la capacité de

88

Bertrand JORDAN

fabriquer des supports comportant de microscopiques cuves espacées de quelques nanomètres (dans lesquelles va se loger chaque segment d’ADN à séquencer) ; la modification, par les techniques du génie génétique, d’enzymes au départ isolées de bactéries de manière à en faire de véritables « bêtes de course » capables d’assurer la spécificité des réactions chimiques qui ont lieu au cours du séquençage ; et bien sûr les systèmes informatiques capables d’emmagasiner cette avalanche de données et de l’interpréter pour en tirer des séquences. Les performances de ces nouveaux appareils n’ont pas cessé d’augmenter. Les premiers arrivés, en 2005 (produits par la firme « 454 », bientôt rachetée par le géant suisse Roche), lisaient quelques centaines de mégabases à chaque session ; aujourd’hui, moins de dix ans plus tard, on en est à presque mille gigabases, mille fois plus ! Il faut dire que, dès le début, ce secteur a été le théâtre d’une concurrence féroce entre trois acteurs principaux, et quelques autres plus marginaux, dont certains ont aujourd’hui disparu. Ils ont rivalisé d’efforts pour améliorer leurs performances et capturer la plus grande part possible de ce marché juteux. Il s’est vendu aujourd’hui plus de quatre mille machines (à un demi-million d’euros pièce) : le jeu en valait la chandelle... Une fois encore, l’innovation est venue des États-Unis : ni le Japon, ni la « vieille Europe », même dans ses composantes les plus scientifiquement dynamiques, n’ont été capables de faire germer puis de soutenir l’industrialisation de ces nouveaux procédés. Décidément, cette Amérique que l’on dit moribonde et sur le point d’être dépassée par la Chine a encore bien des ressources.

Des séquences à portée de main Quoiqu’il en soit, la séquence d’ADN (de n’importe quel ADN) est aujourd’hui devenue très accessible. Le « génome (humain) à mille dollars » n’est pas tout à fait une réalité, mais on s’en approche ; dès aujourd’hui, il coûte nettement moins cher d’obtenir la séquence intégrale d’une personne que de l’analyser en détail... Et de réelles applications médicales apparaissent : on n’en est pas encore au point où chacun de nous emmagasinera sa séquence sur sa carte Vitale, mais ce type d’information commence à être réellement employé dans la pratique clinique. C’est sans doute en cancérologie que cet accès relativement facile à la séquence va changer le plus profondément la pratique de la médecine, mais les retombées dans d’autres secteurs ne sont pas négligeables, surtout avec l’apparition des diagnostics dits « non invasifs ». Je vais en faire un tour d’horizon rapide.

Des tests diagnostiques plus larges Cela fait longtemps, bien sûr, que l’on examine des gènes dans les hôpitaux. Le diagnostic prénatal par analyse d’ADN a débuté à la fin des années 1970, et il est aujourd’hui largement pratiqué dès lors que l’on est en présence d’une grossesse « à risque », lorsque l’on sait par exemple que les parents sont tous deux porteurs d’une mutation du gène CFTR et que leur enfant a donc un risque statistique de 25 % d’être atteint (s’il hérite des deux versions mutées du gène). En médecine périnatale, lorsque naît un enfant qui présente des anomalies et que l’on soupçonne un problème génétique, on va aussi rechercher la présence d’une mutation en examinant le ou les gènes suggéré(s) par le tableau clinique. Mais aujourd’hui, à partir du moment où l’on dispose d’un peu d’ADN, on peut facilement examiner des dizaines et même des centaines de gènes. On va du coup balayer l’ensemble des causes génétiques qui peuvent être responsables de cet état, on évitera ainsi d’interminables errances diagnostiques et l’on pourra, le cas échéant, mettre rapidement en place le traitement le plus adapté. Une telle analyse fait d’ores et déjà partie de la pratique courante dans quelques centres aux États-Unis. On

89

AU COMMENCEMENT ÉTAIT LE VERBE

peut aller plus en amont, et proposer aux couples la recherche de mutations avant procréation, de manière à déceler d’éventuelles anomalies présentes à l’état hétérozygote et qui pourraient, si elles sont réunies chez l’enfant, être pathogènes – là aussi, le séquençage de nouvelle génération permet, par exemple, d’examiner 514 gènes (impliqués dans 750 affections pédiatriques) dans le test proposé par le Children’s Mercy Hospital (Kansas City, États-Unis).

Des approches « non invasives » Une nouvelle modalité, elle aussi autorisée par le séquençage, est en passe de révolutionner le diagnostic prénatal : il s’agit d’examiner l’ADN du fœtus... à partir d’un échantillon de sang de la mère, modalité tout à fait inoffensive, au lieu de pratiquer une amniocentèse (prélèvement de liquide amniotique) dont le risque pour l’enfant n’est pas nul. Il s’avère en effet que le sang maternel contient un peu d’ADN fœtal – et que le séquençage permet de le quantifier, même en présence de l’ADN maternel qui est toujours en plus grande quantité. Cette technique est déjà très largement utilisée, aux États-Unis, pour repérer la trisomie 21, et commence à être introduite en France ; on imagine aisément qu’elle va développer son champ d’application et qu’un jour tout diagnostic prénatal pourra être effectué sur un simple prélèvement de sang maternel. On imagine aussi que le diagnostic préimplantatoire, effectué sur une seule cellule d’une dizaine d’embryons obtenus par fécondation in vitro afin de réimplanter chez la future mère un embryon ne présentant pas l’anomalie qui existe (à l’état hétérozygote) chez les parents, que ce diagnostic préimplantatoire donc pourra porter, non sur un ou deux gènes comme actuellement mais sur l’ensemble du patrimoine génétique du futur enfant. Dès aujourd’hui, on est effectivement capable, en recherche, de lire l’ensemble de l’ADN à partir d’une seule cellule : ces manipulations, encore très délicates, ouvriront sans doute à l’avenir la possibilité du choix du « meilleur » embryon – non sans soulever d’épineuses questions éthiques... Dans le même ordre d’idées, des entreprises proposent déjà, aux États-Unis, un test de paternité « prénatal et non invasif » ne nécessitant qu’un prélèvement sanguin chez la future mère et un peu d’ADN du père présumé récupéré sur un peigne ou une brosse à dents2. On voit bien, là aussi, les dérives possibles... [58].

Les cancers aussi... Le séquençage ultra-rapide de l’ADN a naturellement trouvé de nombreuses applications dans le domaine de la cancérologie. L’analyse de l’ADN de cellules tumorales, obtenues grâce à une biopsie ou après opération (résection de la tumeur), révèle de très nombreuses altérations : des milliers, parfois des dizaines de milliers de mutations de divers ordres (mutations ponctuelles, délétions, réarrangements chromosomiques..). Cette complexité ne facilite pas l’analyse, qui cherche à déterminer lesquelles de ces mutations sont causales, responsables du caractère cancéreux, et lesquelles sont simplement la conséquence de la réplication anarchique des cellules. Néanmoins, on a pu peu à peu, et après l’étude de milliers de tumeurs de divers types, identifier un nombre limité de gènes, cent quarante environ à ce jour [59], dont les formes mutées sont régulièrement retrouvées dans les tumeurs et dont les caractéristiques indiquent qu’ils jouent un rôle dans le processus. On a aussi pu compléter la liste des gènes dont certains variants prédisposent au cancer ou du moins rendent sa survenue plus probable, au-delà du cas bien connu des gènes BRCA1 et BRCA2 pour le cancer du sein. Dans certains cas, ces connaissances ont permis la mise au point de thérapies ciblées, intervenant directement 2. Une des entreprises commercialisant ce test inclut dans son tarif la prise en compte de trois géniteurs présumés...

90

Bertrand JORDAN

sur l’anomalie responsable de la croissance tumorale, ouvrant ainsi la voie à une « médecine personnalisée » qui sera le sujet du prochain chapitre (Chapitre 13, « Une médecine enfin personnalisée ? »).

Une révolution inachevée Dès maintenant, l’accès aisé à la séquence d’ADN facilite grandement toute sorte de travaux, de la microbiologie à la génétique des animaux domestiques en passant par l’anthropologie. On peut ainsi analyser le « microbiome », l’ensemble des micro-organismes présents dans une mare ou dans l’estomac d’un animal, en séquençant « en masse » l’ADN extrait et en le confrontant aux bases de données, ou « pister » très rapidement les gènes impliqués dans une meilleure lactation chez la vache, ou encore préciser l’histoire des migrations humaines en analysant les variants présents dans l’ADN extrait d’ossements fossiles : c’est ainsi que l’on a récemment pu montrer que notre génome contient quelques séquences provenant de l’homme de Neandertal, que l’on avait jusque-là plutôt envisagé comme une espèce distincte de la nôtre [60]. Le plein emploi de ces nouvelles possibilités dans la pratique médicale se heurte encore à quelques difficultés : l’interprétation des informations de séquence coûte maintenant plus cher que leur obtention, et nécessite des compétences pointues, des bases de données à jour et des systèmes bio-informatiques performants. Par ailleurs, la séquence, surtout si elle est globale (« génome entier »), révèle aussi à l’occasion des informations que l’on ne cherchait pas (le terme consacré en anglais est unanticipated findings), par exemple un variant de susceptibilité au cancer chez un enfant dont on explore le génome pour trouver la cause d’un retard mental. Se pose alors la question du retour de ces résultats inattendus (au patient, à sa famille, à son médecin...) et plus généralement celle de la confidentialité de cette séquence d’ADN si révélatrice. Pour le patient, le droit de savoir est essentiel, mais on peut aussi dans certaines situations envisager un « droit de ne pas savoir »3 et cela doit être précisé dans le formulaire de consentement éclairé que signe la personne avant que l’analyse ne soit pratiquée. Se pose aussi la question des variants non interprétables, des différences par rapport à la séquence de référence constatées lors de l’analyse et dont l’effet est inconnu parce qu’elles ne sont pas répertoriées dans la littérature scientifique. De nombreuses institutions, dont, en France, l’Institut National du Cancer (INCa) [61] s’attachent à traiter ces questions et à définir des modes opératoires en cherchant à concilier efficacité médicale et respect du patient. Malgré ces difficultés et ces inconnues, il est clair que les possibilités offertes par ces nouvelles méthodes – l’accès facile et rapide à la structure détaillée de l’ADN présent dans un échantillon biologique et sa comparaison avec d’innombrables informations emmagasinées dans les bases de données – ont déjà profondément marqué toute la recherche en biologie, et qu’elles vont jouer un rôle de plus en plus important dans la pratique médicale.

Références et lectures conseillées 55. Driscoll RJ, Youngquist MG, Baldeschwieler JD. Atomic-scale imaging of DNA using scanning tunnelling microscopy. Nature 1990 ; 346 : 294-6. Une des publications très alléchantes (mais non confirmées) sur la possibilité de lire l’ADN par microscopie à effet tunnel. 56. Endo I, Soeda E, Murakami Y, Nishi K. Human genome analysis system. Nature 1991 ; 352 : 89-90. Présentation du système HUGA par ses concepteurs. 3. S’il s’agit par exemple d’une forte susceptibilité pour une affection d’apparition très tardive, comme la maladie d’Alzheimer.

91

AU COMMENCEMENT ÉTAIT LE VERBE

57. Schmutz J, Wheeler J, Grimwood J, et al. Quality assessment of the human genome sequence. Nature 2004 ; 429 : 365-8. La séquence « finie » fut annoncée, et rendue disponible, le 14 avril 2003, mais la première publication formelle (ci-dessus) date de 2004. 58. Jordan B. En route vers l’enfant parfait ! Med Sci (Paris) 2013 ; 29 : 665-8. Mise au point récente sur les diagnostics prénatals non invasifs. 59. Vogelstein B, Papadopoulos N, Velculescu VE, Zhou S, Diaz LA Jr, Kinzler KW. Cancer genome landscapes. Science. 2013 ; 339 : 1546-58. Une revue complète sur les avancées récentes dans le domaine des gènes du cancer. 60. Green RE, Krause J, Briggs AW, et al. A draft sequence of the Neandertal genome. Science 2012 ; 328 : 710-22. Première mise en évidence d’un peu d’ADN de Neandertal (quelques pour cent) dans notre génome. 61. Site de l’INCa : http://www.e-cancer.fr/ Une foule d’informations est disponible sur ce site très complet.

92

UNE MÉDECINE ENFIN PERSONNALISÉE ?

13 UNE MÉDECINE ENFIN PERSONNALISÉE ?

Difficile, ces jours-ci, d’ouvrir une revue médicale sans être confronté au terme de « médecine personnalisée ». Ce n’est pas le seul : on parle souvent de « médecine prédictive », et aussi de « médecine de précision » ou même de « médecine P4 » (pour « prédictive, préventive, personnalisée et participative »). Ce que recouvrent ces expressions, c’est l’espoir de traitements qui soient réellement adaptés au malade et à sa maladie, grâce aux nouvelles possibilités d’analyse portant tant sur le bagage génétique du patient que sur l’agent pathogène (bactérie, virus) ou le dérèglement (tumeur cancéreuse) qui l’affecte. Selon une autre formulation très courante, la médecine personnalisée, c’est le bon traitement pour le bon malade au bon moment... Sans aucun doute, c’est le sens dans lequel évolue actuellement la prise en charge des affections (du moins dans les pays riches), mais où en est-on réellement [62] ?

Agents pathogènes et mutations Les retombées des progrès scientifiques et technologiques ne font aucun doute pour ce qui est de l’identification des agents pathogènes. On sait aujourd’hui caractériser très rapidement (par des techniques faisant appel à l’analyse de l’ADN) la bactérie ou le virus impliqués dans une infection, et connaître de ce fait le traitement le plus indiqué. De même, le diagnostic d’une maladie génétique peut être effectué à coup sûr grâce à l’étude de l’ADN du malade, et déboucher sur la prise en charge la mieux adaptée, ou même permettre la naissance d’un enfant indemne grâce au diagnostic prénatal ou, mieux, préimplantatoire. Cela est surtout vrai pour les affections monogéniques ou mendéliennes, pour lesquelles l’état d’un gène (muté ou fonctionnel) prédit l’apparition (ou non) de la pathologie. On peut aussi dans certains cas déceler une susceptibilité dont la conséquence n’apparaîtra qu’au bout d’un certain temps, comme pour les gènes BRCA1 et BRCA2 : certaines mutations dans l’un ou l’autre de ces gènes augmentent très fortement le risque de cancer du sein, au point qu’il devient une quasi-certitude, ce qui peut motiver une mastectomie préventive comme dans le cas très médiatisé de l’actrice Angelina Jolie en 2013. Si l’on envisage maintenant les affections multigéniques, celles dont la composante génétique implique de nombreux gènes, les implications médicales sont beaucoup moins claires. Comme nous l’avons vu au Chapitre 11, les gènes actuellement identifiés ne rendent compte que d’une partie de l’héritabilité de ces affections, celle-ci n’est de toute manière que partielle (l’environnement jouant lui aussi un rôle), et chaque version « pathogène » d’un des gènes en cause a une influence individuelle très faible sur le risque d’apparition de la maladie. Des études systématiques ont montré qu’à l’heure actuelle une histoire médicale familiale détaillée avait, pour l’individu en cause, une valeur prédictive supérieure à une analyse d’ADN... Malgré l’assurance dont ont fait preuve certaines entreprises commercialisant des profils génétiques à visée médicale, cette forme de « médecine prédictive » n’est actuellement pas opérationnelle. Ce constat n’est pourtant que provisoire : nos connaissances sur la relation entre le génotype (ce qui est inscrit dans l’ADN) et le phéno-

93

AU COMMENCEMENT ÉTAIT LE VERBE

type (l’état physiologique de l’individu correspondant) continuent à progresser, tandis que, comme nous venons de le voir (Chapitre 12, « Le réveil des séquenceurs »), l’analyse détaillée de l’ADN d’une personne et même sa séquence intégrale vont devenir très facilement accessibles. Dans un avenir proche, il deviendra donc possible de savoir, grâce à une analyse d’ADN, si une personne présente une vulnérabilité particulière pour certaines affections. Soulignons qu’il ne s’agit que de probabilités, d’augmentation (ou parfois de diminution) d’un risque, et en aucun cas d’une prédiction du destin individuel de la personne concernée. Néanmoins, et selon les cas, on pourra alors mettre en place des mesures de prévention au niveau de l’alimentation ou du style de vie, ou prévoir des examens systématiques afin d’engager un traitement dès les premiers signes de la maladie. Ainsi la prédiction débouchera effectivement sur une forme de médecine personnalisée, adaptée aux risques particuliers encourus par la personne en cause.

Une véritable médecine personnalisée : réaction aux médicaments À l’heure actuelle, la mise en œuvre d’une pratique médicale guidée par les caractéristiques génétiques n’est réellement effective que pour deux domaines de la médecine : la prise en compte des réactions individuelles à certains médicaments, et surtout l’oncologie, le traitement des cancers. On sait depuis longtemps que tous les patients ne réagissent pas de la même manière à un médicament donné : la notion de « terrain » individuel est ancienne et s’appuie aujourd’hui sur la mise en évidence des variations génétiques qui la sous-tendent. Deux exemples illustrent ce phénomène et la manière dont les nouvelles techniques de diagnostic permettent de le prendre en compte. Le premier concerne les médicaments psychotropes (antidépresseurs en particulier) qui sont métabolisés par le malade, soit pour aboutir à la forme active à partir du produit administré qui est un précurseur, soit pour éliminer au bout d’un certain temps cette forme active. Le métabolisme de ces agents au sein de l’organisme du patient est assuré par un ensemble d’enzymes collectivement appelé cytochrome P450 qui effectue les réactions chimiques correspondantes. Deux de ces enzymes, appelées CYP2D6 et CYP2C19, jouent un rôle particulièrement crucial dans ce phénomène. Or, on a constaté que quelques patients s’avèrent hyperréactifs à ces médicaments, et que d’autres au contraire ne ressentent d’effets qu’avec des doses bien plus élevées que la normale. Et surtout, on a pu montrer que ces différences de réactivité individuelle sont liées à des différences dans la séquence des gènes correspondant à ces deux enzymes. On peut dès lors envisager un test génétique pratiqué avant administration du médicament et permettant de savoir si la dose habituelle sera efficace, ou s’il faut prévoir de l’augmenter ou au contraire de la diminuer, compte tenu de la constitution génétique du patient. Un test reposant sur une puce à ADN spécifique et assurant un examen détaillé des deux gènes en cause a été mis au point par le spécialiste Affymetrix et commercialisé dès 2005 par l’entreprise Roche Diagnostics. Il n’a pas connu un grand succès commercial en raison de son coût (plus de mille dollars américains) et du fait que l’examen de ces deux gènes ne suffit pas à fournir une prévision très fiable (il faudrait en examiner plusieurs autres, on sort alors des possibilités de la technique employée), mais cela a été néanmoins le premier test de diagnostic utilisant une puce à ADN à être approuvé par la redoutable Food and Drug Administration (FDA) aux États-Unis et à être effectivement employé dans la pratique clinique [63]. Le deuxième exemple concerne la warfarine (ou coumadine), un anticoagulant fréquemment utilisé dans les cas de thrombose veineuse1. La « fenêtre thérapeutique » 1. Formation d’un caillot de sang dans une veine pouvant entraîner une phlébite ou une embolie pulmonaire.

94

Bertrand JORDAN

de ce médicament est très étroite : un surdosage provoque des hémorragies, tandis qu’un sous-dosage ouvre la voie à la formation de caillots pouvant entraîner une embolie. Or, là encore, des facteurs génétiques interviennent, principalement au niveau de deux gènes, l’un appelé VKORC1, tandis que l’autre est de nouveau un composant du complexe CYP450, cette fois le gène correspondant à l’enzyme CYP2C9. On peut donc utiliser une analyse de ces gènes (plusieurs tests de diagnostic sont déjà disponibles) pour aider à déterminer la dose à employer. Cela ne suffit pas, car d’autres facteurs interviennent (par exemple l’alimentation du patient), mais cette information est importante et utile. Plusieurs autres cas sont actuellement étudiés et vont probablement déboucher sur des tests largement pratiqués. On peut sans doute envisager, dans un avenir proche, de pratiquer en une seule fois plusieurs analyses destinées à déceler les éventuelles incompatibilités avec divers médicaments, ou à donner une indication sur le dosage à utiliser. Il s’agit bien là d’adapter le traitement à la constitution génétique du patient, donc de médecine personnalisée stricto sensu.

Oncologie et thérapies ciblées Le secteur dans lequel la « médecine de précision » est aujourd’hui la plus développée est celui de l’oncologie : il s’agit cette fois de choisir le meilleur angle d’attaque compte tenu des caractéristiques de la tumeur. Les cancers sont dus à des aberrations apparues dans des cellules (spontanément ou suite à l’action de composés mutagènes comme les constituants de la fumée de tabac), qui les rendent capables de proliférer sans être soumises aux contrôles qui normalement empêchent une multiplication anormale. Ces aberrations sont des mutations au niveau de l’ADN, inactivant tel ou tel gène « sentinelle » ou activant un gène qui induit la prolifération – en ce sens, le cancer est une maladie génétique, mais qui touche des cellules somatiques, non transmises à la descendance. Il faut que plusieurs de ces « verrous » aient sauté pour que la cellule devienne cancéreuse : si l’un d’eux est inactif de manière congénitale, en raison d’une anomalie héritée des parents et présente dans toutes les cellules de la personne, on observe alors une « prédisposition » au cancer, une fréquence d’apparition de la maladie bien plus élevée que la moyenne chez les personnes porteuses de la mutation. C’est le cas des gènes BRCA1 et BRCA2 mentionnés plus haut. Le séquençage de l’ADN d’une biopsie ou d’une tumeur après résection a été largement pratiqué depuis l’apparition des NGS. Il a montré, nous l’avons vu, qu’une cellule cancéreuse pouvait porter des milliers et même des dizaines de milliers de mutations, et qu’il n’était pas facile de savoir lesquelles sont déterminantes, et jouent un rôle causal dans la cancérisation. On a néanmoins aujourd’hui pu établir une liste d’une bonne centaine de gènes dont les formes mutées sont impliquées dans la cancérisation [64], et l’on s’est aperçu que la spécificité d’organe (le fait qu’il s’agisse d’un cancer du sein ou du foie, par exemple) jouait relativement peu : les mêmes gènes mutés peuvent être impliqués dans des cancers de localisations très différentes. On a aussi, plus récemment, constaté que les tumeurs sont généralement très hétérogènes, comportant des cellules dont les mutations sont différentes – de sorte qu’après un traitement qui élimine la majorité des cellules cancéreuses, celles qui avaient dès le départ des caractéristiques différentes vont survivre et proliférer à leur tour, expliquant les « reprises » malheureusement observées après quelques mois de rémission. Aujourd’hui, la rapidité et le coût modéré des analyses par séquençage permettent d’envisager l’étude systématique de nombreux gènes dans la tumeur, avant le début du traitement, et peuvent autoriser le choix de la meilleure thérapie dans la mesure où beaucoup d’agents ciblant une anomalie précise sont maintenant disponibles. Par exemple, si l’anomalie principale retrouvée par le séquençage concerne une de ces enzymes appelées kinases dont la surproduction est souvent la clé de la prolifération des

95

AU COMMENCEMENT ÉTAIT LE VERBE

cellules cancéreuses, on dispose dans bien des cas d’un inhibiteur spécifique de cette kinase, dont l’administration au patient va stopper la croissance de la tumeur et la faire régresser. Le séquençage systématique permet alors d’employer dès le départ la démarche qui va être efficace – plutôt que de tester les uns après les autres divers traitements (avec leurs effets secondaires) avant de trouver éventuellement le bon. Ce séquençage systématique se met actuellement en place, notamment dans le cadre du Plan Cancer en France (essai clinique SAFIR [65]), et va améliorer l’efficacité de la prise en charge de ces patients. Du point de vue technique, différentes modalités peuvent être employées. La plus courante actuellement est celle des panels visant à examiner une série de gènes : l’ADN correspondant à une centaine de gènes (par exemple) est purifié à partir de l’ADN total extrait d’un fragment de tumeur (il existe pour cela des techniques très efficaces), puis séquencé afin de pouvoir examiner en détail l’état de chacun de ces gènes, l’espoir étant de trouver dans l’un d’eux une anomalie suggérant l’emploi d’un traitement précis à l’aide d’une molécule déjà autorisée en utilisation clinique ou du moins en cours d’essai. On peut aussi viser plus large, et isoler de la même manière l’ensemble des séquences codantes (appelé « exome »), représentant environ 2 % de l’ADN total, puis le séquencer ; enfin, certains préconisent de lire intégralement l’ADN de la tumeur, ce qui permet effectivement de découvrir des anomalies situées en dehors des gènes proprement dits mais jouant sur la régulation de leur expression et donc pouvant intervenir dans l’agressivité de la tumeur. Le choix entre ces différentes approches dépend de nombreux facteurs, notamment bien sûr le coût du séquençage qui va dépendre de l’étendue de l’ADN examiné. Ce facteur est d’autant plus important qu’il s’agit ici d’analyses à visée clinique et qu’il faut le plus possible éliminer les erreurs en lisant l’ADN avec une redondance élevée (jusqu’à 500 ou 1 000 fois), afin d’être certain que les « mutations » détectées ne sont pas de simples erreurs de séquençage. La complexité de l’analyse informatique à pratiquer sur la séquence obtenue entre aussi en compte : plus celle-ci est étendue, plus elle est potentiellement révélatrice, mais aussi plus son examen est délicat et susceptible de buter sur de nombreux variants non interprétables (voir Chapitre 12 « Le réveil des séquenceurs »). Dans ces conditions, l’adage Less is more2 peut parfois s’appliquer, un panel de cinquante gènes donnant des résultats plus rapides, plus interprétables et plus opérationnels qu’une séquence intégrale. Avec le recul dont on dispose aujourd’hui, on peut considérer que ces analyses permettent de suggérer une thérapie spécifique dans 20 à 50 % des cas, et que le traitement qui en résulte est souvent efficace, au moins durant un certain temps. Ces chiffres vont à coup sûr s’améliorer avec l’augmentation des connaissances et le rodage des modes opératoires. En tout cas, il s’agit bien de la mise en œuvre d’une médecine personnalisée adaptée à la forme précise de la maladie dont souffre le patient. Malheureusement, il s’avère que l’action des thérapies ciblées ne dure souvent que quelques mois : on dit que la tumeur devient résistante au traitement employé. Cela correspond à un phénomène de sélection parmi des cellules tumorales : celles – la majorité au départ – qui portaient l’anomalie repérée par l’analyse d’ADN ont été éliminées grâce au traitement employé... cependant, d’autres cellules, minoritaires au départ mais portant des mutations différentes ont pu continuer à se multiplier et assurent maintenant la croissance de la tumeur. Cette difficulté fréquemment rencontrée suggère qu’il va falloir, à l’avenir, effectuer une analyse plus poussée de l’ADN extrait de la tumeur, repérer les différentes anomalies génétiques présentes même de manière minoritaire, et employer dès le début du traitement deux ou plusieurs thérapies ciblées pour espérer éliminer complètement ce cancer. Rappelons que le remarquable succès thérapeutique qui a transformé le Sida, mortel à terme dans les années 1980, en une maladie chronique compatible avec une bonne qualité de vie, a reposé sur les trithérapies, l’attaque du virus simultanément à trois niveaux... 2. Que l’on pourrait traduire par « Le mieux est l’ennemi du bien ».

96

Bertrand JORDAN

Pour le cancer, il faudra bien sûr veiller à ce que l’empilement des traitements n’aboutisse pas à un cumul intolérable d’effets secondaires, mais la multi-thérapie est certainement une voie d’avenir. La mise en œuvre de cette nouvelle approche de la maladie cancéreuse est donc en marche. Elle se heurte à plusieurs difficultés. Problèmes d’organisation et de financement : même si l’analyse d’ADN permet d’éviter des traitements inutiles et dispendieux (le prix d’un cycle de traitement est généralement de plusieurs dizaines de milliers d’euros), l’obtention et l’analyse de la séquence ont actuellement un coût de plusieurs milliers d’euros – et il faut arriver au résultat très rapidement afin d’entamer le traitement le plus tôt possible. Il faut aussi ne pas passer à côté de la molécule qui va être efficace, ce qui suppose l’existence de bases de données très complètes répertoriant non seulement les agents déjà autorisés en clinique mais aussi ceux qui font l’objet d’un essai clinique et auxquels l’on pourrait avoir accès. Il n’est pas facile de se repérer parmi les centaines de molécules en cours de développement, et de savoir comment y accéder – c’est pourtant indispensable pour donner à l’approche personnalisée sa pleine efficacité. Enfin, la gestion des informations obtenues et la manière dont elles sont transmises au clinicien et au malade posent, nous l’avons vu, de nombreuses questions.

Une évolution profonde de la pratique médicale, de l’organisation hospitalière et de l’industrie pharmaceutique L’arrivée effective du séquençage d’ADN dans la pratique clinique – rendue possible par les performances et le faible coût des techniques NGS – entraîne de réels bouleversements. Poids accru du diagnostic : selon certains observateurs, le diagnostic représente actuellement 2 % des coûts de santé... et détermine 60 % des décisions cliniques. L’équilibre va changer, et les hôpitaux de demain devront faire bien plus de place aux activités de diagnostic. L’analyse à grande échelle (notamment pour les cancers), si l’on se donne les moyens d’en faire une interprétation poussée, va donner une vision d’ensemble très fine au lieu d’un aperçu parcellaire et limité. Mais ceci suppose un effort très important au niveau des systèmes d’analyse et des bases de données. Il est aujourd’hui presque trivial d’obtenir des données de séquence de bonne qualité à partir d’un fragment de tumeur, d’une biopsie ou d’un prélèvement sanguin, et le coût de la séquence proprement dite est généralement inférieur à un millier d’euros. Cependant, l’analyse de ce qu’indique cette séquence par rapport à la pathologie envisagée et des orientations thérapeutiques qu’elle suggère est complexe, suppose l’accès à des bases de données (et même des « bases de connaissances ») très complètes et à jour, et peut avoir un coût de plusieurs milliers d’euros. On assiste d’ailleurs à une floraison de nouvelles entreprises spécialisées dans ce travail d’interprétation et le facturant (aux États-Unis) à un tarif de l’ordre de 5 000 dollars, ce qui atteste bien que le besoin est réel. Par ailleurs, l’avènement de la médecine personnalisée aboutit dans de nombreux cas à restreindre la population pour laquelle un nouveau traitement est applicable, ce qui n’est pas sans poser de sérieux problèmes à l’industrie pharmaceutique. Celle-ci a longtemps fonctionné sur le principe du Blockbuster, le médicament concernant l’ensemble des patients atteints d’une pathologie donnée, et pour lequel on pouvait espérer un chiffre d’affaires annuel de plusieurs milliards de dollars. Le principe même de la personnalisation du traitement réduit la taille de la « cible » et met en cause la rentabilité de la démarche. Il est bien sûr possible (et on ne s’en prive pas) d’augmenter les tarifs : certaines thérapies anticancéreuses ciblées ont un coût supérieur à cent mille euros par cycle de traitement, mais les limites sont évidentes, surtout en période d’austérité. En Grande-Bretagne, par exemple, un organisme spécialisé appelé NICE (National Institute for Health and Care Excellence) calcule le rapport efficacité/coût des nouveaux traitements proposés et n’accepte de les prendre en charge que si le coût d’une survie

97

AU COMMENCEMENT ÉTAIT LE VERBE

supplémentaire d’une année3 est inférieur à environ 40 000 euros... Cette comptabilité peut choquer, mais on ne peut éviter de poser le problème de la répartition de ressources publiques forcément limitées face à des interventions très coûteuses et n’offrant parfois que la perspective de quelques semaines de survie supplémentaires. Enfin, bien entendu, de nouvelles questions éthiques vont apparaître, notamment au niveau de la confidentialité, de la possibilité de résultats non anticipés et de leur éventuelle transmission, comme déjà mentionné. Dans ce contexte, la confidentialité est une question particulièrement épineuse dans la mesure où l’on souhaite alimenter le plus possible les bases de données reliant les informations moléculaires obtenues sur les patients ou leur tumeur d’une part, les paramètres cliniques et l’évolution de la maladie d’autre part, tout en préservant l’intimité génétique des malades. L’avènement réel de la médecine personnalisée suppose donc une importante évolution des pratiques médicales à tous les niveaux [66].

Références et lectures conseillées 62. Un rapport très complet et à jour sur l’état et les perspectives de la médecine personnalisée a été établi par l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) : Claeys A, Vialatte JS. Les progrès de la génétique, vers une médecine de précision ? Paris : Assemblée nationale, 2014. Il est disponible en téléchargement gratuit sur le site de l’OPECST à : http://www.senat.fr/notice-rapport/2013/r13-306-notice.html 63. http://molecular.roche.com/assays/Pages/AmpliChipCYP450Test.aspx 64. Vogelstein B, Papadopoulos N, Velculescu VE, Zhou S, Diaz LA Jr, Kinzler KW. Cancer genome landscapes. Science. 2013 ; 339 : 1546-58. Une revue complète sur les avancées récentes dans le domaine des gènes du cancer. 65. Communiqué de presse de l’INCa sur l’essai SAFIR 01 : http://www.e-cancer.fr/presse/7141 66. Ginsburg G. Medical genomics : gather and use genetic data in health care. Nature 2014 ; 508 : 443-3. Courte mais excellente mise au point sur ce qui est nécessaire pour faire une réalité de la médecine personnalisée.

3. Le calcul tient compte de l’intensité des effets secondaires – NICE calcule en fait le coût d’une Quality Adjusted Life Year (QUALY) intégrant ce paramètre.

98

ACTEUR OU TÉMOIN ?

14 ACTEUR OU TÉMOIN ?

La trajectoire personnelle, l’histoire parcellaire de presque un demi-siècle de biologie que j’ai tracée dans ces pages a montré – du moins je l’espère – l’ampleur de la révolution effectuée durant cette période finalement assez courte au regard de l’histoire des sciences. Ce bouleversement n’a pas d’équivalent dans les autres secteurs de la connaissance : la physique, malgré la mise en évidence tant attendue et tant médiatisée du boson de Higgs, n’a pas fondamentalement changé de nature depuis les années 1960 : accélérateurs de particules plus puissants, appareillages plus précis, expériences et équipes de plus grande ampleur (il est maintenant courant qu’un article comporte plus de cent signataires, parfois jusqu’à un millier)... mais elle n’a pas changé de nature. On peut en dire autant des autres domaines de la recherche, de la chimie aux mathématiques en passant par l’astrophysique. Les seuls secteurs où les choses aient autant changé qu’en biologie sont de nature sociétale. Les exemples qui viennent immédiatement à l’esprit sont Internet et la société de communication : en 1960, le téléphone portable n’existait pas, et les seuls ordinateurs étaient d’énormes machines réservées à quelques centres de pointe. Autre grand changement, la mondialisation : dans les années 1960, presque tout ce que l’on consommait en France était produit ou transformé sur place. Parmi les sciences, seules celles du vivant ont connu une révolution comparable : le choix fait au printemps 1965 de quitter la physique pour la biologie était le bon et je m’en félicite encore. Bien d’autres choses ont changé durant ces cinquante ans, et pas toujours dans le bon sens. Je suis notamment frappé par le divorce entre science et société qui est maintenant patent et paraît, dans certains domaines, irréversible. Certes, l’image des chercheurs reste – du moins dans notre pays – assez positive, mais il semble que leur opinion compte bien peu, ou alors que l’on écoute de préférence des personnages marginaux. Les exemples sont nombreux : l’astrologie bien sûr, sans aucun fondement scientifique mais présente dans toutes les revues et intervenant parfois dans les décisions d’hommes politiques ou de capitaines d’industrie, ou l’homéopathie qui, malgré le fiasco de la « mémoire de l’eau », garde pignon sur rue, et dont les produits (de l’eau pure avec un peu de sucre) sont remboursés par la Sécurité Sociale tout en étant dispensés de faire la preuve de leur efficacité. Je citerai encore les OGM, majoritairement rejetés en France et en Europe continentale sous prétexte de leur prétendue nocivité, alors qu’aucune étude sérieuse ne démontre une différence à ce niveau avec les produits dits « naturels », et même le nucléaire pour lequel le risque lié à l’irradiation est incroyablement surestimé : sait-on qu’aucun défaut génétique n’a pu être mis en évidence dans la descendance des survivants d’Hiroshima et Nagasaki [67, 68] ? Pourtant, près de 80 % des français considèrent que vivre à côté d’une centrale nucléaire (où les radiations émises sont incomparablement plus faibles, moins d’un millième de la dose reçue par ces survivants) favorise l’apparition de cancers [69] – et, dans les caricatures, centrales nucléaires et enfants à deux têtes sont systématiquement associés. Il y a bien sûr des raisons à ces attitudes « irrationnelles » : les limites de la médecine allopathique, avec ses consultations déshumanisées et son empilement de médicaments non dépourvus d’effets secondaires, face à l’approche globale et apparemment

99

AU COMMENCEMENT ÉTAIT LE VERBE

douce de l’homéopathie, le tout joint à l’efficacité de l’effet placebo. Le refus de l’agrobusiness et d’une nourriture industrialisée, la nostalgie du naturel et du terroir, le refus de la disparition du paysan traditionnel, pour l’opposition aux OGM ; et, pour le nucléaire, les problèmes bien réels du devenir des déchets, de la déconstruction des centrales, et la démonstration, avec Fukushima, que même une nation aussi techniquement performante que le Japon peut s’avérer incapable de gérer correctement un accident de grande ampleur. Sous-jacente à tout cela, une gestion souvent inepte de ces dossiers par les autorités, une communication opaque et hautaine dans laquelle les scientifiques ont eu leur part de responsabilité, et quelques cas (sang contaminé, amiante, hormone de croissance) où l’indifférence ou même les mensonges des responsables ont eu des conséquences très graves. Cela aboutit aujourd’hui à une situation désastreuse où il est impossible d’aborder certains débats de manière rationnelle, où les rayons des librairies croulent sous les ouvrages relevant des pseudo-sciences et du charlatanisme, et où même des revues se voulant scientifiques ou des chaînes de télévision à coloration intellectuelle (je pense à Arte) donnent à l’occasion dans un catastrophisme qui se trompe d’objet : les microparticules émises par nos chères voitures Diesel sont bien plus dangereuses que les ondes électromagnétiques ou les sels d’aluminium dans les déodorants – mais on en parle beaucoup moins. Le consensus scientifique existe sur beaucoup de ces thèmes (innocuité des OGM, risques modérés de l’irradiation, absence d’efficacité des « médicaments » homéopathiques...), mais il semble inaudible. Il faut dire que l’accès aux publications scientifiques est ardu et que leur compréhension est malaisée : même les journalistes scientifiques les utilisent peu, et se fient à des digests pas nécessairement fiables. De plus, quelques scandales récents ont montré des cas de véritable fraude scientifique, et aussi mis à jour des conflits d’intérêt susceptibles de mettre en cause l’objectivité des scientifiques concernés. Du coup, l’opinion publique ne sait plus à quel saint se vouer, et une publication isolée dans une revue qui (pour nous chercheurs) est de troisième ordre déclenche un ouragan médiatique et fait dire (à tort) que la communauté scientifique est divisée sur le sujet – surtout si cette publication va dans le sens de l’opinion (publique) dominante ou des thèses de groupes d’influence très actifs. Une étude montrant l’absence d’effet nocif d’un légume OGM comparé à son correspondant « naturel » ne vaudrait sûrement pas à son auteur les honneurs de la grande presse. Comme bien d’autres chercheurs (surtout à l’approche de la retraite), j’ai essayé de jouer mon rôle dans la diffusion de l’information scientifique – après tout, notre statut nous assigne aussi cette mission, qui est l’une des quatre tâches du chercheur selon le CNRS – mais, dans les commissions d’évaluation auxquelles j’ai participé, j’ai souvent entendu critiquer les chercheurs trop impliqués dans cette activité, et eu l’impression qu’elle jouait plutôt à leur détriment. J’ai constaté à quel point il est difficile de rectifier une sottise déjà diffusée, comme on l’a vu avec l’histoire du « gène de la criminalité » (voir Chapitre 7, « Les vingt glorieuses de la nouvelle génétique médicale »). J’ai vu aussi comment des entreprises courageuses, comme celle de l’Association Française pour l’Information Scientifique (AFIS) avec sa revue Science et pseudo-sciences [70] restaient marginales, touchant quelques milliers de lecteurs dont la plupart sont sans doute déjà convaincus. Ma contribution a pris la forme de livres destinés (en principe) au grand public, en commençant par un récit de mon « voyage autour du génome » et en continuant par des mises au point sur des sujets d’actualité (du clonage à la thérapie génique en passant par l’autisme ou la définition génétique des « races » humaines, pour me limiter aux plus récents). Activité que j’apprécie beaucoup, qui amène à se documenter à fond sur un sujet, à se colleter à l’angoisse de la page blanche (qui heureusement m’agresse rarement), et qui est aujourd’hui incroyablement facilitée par cet outil fabuleux qu’est Internet. Activité solitaire en majeure partie, ce qui n’était pas pour me déplaire après ces décennies de direction d’un laboratoire avec ses lourdes tâches administratives, l’incessante recherche de crédits, et la délicate gestion des égos dans un milieu où abon-

100

Bertrand JORDAN

dent les prima donna... Lorsqu’on écrit un livre, on est seul face à son écran d’ordinateur, seul responsable de la qualité de ce qui s’y inscrit et de la cohérence du résultat final, ce qui est finalement assez confortable. Je n’ai jamais eu de mal à trouver un éditeur, sans doute ai-je eu de la chance, j’en ai testé plusieurs et ai beaucoup appris à leur contact : la structuration d’un ouvrage, l’importance du titre, de la couverture, de la date de sortie du livre... Mais ces livres, qui les lit ? Quel impact ont-ils sur la vision, par ce « grand public » un peu mythique, des thèmes abordés ? Je suis toujours resté déçu par les chiffres de vente : mon meilleur livre, le plus ambitieux sur le plan de la forme et aussi le plus accessible au niveau du contenu [71], s’est vendu (édition de poche comprise) à moins de dix mille exemplaires, chiffre que dépassent de nombreux manuels de médecine alternative qui n’apportent aucune information fiable à leurs lecteurs. Et chaque fois que j’ai voulu repérer mes livres dans le rayon biologie/médecine d’une quelconque Fnac, je les ai (au mieux) trouvés noyés au sein d’un océan d’ouvrages relevant des pseudosciences. Sans doute certains d’entre eux étaient-ils trop ardus – mais il est des notions que l’on ne peut appréhender sans un certain effort. Je me demande parfois s’ils ne sont pas principalement lus par des collègues... En tous cas, c’est bien une activité ancillaire : pas question de vivre d’un travail qui rapporte quelques milliers d’euros pour un texte dont l’écriture – certes pas à temps plein – s’étale sur une année. J’aime écrire, et ai bien l’intention de continuer à le faire, mais j’ai de forts doutes sur l’efficacité de cette démarche pour réconcilier science et société. Les médias alors ? J’ai fait quelques expériences d’émissions télévisées – bien frustrantes dans l’ensemble. Il faut dire que je ne suis pas un debater, que je n’ai pas la répartie prompte ni l’opinion catégorique. J’ai plutôt tendance à réfléchir avant de répondre, erreur fatale dans le monde des « étranges lucarnes » où il faut se mettre en avant, placer son mot, répondre du tac au tac et si possible clouer le bec aux autres invités. Seules une ou deux émissions sur Arte, où l’on pouvait prendre le temps de s’expliquer, m’ont permis – je l’espère – de faire passer quelques messages. De toutes manières, la télé a ses « biologistes de service » (certains, comme Axel Kahn, sont d’ailleurs excellents) et tend à rester dans ce cercle restreint de stars parisiennes. La radio offre à des chercheurs comme moi un cadre nettement plus favorable. J’apprécie particulièrement les émissions de France Culture, qui consacrent régulièrement une heure entière (soit en fait 45 minutes compte tenu des diverses annonces qui s’interposent) à un livre nouvellement sorti. On s’y retrouve généralement seul avec un journaliste de connaissance qui a, au minimum, parcouru l’ouvrage et possède une assez large culture scientifique, et l’on peut réellement développer son sujet. Le bémol, bien sûr, c’est l’audience : combien de personnes écoutent ces émissions ? Quel impact ont-elles face à la masse de récits biaisés et simplistes qui circulent sur les ondes et dans les journaux ? Restent les conférences, modalité un peu vieillotte peut-être mais qui ne manque pas de charme. L’intérêt, c’est que là on est vraiment face au public, au vrai « grand public », que l’on appréhende ses réactions au cours de l’exposé et, bien sûr, lors de la traditionnelle séance de questions, parfois animée. La typologie de l’assistance varie : deux tiers de retraités, un tiers d’étudiants et peu d’adultes d’âge moyen pour bien des sessions organisées par des associations ; ou encore des classes entières, parfois en service commandé et dont il faut arriver à capter l’attention – j’apprécie particulièrement les premières S avec lesquelles j’ai eu de bonnes expériences. Les changements de domaine s’avèrent souvent fort intéressants : parler d’hérédité du comportement à un public de psychanalystes pour lesquels, a priori, généticien égale nazi (j’exagère à peine), ou faire un exposé sur « génétique et « races », lors de la fête de Lutte Ouvrière, à propos d’un livre pour lequel un auteur martiniquais m’a traité de « hyène raciste »... Expériences utiles et vrai débat, dont on peut mesurer en temps réel l’impact sur les participants – en nombre limité bien sûr : il m’est exceptionnellement arrivé de parler devant une salle d’un millier de personnes, mais le quota habituel est plutôt d’une cinquantaine, et je me souviens d’un colloque a priori fort prestigieux tenu au Centre Pompidou, où

101

AU COMMENCEMENT ÉTAIT LE VERBE

l’assistance se composait en tout et pour tout d’une dizaine de personnes, pour la plupart impliquées dans l’organisation. J’ai bien conscience que manquent à mon catalogue les modes de communication les plus actuels : je n’ai ni site internet, ni blog, je ne suis pas sur Facebook et n’utilise pas Twitter... Technophile autrefois, parmi les premiers à écrire directement à l’ordinateur (en 1990, sur un portable Toshiba doté d’un disque dur de vingt mégaoctets...) et à accéder à Internet, je suis aujourd’hui très méfiant face à tous ces gadgets qui nous observent et nous pistent pour le plus grand profit de multiples commerçants. Mais je devrais sans doute faire un effort pour contribuer aux quelques sites fiables qui fournissent des informations scientifiques de bonne qualité. En tous cas, me voici devenu témoin et transmetteur de la science, après avoir durant près de quarante ans contribué à sa construction. Évolution logique en fin de carrière, évolution dont la possibilité est un grand privilège par rapport à d’autres professions : de quoi sera faite la vie d’un PDG partant à la retraite à 65 ans, s’il n’a pas une passion susceptible de soutenir son énergie et de donner un sens à ses journées ? Nous autres chercheurs avons la chance de pouvoir poursuivre notre activité sous d’autres formes (consultance, écriture, interventions diverses) plus légères, moins directement créatives mais tout aussi passionnantes et également socialement utiles. J’ai bien conscience de ma chance, et espère que ce livre, témoin d’un parcours personnel à travers la révolution connue par la biologie en quelques décennies, aidera à comprendre l’évolution de cette science, à envisager de manière réaliste ses retombées prochaines, et à faire le tri parmi les promesses parfois inconsidérées dont elle a fait l’objet.

Références et lectures conseillées 67. Nakamura N, Suyama A, Noda A, Kodama Y. Radiation effects on human heredity. Annu Rev Genet 2013 ; 47 : 33-50. 68. Jordan B. Les leçons inattendues d’Hiroshima. Med Sci (Paris) 2014 ; 30 : 211-3. 69. Beck F, Gautier A. Baromètre cancer 2010. Paris : Institut national de prévention et d’éducation pour la santé (Inpes), 2010 : 55. Téléchargeable à : http://www.inpes.sante.fr/nouveautes-editoriales/2012/barometre-cancer-2010.asp 70. Voir le site de la revue « Science et pseudo-sciences », avec beaucoup de textes en accès libre :http://www.pseudo-sciences.org/ 71. Jordan B. Le chant d’amour des concombres de mer. Paris : Seuil, 2002 (Édition Poche-sciences en 2006). Mon livre le plus réussi, autour du thème de la nature marine et de l’évolution.

102

GLOSSAIRE

GLOSSAIRE

Les termes en gras au sein des définitions font eux-mêmes l’objet d’une entrée dans le glossaire. Acide aminé : petite molécule dont il existe dans la nature vingt variétés et dont l’assemblage constitue les protéines. Celles-ci sont formées d’une suite de plusieurs centaines ou milliers d’acides aminés disposés en chaîne linéaire ; cette chaîne se replie sur ellemême pour donner à la protéine une forme caractéristique qui est généralement indispensable à son activité. ADN : acide désoxyribonucléique, constituant majeur des chromosomes et support de l’hérédité. La formule des protéines nécessaires au fonctionnement de l’organisme est codée dans l’ADN par la suite des bases, entités chimiques présentes sous quatre formes différentes (T, A, G ou C). Chaque formule constitue un gène qui, pour sa mise en œuvre, est recopié sous forme d’une copie de travail, un ARN messager, lequel est ensuite lu dans le cytoplasme de la cellule par un organite spécialisé, un ribosome, afin de fabriquer la protéine correspondante. Allèle : l’une des formes sous lesquelles peut exister un gène (ou, plus généralement, une région de l’ADN) au sein de la population. Chaque allèle diffère des autres par au moins une base dans sa séquence. Amniocentèse : prélèvement (à travers la paroi de l’utérus) d’un peu de liquide amniotique chez la femme enceinte. Ce liquide contient quelques cellules fœtales, que l’on peut alors analyser pour effectuer un diagnostic prénatal. Cette intervention comporte un risque d’avortement provoqué d’environ 1 %. ARN : acide ribonucléique, entité chimique très proche de l’ADN (dans ce cas les bases sont U [Uracile, qui correspond à la Thymine T dans l’ADN], A, G et C). L’ARN existe dans la cellule sous forme d’ARN messager, copie de travail des gènes, d’ARN de transfert et aussi sous la forme d’ARN structuraux présents dans le ribosome. Une catégorie supplémentaire, découverte récemment, est celle des « micro-ARN » dont certains sont impliqués dans la régulation des gènes. ARN messager : copie de travail d’un gène, reproduisant sa séquence et destiné à être « lu » par les ribosomes pour fabriquer la protéine correspondante. ARN de transfert : petit ARN jouant le rôle d’adaptateur et apportant un acide aminé au ribosome en fonction du codon présent sur l’ARN messager en cours de lecture Autosome : terme général désignant les chromosomes à l’exception des chromosomes sexuels X et Y. Les autosomes sont présents à deux exemplaires dans toutes les cellules de l’organisme sauf dans les cellules sexuelles. Bactériophage : virus pouvant infecter les bactéries et s’y multiplier. Leur étude a joué un rôle important dans les premières années de la biologie moléculaire.

103

AU COMMENCEMENT ÉTAIT LE VERBE

Bases : les entités chimiques présentes le long de la molécule d’ADN. Quatre variétés : Thymine, Adénine, Guanine et Cytosine. C’est l’ordre de leur succession, la séquence, qui renferme l’information génétique. Carte génétique : une forme de balisage du génome qui a été largement utilisée pour rechercher les gènes impliqués dans les maladies héréditaires. Elle repose sur l’analyse de la manière dont sont transmis des marqueurs polymorphiques (comme les snip) au sein de familles. Carte physique : balisage du génome fondé sur la position de séquences le long de l’ADN. Caryotype : examen au microscope des chromosomes d’une personne (ou d’un fœtus) afin de détecter d’éventuelles anomalies. Cellule germinale (ou cellule sexuelle) : les ovules et spermatozoïdes, qui contiennent un seul jeu de chromosomes au lieu de deux comme toutes les autres cellules. Chromosome : forme sous laquelle l’ADN est organisé dans le noyau des cellules. Un chromosome est formé d’une très longue molécule d’ADN à laquelle sont associées de nombreuses protéines. L’ensemble est très compact et sa structure détermine en grande partie quels gènes sont actifs (« exprimés ») dans une cellule donnée. Code génétique : correspondance entre le langage de l’ADN (quatre « lettres » différentes, les quatre bases T A, G, C) et celui des protéines (vingt acides aminés différents). Enjeu majeur de la recherche au début des années 1960. Délétion : perte d’une région d’un chromosome, pouvant contenir un ou plusieurs gènes. Dominant : se dit d’un allèle qui exerce son effet même si l’allèle présent sur l’autre chromosome est différent. DPN : diagnostic prénatal. DPI : diagnostic préimplantatoire, pratiqué sur une seule cellule d’un embryon obtenu par fécondation in vitro (ce qui n’altère pas sa viabilité), ce qui permet ensuite d’implanter chez la future mère un embryon non touché par l’affection recherchée. Enzymes de restriction : enzymes (présentes dans différentes souches bactériennes) capable de reconnaître une séquence spécifique dans un ADN et de le couper à cet endroit. Jouent un rôle essentiel dans les techniques du Génie génétique. Exome : ensemble des séquences exprimées en protéines. Représente moins de 2 % de l’ADN humain. Expression : ensemble des mécanismes qui « expriment » la formule d’une protéine inscrite dans l’ADN pour aboutir à la synthèse de cette protéine. Fingerprint : littéralement, empreinte digitale. Technique d’analyse de l’ARN mise au point par Frederick Sanger et permettant de déterminer la séquence, l’enchaînement des bases, d’un ARN. Génie génétique : ensemble de techniques dont la mise au point date des années 1960 et 1970, et qui permettent la manipulation de l’ADN : coupure en des points précis grâce aux enzymes de restriction, association de fragments de diverses origines, réintroduction de ces ADN manipulés dans des bactéries, des cellules ou des organismes.

104

Bertrand JORDAN

Génétique inverse : démarche scientifique inventée dans les années 1980 et permettant d’identifier le gène impliqué dans une maladie par une démarche partant des familles pour arriver au gène puis ensuite seulement à la protéine correspondante, à l’inverse de la démarche classique qui partait de la protéine. Appelée plus tard « Clonage positionnel ». Génome : l’ensemble des gènes appartenant à un organisme ou l’ensemble de son ADN (qui porte ces gènes). Génotype : ensemble des caractéristiques génétiques d’une personne ou, autrement dit, ensemble des gènes portés par son ADN. En combinaison avec l’environnement, l’histoire personnelle, les influences diverses, le génotype détermine le phénotype (l’apparence, la taille, le métabolisme, le comportement...) de la personne. Germinal : concerne les cellules reproductrices (le germen) par opposition à toutes les autres dont l’ensemble constitue le soma. Gigabase : voir Kilobase. GWAS : Genome-Wide Association Study, approche utilisée à partir de 2005 pour « pister » les gènes impliqués dans une maladie génétique complexe en étudiant de très nombreux snip chez de très nombreux malades et témoins grâce aux puces à ADN. Haplotype : ensemble de marqueurs polymorphiques caractérisant un segment d’ADN. Hétérozygote : qualifie une personne qui, pour le gène ou le marqueur envisagé, porte une version (un allèle) donnée de ce gène sur un de ses chromosomes et une version différente sur l’autre chromosome homologue. Héritabilité : évaluation de la contribution génétique à une caractéristique ou à une affection. L’héritabilité est la fraction de la variation observée dans une population qui peut être attribuée au patrimoine génétique des individus. Histocompatibilité : propriété pour l’organisme d’accepter certaines greffes d’organes ou de tissus et d’en rejeter d’autres, en fonction de la structure exacte de certaines protéines, les antigènes d’histocompatibilité, présentes à la surface des cellules. HLA : Human Lymphocyte Antigen, nom générique pour l’ensemble des antigènes d’histocompatibilité humains. Immunologie : domaine de recherche qui s’intéresse aux mécanismes de défense de l’organisme contre les infections bactériennes et virales, à sa réponse immunitaire. Intron : séquence d’ADN non codant à l’intérieur d’un gène. La quasi-totalité des gènes humains comporte un ou plusieurs introns qui interrompent sa séquence codante, répartie en plusieurs exons. Les introns sont éliminés lors de la fabrication de l’ARN messager à partir duquel seront synthétisées les protéines. Kilobase : mille bases (ou nucléotides), terme employé pour indiquer la longueur d’un segment d’ADN ou d’une séquence (on parle parfois de « paires de bases » s’il s’agit d’ADN double brin, en double hélice). Une mégabase correspond à un million de bases (mille kilobases), une gigabase à un milliard de bases. L’ADN constituant un jeu de chromosomes humains représente un peu plus de trois gigabases. Lymphocyte : cellule sanguine spécialisée dans la défense de l’organisme contre les infections de toute sorte. Il en existe deux grandes catégories, les lymphocytes T (plutôt

105

AU COMMENCEMENT ÉTAIT LE VERBE

impliqués dans la défense cellulaire) et les lymphocytes B (plutôt impliqués dans la synthèse des anticorps). Chacune catégorie comporte de nombreux sous-types. Synonyme dans le langage courant : globules blancs. Lysat : résultat du traitement d’un échantillon biologique (tissu, bactéries...) qui fait éclater les cellules (« lyse ») pour obtenir une solution contenant les différents constituants cellulaires. C’est la première étape de la quasi-totalité des analyses biologiques effectuées. Marqueur polymorphique : zone de l’ADN existant sous différentes formes chez différentes personnes (changement d’une base, par exemple) et utilisée dans les études génétiques. Macroarray : réseau d’ADN dont les dimensions sont de l’ordre de la dizaine de cm. Détrôné aujourd’hui par les puces à ADN ou microarrays. Mégabase : voir Kilobase. Mendélienne (maladie) : voir Monogénique. Microarray (ou puce à ADN) : ensemble de milliers de segments d’ADN régulièrement disposés sur une petite surface (de l’ordre du cm2) et permettant d’établir des profils d’expression ou d’étudier des marqueurs polymorphiques. Monogénique (ou Mendélienne) : qualificatif d’une maladie héréditaire causée par une version défectueuse d’un gène bien précis, toujours le même. Voir multigénique. Multigénique : caractère ou maladie dont le déterminisme génétique est porté par plusieurs gènes, parfois très nombreux (des centaines). Son étude est délicate car l’effet de chacun des gènes est faible et donc difficile à mettre en évidence. Mutation : changement d’une base dans l’ADN, qui peut ou non avoir des conséquences physiologiques. NGS : New Generation Sequencing, désignation globale des nouvelles techniques de séquençage ultra-rapides apparues à partir de 2005. Nucléotide : on appelle nucléotide l’ensemble que constitue la base attachée à l’élément chimique, un sucre, qui forme la chaîne externe de la double hélice. Pour notre propos « base » et « nucléotide » sont généralement des termes interchangeables. OGM : voir Transgénique. Organite : terme général pour désigner une structure organisée présente à l’intérieur de la cellule et y jouant un rôle précis. Exemples : les mitochondries, les ribosomes. Phage : voir Bactériophage. Phénotype : voir Génotype. Plasmide : Molécule d’ADN circulaires, longue de quelques milliers de bases, portée par certaines bactéries en plus de leur propre ADN principal. Les plasmides contiennent souvent un gène de résistance aux antibiotiques et sont ainsi utiles à leur hôte. Polymorphisme, polymorphe : caractéristique d’un élément qui est variable au sein d’une population. La couleur des yeux ou des cheveux est un caractère polymorphe au sein de la population humaine.

106

Bertrand JORDAN

Puce à ADN : système d’analyse miniaturisé permettant de mesurer l’expression de milliers de gènes ou de définir des centaines de milliers de snip dans un ADN. Synonyme : microarray. Réarrangement (chomosomique) : anomalie consistant en un déplacement d’une région d’un chromosome qui se trouve rattaché à un chromosome différent. Souvent constaté dans les cellules cancéreuses. Récessif : se dit d’un allèle dont l’effet peut être annulé par un allèle différent du même gène situé sur l’autre chromosome. C’est l’opposé de dominant. Recombinaison in vitro : jonction au laboratoire de deux segments d’ADN pouvant provenir d’organismes différents. Opération de base du Génie génétique. Réplication : mécanisme par lequel les deux brins d’une double hélice d’ADN dirigent la synthèse du brin complémentaire, aboutissant à deux doubles hélices identiques à la molécule originale. Restriction : voir Enzyme de restriction. Ribosome : les ribosomes, sortes de machines-outils, sont présents en grand nombre dans le cytoplasme de la cellule ; ils synthétisent les protéines selon les instructions inscrites dans l’ADN, lesquelles leur sont fournies par des « copies de travail » de chaque gène en activité, les ARN messagers. RNAse : enzyme dégradant l’ARN (RNA en anglais). Séquence : en biologie moléculaire, ce mot désigne la suite des bases (T, A, G ou C) dans l’ADN ou la suite des acides aminés dans les protéines. La séquence d’une protéine détermine sa structure et sa fonction ; elle est inscrite dans l’ADN par la séquence des bases. Snip : Single Nucleotide Polymorphism (appelé aussi SNP), polymorphisme portant sur un seul nucléotide. Il s’agit de points dans l’ADN qui sont polymorphes dans la population, c’est-à-dire qu’à cet endroit se trouve par exemple une base G chez certains (un allèle), un A chez d’autres (l’autre allèle). En principe, un snip pourrait comporter quatre allèles, mais en fait ces marqueurs sont pratiquement toujours bialléliques pour des raisons statistiques (la probabilité que deux mutations se produisent exactement au même point dans l’ADN étant très faible). L’identité de la base variante n’est pas définie a priori (un snip portant sur un G peut avoir pour autre allèle A, T ou C – mais il n’y aura, pour un snip donné, qu’une seule de ces trois possibilités). Les techniques actuelles permettent d’étudier des milliers de snip chez des milliers de personnes, et c’est aujourd’hui le marqueur le plus utilisé dans les travaux à grande échelle. SNP : voir Snip. Somatique : concerne les cellules non reproductrices, le soma, par opposition au germen, les cellules reproductrices appelées cellules germinales. Thérapie génique : approche thérapeutique consistant à introduire, chez une personne affectée par une maladie génétique, la version fonctionnelle du gène en cause de manière à rétablir la fonction manquante. Cette méthode a suscité un grand engouement dans les années 1990, mais s’est révélée beaucoup plus difficile à mettre en œuvre qu’imaginé au départ. Elle reste aujourd’hui marginale malgré quelques indéniables succès.

107

AU COMMENCEMENT ÉTAIT LE VERBE

Thrombose : formation d’un caillot (thrombus) dans le réseau veineux, avec des conséquences souvent graves (phlébite, embolie pulmonaire, accident vasculaire cérébral...). Transgénique : organisme dont l’ADN a été modifié (généralement par adjonction d’un gène provenant d’une autre espèce) au niveau de la lignée germinale, donc en quelque sorte définitivement. Concerne surtout des végétaux, aussi appelés « organismes génétiquement modifiés » ou OGM.

108

INDEX DES ACRONYMES

INDEX DES ACRONYMES

AFM : Association Française contre les Myopathies, organisatrice du Téléthon annuel et intervenante importante dans la recherche médicale française. CERN : Centre Européen pour la Recherche Nucléaire, créé en 1952, le plus important centre de recherche mondial dans ce domaine. CIML : Centre d’Immunologie de Marseille-Luminy, institut mixte Inserm/CNRS créé en 1976 sur le campus de Luminy à Marseille, un des meilleurs laboratoires d’immunologie mondiaux. CNRS : Centre National de la Recherche Scientifique, acteur majeur intervenant dans tous les secteurs de la science en France. Son département de Biologie est d’une taille équivalente à l’Inserm. DGRST : Délégation Générale à la Recherche Scientifique et Technique, organisme interministériel qui, de 1960 à 1975, a joué un grand rôle dans le développement de la biologie moléculaire en France. DOE : Department Of Energy, équivalent aux États-Unis de notre Commissariat à l’Énergie Atomique (CEA) et ayant comme lui une activité notable en recherche biologique. FDA : Food and Drug Administration, l’organisme qui, aux États-Unis, doit approuver médicaments et dispositifs médicaux avant leur commercialisation. INCa : Institut National du Cancer, agence sanitaire et scientifique de l’État, qui développe l’expertise et finance des projets dans le domaine des cancers. Inserm : Institut National de la Santé et de la Recherche Médicale, principal organisme de recherche français spécialisé pour la biologie et la recherche médicale. MRT : à certaines époques, ministère de la Recherche et de la Technologie (souvent réduit à un secrétariat d’État rattaché au ministère de l’Éducation nationale). NIH : National Institutes of Health, équivalent Nord-Américain de l’Inserm. NICE : National Institute for Health and Care Excellence, organisme britannique chargé d’évaluer le rapport coût/efficacité des traitements et d’en recommander (ou non) la prise en charge financière.

109

Pré-presse : Corlet imprimeur Achevé d’imprimer par Corlet Numérique - 14110 Condé-sur-Noireau No d’Imprimeur : 115762 - Dépôt légal : avril 2015 - Imprimé en France