La chimie et la santé: Au service de l'homme 9782759809349

Non, tout n'oppose pas chimie et santé ! Si l'on ne devait écouter que l'opinion publique manipulée par l

197 34 7MB

French Pages 181 [174] Year 2010

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

La chimie et la santé: Au service de l'homme
 9782759809349

Citation preview

La chimie et la santé, au service de l’homme

Cet ouvrage est issu du colloque « Chimie et santé, au service de l’homme », qui s’est déroulé le 1er octobre 2008 à la Maison de la Chimie.

Collection dirigée par Paul Rigny

La chimie et la santé, au service de l’homme Jean-François Bach, Mireille Blanchard-Desce, Patrick Couvreur, Frédéric Dardel, Carine Giovannangeli, Jean-Pierre Maffrand, Daniel Mansuy, Bernard Meunier, Marc Port Coordonné par Minh-Thu Dinh-Audouin, Rose Agnès Jacquesy, Danièle Olivier et Paul rigny

Conception de la maquette intérieure et de la couverture : Pascal Ferrari Conception des graphiques : Pascal Ferrari et Minh-Thu Dinh-Audouin Mise en page : Arts Graphiques Drouais (28100 Dreux)

Imprimé en France

ISBN : 978-2-7598-0488-7

Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1 er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal.

© EDP Sciences 2010

EDP Sciences 17, avenue du Hoggar, P.A. de Courtabœuf, BP 112 91944 Les Ulis Cedex A, France

Ont contribué à la rédaction de cet ouvrage : Jean-François Bach Académie des Sciences Mireille Blanchard-Desce Laboratoire de chimie et photonique moléculaires, UMR CNRS 6510 Université de Rennes 1 Patrick Couvreur Laboratoire de physico-chimie, pharmacotechnie et biopharmacie, UMR CNRS 8612 Université Paris Sud Frédéric Dardel Laboratoire de cristallographie et RMN biologiques, UMR CNRS 8015 Université Paris Descartes, Paris Carine Giovannangeli Muséum National d’Histoire Naturelle, Laboratoire Régulations et dynamique des génomes, INSERM U565, UMR CNRS 7196 Paris

Jean-Pierre Maffrand Ancien Directeur de la Recherche Amont à Sanofi-Aventis Daniel Mansuy Laboratoire de chimie et biochimie pharmacologiques et toxicologiques, UMR CNRS 8601 Université Paris 5 Bernard Meunier PALUMED Marc Port Guerbet

Équipe éditoriale Minh-Thu Dinh-Audouin, Rose Agnès Jacquesy, Danièle Olivier et Paul Rigny

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Sommaire Avant-propos : par Paul Rigny .........................

9

Préface : par Bernard Bigot..............................

11

Introduction : Chimie et santé : risques et bienfaits par Jean-François Bach ...............................

13

Partie 1

Connaître le vivant Chapitre 1 : Chimie du et pour le vivant : objectif santé par Daniel Mansuy ........................................

25

Chapitre 2 : Cibler l’ADN : pour la compréhension du vivant par Carine Giovannangeli.............................

41

Partie 2

Soigner le vivant Chapitre 3 : La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments par Jean-Pierre Maffrand ............................

61

Chapitre 4 : De la conception du médicament à son développement : l’indispensable chimie d’après la conférence de Fernando Albericio 77 7

La chimie et la santé

Chapitre 5 : Chimie et biologie, un mariage particulièrement fécond d’après la conférence de Frédéric Dardel .....

91

Chapitre 6 : Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères par Patrick Couvreur .................................... 105 Chapitre 7 : Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ? par Bernard Meunier.................................... 125

Partie 3

L’imagerie pour les diagnostics du futur Chapitre 8 : Nouvelles techniques d’imagerie laser par Mireille Blanchard-Desce...................... 141 Chapitre 9 : Les agents de contraste dans l’imagerie par résonance magnétique, pour le diagnostic médical d’après la conférence de Marc Port ............. 153 Glossaire ........................................................... 169 Crédits photographiques ................................ 179

8

L’Actualité Chimique souhaite contribuer à faire connaître à un large public l’impact qu’ont, par leurs résultats, les sciences chimiques pour améliorer la qualité de leur vie quotidienne. Avec le même objectif, la Fondation de la Maison de la Chimie souhaite diffuser largement le contenu de la série de colloques intitulés « Chimie et… » qui, sur des thèmes transdisciplinaires, réunissent quelquesuns des meilleurs spécialistes du domaine choisi pour débattre des apports et des limites souvent mal connus des applications des sciences de la chimie dans la vie de chacun, ou plus globalement, dans le fonctionnement de nos sociétés. La rencontre entre ces deux initiatives donne naissance à une collection d’ouvrages « La chimie et… » qui veut pérenniser et populariser les enseignements des colloques. Après le premier volume, « La chimie et la mer, ensemble au service de l’homme », paru en août 2009 aux éditions EDP Sciences, c’est aujourd’hui « La chimie et la santé, au service de l’homme » que vous présente la collection L’Actualité Chimique – Livres.

Ces ouvrages apportent, par la participation de conférenciers de haut niveau (académiciens par exemple) qui font l’effort de mettre à la portée des curieux l’évolution de la connaissance la plus récente et la plus pertinente, une analyse critique accessible à des lecteurs familiers des revues de vulgarisation scientifique. S’ils ne sont pas, stricto sensu, les comptes-rendus des colloques de la Fondation, ces ouvrages en présentent néanmoins fidèlement les contenus. Un soigneux travail de rédaction, mené en concertation avec les conférenciers en reprend les messages. Des éléments pédagogiques permettant l’accès du plus grand nombre et harmonisant les niveaux de formation nécessaires pour aborder les différents chapitres sont souvent ajoutés. Ce travail a été fait par une équipe éditoriale constituée de représentants de la Fondation, de L’Actualité Chimique ainsi que de la Fédération Française des Sciences pour la Chimie, qui a travaillé en étroite collaboration avec les conférenciers. « La chimie et la santé, au service de l’homme » se

Paul Rigny Rédacteur en chef L’actualité Chimique

Avantpropos

La chimie et la santé 10

saisit de l’une des préoccupations majeures de nos concitoyens. Ils demandent que la société mette le bon état de leur santé au premier plan de ses priorités, ils savent que des progrès considérables ont été réalisés grâce à la science, ils en attendent toujours plus. Mais saventils que « la science » en l’occurrence, c’est souvent de la chimie ? Il faut leur faire réaliser tout ce que le progrès du médicament, celui des diagnostics qui permettent d’orienter les traitements de façon efficace et précoce, et même au-delà, tous les progrès de la connaissance du vivant au niveau moléculaire, que tous ces progrès ne

seraient pas sans la chimie. Cette démarche d’information n’est pas une démarche publicitaire. Dans cet ouvrage, ce sont les meilleurs scientifiques de la recherche publique et de la recherche industrielle qui viennent exposer leurs travaux de laboratoire. La place de la chimie transparaît naturellement de leurs exposés ; son importance ressort comme une évidence – dont les lecteurs se trouveront enrichis. Paul Rigny Rédacteur en chef L’Actualité Chimique Directeur de la collection L’Actualité Chimique - Livres

Le lien étroit entre chimie et santé n’étant pas suffisamment connu du grand public, des médias, comme de nombreux scientifiques non spécialistes de ces deux domaines, nous avons souhaité rassembler des chercheurs chimistes et biologistes, et des responsables industriels pour faire le point sur la contribution des concepts, méthodes et applications des sciences de la chimie dans le domaine de la santé, et débattre de leur apport actuel ou futur dans la compréhension des mécanismes du vivant, et dans le diagnostic et le traitement des maladies. On parle en général beaucoup plus des risques de la chimie pour la santé que de ses bienfaits, alors que force est de constater que la compréhension des maladies et la recherche thérapeutique s’appuient de plus en plus sur la biologie chimique, et que les prouesses de la chimie ont conduit à la conception de médicaments d’une efficacité exceptionnelle. Néanmoins, un livre sur la chimie et la santé se devait de faire, de façon rigoureuse et scientifique que, le point sur deux questions de fond :

quel est l’impact réel des substances produites par les chimistes sur la santé ? Comment appréhender ces risques dans une société inquiète, et somme toute assez critique ? Ce sont les deux thèmes traités dans l’introduction de cet ouvrage. Le premier chapitre montre comment, depuis une vingtaine d’années, la chimie a joué un rôle moteur dans la compréhension de la biologie du vivant (chimie du vivant) et que c’est grâce à la compréhension des mécanismes chimiques qui régissent notre organisme qu’il est possible d’intervenir sur certains de ses fonctionnements et de contribuer à la santé des hommes. L’apport indispensable des outils de la chimie à la compréhension des mécanismes cellulaires est illustré par le ciblage de l’ADN. Les chimistes savent maintenant concevoir et synthétiser des molécules non seulement capables de se reconnaître mais aussi de modifier une séquence choisie de l’ADN. La richesse des applications, y compris potentielles, en thérapie génique est démontrée par des exemples.

Bernard Bigot Président de la Fondation de la Maison de la Chimie

Préface

La chimie et la santé

Le chapitre consacré à la chimie thérapeutique étudie comment cette connaissance du vivant insufflée par la révolution génomique a su utiliser des méthodes de recherche de plus en plus élaborées permettant de passer au crible des millions de petites molécules pour cerner les fonctions physiologiques de nos protéines. Cette approche a permis de trouver de nouvelles molécules agissant spécifiquement sur la protéine, et même sur le gène qui code pour cette protéine, afin de neutraliser son action à l’origine de la maladie étudiée. L’intérêt d’une organisation en pôles scientifiques rassemblant sur un même lieu géographique chimistes, biologistes, physiciens, cliniciens et industriels de la santé est présenté dans le chapitre suivant en termes d’efficacités scientifique et économique. La découverte de nouveaux médicaments a nécessité et nécessite de plus en plus un dialogue constant entre les biologistes et les chimistes dans lequel la modélisation et la biologie structurale ont joué un rôle considérable, conduisant les chimistes à concevoir un véritable « lego » moléculaire. Les exemples traités dans le chapitre sur les nanomédicaments illustrent les progrès spectaculaires que permet de réaliser le couplage de la compréhension des mécanismes cellulaires avec une

12

véritable ingénierie moléculaire, afin d’améliorer le traitement de maladies sévères (traitement anticancéreux, thérapie génique). Cependant, pour des raisons sociologiques et par conséquent économiques, le contexte actuel devient de plus en plus difficile pour la création de nouveaux médicaments. Des exemples de molécules hybrides pouvant agir sur deux cibles à la fois sont présentés comme une voie intéressante pour les maladies qui sont traitées par des polytraitements ou pour celles qui conduisent à l’apparition de résistances au sein de l’organisme. Le chimiste « moléculariste » a aussi très largement contribué au développement important de l’imagerie dans les sciences du vivant comme le montrent les exemples donnés dans le chapitre sur la microscopie multiphotonique et celui sur l’imagerie médicale. Le domaine des applications des agents de contraste s’élargit considérablement. Outils de diagnostic indispensables pour le suivi des pathologies et des traitements, ils évoluent vers l’imagerie moléculaire qui permettra de visualiser de façon non invasive un certain nombre de processus à l’échelle cellulaire ou moléculaire.

Bernard Bigot Président de la Fondation de la Maison de la Chimie

et

risques et bienfaits

On sous-estime trop souvent l’importance du rôle joué par la chimie dans l’amélioration de notre environnement sanitaire quotidien. Ainsi, dans le domaine de l’hygiène, elle permet le développement de méthodes analytiques élaborées et de l’antisepsie. La compréhension des maladies et une grande partie de la recherche thérapeutique se fondent de plus en plus sur la biochimie, qui elle-même s’appuie sur la chimie. Ce sont les prouesses de la chimie qui ont conduit à la production de médicaments d’une efficacité exceptionnelle (Figure 1). Ces bienfaits sont indéniables, comme en témoignent les exemples décrits dans cet ouvrage. Néanmoins, deux questions de fond se posent : les substances produites par les chimistes sont-elles à l’origine de risques pour la santé ? Et comment appréhender ces risques dans une société inquiète, et somme toute assez critique ? Deux thèmes permettront d’illustrer le problème des effets nocifs potentiels imputés aux substances chimiques : le cancer et l’asthme (et plus

généralement les maladies dysimmunitaires).

1

Jean-François Bach Chimie et santé : risques et bienfaits

Chimie santé :

Le cancer et ses facteurs de risque

De nombreuses études fondées sur la méthodologie des méta-analyses ont permis de quantifier l’importance de plusieurs facteurs de risque à l’origine des cancers, en précisant quelles sont les populations exposées aux cancers, ainsi que le taux de cancers dans ces populations. Ces méta-analyses, bien que présentant certaines limites, notamment lorsqu’il s’agit de faibles voire de très faibles doses, constituent un outil puissant. Les marges d’erreur étant prises en compte, les différentes études convergent vers des résultats analogues [1, 2]. Il existe une dizaine de facteurs de risque majeurs

Figure 1 La recherche thérapeutique, fondée sur la biochimie, elle-même fondée sur la chimie, a permis la découverte des médicaments efficaces que nous connaissons.

La chimie et la santé

de développer un cancer : le tabac (à l’origine d’environ 18 % des cancers), l’alcool (8 %), les agents infectieux (3 %) et l’obésité (2 %) représentent les facteurs de risque les plus importants (Tableau 1 et Figure 2). Figure 2 Tabac et alcool font partie des principaux facteurs de risques pour développer un cancer.

Figure 3 L’amiante est un matériau d’origine naturelle, cause de maladies professionnelles.

14

Viennent ensuite les maladies professionnelles dont uniquement certaines, bien répertoriées, ont pour origine une exposition prolongée à des produits chimiques : certains produits toxiques, auxquels sont exposées des personnes travaillant dans des environnements professionnels particuliers, présentent des risques de cancer importants, comme l’illustre tragiquement le cas de l’amiante (Figure 3). Toutefois, si personne ne met en doute l’effet cancérigène de l’amiante aux fortes doses auxquelles étaient exposés certains ouvriers du bâtiment – attesté par le nombre et la spécificité des cancers de la plèvre observés chez ces ouvriers –, la question est beaucoup plus délicate en ce qui concerne l’exposition aux faibles concentrations constatées chez les personnes vivant ou travaillant dans des locaux

contenant de l’amiante. Les études toxicologiques et épidémiologiques, même lorsqu’elles s’appuient sur une modélisation mathématique, ne permettent pas de trancher clairement. Se pose alors la question de la relation entre la dose des produits toxiques et l’effet clinique, soulevant le problème du principe de précaution et de son application, qui sera discuté dans la dernière partie de ce chapitre. La pollution elle-même, largement mise en accusation, est un terme général qui recouvre des réalités et correspond à des substances très diverses. Les deux études précitées s’accordent pour considérer que, dans l’état actuel de nos connaissances, le risque avéré de cancer lié aux polluants ne dépasse pas 1 à 2 % (Tableau 1). En fait, les causes des maladies sont le plus souvent multifactorielles. Dans le cas des cancers, outre les facteurs de risque évoqués précédemment (tabac, alcool, obésité…), responsables de près de 35 à 40 % des cas de cancers, l’hérédité et, plus généralement, les facteurs génétiques jouent un rôle majeur, avec l’implication habituelle de plusieurs gènes de prédisposition. Dans le cas du cancer du sein, il existe des facteurs génétiques donnant lieu à une expression forte, car monogéniques, qui prédisposent au cancer du sein ; mais ce sont des cas relativement rares (moins de 5 % des cas). Certains gènes de prédisposition font partie d’un ensemble complexe de gènes et leur expression apparaît moins clairement. C’est le

Facteurs de risques

Nombre

% de tous les cancers

Tabac

50 562

18,2

Alcool

22 705

8,2

Agents infectieux

9 077

3,3

Obésité et surpoids

6 219

2,2

Inactivité physique

5 838

2,1

Rayons UV

5 614

2,0

5 159

1,9

Thérapie hormonale Contraceptifs oraux Risques professionnels

3 209

1,2

Facteurs génétiques

2 038

0,7

Polluants

1 416

0,5

cas d’un gène de prédisposition au cancer du poumon, qui s’avère être un récepteur de la nicotine, ce qui est bien la marque d’une corrélation positive entre cancer du poumon et environnement tabagique [3]. Cette prédisposition génétique pourrait rendre compte, tout au plus, de 10 % des cas de cancers. Ce qui laisse plus de 50 % des cancers sans causes décelables ou bien identifiées ! Il existe probablement d’autres facteurs de risque liés à l’environnement, conçu au sens large (comportement de l’individu et exposition à l’environnement physique, chimique et infectieux), un problème vaste et complexe qui n’est pas réductible à la pollution. Il faut aussi noter la survenue possible de modifications épigénétiques qui semblent souvent liées à l’environnement (de façon encore mal déterminée), et qui peuvent modifier l’expression de certains gènes, à l’origine éventuelle de certains cancers.

Chimie et santé : risques et bienfaits

Tableau 1 – Nombre des cas de cancers et proportions attribuées à différents facteurs en France en 2000 [1]. Le total des pourcentages de cancers imputables à un facteur de risque identifié atteint 40 %. Il reste donc 60 % des cancers pour lesquels aucun facteur de risque environnemental n’est imputable.

Un autre facteur est le hasard : des mutations peuvent survenir par hasard et donner lieu à l’émergence de cancers. Il paraît alors légitime de se demander quel est le rôle respectif de l’environnement et du hasard dans la survenue des marques épigénétiques. Le problème est complexe. Les produits chimiques ont un rôle certain – illustré par l’exemple des maladies professionnelles – mais de nombreuses questions subsistent qui méritent des études et des réflexions approfondies, plutôt que des affirmations péremptoires et catastrophistes.

L’asthme/les allergies et leurs facteurs de risque

2

2.1. Épidémiologie Dans les pays industrialisés, l’augmentation de la fréquence des maladies dysimmunitaires comme l’asthme et, de façon plus générale, des allergies et des maladies auto-immunes, est incontestable et très

15

La chimie et la santé

LES MALADIES DU SYSTÈME IMMUNITAIRE Le système immunitaire a pour rôle de défendre notre organisme contre les corps étrangers comme les virus, les bactéries, les parasites, les cellules cancéreuses, ou même les greffes. Certaines anomalies qui surviennent dans son fonctionnement sont à l’origine de maladies dites dysimmunitaires. Elles regroupent les maladies allergiques (rhinite, asthme, conjonctivite allergique, eczéma) et les maladies auto-immunes (l’organisme produit des anticorps ou des cellules T attaquant ses propres tissus).

préoccupante. L’âge auquel apparaissent ces pathologies est de plus en plus précoce ; même des nourrissons sont désormais atteints de diabète insulinodépendant. Les maladies allergiques de l’enfant (Figure 4) se rencontrent de plus en plus tôt et de plus en plus fréquemment, souvent dans les familles où sont diagnostiqués des cas de maladies allergiques (Encart « Les maladies du système immunitaire »).

Figure 4

16

Les allergies sont en augmentation spectaculaire dans les pays industrialisés.

Quel rôle joue la pollution par les substances chimiques dans le déclenchement de ces maladies et notamment de l’asthme ? L’idée reçue sur cette question est que l’augmentation de la pollution est à l’origine de l’accroissement de la fréquence de l’asthme. Il est bien exact que, pour un sujet souffrant d’insuffisance respiratoire, la maladie est généralement aggravée les jours de pic de pollution : augmentation du nombre d’hospitalisations pour troubles respiratoires, accroissement faible mais significatif de la mortalité. Mais mettre en évidence un facteur aggravant n’équivaut pas à trouver la raison véritable de l’augmentation de la fréquence d’une maladie !

En particulier, l’élévation actuellement observée de la fréquence de l’asthme n’est pas corrélée à un accroissement de la pollution atmosphérique (qui n’a pas considérablement augmenté dans les villes au cours des vingt dernières années), même si les asthmatiques avérés peuvent présenter une aggravation transitoire de leurs symptômes au moment des pics de pollution. L’asthme résulte d’une allergie à diverses protéines inhalées, les allergènes, et c’est l’exposition à ces allergènes et non à des polluants chimiques qui est responsable des crises. Il faut donc trouver ailleurs, dans l’environnement, mais pas dans la pollution chimique, l’explication de l’augmentation spectaculaire de l’asthme observée dans les pays industrialisés. En élargissant le champ d’étude, un parallèle, a priori surprenant, peut être fait entre l’augmentation des maladies auto-immunes et allergiques, et la diminution des grandes maladies infectieuses (tétanos, paludisme, tuberculose, hépatites…) (Figure 5). Depuis vingt ou trente ans, la fréquence des maladies dysimmunitaires a considérablement augmenté. Pour les deux types de maladies (auto-immunes et allergiques), les fréquences ont évolué de façon parallèle. Pour les maladies infectieuses, la tendance est inverse. Les maladies infectieuses, qui rappelons-le sont provoquées par des bactéries, virus ou champignons, ainsi que les maladies parasitaires peuvent toucher n’importe quel orga-

Chimie et santé : risques et bienfaits nisme vivant, animal ou végétal. Elles sont plus ou moins contagieuses. Leur mode de transmission est variable. Pour aborder la relation possible entre la diminution de la fréquence des maladies infectieuses et l’augmentation des maladies dysimmunitaires, il est important d’examiner de près non seulement les fréquences mais aussi la distribution géographique de

ces maladies dans le monde (Figure 6). Pour les maladies auto-immunes comme le diabète, on observe un gradient nord-sud en Europe : la fréquence de ces maladies est beaucoup plus élevée en Europe du Nord qu’au sud. La cause de ce gradient peut certes être attribuée en partie à la génétique – un Scandinave est différent d’un Portugais, etc.

Figure 5 Évolution des maladies infectieuses (A) et des maladies dysimmunitaires (B) au cours de ces quarante dernières années [4].

Figure 6 Incidence du diabète insulinodépendant (IDDM) (A) et de la sclérose en plaques (B) en Europe par pays et pour 100 000 habitants [4].

17

La chimie et la santé Figure 7 Incidence du diabète insulinodépendant chez les enfants ayant émigré du Pakistan en Angleterre (Yorkshire). Lorsqu’une famille pakistanaise émigre du Pakistan – où la fréquence du diabète est faible – en Angleterre, dès la première génération, la fréquence du diabète chez les enfants pakistanais est équivalente à celle des Anglais. (Staines A. (1997) et Bodansky H. J. (1992).)

Figure 8 Fréquence des dermatites atopiques (eczéma du nourrisson) selon le niveau de revenu des familles [5].

Mais la génétique joue en fait un rôle mineur, et cela peut être prouvé si l’on étudie la migration des populations et le rôle de l’environnement local socio-économique sur l’apparition de certaines maladies auto-immunes. Par exemple, la fréquence du diabète insulinodépendant augmente brutalement dès la première génération chez les enfants d’immigrés pakistanais en Angleterre et est pratiquement identique à celle observée chez les enfants britanniques (Figure 7). Une même observation est faite sur les enfants chinois immigrés en Californie. Cette observation est vérifiée lorsqu’un enfant est âgé de moins de 7-8 ans au moment de la migration alors que plus âgé il garde une forme « d’imprégnation » de son environnement d’origine.

On peut alors se demander ce qui différencie les pays avec un environnement prédisposant à la maladie, de ceux où la maladie est rare. L’exemple de la maladie de Crohn est également significatif et prouve encore une fois que la distribution des maladies auto-immunes n’est pas uniforme à l’échelle mondiale et se concentre dans les pays au niveau sanitaire et socio-économique relativement élevé. Au sein même de l’Europe, il existe une corrélation hautement significative entre la fréquence de ces maladies et le produit national brut (PNB), qui se traduit de nouveau par un gradient nord-sud avec une différence significative entre les pays scandinaves et les pays méditerranéens ; de plus, on observe localement une corrélation avec le niveau de revenus de la famille : plus les familles sont aisées, plus les maladies dysimmunitaires sont fréquentes (asthme ou eczéma du nourrisson) (Figure 8). Comment ces facteurs environnementaux et socio-économiques interviennent-ils ? Les corrélations observées peuvent-elles être de véritables relations de cause à effet ?

2.2. Corrélation entre la diminution des maladies infectieuses et l’augmentation des maladies dysimmunitaires

18

Des observations précédentes est née l’hypothèse selon laquelle l’augmentation des maladies allergiques et autoimmunes n’est pas due à un

En étudiant la fréquence de ces maladies en fonction de l’âge où les enfants sont exposés à leurs camarades, c’est-à-dire en fonction de l’âge où les enfants sont envoyés à la crèche ou à l’école, il a été prouvé que les maladies allergiques étaient d’autant plus fréquentes que les enfants étaient gardés plus longtemps à la maison. Une autre étude a porté sur l’endotoxine détectée dans l’environnement. Elle montre que plus le taux d’endotoxine issue de bactéries est élevé, plus la fréquence de l’asthme est faible, alors que pour les manifestations respiratoires non asthmatiques, la corrélation est inverse. Assurément, l’un des facteurs qui prédispose à ces maladies allergiques et auto-immunes est donc la diminution de l’exposition aux agents infectieux, qu’il s’agisse de la diminution des grandes maladies infectieuses (tuberculose, hépatites…) ou des conditions générales d’hygiène comme l’amélioration sanitaire de la qualité de l’eau et de la nourriture (chaîne du froid). Il est important d’établir, à l’aide de modèles expérimentaux et d’essais thérapeutiques, une relation causale dans le lien existant entre la diminution des infections et l’augmentation des maladies dysimmunitaires. Nous avons mené une étude sur une souche de souris qui présente

spontanément un diabète proche du diabète humain, la souris « NOD ». La fréquence de la maladie atteint presque 100 % quand les souris sont élevées dans une animalerie aseptisée, alors qu’elle est moins fréquente, voire absente, dans une animalerie conventionnelle. Il suffit alors de décontaminer ces dernières souris (contaminées par divers pathogènes : bactéries, etc.) en donnant naissance à leurs souriceaux par césarienne et en les isolant de toute contamination pour atteindre à nouveau une fréquence d’apparition du diabète proche de 100 %. Inversement, il suffit d’infecter délibérément des souris « propres », et donc sujettes au diabète, par divers agents infectieux, virus, bactéries, parasites pour ne pas voir apparaître la maladie.

Chimie et santé : risques et bienfaits

accroissement de la pollution, mais à une diminution des infections auxquelles est exposée la population des pays développés. Des éléments supplémentaires viennent appuyer cette hypothèse.

2.3. Mécanismes de la protection des maladies auto-immunes et allergiques par les infections Afin d’expliquer le lien entre les infections et leur effet protecteur sur les maladies auto-immunes et allergiques, plusieurs mécanismes peuvent être envisagés. Tout d’abord, celui de la compétition antigénique. En Afrique, où il existe beaucoup d’infections (notamment le paludisme), le système immunitaire est fortement sollicité et quand on lui présente des antigènes faibles comme les allergènes, les réponses allergiques ne se développent pas ou très peu. Inversement, quand le système immunitaire est moins sollicité, on voit apparaître les maladies

19

La chimie et la santé Figure 9 Répartition des anticorps dirigés contre le virus de l’hépatite A en Europe par pays et pour 100 000 habitants.

20

allergiques avec une grande fréquence. Cette compétition fait intervenir des facteurs homéostatiques, qui permettent le maintien d’un taux constant de cellules lymphocytaires, notamment des « hormones immunitaires » comme certaines cytokines et chimiokines. Un autre type de mécanisme peut intervenir, appelé « bystander suppression ». Après infection par un agent pathogène, la réponse immunitaire anti-infectieuse est régulée par des phénomènes de suppression. Ces phénomènes touchent les réponses immunitaires développées contre d’autres antigènes, sans lien avec les agents infectieux comme les allergènes.

Il existe un troisième type de mécanisme dû à la présence de molécules (ligands) présentes dans les agents pathogènes qui viennent stimuler certains récepteurs (appelés TOLL) impliqués dans l’immunité anti-infectieuse. Leur stimulation chez les souris NOD les protège du diabète, et l’on peut imaginer que l’infection par divers microbes peut ainsi déprimer les réponses immunitaires. Si des analogues de ces ligands sont injectés à des souris non encore diabétiques, la maladie peut être prévenue. Revenant au gradient nordsud, la fréquence des anticorps antivirus de l’hépatite A est beaucoup plus grande dans les pays du sud que du nord de l’Europe, image en miroir du gradient de la fréquence des maladies auto-immunes mentionné plus haut. Il est intéressant de noter que des travaux récents ont montré que le récepteur du virus de l’hépatite A était exprimé par certaines cellules de l’immunité (dites Th2), ce qui pourrait expliquer comment l’hépatite A protège contre l’asthme (Figure 9). En conclusion, il est clair que la pollution n’est pas la cause principale de l’augmentation de la fréquence de l’asthme. Il faut prendre en compte des facteurs génétiques, environnementaux, socio-économiques, qui conditionnent la diminution des maladies infectieuses et en particulier l’amélioration de la qualité de l’eau et des autres conditions liées à l’hygiène.

Le principe de précaution

Pour revenir à la question du cancer, il est certain que la fréquence des cancers augmente en France et dans le monde en général (Tableau 2). La constatation de l’augmentation parallèle de nouveaux types de pollution a amené certaines personnes à une conclusion hâtive et non argumentée selon laquelle les cancers étaient principalement dus à la pollution. Mais la réalité est bien plus complexe que cela. L’estimation du nombre de cancers, calculée en fonction de l’augmentation de la population et de l’augmentation de la longévité, réalisée par des statisticiens reconnus, prévoit une augmentation de 50 % de leur nombre. L’augmentation observée est largement inférieure à cette prévision, ce qui prouve bien que l’affirmation précédente est erronée. Cela ne veut pas dire pour autant que les éléments constitutifs de la pollution, notamment certains produits chimiques, ne sont pas à l’origine de certains cancers ; mais il n’est pas sérieux d’utiliser des affirmations non argumentées par des faits scientifiquement prouvés pour avancer qu’une théorie est vérifiée.

L’Appel de Paris du 7 mai 20041, signé par bon nombre de scientifiques, illustre bien ce propos, affirmant que la pollution chimique est responsable de toute une série de maladies et de millions de morts dans le monde, alors qu’aucun début de preuve n’est avancé.

Chimie et santé : risques et bienfaits

3

Ce genre d’affirmation péremptoire, qui engendre la peur au-delà de la réalité elle-même, pose un problème sérieux et devrait être l’occasion d’un véritable débat. Le principe de précaution, inscrit à présent dans la Constitution, devrait être revisité, au moins dans la manière de l’appliquer. Il est clair que toutes les précautions nécessaires doivent être prises, mais il ne faudrait pas qu’il en résulte des conséquences plus graves que les risques dont on veut se préserver. Ainsi, des cas 1. Appel de Paris du 7 mai 2004 : Article 1 : Le développement de nombreuses maladies actuelles est consécutif à la dégradation de l’environnement des anticorps nuisibles à ses propres tissus ; Article 2 : La pollution chimique constitue une menace grave pour l’enfant et pour la survie de l’homme ; Article 3 : Notre santé, celle de nos enfants et celle des générations futures étant en péril, c’est l’espèce humaine qui est elle-même en danger.

Tableau 2 – Mortalité par cancers en France (Jougla et al. [1]). Hommes

Femmes

TOTAL

Nombre de décès en 1968

58 857

46 826

105 683

Nombre de décès en 2002

87 843

58 577

146 420

Variation du nombre de décès entre 1968 et 2002

49 %

25 %

38,5 % 21

La chimie et la santé

de sclérose en plaques ont été observés chez quelques sujets vaccinés contre l’hépatite B. Aucune relation entre vaccin et apparition de la maladie n’a pu être prouvée, qu’il y ait ou non un doute. Il est certain que l’arrêt de fait de la campagne de

vaccination contre l’hépatite B s’est traduit par de nombreux cas d’hépatites graves, entraînant cirrhoses et cancers du foie concernant beaucoup plus de sujets que ceux qui auraient pu développer une sclérose en plaques après la vaccination.

Conclusion Il est essentiel de réfléchir à la façon de communiquer entre les scientifiques d’un côté, le pouvoir politique et le public de l’autre, ce dernier n’ayant, en général, peu ou pas de culture scientifique. L’éducation et le développement de l’esprit scientifique critique dans les médias sont une condition nécessaire, pas nécessairement suffisante. Malheureusement les scientifiques n’ont pas encore trouvé la bonne façon de régler ce problème de communication. Une autre approche, bien sûr, est de renforcer la culture scientifique dans l’enseignement primaire et secondaire en y associant tout l’esprit critique nécessaire. Bibliographie [1] Les causes du cancer en France. (Septembre 2007). Rapport commun avec l’Académie de médecine, Centre international de le recherche sur le cancer (OMSLyon) et la Fédération nationale des centres de lutte contre le cancer. [2] Danaei G., St. Vander Hoorn S., Lopez A.D., Murray C.J., Ezzati M. and the Comparative risk assessment collaborating group. (2005). Causes of cancer in the world: comparative risk assessment of nine behavioural and environmental risk factors. Lancet, 366: 1784-1793. 22

[3] Hung R.J., McKay J.D., Gaborieau V., Boffetta P., Hashibe M., Zaridze D., Mukeria A., Szeszenia-Dabrowska N., Lissowska J., Rudnai P., Fabianova E., Mates D., Bencko V., Foretova L., Janout V., Chen C., Goodman G., Field J.K., Liloglou T., Xinarianos G., Cassidy A., McLaughlin J., Liu G., Narod S., Krokan H.E., Skorpen F., Elvestad M.B., Kristian Hveem, Vatten L., Linseisen J., ClavelChapelon F., Vineis P., Bueno-deMesquita H.B., Lund E., Martinez C., Bingham S., Rasmuson T., Hainaut P., Riboli E., Ahrens W., Benhamou S., Lagiou P., Trichopoulos D., Holca´tova´ I., Merletti F., Kjaerheim K., Agudo

A., Macfarlane G., Talamini R., Simonato L, Lowry R., Conway D.I., Znaor A., Healy C., Zelenika D., Boland A., Delepine M., Foglio M., Lechner D., Matsuda F., Blanche H., Gut I., Heath S., Lathrop M., Brennan P. (2008). A susceptibility locus for lung cancer maps to nicotinic acetylcholine receptor subunit genes on 15q25. Nature, 452. [4] Bach J.F. (2002). The effect of Infections on Susceptibility to Autoimmune and Allergic Diseases. New Engl. J. Med., 347: 911-920. [5] Werner et al. (2002). British Journal of Dermatology, 147: 95104.

et

le

: objectif santé

Depuis de nombreuses années, la compréhension des mécanismes du vivant fait partie des axes majeurs de la recherche dans le domaine de la santé. Les progrès sans précédent et le développement spectaculaire des sciences du vivant au cours des trente dernières années ont permis d’établir des bases scientifiques solides pour les années à venir, en particulier grâce à l’établissement de bases de données sur les molécules du vivant (ensemble des gènes, des protéines et des métabolites d’un grand nombre d’organismes), aujourd’hui accessibles et utilisables par tous (Encart « Dans la famille des “omes” »). De nombreuses perspectives s’ouvrent ainsi à la communauté scientifique, notamment pour les chimistes qui jouent, depuis de nombreuses années déjà, un rôle essentiel dans le domaine de la santé. Beaucoup reste à faire pour comprendre la « chimie du vivant » (paragraphe 1), c’est-à-dire l’ensemble des

réactions qui interviennent dans le fonctionnement de nos cellules et de notre organisme (Figure 1). Les chimistes jouent aussi un rôle important dans le

Daniel Mansuy Chimie du et pour le vivant : objectif santé

Chimie du pour vivant

Figure 1 Les sciences du vivant ont connu des progrès sans précédent dans la compréhension du fonctionnement de notre organisme.

La chimie et la santé

domaine de la santé en élaborant de nouvelles méthodes et en construisant de nouveaux objets (molécules, matériaux…), pour permettre ou faciliter la compréhension du vivant, mais aussi pour intervenir sur certains de ses dysfonctionnements. Citons les médicaments, les matériaux biocompatibles pour prothèses, les produits de diagnostic, etc. C’est ainsi qu’ils développent une « chimie pour le vivant » (paragraphe 2). Par ailleurs, les chimistes développent aussi une véritable « chimie d’après le vivant », inspirée par la richesse et la complexité de la chimie du vivant (paragraphe 3).

1 Figure 3 Des millions de molécules sont à la base du fonctionnement de notre organisme.

La chimie du vivant

1.1. La chimie ouvre les portes de la compréhension des mécanismes moléculaires du vivant : des perspectives pour la santé Dans les vingt années à venir, le premier domaine de la santé

où l’on s’attend à des améliorations considérables grâce aux chimistes est le domaine de la chimie du vivant. De fait, tout organisme vivant est le siège d’un fourmillement de réactions chimiques dont les acteurs sont des enzymes, ainsi que des millions d’autres molécules telles que les sucres, les lipides ou les médiateurs chimiques, qui jouent des rôles clés dans le fonctionnement de l’organisme (Figure 3). Le décryptage récent des génomes et des protéomes de nombreux organismes a montré que 30 à 40 % des gènes et des protéines ainsi mis en évidence sont « orphelins », c’est-à-dire qu’on ne connaît rien de leur(s) fonction(s) biologique(s). La recherche des rôles de ces protéines « orphelines » est un enjeu majeur des années à venir pour les chimistes et les biochimistes. Nul doute que cette recherche va conduire à la découverte de nouveaux schémas métaboliques, de nouveaux systèmes enzymatiques, de nouvelles réactions, de nouveaux catalyseurs et médiateurs, lesquels sont à la base des fonctions physiologiques de l’organisme.

1.2. Un exemple de nouveau médiateur récemment découvert : l’oxyde nitrique

26

L’une des découvertes récentes les plus marquantes dans le domaine des médiateurs est celle du rôle clé joué par l’oxyde nitrique (NO) dans diverses fonctions physiologiques. Cette toute petite molécule, composée de deux atomes, un azote et un

Un peu de génomique fonctionnelle… Le début de ce XXIe siècle est marqué par l’essor d’une discipline nouvelle que les scientifiques ont baptisée la génomique et qui marque un tournant révolutionnaire dans leurs recherches pour comprendre… comment fonctionne l’être vivant. La longue histoire a réellement débuté avec la découverte fondamentale en 1953 de la structure en double hélice de l’ADN (Acide DésoxyriboNucléique), la molécule constitutive du génome, le support de l’hérédité. Puis en 2001, sont publiées les premières données sur le séquençage complet du génome humain (l’ADN et le génome sont abordés en détail dans le chapitre de C. Giovannangeli).

Chimie du et pour le vivant : objectif santé

DANS LA FAMILLE DES « …OMES »

Un travail titanesque a maintenant commencé dont le but est de comprendre « quels gènes pilotent quelles fonctions physiologiques de l’organisme ? » Pour cela, il faut passer par l’identification et le recensement de milliers de gènes et d’ARN, ainsi que de millions de protéines et métabolites ! Se constituent alors des bases de données sur les molécules du vivant : génome, transcriptome, protéome, métabolome, et même physiome (Figure 2).

Figure 2 Du gène à la fonction physiologique : la génomique fonctionnelle. Dans les cellules vivantes, les gènes sont transcrits en ARN messagers, qui sont traduits en protéines, lesquelles participent par exemple à la biosynthèse de métabolites, qui assurent le fonctionnement de notre organisme. Chacune de nos milliers de milliards de cellules renferme quelque 25 000 gènes (ou fragments d’ADN), qui forment le génome. Les ARN messagers (de l’ordre de 45 000) constituent le transcriptome. Le protéome est encore plus fourni, car il regroupe de très nombreuses protéines (enzymes, récepteurs, anticorps, hormones, etc.). 27

La chimie et la santé

LES ENZYMES, CES CATALYSEURS DE NOTRE ORGANISME Les organismes vivants possèdent des millions d’enzymes. Il s’agit généralement de protéines, formant typiquement des amas de chaînes entremêlées (hélices, feuillets et coudes, de tailles différentes, Figure 4, voir aussi l’encart « La structure des protéines » du chapitre de F. Dardel) qui transforment des substrats de notre organisme en produits nécessaires à son fonctionnement.

Figure 4 Les scientifiques modélisent les protéines, soit sous forme d’un amas d’atomes (A), soit par un ensemble constitué d’hélices, de feuillets et de coudes (en B est représentée une enzyme : le cytochrome P450 2D6). Nous retrouverons ces représentations dans les chapitres suivants. Rappelons que les enzymes possèdent des noms se terminant par « -ase ».

Le scénario classique de l’action d’une enzyme est le suivant : le substrat vient se fixer sur le « site actif » de l’enzyme pour former le complexe substrat-enzyme. Dans ce site actif se produit alors une série de réactions chimiques, aboutissant à la formation d’un produit, qui va pouvoir être utilisé par l’organisme (Figure 5).

Figure 5 Schéma général d’une réaction enzymatique : une succession de réactions chimiques.

Les enzymes sont des catalyseurs qui accélèrent les réactions jusqu’à des millions de fois, et sont, comme les catalyseurs chimiques classiques, régénérées à la fin de chaque cycle de transformation. Certaines enzymes ont besoin d’alliés pour travailler : des cofacteurs. Ces molécules s’insèrent dans l’enzyme à proximité du substrat, et participent à la réaction enzymatique. 28

Chimie du et pour le vivant : objectif santé oxygène, était au départ considérée comme un polluant et un gaz toxique, tout comme le monoxyde de carbone (CO) qui lui ressemble. Des recherches effectuées dans les années 1990 ont mis en avant son implication dans de nombreuses fonctions physiologiques.

1.2.1. Comment notre organisme produit-il de l’oxyde nitrique et dans quel but ? Aujourd’hui, nous savons que les mammifères fabriquent naturellement de l’oxyde nitrique pour leur fonctionnement – ce qu’on appelle la biosynthèse. Cette biosynthèse fait intervenir une enzyme (Encart « Les enzymes, ces catalyseurs de notre organisme), la NO-synthétase, « l’enzyme chargée de synthétiser le NO ». Elle appartient à la famille des hémoprotéines : elle comporte une molécule d’hème (Figure 7), au cœur de laquelle se trouve un atome de fer (comme l’hémoglobine).

La NO-synthétase catalyse l’oxydation d’un de nos acides aminés essentiels, l’arginine, conduisant à la formation de citrulline et d’oxyde nitrique, comme représenté sur la Figure 6. Une fois généré, cet oxyde nitrique va avoir pour cible majeure une autre hémoprotéine : la guanylate cyclase. Au moment où il se fixe sur le fer de cette enzyme, celle-ci est activée et se met alors à jouer son rôle catalytique en transformant du GTP en GMP cyclique, médiateur très important de la signalisation cellulaire (Figure 6). C’est de cette façon que l’oxyde nitrique agit au niveau du système cardiovasculaire, puisque ce processus est à la base de ses effets vasodilatateurs, mais aussi de ses effets hypotenseurs et antithrombotiques. Cette petite molécule joue aussi un rôle au niveau du système nerveux central, dans la neurotransmission : c’est le second messager du glutamate, mais c’est aussi un messager très important dans les processus d’apprentissage et de mémorisation. L’oxyde

Figure 6 Biosynthèse de l’oxyde nitrique (NO) dans nos cellules et ses principales cibles physiologiques. L’enzyme NO-synthétase transforme l’arginine en citrulline et en oxyde nitrique. Celui-ci peut jouer divers rôles dans l’organisme, via dans certains cas la synthèse par l’enzyme guanylate cyclase de GMP cyclique (guanosine monophosphate cyclique) à partir de GTP (guanosine triphosphate).

29

La chimie et la santé Figure 7 La NO-synthétase comporte deux cofacteurs, l’hème (en rouge) et la tétrahydrobioptérine H4B (en vert), pour réaliser la biosynthèse de l’oxyde nitrique. L’hème, également appelé protoporphyrine de fer, est relié à l’enzyme par une liaison Fe-S avec un acide aminé de la protéine, la cystéine ; la tétrahydrobioptérine H4B est un cofacteur riche en électrons utilisé dans un grand nombre d’autres systèmes enzymatiques.

nitrique joue aussi un rôle clé au niveau du système immunitaire : il est un élément majeur de notre défense visà-vis des organismes invasifs. Il fait partie de la panoplie d’espèces réactives produites par l’organisme pour détruire les bactéries, les virus, les parasites ou les tumeurs, au même titre que l’eau oxygénée H2O2 ou l’hypochlorite ClO-, couramment employés par l’homme pour sa défense naturelle. 1.2.2. Le mécanisme moléculaire de la formation de l’oxyde nitrique

30

La NO-synthétase fait appel à deux cofacteurs pour réaliser la transformation de l’arginine en oxyde nitrique : l’hème et la tétrahydrobioptérine H4B (Figure 7). L’action concertée de ces deux cofacteurs est nécessaire pour que l’enzyme puisse produire très sélectivement le monoxyde d’azote

NO, sans formation d’autres oxydes d’azote comme le dioxyde d’azote NO2. Arginine, hème et H4B se fixent dans le site actif de la NOsynthétase. À partir du moment où ces trois acteurs majeurs de la réaction sont ainsi correctement positionnés, des réactions chimiques peuvent prendre place, dont le scénario complexe a pu être complètement élucidé par les chimistes. L’oxydation de l’arginine a lieu en deux étapes : 1) transformation de l’arginine en N-hydroxyarginine ; 2) coupure oxydante de la liaison C=N de la N-hydroxyarginine, qui conduit à la formation de la citrulline et de l’oxyde nitrique. L’encart « Biosynthèse de l’oxyde nitrique dans notre organisme » nous dévoile le mécanisme détaillé de la première étape catalysée par la NO-synthétase.

Les trois acteurs sur la scène de la NO-synthétase Arginine, hème et H4B sont positionnés dans le site actif de la NO-synthétase grâce à un réseau complexe de liaisons hydrogènes (Figure 8), ce qui permet une bonne communication entre les trois acteurs et une grande efficacité dans les transferts de protons et d’électrons nécessaires. Déroulement du scénario

Chimie du et pour le vivant : objectif santé

BIOSYNTHÈSE DE L’OXYDE NITRIQUE DANS NOTRE ORGANISME : MÉCANISME DÉTAILLÉ DE L’ÉTAPE 1 : N-HYDROXYLATION DE L’ARGININE

La réaction enzymatique se déroule alors en plusieurs étapes, chacune étant une réaction chimique qui a lieu entre les trois acteurs. Le scénario est décomposé sur la Figure 8.

31

La chimie et la santé

Figure 8 Les chercheurs ont mis en évidence, par rayons X, un réseau important de liaisons hydrogène (représentées en pointillés) entre l’hème, l’arginine (dont la fonction guanidine est située à 4 Å au-dessus du plan de l’hème) et la H4B (située également à bonne distance de l’hème). Toutes les conditions sont réunies pour réaliser la réaction enzymatique (les parties en gris sont des régions du site actif de l’enzyme). .

Étape 1 : au cours d’une première étape, la H4B transfère simultanément vers l’espèce FeIIO2 (FeIII-OO ) un proton et un électron. Le transfert du proton (H) a été facilité par la liaison hydrogène (pointillés verts) qui existait entre le NH de la H4B et un atome d’oxygène O de l’hème. Étape 2 : le proton transféré dans la première étape (H) est ensuite transféré de nouveau (probablement grâce à la présence de molécules d’eau H2O), jusqu’au fer de l’hème pour former une nouvelle espèce : Fe(III)-O-OH. Étape 3 : cette liaison O-OH nouvellement formée est très faible et facilement rompue après protonation du deuxième oxygène par l’arginine. L’hème se retrouve finalement sous une nouvelle forme Fe(IV)=O (radicalcation de la porphyrine) qui est une espèce à haut degré d’oxydation du fer, extrêmement réactive. Étape 4 : l’espèce Fe=O transfère son atome d’oxygène dans la liaison N-H de l’arginine. Étape 5 : lors d’un deuxième cycle catalytique dont les étapes ne sont pas détaillées ici, la molécule obtenue, la N-hydroxyarginine, est ensuite coupée pour libérer l’oxyde nitrique NO.

Voilà un bel exemple de scénario complexe, et insoupçonné il y a encore peu de temps, qui se déroule au sein de notre organisme, et que les progrès de la chimie ont fortement contribué à élucider. Il reste encore un grand vide dans la connaissance de la chimie du vivant, et les chimistes ont ici un rôle majeur à tenir dans les années à venir.

2

La chimie pour le vivant

2.1. De nouveaux outils au service de la santé Le deuxième domaine d’action des chimistes réside dans l’élaboration de nouveaux outils et objets (molécules, matériaux…) pour permettre ou faciliter la compréhension du vivant, et pour en corriger certains dysfonctionnements.

32

De tels outils ont été mis en place ces dernières années et ont trouvé de nombreuses applications dans les domaines pharmaceutiques, agroalimentaires, ou encore du diagnostic et des biomatériaux : implants,

prothèses, cœurs artificiels, etc. (Figure 9). Parmi ces outils, on trouve par exemple des puces à ADN, des sondes spécifiques (in vivo ou in vitro) ou encore de nouvelles techniques d’imagerie et de spectroscopie sophistiquées (voir la Partie 3 de cet ouvrage) permettant d’élucider les structures d’assemblages complexes de protéines et/ou d’acides nucléiques (ADN), et de mettre en évidence les fonctions physiologiques des molécules du vivant.

2.2. L’apport de la chimie pour le vivant dans le domaine pharmaceutique La chimie pour le vivant trouve l’une de ses principales applications dans le domaine pharmaceutique. Elle permet par exemple de mieux comprendre pour prévoir comment réagit notre organisme face à l’intrusion d’un composé étranger. Ce type de composés, appelés « xénobiotiques » (du grec xénos = « étranger » et bios = « vie »), peuvent être aussi divers que des médicaments, des

Chimie du et pour le vivant : objectif santé

additifs alimentaires, polluants, etc.

des

En comprenant mieux comment notre organisme métabolise ces xénobiotiques, les chercheurs peuvent évaluer plus facilement et plus tôt les effets toxiques susceptibles d’apparaître lors du métabolisme d’un médicament. En effet, lorsque l’on ingère un médicament, il est traité par l’organisme comme n’importe quel xénobiotique. Il sera donc transformé en générant de nouvelles molécules, qui peuvent s’avérer dangereuses, d’où les effets secondaires de certains médicaments, à certaines doses. Figure 9 C’est en comprenant comment l’organisme métabolise les xénobiotiques qu’il est possible de prévoir un grand nombre d’effets secondaires néfastes des médicaments.

2.2.1. Comment l’homme métabolise-t-il les médicaments ? Il est tout d’abord fondamental de comprendre de quelle manière et dans quelles conditions l’organisme métabolise les xénobiotiques, c’est-à-dire comment il transforme les composés exogènes pour les éliminer plus facilement. Chez la plupart des organismes vivants, le métabolisme des xénobiotiques fait intervenir deux étapes (Figure 10, flèches en bleu clair) : – une étape de fonctionnalisation : les xénobiotiques

Molécules, prothèses, produits de contraste pour l’imagerie… la chimie crée une grande variété d’objets contribuant à notre santé.

sont souvent hydrophobes et inertes chimiquement. Cette première étape consiste à les rendre plus fonctionnels, le plus souvent par insertion d’un atome d’oxygène (Figure 10, étape 1). Elle est très souvent catalysée par une classe d’enzymes, les monooxygénases à cytochrome P450 (l’une de ces enzymes est représentée sur la Figure 4) ; – une étape de conjugaison : cette étape permet de rendre les molécules encore plus solubles dans l’eau et donc de faciliter leur élimination par l’organisme. La transformation des médicaments par ces monooxygénases à cytochrome P450 a de nombreuses conséquences en pharmacologie et en toxicologie. Conséquences en ce qui concerne

33

La chimie et la santé Figure 10 Dans la recherche de nouvelles molécules actives, il est important d’avoir une bonne connaissance du métabolisme du médicament chez l’homme.

34

la biodisponibilité des médicaments, dans la mesure où l’étape cinétiquement déterminante de l’élimination de ces médicaments est souvent celle qui est catalysée par les cytochromes P450 (Figure 10, étape 1). Conséquences aussi en ce qui concerne la pharmacogénétique, car les individus ne sont pas égaux dans leur capacité à métaboliser et à éliminer les médicaments. En effet, une petite partie de la population possède certains des cytochromes P450 sous une forme mutée, peu active ou inactive catalytiquement. Les individus en question ne vont donc pas être capables d’éliminer aussi efficacement les médicaments pris en charge par ces cytochromes P450 ; cela peut conduire à la survenue d’effets toxiques de ces médicaments qui sont en quelque sorte « surdosés ». C’est aussi au niveau des cytochromes P450 qu’interviennent diverses interactions médicamenteuses qui ont conduit dans certains cas au retrait de médicaments du marché. Ces interactions sont dues au fait que certains médicaments agissent soit

comme des inhibiteurs, soit comme des inducteurs de ces enzymes.1 L’administration d’un tel médicament inhibiteur (on inducteur), en même temps qu’un deuxième médicament qui se trouve être majoritairement métabolisé par un P450 inhibé (ou induit) par le premier médicament, peut conduire à un problème d’interaction médicamenteuse, due à la perturbation du métabolisme et de l’élimination du deuxième médicament par le premier (Figure 10). Une autre conséquence très importante de la transformation des médicaments par les cytochromes P450 est la formation possible de métabolites réactifs ([R+] sur la Figure 10), la plupart du temps électrophiles, qui sont susceptibles d’établir des liaisons covalentes avec les sites nucléophiles des composants cellulaires comme les protéines et les acides nucléiques (typiquement de l’ADN). 1. Un inducteur est un composé qui déclenche une augmentation du taux d’expression d’une protéine, ici d’un cytochrome P450.

2.2.2. Vers une meilleure analyse de la toxicité des xénobiotiques La détection la plus précoce possible des effets toxiques éventuels des candidats médicaments est une préoccupation majeure des firmes pharmaceutiques. La mise sur le marché d’un nouveau médicament n’a lieu qu’après examen, entre autres, des résultats d’un grand nombre de tests toxicologiques, faisant l’objet d’une lourde procédure de demande d’autorisation de mise sur le marché (Encart « L’autorisation de mise sur le marché (AMM) d’un médicament »). En fait, depuis 2007, une nouvelle réglementation européenne, « REACH » (Registration, Evaluation and Authorization of CHemicals), exige que, de façon plus générale, toute substance chimique produite à plus d’une tonne par an fasse l’objet d’un enregistrement auprès d’une agence européenne, après examen de son dossier toxicologique. Il est donc plus que jamais nécessaire de former

tous les chimistes à la toxicologie et de leur donner les connaissances de base en toxicologie moléculaire pour prévoir, au moins en partie, si une nouvelle molécule a de fortes chances ou non d’être toxique. À titre d’exemple des divers rôles qu’un chimiste est susceptible de jouer dans le domaine de la toxicologie moléculaire, considérons le cas d’un médicament, un diurétique : l’acide tiénilique. Avant sa mise sur le marché, ce composé avait passé toutes les barrières de la toxicologie animale, sans aucune indication d’effet toxique. Toutefois, après quelques années d’utilisation comme médicament, un certain nombre d’hépatites de type immuno-allergique (pathologie du foie que nous allons décrire ci-après) ont été observées avec une incidence faible, un patient sur 10 000 environ. Ce phénomène a conduit au retrait du médicament dans les années 1990.

Chimie du et pour le vivant : objectif santé

Ces réactions sont souvent à l’origine d’effets secondaires toxiques des médicaments. En fait, les cytochromes P450 sont, dans l’organisme, les sites privilégiés de formation de tels métabolites réactifs, car ils font intervenir dans leur cycle catalytique d’oxydation des substrats des espèces à haut degré d’oxydation du fer qui sont parmi les espèces les plus oxydantes connues en biologie. Ce type d’effet toxique secondaire va être abordé dans le paragraphe qui suit.

L’AUTORISATION DE MISE SUR LE MARCHÉ (AMM) D’UN MÉDICAMENT Pour être commercialisé, tout médicament doit faire l’objet d’une autorisation de mise sur le marché (AMM), délivrée par les autorités compétentes européennes (Agence européenne du médicament, EMEA) ou nationales (Agence française de sécurité sanitaire des produits de santé, Afssaps, en France). Les laboratoires pharmaceutiques déposent un dossier de demande d’AMM, pouvant comporter jusqu’à des milliers de pages, et qui décrit à la fois la fabrication du principe actif, la fabrication du produit fini (principe actif mis en forme avec ses excipients par la galénique), les études cliniques et non cliniques (toxicité chez l’animal, chez l’homme). L’évaluation du médicament est effectuée selon des critères scientifiques de qualité, de sécurité et d’efficacité. 35

La chimie et la santé

Figure 11 Après absorption d’acide tiénilique, ce médicament est principalement métabolisé au niveau du foie par le P450 2C9. Cette enzyme l’oxyde au niveau de son noyau thiophène, pour former un sulfoxyde très électrophile [2]. Celui-ci l’est d’autant plus qu’il a un substituant électroattracteur CO-aromatique. De ce fait, le carbone en position 5 du noyau thiophène est particulièrement électrophile et peut alors réagir avec tout nucléophile présent dans son environnement, c’est-à-dire dans le site actif du P450 2C9. Le plus souvent (11 fois sur 12), il va réagir avec l’eau présente dans ce site actif pour former l’acide 5-hydroxytiénilique, métabolite majeur retrouvé dans l’urine. Plus rarement (1 fois sur 12), il va réagir avec un nucléophile (Nu) faisant partie de la structure même de l’enzyme, à savoir un acide aminé, la sérine. Cette réaction d’alkylation de l’enzyme lui fait perdre son activité catalytique, et conduit au phénomène antigénique

36

Des études réalisées en collaboration avec la société qui l’avait mis sur le marché ont permis de proposer un mécanisme pour expliquer l’apparition de ces hépatites [1]. Après son administration, l’acide tiénilique est métabolisé dans le foie par le cytochrome P450 2C9 (Figure 11). Cette enzyme l’oxyde pour conduire à un métabolite de type sulfoxyde de thiophène, qui est très réactif ([R+] de la Figure 10) et qui a deux évolutions possibles : 1) Le plus souvent (dans 11 cas sur 12), il réagit avec l’eau présente dans le site actif du P450 2C9, ce qui conduit à la formation d’un métabolite stable, l’acide 5-hydroxytiénilique, qui est le métabolite majeur retrouvé dans l’urine. 2) Plus rarement (1 cas sur 12), le sulfoxyde se lie de façon covalente à l’enzyme P450 2C9, laquelle se trouve alors inactivée (transformée en « P450

2C9 alkylé »), et potentiellement « antigénique ». En effet, cette protéine peut ensuite migrer jusqu’à la membrane de l’hépatocyte (cellule du foie). Elle est alors reconnue par le système immunitaire qui déclenche à son encontre la synthèse d’anticorps, que les cliniciens ont trouvés chez les patients atteints d’une hépatite à l’acide tiénilique, et qu’ils ont nommés à l’époque « anticorps anti-LKM2 ». On sait maintenant qu’il s’agit d’anticorps anti-P450 2C9. Après réadministration de l’acide tiénilique, la même chaîne de réactions intervient mais, cette fois, on retrouve au niveau de la surface de l’hépatocyte à la fois le « P450 2C9 alkylé » – l’antigène – et l’anticorps anti-P450 2C9. Il se forme alors un complexe antigène-anticorps, dont la présence active l’hépatocyte, déclenchant sa destruction par le système immunitaire.

2.2.3. Vers la détermination des bases moléculaires de l’adaptation des êtres vivants à leur environnement chimique Les cytochromes P450 jouent un rôle majeur dans l’adaptation des êtres vivants aérobies au grand nombre de xénobiotiques qui existent dans leur environnement direct, dans la mesure où ils sont capables de les oxyder et donc de faciliter leur élimination. Le décryptage du génome humain a montré l’existence de 57 gènes codant pour des P450. Une vingtaine de P450 humains sont responsables du métabolisme oxydatif des xénobiotiques. Toutefois, lorsque l’on considère l’ensemble des données existantes sur le métabolisme des médicaments, on s’aperçoit que seulement trois de ces P450, les P450 3A4, 2D6 et 2C9, interviennent dans le métabolisme oxydatif de 80 % des médicaments ! Ce constat interpelle les chercheurs : comment un aussi petit nombre d’enzymes sontelles capables de métaboliser autant de substances chimiques, naturelles ou artificielles, présentes dans notre environnement ? Comment ces enzymes capables d’oxyder des substrats de taille et de structure très diverses, et qui présentent de fait une très faible spécificité de substrat, peuvent-elles néanmoins être efficaces au plan de leur activité catalytique, et sélectives quant à leur site d’oxydation sur le substrat ? On est très

longtemps resté sans explication pour ce paradoxe. Des éléments de réponse ont été apportés au cours de ces dernières années grâce à la résolution de toute une série de structures de P450 de mammifères, par diffraction aux rayons X. En 2000, l’équipe d’Eric Johnson, du Scripps Institute (La Jolla, États-Unis) publie la première structure d’un P450 de mammifère, le P450 2C5 de foie de lapin [3]. Ces résultats ont ouvert la voie à l’obtention de nombreuses structures de P450 de mammifères, et en particulier à celles des P450 de foie humain majoritairement impliqués dans le métabolisme des xénobiotiques. Cette structure du P450 2C5 met en évidence l’existence de deux domaines distincts de la protéine (Figure 12) : – une partie relativement rigide (Figure 12, en bas à droite), constituée essentiellement d’hélices, fortement conservée dans l’ensemble de la famille des P450, et porteuse de l’activité catalytique ; – une partie variable (Figure 12, en haut à gauche), très flexible et mobile sur le plan conformationnel et qui contient le site d’accès et de fixation des substrats ; sa séquence d’acides aminés varie beaucoup d’un P450 à l’autre. En 2000, la structure décrite par E. Johnson était celle du P450 2C5 en l’absence de substrat. Une collaboration de son laboratoire avec le nôtre a permis de trouver plusieurs substrats à forte affinité pour le P450 2C5 et d’obtenir les premières structures de complexes {P450 de mammifère-substrat} [4]. La Figure 13

Chimie du et pour le vivant : objectif santé

Cette destruction, dite autoimmune, conduit à terme à une hépatite [1].

Figure 12 Structure aux rayons X du cytochrome P450 2C5 (d’après [3]).

37

La chimie et la santé 38

Figure 13 Comparaison des structures tridimensionnelles des sites actifs du P450 2C5 sans substrat et du P450 2C5 ayant fixé un substrat (d’après [4]). A. En l’absence de substrat, le site de fixation du substrat de l’enzyme est constitué par trois éléments de la protéine : une partie fixe (hélice I en vert), située juste au-dessus de l’hème (rouge), une grande boucle très flexible (boucle B-C, en bleu), une boucle F-G reliant les hélices F et G, de conformation tellement variable que sa structure n’a pas pu être résolue lors de cette étude aux rayons X. B. Dans la structure du complexe P450 2C5-substrat, on voit que le substrat se positionne dans un canal d’accès à une distance convenable de l’hème pour recevoir un atome d’oxygène à partir du fer. Une fois le substrat fixé, le site actif se compacte autour de la molécule, ce qui engendre une structuration des boucles B-C et F-G, qui deviennent donc beaucoup moins mobiles et adoptent une structure quasi hélicoïdale (petite hélice B’ dans la boucle B-C). Ceci est particulièrement spectaculaire dans le cas de la boucle F-G qui, du fait de cette mobilité réduite, voit sa structure résolue par diffraction aux rayons X. Cette modification structurale du site actif se traduit aussi par une fermeture des canaux d’accès du substrat et du solvant (eau, proton), ce qui prépare le complexe enzymesubstrat aux étapes de la réaction enzymatique.

compare les structures du site actif du P450 2C5 sans substrat et du P450 2C5 ayant fixé un substrat (en l’occurrence un dérivé d’un médicament, le sulfaphénazole). On voit à quel point la fixation de ce substrat induit un changement radical de la conformation du site actif de la protéine. Ce changement conformationnel se traduit par une compaction du site actif protéique autour du substrat et conduit à la fermeture du canal d’accès de celui-ci, ainsi que du canal d’accès de l’eau ; cela prépare l’ensemble protéine-substrat pour une catalyse d’oxydation plus efficace. C’est cette adaptation du site actif de l’enzyme à la forme et à la structure du substrat (« la serrure s’adapte à la clé ») qui va permettre non seulement une catalyse efficace de l’oxydation du substrat en question, mais aussi une bonne régiosélectivité de cette oxydation. L’ensemble des structures de P450 humains impliqués dans le métabolisme des xénobiotiques publiées entre 2003 et 2009 a confirmé la grande adaptabilité de leur site actif protéique à des substrats de structures très variées. Elles

ont aussi montré une grande diversité de taille et de forme des sites de fixation des substrats de ces enzymes. Ainsi, lorsqu’un médicament (ou tout autre xénobiotique) pénètre dans un organe ou un tissu, il va avoir le choix entre plusieurs P450 présents dans cet organe (une vingtaine pour le foie) pour être reconnu et métabolisé. Ces P450 lui offrent un grand choix de taille et de forme de sites actifs, ainsi que de séquences d’acides aminés pour établir des liaisons avec lui. Il va choisir celui (ou ceux) le(s) mieux adapté(s) à sa structure. Sa fixation dans son (leur) site actif va modifier la conformation de ce(s) site(s) pour favoriser au maximum son oxydation. Cette diversité de forme et de taille des sites actifs des P450 responsables du métabolisme des xénobiotiques, ainsi que l’adaptabilité de ces sites, sont à la base de l’adaptation des êtres vivants aérobies à leur environnement chimique [5].

3

La chimie d’après le vivant

Les grandes avancées effectuées dans le domaine de la chimie du et pour le vivant laissent entrevoir de

L’un des principaux aspects de cette chimie d’après le vivant est la chimie dite biomimétique ou bioinspirée, qui consiste à créer des entités chimiques mimant l’action d’entités biologiques. Ainsi, de nombreuses études ont été publiées à propos de la mise au point de systèmes chimiques catalytiques imitant les activités des enzymes. Cela a été le cas pour les cytochromes P450 et ce, depuis 1979 [6-9] : les chimistes

Chimie du et pour le vivant : objectif santé

nombreuses autres possibilités. Nous avons vu que le vivant fonctionne grâce à des réactions chimiques nombreuses et très efficaces : pourquoi se priverait-on de s’en inspirer ? Effectivement, l’observation du vivant peut devenir une source d’inspiration pour le chimiste, dont le métier est entre autres de créer de nouvelles molécules, de nouveaux catalyseurs ou de nouveaux matériaux.

sont parvenus à fabriquer des systèmes catalytiques reproduisant les activités de cette enzyme. Ces systèmes chimiques font intervenir une porphyrine de fer ou de manganèse comme catalyseur, ainsi qu’un « donneur d’atome d’oxygène », comme PhIO ou l’eau oxygénée H2O2 (Figure 14). C’est surtout l’industrie pharmaceutique qui utilise aujourd’hui ces systèmes bioinspirés des cytochromes P450, pour préparer des métabolites d’oxydation des médicaments. Leur utilisation permet en effet d’obtenir, en une seule étape, plusieurs des métabolites d’oxydation formés lors du métabolisme d’un médicament chez l’homme, et ce, à l’échelle du gramme, alors que l’utilisation de fractions hépatiques ne permet souvent de les obtenir qu’à l’échelle du milligramme.

Figure 14 Évolution avec le temps des systèmes modèles des P450 [6-9]. L’amélioration progressive de ces systèmes s’est faite grâce à l’utilisation de porphyrines de Fe ou Mn de plus en plus résistantes à la dégradation par oxydation, et à l’emploi de donneurs d’atome d’oxygène de plus en plus simples et faciles d’accès. L’utilisation de ces catalyseurs chimiques a aussi été améliorée en les incluant dans des matrices inorganiques ou dans des polymères organiques (catalyseurs supportés).

39

La chimie et la santé

De la chimie du vivant à la chimie par-delà le vivant

Figure 15 Une chimie à l’origine de la pensée ?

La place du chimiste dans le développement passé, présent et futur des sciences du vivant, en particulier dans le domaine de la santé, est donc très importante, de nombreuses pistes restant à explorer dans la chimie du, pour et d’après le vivant. Les découvertes réalisées permettront peutêtre de développer dans les années à venir, une « chimie par-delà le vivant », selon les termes de Jean-Marie Lehn, prix Nobel de chimie. Cette chimie permettrait d’une part de transcender les limites du monde moléculaire élaboré par le vivant, c’est-à-dire apprendre à utiliser la centaine d’éléments chimiques existants au lieu de se contenter de la vingtaine utilisée par les organismes vivants, et d’autre part, de comprendre de quelle manière la matière s’autoorganise pour qu’apparaisse la vie (origines de la vie) et peut-être même… la pensée.

Bibliographie [1] Beaune P., Dansette P.M., Mansuy D., Kiffel L., Finck M., Amar C., Leroux J.P., Homberg J.C. (1987). Proc. Nat. Acad. Sci. USA, 84: 551. [2] Lopez-Garcia M.P., Dansette P.M., Mansuy D. (1994). Biochemistry, 33: 166. [3] Williams P.A., Cosme J., Sridhar V., Johnson E.F., Mc Ree D.E. (2000). Mol. Cell, 5: 121. [4] Wester M.R., Johnson E.F., Marques-Soarez C., Dansette

40

P.M., Mansuy D., Stout C.D. (2003). Biochemistry, 42: 6370. [5] Mansuy D. (2008). Catalysis Today, 138: 2. [6] Groves J.T., Nemo T.E., Myers R.S. (1979). J. Am. Chem. Soc., 101: 1032. [7] Meunier B. (1992). Chem. Rev., 92: 1411. [8] Mansuy D. (1993). Coord. Chem. Rev., 125: 129. [9] Mansuy D. (2007). C.R. Chimie, 392.

pour la compréhension du vivant

Au sein de nos cellules se trouve l’ensemble de nos gènes – le génome –, contenus dans une grande molécule en forme de double hélice : l’ADN ou Acide DésoxyriboNucléique. L’ADN contient toutes les informations permettant à l’organisme de vivre et de se développer ; il est le support de notre information génétique, mais également celui de l’hérédité (Figure 1). Une molécule a priori relativement simple peut-elle commander à elle seule tout le fonctionnement d’un organisme ?

Si nous connaissons maintenant tout le génome humain depuis son séquençage en 2003 (Encart « Un peu d’histoire sur l’ADN »), nous ne connaissons néanmoins les fonctions que de 10 % de nos gènes… Il reste à découvrir quelles informations renferment les autres. Pour avancer dans la connaissance du génome, une méthode consiste à cibler et à agir sur ces gènes pour qu’ils ne s’expriment plus normalement ; c’est de cette manière que l’on peut parvenir à identifier leurs fonctions respectives.

Carine Giovannangeli Cibler l’ADN : pour la compréhension du vivant

Cibler l’ADN :

Figure 1 L’ADN, double hélice constitutive de nos chromosomses, molécule support de l’information génétique et de l’hérédité.

La chimie et la santé

UN PEU D’HISTOIRE SUR L’ADN des gènes à l’ADN… 1865 : Johann Gregor Mendel établit les bases de l’hérédité en définissant la manière dont les gènes se transmettent de génération en génération : ce sont les lois de Mendel. Johann Gregor Mendel (1822-1884), le père fondateur de la génétique. 1869 : Johann Friedrich Miescher découvre dans le noyau des cellules vivantes une substance riche en phosphate – la nucléine –, qui sera nommée au XXe siècle « ADN » ou Acide DésoxyriboNucléique. 1882 : Walther Flemming met en évidence les chromosomes, constitués de molécules d’ADN, qui regroupent plusieurs gènes. Il décrit pour la première fois la mitose, phénomène par lequel les cellules se divisent et permettent la croissance et le renouvellement cellulaires.

Dessin de chromosomes dans un noyau de cellule, par J.F. Flemming. 1928 : Phoebus Levene puis Erwin Chargaff déterminent la structure chimique de l’ADN avec sa composition en bases azotées : adénine A, thymine T, guanine G et cytosine C (Figure 2).

Figure 2

42

Formule chimique d’un fragment de brin d’ADN. L’ADN est une grande chaîne dont les maillons sont des bases azotées (A, T, G ou C) qui s’enchaînent dans des ordres différents. L’ensemble {désoxyribose + groupement phosphate + base azotée} forme un nucléotide. L’ADN est donc un polymère de nucléotides.

1952 : James Watson et Francis Crick établissent la structure en double hélice de l’ADN (Figure 3), ce qui leur valut le prix Nobel de physiologie et de médecine en 1962.

Figure 3 L’ADN en double hélice, la figure emblématique de la biologie moléculaire.

Cibler l’ADN : pour la compréhension du vivant

1944 : Oswald Avery établit que l’ADN est le transporteur de l’information génétique.

La nouvelle ère : en route pour l’épopée du séquençage du génome humain… En 1995, les chercheurs ont pu « lire » pour la première fois tout l’ADN contenu dans le génome d’un organisme unicellulaire. Depuis cette date, des pas de géant ont été franchis en génétique, et les chercheurs ont ainsi séquencé des génomes de plus en plus longs, aboutissant en avril 2003 au séquençage complet du génome humain. C’est le résultat de nombreuses années de travail impliquant plusieurs pays à travers le monde, associés dans ce « projet génome humain », parfois appelé « Apollo de la biologie » (Figure 4). Et pour cause, ce fut un travail titanesque de plus de dix ans, à l’issue duquel les chercheurs ont décrypté les quelque 3,5 milliards de bases de notre ADN. L’idée admise jusque-là était que le génome humain contenait au moins 100 000 gènes… ! Puis l’équipe française du Génoscope, dirigée par Jean Weissenbach* suggéra le nombre de 30 000 gènes, ce qui fut jugé un peu iconoclaste. L’évaluation actuelle a encore réduit ce chiffre pour le ramener à environ 25 000… Devant les 37 000 gènes du simple grain de riz, cela incite à la réflexion.

Figure 4 Le projet « Apollo de la biologie » : son ambition était à l’image de celle de marcher sur la Lune. Centre national du séquençage – Génoscope d’Evry.

43

La chimie et la santé

Aujourd’hui, plus de 5 000 génomes ont été séquencés, ce qui aurait été impossible sans les sauts technologiques énormes réalisés ces dernières années. Il faut citer l’invention de la carte génétique de haute précision par Jean Weissenbach*, qui a été décisive pour le diagnostic précoce de pathologies génétiques. La recherche est maintenant armée pour séquencer les gènes plus rapidement et à un moindre coût. Ce domaine de recherche, connu pour représenter un travail colossal et un véritable « puzzle », évolue encore très vite et prévoit de plus en plus de gènes et de fonctions à étudier, de plus en plus d’éléments à comprendre sur le fonctionnement du vivant. * Jean Weisenbach, responsable du puissant génoscope au Centre national de séquençage d’Evry (centre de séquençage français du « projet Apollo »), a reçu pour ses travaux pionnieers la prestigieuse médaille d’or du CNRS en 2008.

Où en sommes-nous dans le développement de cette approche toute récente qu’est le ciblage de l’ADN ? Comment peut-elle être appliquée en thérapie génique et de manière générale dans les manipulations génétiques ?

1

Prise de connaissance avec la cible : l’ADN

1.1. L’ADN : découverte de sa structure et de son fonctionnement Depuis le XIXe siècle, la nature et le rôle de cette grande molécule en forme d’hélice se sont révélés par étapes successives aux scientifiques puis au grand public (Encart « Un peu d’histoire sur l’ADN »). C’est ainsi que dès le milieu du XIXe siècle, nous avons déjà compris les bases de notre fonctionnement.

44

C’est le long de la chaîne d’ADN qu’est inscrit tout notre patrimoine génétique ; et c’est l’enchaînement des bases azotées A, T, G, et C – encore appelé séquence d’ADN –, différent d’un individu à l’autre, qui détermine nos caractéristiques physiologiques, et donc notre identité.

Faisons un zoom sur les pages de notre hérédité, dont les mots sont A, T, G et C… L’ADN a une structure très simple et répétitive, qui repose sur un squelette phosphodiester (groupements phosphates et désoxyriboses, Figure 2). Sur ce squelette sont attachées des briques élémentaires qui sont les bases azotées, parmi les quatre possibles : adénine A, thymine T, guanine G et cytosine C (Figure 2). Squelette phosphodiester et bases forment un brin. L’ADN est constitué de deux brins qui s’enroulent l’un autour de l’autre de manière très précise en une double hélice. Ils sont maintenus solidaires grâce à la formation de paires de bases : l’adénine se lie avec la thymine – et seulement avec elle – en établissant des liaisons de faible intensité (liaisons hydrogène), et la cytosine se lie avec la guanine (Figure 5). C’est cette structure très simple dans son principe et à la fois très riche qui a été à la base du « dogme de la biologie moléculaire » : la molécule d’ADN est le support de l’information génétique et, à travers plusieurs étapes, elle conduit à la synthèse de protéines, lesquelles sont

Cibler l’ADN : pour la compréhension du vivant Figure 5

associées à des fonctions bien précises dans la cellule. Ces étapes sont les suivantes (Figure 6) : 1) la transcription : c’est la production d’une copie de l’ADN en ARN messager (ARN = Acide RiboNucléique), qui a une structure chimique très proche ; 2) la traduction : l’ARN est le messager de l’information génétique, et son message se traduit par la synthèse d’une protéine. Les protéines ainsi produites par l’organisme jouent des rôles physiologiques divers : rôle structural (membranes des cellules, etc.), biosynthèse de molécules indispensables à la vie (glucides, lipides, acides nucléiques), rôle de messagers (hormones), etc. Les protéines sont donc des constituants majeurs et les principaux bâtisseurs cellulaires. Un corolaire découlant du dogme de la biologie moléculaire est que l’ADN peut être copié. Chaque brin d’ADN pouvant servir de copie, une molécule d’ADN peut donc en donner deux au moment

de la division cellulaire (la mitose), permettant ainsi le transfert de l’information génétique de la cellule-mère aux cellules-filles. C’est ainsi qu’est transmise l’information génétique d’une cellule à l’autre au cours du développement cellulaire et de son renouvellement, et c’est ainsi que nous transmettons notre

Les paires de bases qui permettent aux deux brins d’ADN de s’associer. L’adénine et la thymine se lient entre elles par deux liaisons hydrogène, tandis que trois liaisons hydrogène lient la cytosine et la guanine.

Figure 6 Le dogme de la biologie moléculaire : une séquence d’ADN (un gène) est transcrite en un ARN messager, lequel est traduit en une protéine, qui exerce une fonction précise dans l’organisme (structuration, transport, catalyse, etc.) : c’est ce qui constitue l’information génétique. On dit que l’ADN code pour cette protéine ou encore qu’il s’exprime à travers la fonction protéique associée.

45

La chimie et la santé

information génétique à nos descendants. 1.2. Le génome est très complexe et les gènes ne sont pas seuls dans la partie Comment une molécule relativement simple comme l’ADN pourrait-elle contenir toute l’information génétique qui nous est nécessaire ? En fait, le dogme de la biologie moléculaire a été récemment revisité, et l’on sait maintenant que pour les quelque 25 000 gènes que nous avons, il existe dix fois plus d’ARN, et trois mille fois plus de protéines (soit 10 000 000 protéines) ! On voit donc qu’un gène peut être associé à une multitude de fonctions différentes, ce qui rend très complexe l’étude du génome. Quant aux ARN, on sait maintenant que 5 % d’entre eux ne donnent pas de protéines : ce sont des ARN non codants appelés ARN régulateurs, à l’instar de nombreuses protéines connues pour jouer un rôle de régulation dans l’organisme. Ils représentent une quantité importante par rapport à l’ensemble de l’information génétique. Pour compliquer le tout, il se trouve que le génome n’est pas constitué que de gènes. Les régions codantes n’en représentent que 5 % ! On a montré qu’il existe des régions sans gène, mais qui ont des fonctions biologiques très particulières. Mais quelles sont donc ces fonctions ?

46

Seuls 5 % de notre génome correspondent à des séquences codantes.

En fait, nous verrons que ces 5 % ne résument pas à eux seuls tout notre fonctionnement, et que l’ADN n’est pas un élément autonome. Il existe en effet des protéines dans l’organisme qui interagissent avec lui et jouent le rôle de facteurs régulateurs, c’est-à-dire qu’ils activent ou inhibent la fonction associée. Il a été prouvé récemment qu’au cours des divisions cellulaires, certaines informations sont transférées non pas directement par le séquençage de l’ADN, comme résumé par le dogme de la biologie moléculaire, mais par des modifications de facteurs régulateurs appelées modifications épigénétiques (déjà évoqués dans le chapitre de J.-F. Bach). En particulier, les nucléosomes sont des structures jouant un rôle important dans ces régulations épigénétiques (Encart « L’ADN, une pelote d’information génétique dans nos cellules »). 1.3. Identifier les fonctions des gènes Les scientifiques se sont donné l’objectif d’identifier les fonctions de tous nos gènes, pour aboutir à connaître toute l’information génétique renfermée dans notre génome. Pour cela, l’approche du ciblage de l’ADN a été envisagée pour modifier son expression. Par ailleurs, en ciblant l’ADN, on peut interférer avec les facteurs régulateurs associés, et donc identifier leur rôle dans la régulation de son expression. Quelles molécules peuton donc utiliser pour cibler

Le génome humain comporte plus de trois milliards de paires de base et, selon J. Watson et F. Crick, la distance entre deux paires de bases est de 3,4 Å, ce qui donne deux mètres linéaires d’ADN dans nos cellules, mis bout à bout ! Un noyau cellulaire ayant un diamètre de quelques microns, il faut donc compacter l’ADN pour le contenir dans ce noyau. La solution trouvée par la nature est d’enrouler l’ADN autour de protéines appelées histones, pour former des sortes de pelotes appelées nucléosomes (Figure 7). Ces pelotes de nucléosomes ne sont pas anodines, car elles ont leur rôle à jouer dans les régulations épigénétiques !

Cibler l’ADN : pour la compréhension du vivant

L’ADN, UNE PELOTE D’INFORMATION GÉNÉTIQUE DANS NOS CELLULES

Figure 7 Les différentes échelles du transfert de l’information génétique : dans chacune de nos cellules se trouve un noyau (1 à 10 microns) ; dans chaque noyau se trouve notre génome, c’est-à-dire l’ensemble de nos chromosomes (22 paires de chromosomes et nos chromosomes sexuels) ; chaque chromosome possède deux molécules d’ADN reliées au niveau du centromère. Chaque molécule d’ADN, dont les différents fragments constituent des gènes, est enroulée en nucléosomes (autour de protéines appelées histones). 47

La chimie et la santé

LES ARN INTERFÉRENTS : UNE GRANDE INNOVATION DANS LA BIOLOGIE MOLÉCULAIRE L’approche antisens consiste en un ciblage de l’ARN messager, ce qui revient en fait à moduler l’expression du gène qui l’engendre. Au début des années 2000, Tom Tuschl a montré qu’une famille de molécules appelées ARN interférents est capable de reconnaître des fragments précis d’ARN et de s’y fixer en formant des mini-duplex. Cela a pour effet de bloquer l’étape de traduction et donc d’empêcher la production des protéines correspondantes. Les oligonucléotides antisens et les ARN interférents sont de petits enchaînements de moins de vingt-cinq nucléotides, ce sont donc de petits bouts d’ADN ou d’ARN, respectivement. Les chimistes savent en synthétiser rapidement et en grande quantité (avec des robots synthétiseurs). Ce n’est pas par hasard si cette découverte a été faite en 2001, au même moment que le séquençage du génome. En effet, c’est un outil largement utilisé pour inactiver des gènes et comprendre à quoi ils servent. Par ailleurs, ces molécules ont également un avenir prometteur en tant qu’agents thérapeutiques (anti-infectieux, anti-inflammatoires).

l’ADN ? L’intervention et l’imagination des chimistes se révèlent indispensables dans cette recherche.

Cibler l’ADN : comment ? Avec quelles molécule ?

2

Figure 8 L’ADN peut être ciblé par des molécules de synthèse à deux niveaux possibles : au niveau du grand sillon ou au niveau ` du petit sillon.

Petit sillon Grand sillon

48

L’approche du ciblage de l’ADN consiste à concevoir des molécules capables de reconnaître certaines séquences bien précises d’ADN et d’en modifier la séquence en bases azotées. En résumé, on touche à un seul gène sans toucher aux autres. Une fois touché, ce gène ne pourra plus donner la (ou les) protéine(s) dont il permet la synthèse habituellement. En étudiant les conséquences de l’élimination de cette protéine, il sera ensuite possible de déterminer son rôle, et en particulier de voir si elle est impliquée dans une pathologie (maladie génétique ou développement d’une tumeur). Contrairement à une autre approche bien connue des

biologistes appelée « antisens », qui cible l’ARN (Encart « Les ARN interférents : une grande innovation dans la biologie moléculaire »), le ciblage de l’ADN est une approche dite permanente car la modification des séquences de bases qu’il vise a un impact direct et permanent sur la fonction associée. Afin de cibler l’ADN, les chimistes savent aujourd’hui synthétiser deux types de molécules capables de reconnaître spécifiquement des fragments d’ADN, ce qui permet ensuite d’en modifier la séquence de bases avec précision (Figure 8) : – méthode 1 : on utilise des oligonucléotides pouvant reconnaître des séquences de paires de bases et se fixant dans le grand sillon pour former des triplex (triples hélices) ; – méthode 2 : on utilise des molécules de la famille des pyrroles et imidazoles, qui se fixent dans le petit sillon de l’ADN. 2.1. Méthode 1 : des oligonucléotides fonctionnalisés. Vers une application dans la thérapie génique et la transgenèse Étape 1 : reconnaître des fragments précis d’ADN Les deux brins d’ADN s’associent entre eux grâce à la formation de paires de bases selon quatre possibilités : T-A, A-T, C-G et G-C. Il est possible de les distinguer en utilisant des molécules qui vont interagir de manière différente avec l’une ou l’autre, selon les liaisons qu’elles vont pouvoir établir avec certains sites

En théorie, il est donc possible d’arriver à reconnaître n’importe quel enchaînement de paires de bases sur le génome, et l’enjeu pour les chimistes est alors de trouver la molécule qui y parviendrait ! Une famille de molécules peut accomplir cet exploit : les oligonucléotides. Revenons sur l’historique de cette découverte : en 1957, peu de temps après la découverte de la structure en double hélice de l’ADN, le chercheur Gary Felsenfeld découvrit sur une figure de diffraction

de polymères une structure à trois brins d’ADN, qu’il interpréta comme une triple hélice ! Pendant trente ans, cette découverte demeura une curiosité de laboratoire. Il fallut attendre 1987 pour que Peter Dervan et Claude Hélène montrent simultanément qu’il est possible de former ce type de structure à trois brins avec de courts oligonucléotides (Encart « Le miracle de la triple hélice »). Cette démonstration a été le départ de ce qu’on a appelé la stratégie « anti-gène » pour « anti-ADN ». Et en tant que grands pionniers dans ce domaine, Peter Dervan et Claude Hélène ont obtenu, en 1996, le grand prix de la Fondation de la Maison de la Chimie. Un travail considérable a été réalisé par les chimistes dans la recherche d’oligonucléotides qui soient capables de reconnaître sélectivement des séquences en double

Cibler l’ADN : pour la compréhension du vivant

situés sur ces paires de bases (en particulier des liaisons hydrogène). Ces sites sont : « donneurs (D) », « accepteurs (A) » ou des méthyles, et leur enchaînement est différent selon la paire de bases, mais aussi selon que l’on se trouve au niveau du grand sillon ou du petit sillon. C’est de cette manière que l’on peut différencier les quatre paires de bases possibles (Figure 9).

Figure 9 Pour chaque paire de bases possible, et selon que l’on se place au niveau du grand ou du petit sillon de la double hélice d’ADN, on trouve des sites d’interaction différents (accepteur A, donneur D ou méthyle Me), avec des ordres d’enchaînements bien définis. Cela permet de distinguer chacune des quatre bases possibles et au final donne accès à toutes les séquences d’ADN possibles.

49

La chimie et la santé

LE MIRACLE DE LA TRIPLE HÉLICE Comment une triple hélice peut-elle se former ? Dans le grand sillon de l’ADN, il est en fait possible de fixer un troisième brin qui va interagir avec l’un des deux brins de la double hélice. Il va reconnaître une purine (adénine ou guanine) de la double hélice, laquelle est déjà engagée dans une paire, et va former deux liaisons hydrogène avec cette purine. De la même manière, l’adénine d’une paire adénine/thymine est reconnue par une thymine, et la guanine de la paire guanine/cytosine peut être reconnue soit par une cytosine soit par une guanine. On forme donc des triplets de bases et le troisième brin va ainsi s’enrouler autour de la double hélice (Figure 10).

Figure 10 Formation de la triple hélice : le troisième brin (oligopurine ou oligopyrimidine) va reconnaître l’un des deux brins de l’ADN et s’enrouler avec la double hélice.

50

Ce n’est qu’après de nombreuses études de modifications chimiques (squelette, désoxyribose, bases) que les oligonucléotides adéquats ont pu être mis au point pour cette application en milieu cellulaire (Figure 11). Étape 2 : modifier la séquence d’ADN Une fois que l’on s’est positionné sur un fragment bien précis de l’ADN, comment y apporter les modifications

souhaitées sur sa séquence en bases ? Il suffit d’attacher à un court oligonucléotide une molécule capable de couper l’ADN. Lorsque le brin court va se fixer sélectivement sur une région précise de l’ADN pour former un triplex, la coupure de l’ADN s’effectuera à un endroit précis (Figure 12).

Figure 11 Les oligonucléotides avec des acides nucléiques dits « locked » sont parmi les plus efficaces en cellules : le désoxyribose y est bloqué par un pont méthylène entre l’oxygène en 2’ et le carbone en 4’.

Cibler l’ADN : pour la compréhension du vivant

hélice de l’ADN, en formant une triple hélice stable. Et pour cause, il a fallu apporter plusieurs modifications chimiques aux nucléotides pour que le ciblage d’ADN soit efficace. En effet, un oligonucléotide standard mis dans une cellule sera immédiatement dégradé, car l’environnement cellulaire regorge de nucléases, enzymes chargées de dégrader les oligonucléotides. D’autre part, les oligonucléotides standards ont généralement des affinités moyennes avec l’ADN que l’on veut cibler.

On peut aller plus loin avec la même méthode : on peut couper, mais on peut aussi couper puis insérer un fragment contenant une séquence correcte qui peut alors corriger la séquence, comme une sorte de pansement. On dispose donc de deux stratégies de modification de l’ADN : « couper » ou « couper, coller ». 2.1.1. Modifier un gène selon la méthode « couper » Des expériences ont été menées sur différents types de conjugués (oligonucléotide TFO + agent de coupure OP) ayant un nombre de sites de coupure différents. Les

Figure 12 Un oligonucléotide (en rouge) conjugué à un agent de coupure reconnaît une séquence précise d’ADN et l’agent de coupure (en vert) coupe la chaîne en un endroit précis. L’agent de coupure peut être l’orthophénanthroline (OP), qui, en présence de métal et de réducteur, est capable de générer des espèces radicalaires et ainsi de casser le squelette phosphodiester [1].

51

La chimie et la santé

résultats montrent qu’avec ces conjugués, il est possible de cibler des coupures en des sites choisis du génome. Une fois la coupure effectuée, une cellule contenant des brins d’ADN coupés a naturellement envie de réparer cette coupure. Mais de cette autoréparation il restera des « séquelles » : des mutations vont se produire dans la région de la coupure, c’està-dire des changements de paires de bases, et la séquence de l’ADN s’en trouvera modifiée ; par conséquent, son évolution jusqu’à la production d’une protéine sera également modifiée. Cette approche permet ainsi d’éteindre un gène et a été récemment utilisée in vivo avec succès pour obtenir des organismes génétiquement modifiés, KO pour un gène d’intérêt [3]. Figure 13 L’approche « couper-coller », ou réparation par recombinaison homologue. Sur un gène muté que l’on veut réparer, on effectue une coupure au niveau du site de mutation, on ajoute un ADN correcteur (le fragment dit « homologue »), qui vient se coller à l’endroit que l’on veut réparer. On récupère alors un gène réparé.

52

2.1.2. Modifier un gène selon la méthode « couper-coller » Prenons par exemple un gène qui a subi une mutation et qui est responsable d’une pathologie. On souhaite réparer ce gène en coupant la partie mutée et en la remplaçant par

un fragment de gène normal, le « pansement ». Pour procéder à cette opération de « couper-coller », les scientifiques utilisent une machinerie cellulaire : la « recombinaison homologue ». C’est une méthode développée depuis longtemps et encore actuellement. Si l’on utilise un fragment d’ADN extérieur, homologue à la séquence d’ADN que l’on veut réparer, mais sans les mutations indésirables, il peut s’intégrer dans le génome. Le problème rencontré est le manque d’efficacité de la méthode pour les cellules de mammifères (mais elle s’avère très efficace dans des cellules de levures). Néanmoins, on a trouvé depuis 1994 le moyen d’augmenter l’efficacité de l’intégration de l’ADN, et donc l’efficacité de correction : il s’agit d’effectuer la coupure à proximité du site que l’on souhaite modifier, d’où l’importance de bien cibler les coupures (Figure 13) [2]. Par rapport à la méthode précédente, où l’étape de recollement n’était pas contrôlée, on recolle dans ce cas exactement comme on le désire en intégrant la séquence voulue dans le milieu cellulaire. Mais on peut aller encore plus loin dans cette approche, en intégrant un gène entier ; et l’on s’est rendu compte qu’il est possible de faire exprimer dans une cellule des transgènes, rien qu’en les intégrant avec des fragments homologues… De là à envisager de faire des organismes génétiquement modifiés ?

Cibler l’ADN : pour la compréhension du vivant

Applications du « coupercoller » : des organismes génétiquement modifiés à la thérapie génique Effectivement, cette méthode de recombinaison homologue a été utilisée dans le cas de cellules souches embryonnaires de souris. Le prix Nobel de médecine 2007 a été décerné à Mario Capecchi, Oliver Smithies et Martin Evans qui ont réalisé l’exploit de générer des souris transgéniques grâce à des recombinaisons homologues réalisées dans des cellules souches embryonnaires (Figure 14). La population de cellules modifiées est enrichie, pour générer au final l’animal génétiquement modifié, le mutant. Le problème est que, pour l’instant, on sait faire des cellules souches pour la souris mais pas encore pour beaucoup d’autres organismes, tels que la drosophile ou le poisson zèbre, qui sont pourtant des modèles importants en biologie. On n’est donc pas encore capable de faire facilement des mutants ciblés. Mais il a été montré récemment qu’avec des ciseaux non synthétiques, des « nucléases à doigts de zinc » [3], il est possible de cibler des coupures en utilisant ce type d’approche. En plein développement, cette méthode permet d’espérer faire de la transgenèse dans d’autres organismes. Par ailleurs, les chercheurs suspectent que la réparation de l’ADN change selon l’endroit où l’on se situe sur le génome. Ici, la chimie a un rôle important à jouer. En effet, il est possible de cibler

des coupures avec une chimie donnée, bien contrôlée, ce que ne font pas les nucléases de nature protéique (qui font des réactions enzymatiques). Cela permettrait de mimer des coupures qui se produisent naturellement et d’en étudier les mécanismes de réparation. À plus long terme, quand on saura parfaitement corriger un gène, on pourra penser à utiliser cette méthode pour la thérapie génique. En effet, avec une maladie monogénique (voir le chapitre de J.F. Bach, paragraphe 1) et un gène à corriger, on peut non pas introduire un gène mais simplement utiliser cette approche de modification de séquence. Beaucoup de questions ne sont pas encore résolues. En effet, les résultats décrits sont obtenus avec une première génération de nucléases, mais la spécificité à l’échelle du génome est encore à préciser car, pour des applications de thérapie génique, il ne faut pas se tromper dans la correction du gène. Il faut aussi réussir à reconnaître de manière fine

Figure 14 Les souris génétiquement modifiées constituent un outil précieux pour la recherche thérapeutique.

53

La chimie et la santé

n’importe quelle séquence sur le génome. Il faut enfin savoir contrôler la chimie des coupures. Les chimistes ont donc encore beaucoup de travail en perspective !

2.2. Méthode 2 : cibler des gènes pour comprendre le fonctionnement des régions non codantes du génome

Figure 15 Reconnaissance des quatre paires de bases.

54

Nous avons vu que seulement 5 % du génome correspondent à des régions codantes, c’est-à-dire qui codent pour la synthèse de protéines nécessaires au fonctionnement cellulaire. Qu’en est-il du reste ? C’est l’objet de toute une recherche qui utilise justement le ciblage de l’ADN.

À la découverte de régions non codantes du génome et de la régulation de l’expression des gènes Pour étudier les régions non codantes, les chercheurs ont utilisé un type de molécules composées de plusieurs modules : pyrroles (Py) et imidazoles (Im). Elles se fixent dans le petit sillon de l’ADN et des paires Im-Im et Im-Py vont reconnaître les paires de bases de cet ADN. Le code de reconnaissance a été identifié par le chercheur Peter Dervan : une paire PyIm reconnaît un couple C-G, une paire Py-Py reconnaît un couple A-T et une paire ImPy reconnaît un couple G-C. On peut donc théoriquement reconnaître les quatre paires de bases (Figure 15).

une couleur rouge à l’œil de la drosophile. Mais chez des mutants naturels, l’œil est blanc. Or on voit que pour ces derniers, ce gène « white » est situé dans la région d’hétérochromatine, près du satellite III. Les régions satellites de ces mutants perturberaientelles ce gène censé donner l’œil rouge ?

La question que se sont posée les chercheurs était la suivante : quel est le rôle des régions satellites ?

La réponse est donc trouvée : les régions satellites régulent l’expression des gènes avoisinants, lesquels contribuent à donner la couleur rouge aux yeux.

Pour y répondre, l’expérience suivante a été réalisée : chez la drosophile sauvage, il existe un gène (le gène « white ») qui est un transporteur de pigment et qui donne

Cibler l’ADN : pour la compréhension du vivant

Ulrich Laemmli à Genève a étudié le rôle de certaines séquences non codantes appelées « séquences satellites » chez la drosophile [4] ; et Emmanuel Kas à Toulouse a essayé d’expliquer [5] les résultats observés, qui sont les suivants : près du centromère du chromosome X de la drosophile, on trouve les régions satellites (appelées hétérochromatine ou régions silencieuses), dont le « satellite III » est une région très riche en paires A-T. Il pourra donc être repéré par les paires de molécules Py-Py. À côté de ces séquences satellites, on est surpris de découvrir des gènes codant pour des ARN ribosomaux, que l’on sait être nécessaires à la prolifération cellulaire, et très exprimés (Figure 16).

Après avoir traité des larves de drosophiles mutantes (œil blanc) avec un oligopyrrole (P9), on a observé que leur œil devenait rouge. Cette molécule capable de se fixer sur le satellite III a donc une influence sur le gène « white », qui se trouve juste à côté. Ce gène n’était donc pas exprimé chez le mutant, mais le devient dès que le P9 s’est fixé sur le satellite III (Figure 17).

Cet exemple parmi d’autres montre bien que l’on dispose de molécules chimiques capables de repérer les séquences

Figure 16 Les séquences satellites dans le modèle drosophile. Emmanuel Kas (Toulouse) et Ulrich Laemmli (Genève).

55

La chimie et la santé Figure 17 L’oligopyrrole (P9) a été injecté chez la lignée mutante « whitemottled » de la drosophile. Étant capable de reconnaître des séquences A-T, il se fixe sélectivement sur le satellite III de l’hétérochromatine, ce qui a pour effet de lever l’inhibition du gène « white », et ce qui redonne à l’œil sa couleur rouge.

non codantes de l’ADN pour pouvoir les étudier, et avancer dans l’élucidation de leur rôle à l’échelle du génome.

On découvre ici une illustration du rôle essentiel joué par des régions non codantes du génome, ou régions satellites : réguler l’expression des gènes.

Vers des ciblages plus spécifiques pour la médecine du futur ?

56

La chimie peut donc concevoir et synthétiser des molécules capables de reconnaître une séquence choisie d’ADN. Néanmoins, il reste encore du travail pour parvenir à reconnaître n’importe quelle séquence d’ADN et réussir à caractériser de manière très précise le niveau de spécificité de ces molécules. En effet, seule une attaque totalement spécifique du gène ciblé fera la puissance de la méthode et de ses applications, surtout si celles-ci sont d’ordre thérapeutique. Les nombreux exemples développés dans ce chapitre ont néanmoins permis de montrer la richesse potentielle des applications, notamment en biologie mais aussi pour des applications thérapeutiques qui seront à développer dans le futur.

[1] Simon P., Cannata F., Perrouault L. , Halby L., Concordet J.-P., Boutorine A., Ryabinin V., Sinyakov A., Giovannangeli C. (2008). Sequence-specific targeted DNA cleavage mediated by bipyridine polyamide conjugates . Nucleic Acids Res., 36: 3531-3538. [2] Pingoud A., Silva G.H. (2007). Precision genome surgery. Nat Biotechnol., 25: 743-744. [3] Doyon Y., McCammon J.M., Miller J.C., Faraji F., Ngo C., Katibah G.E., Amora R., Hocking T.D., Zhang L., Rebar E.J. et al. (2008). Heritable targeted gene

disruption in zebrafish using designed zinc-finger nucleases. Nat. Biotechnol., 26: 702-708. [4] Janssen S., Cuvier O., Müller M., Laemmli U.K. (2000). Specific gainand loss-of-function phenotypes induced by satellitespecific DNA-binding drugs fed to Drosophila melanogaster. Mol. Cell., 6: 1013-1024. [5] Blattes R., Monod C., Susbielle G., Cuvier O., Wu J.H., Hsieh T.S., Laemmli U.K., Käs E. (2006). Displacement of D1, HP1 and topoisomerase II from satellite heterochromatin by a specific polyamide. EMBO J., 25: 2397-2408.

Cibler l’ADN : pour la compréhension du vivant

Bibliographie

57

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

de la biologie chimique à la découverte de nouveaux médicaments

1

Révolution génomique et chimie

La récente révolution génomique avait deux objectifs principaux. Le premier était le séquençage complet de l’ADN du génome humain distribué dans nos 23 paires de chromosomes et porteur de l’ensemble de notre information génétique. L’essentiel de ce travail a été achevé en 2003 et a permis d’identifier les quelque 25 000 gènes de notre génome (Figure 1, pour en savoir plus, voir le chapitre de C. Giovannangeli). Mais la caractérisation d’un gène ne donne aucune indication sur la fonction de la (ou des) protéine(s) qu’il génère. Or, les protéines constituent les véritables chevilles ouvrières de l’organisme en remplissant des fonctions très diverses indispensables à la structuration et à la vie des cellules. Un second objectif est donc l’identification de la fonction et du profil d’expression de toutes les protéines codées par ces gènes (le protéome, voir le chapitre de D. Mansuy,

encart « Dans la famille des “omes” »). La tâche est ardue et immense puisqu’en raison de différents mécanismes cellulaires, il existe au moins dix fois plus de protéines que de gènes (voir le chapitre de C. Giovannangeli, paragraphe 1.2), et l’on n’est qu’au début de l’aventure…

Jean-Pierre Maffrand La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments

La chimie thérapeutique :

Figure 1 Notre ADN, porté par l’ensemble de nos quelque 25 000 gènes. Quelles fonctions ces gènes commandent-ils ?

La chimie et la santé

Évidemment, cette multitude d’informations devrait faciliter la découverte de nouveaux médicaments avec des mécanismes d’action originaux, afin de répondre à des besoins médicaux insatisfaits.

Figure 2 En biologie chimique, on produit des petites molécules présentant une forte affinité avec une protéine, avec laquelle elle va pouvoir se lier. L’interaction petite molécule – protéine va activer ou inactiver la protéine, et déclencher une réponse fonctionnelle au sein de l’organisme.

62

Il existe de nombreuses approches scientifiques et techniques pour élucider les fonctions des protéines, et identifier celles qui pourraient avoir un lien avec des maladies et constituer de ce fait de nouvelles cibles thérapeutiques pour la recherche de candidats médicaments. On peut citer l’étude des maladies génétiques, d’animaux transgéniques, l’utilisation d’antisens ou de petits ARN interférents (voir le chapitre de C. Giovannangeli, encart « Les ARN interférents : une grande innovation dans la biologie moléculaire ») pour « éteindre » les gènes, l’utilisation d’anticorps monoclonaux ou d’aptamères pour neutraliser sélectivement des protéines, etc. Mais toutes ces approches peuvent prendre beaucoup de temps et ne conduisent souvent qu’à une

connaissance limitée de la cible. En fait, les généticiens et les biologistes ont réalisé que les chimistes pouvaient apporter une précieuse contribution à l’élucidation de la fonction des protéines. Ce que l’on appelle la biologie chimique (« chemical biology ») est un domaine de recherche en pleine évolution, dont l’objectif ambitieux est de disséquer les processus biologiques dans les cellules et les organismes, en produisant de petites molécules hautement spécifiques et fortement affines – des ligands ou « molécules-sondes » – pour chaque protéine exprimée. De telles interactions directes entre petites molécules et protéines (Figure 2) peuvent activer ou inactiver la protéine, et déclencher une réponse fonctionnelle (dite « phénotypique ») d’une cellule ou d’un organisme entier, dévoilant ainsi la fonction de la protéine. Nul doute que cette discipline révélera aussi de nouvelles cibles thérapeutiques.

C’est aussi le rôle de la traditionnelle chimie thérapeutique que de produire des candidats médicaments agissant sur des cibles protéiques. En ce sens, la chimie thérapeutique peut être considérée comme un sous-ensemble de la biologie chimique puisque, dans les deux cas, on recherche des ligands sélectifs de protéines et que l’on utilise pour cela des approches identiques ou voisines. Mais nous verrons par la suite que les candidats médicaments doivent satisfaire à plus de conditions que les petites molécules-sondes qui ont pour seul but de disséquer les mécanismes biologiques.

Les approches de la biologie chimique et de la chimie thérapeutique

2

2.1. La génétique chimique directe Une première approche appelée génétique chimique directe (« forward chemical genetics ») correspond en fait au criblage fonctionnel (« screening phénotypique ») qui a été abondamment pratiqué dans le passé pour la recherche de nouveaux médicaments. Si quelques-uns de ces criblages anciens se pratiquaient sur

cellules isolées, la plupart étaient réalisés in vivo chez l’animal, sur des modèles censés mimer des pathologies humaines. Cela prenait beaucoup de temps, limitait le nombre de molécules testées et nécessitait d’en synthétiser des quantités appréciables. Néanmoins, de grands médicaments ont été découverts par cette approche, et sont encore largement utilisés aujourd’hui. Dans la version moderne de la génétique chimique directe, on procède en trois étapes (Figure 3, à gauche) : 1) Tests fonctionnels (criblage) : un grand nombre de molécules sont testées in vitro sur des cellules, ou, plus rarement sur de petits organismes entiers (drosophile, nématode C. elegans, poisson zèbre). 2) On sélectionne celles qui produisent la réponse fonctionnelle recherchée, et, si nécessaire, on met en œuvre un programme chimique pour transformer et optimiser les meilleures molécules (« leads »).

La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments

La biologie chimique est un domaine de recherche qui a l’objectif ambitieux de disséquer les processus biologiques dans les cellules et les organismes.

3) Il reste ensuite à identifier la (les) protéine(s) responsable(s) de ces effets. Si un dysfonctionnement de cette protéine peut être associé à une maladie, elle devient une cible thérapeutique. Pour mettre en œuvre cette approche, il faut disposer de quatre technologies. 1) En premier lieu, une « librairie chimique » ou « chimiothèque » contenant un grand nombre de molécules à tester. Les

63

La chimie et la santé Figure 3 Les principes de la génétique chimique.

Figure 4 Les chimiothèques ou « librairies chimiques », une collection de molécules pour réaliser les tests de criblage sur des cibles thérapeutiques. On peut citer la chimiothèque nationale du CNRS dont la mission principale est de fédérer les collections de produits de synthèse et d’extraits de substances naturelles existant dans les laboratoires publics français, et d’en promouvoir la valorisation scientifique et industrielle.

64

compagnies pharmaceutiques ont des chimiothèques qui dépassent souvent le million de composés, même si tous ne sont pas criblés systématiquement sur tous les tests pratiqués. Ces molécules, obtenues par synthèse ou par extraction de sources biologiques diverses (plantes, bactéries, organismes terrestres ou marins… voir le chapitre de F. Albericio, paragraphe 2.1), résultent généralement des différents programmes de recherche conduits dans chaque société sur une longue période de temps. Des chimiothèques importantes et de qualité sont aujourd’hui commercialisées, et donc généralement accessibles aux chercheurs du secteur public (Figure 4). 2) Pour tester ces molécules, il faut disposer de tests phénotypiques in vitro sur cellules

entières ou organismes entiers. Ces tests doivent être automatisables, fiables, reproductibles et pertinents. Des automates ou des robots (Figures 5 et 6) sont utilisés pour un criblage de haute ou très haute capacité. Certains robots sont capables de traiter une centaine de milliers de molécules par jour ! Lorsque ces tests ont pour but de détecter des candidats médicaments, ils doivent être pertinents, c’est-à-dire mimer un effet biologique que l’on souhaite modifier dans la maladie visée. Un système informatique puissant est nécessaire pour stocker et analyser la masse de résultats générés. 3) Un groupe de chimistes est également nécessaire pour optimiser les meilleures molécules, les « leads », issues du criblage. Il est en effet très rare de trouver

4) Enfin, et ce n’est pas la tâche la plus facile, il faut disposer d’une panoplie de techniques pour identifier aussi rapidement que possible la (ou les) cible(s) biologique(s) responsable(s) des effets produits par les molécules finalement sélectionnées. On peut distinguer deux types d’approches – biologiques et génomiques – mais elles ne seront pas détaillées ici. Illustrons l’approche biochimique par un exemple dans le domaine de la recherche anticancéreuse. Suite à un criblage phénotypique de petites molécules sur un panel de dix types de cellules tumorales, l’une d’entre elles, le SSR 250411, a déclenché la mort par apoptose (mort cellulaire programmée) de la majorité de ces cellules. Par des techniques faisant intervenir notamment la photoaffinité, la chromatographie et la spectrométrie de masse, il a été montré que ces effets étaient dus à la liaison de cette molécule sur deux protéines

– l’α-tubuline et la kinésine mitotique CENP-E – qui jouent un rôle essentiel dans la division cellulaire. Ces protéines sont dès lors considérées comme des cibles thérapeutiques pour la recherche de nouveaux médicaments. Si la sous-unité β de la tubuline était déjà reconnue comme cible de divers anticancéreux dont le Taxol® et le Taxotère® (taxanes, voir le chapitre de F. Albericio, paragraphe 2.1.1), la sous-unité α n’a pas été jusqu’ici exploitée. De même, aucun antitumoral commercialisé n’affecte la protéine CENP-E. En résumé, un criblage phénotypique nous a permis de sélectionner une molécule antitumorale agissant par un mécanisme d’action original en se fixant simultanément sur deux cibles protéiques nouvelles. Ce produit s’est révélé particulièrement intéressant pour traiter des cancers résistants aux taxanes sur des modèles animaux. En fait, c’est une molécule analogue, plus puissante, avec de meilleures propriétés pharmacocinétiques, mais un même mécanisme d’action, qui a été sélectionnée pour un développement clinique (voir la Figure 11). Lorsqu’une cible originale a été ainsi découverte grâce à une molécule issue d’un

Figure 5 Les compagnies pharmaceutiques sont armées de robots de plus en plus performants permettant de tester en quelques jours leurs chimiothèques qui peuvent dépasser le million de molécules. Celles-ci sont obtenues par synthèse ou par extraction de milieux naturels. Par ailleurs, plusieurs millions de molécules sont aujourd’hui commercialement disponibles.

La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments

directement la molécule optimale dans la chimiothèque testée, en particulier lorsqu’on recherche un candidat médicament. On procède alors à diverses variations structurales par synthèse chimique, pour améliorer les propriétés attendues des « leads ».

Figure 6 Robot pour le criblage de molécules.

65

La chimie et la santé

criblage phénotypique, il peut être intéressant de poursuivre la recherche d’analogues plus puissants à travers un criblage direct sur cette cible, comme nous allons le décrire ci-après. 2.2. La génétique chimique inverse Le principal objectif dans la majorité des laboratoires reste aujourd’hui la recherche de molécules ayant une forte affinité pour des cibles protéiques présélectionnées, afin d’en modifier et d’en révéler leurs fonctions, lorsque celles-ci sont inconnues ou mal connues (biologie chimique), ou de détecter des candidats médicaments lorsque les connaissances déjà acquises sur ces protéines laissent soupçonner leur implication dans des maladies (chimie thérapeutique). Cette approche correspond à ce qui est appelé la génétique chimique inverse (« reverse chemical genetics ») (Figure 3, à droite). Ici encore, plusieurs technologies sont nécessaires : 1) Une librairie chimique, qui peut être la même que celle de l’approche précédente, est indispensable.

66

2) Des tests de criblage doivent évaluer l’affinité des molécules sur la protéine présélectionnée. Il en existe plusieurs types mais le plus pratiqué est le criblage biochimique qui mesure une réponse biologique donnée. On peut aussi réaliser un criblage biophysique basé sur une mesure physico-chimique des interactions entre la molécule et la protéine cible. Enfin, les

criblages virtuels utilisent la modélisation moléculaire assistée par ordinateur (voir le chapitre de F. Dardel). Il en existe différents types, mais dès lors que l’on dispose de la structure tridimentionnelle de la protéine cible – déterminée par étude cristallographique aux rayons X, ou en solution par résonance magnétique nucléaire (RMN) –, la méthode de choix consiste à analyser la complémentarité structurale d’un grand nombre de molécules pour un site particulier de la protéine cible (c’est le « docking »). Les ligands ainsi sélectionnés doivent être ensuite hiérarchisés sur la base de la force estimée de leurs interactions avec la cible (c’est le « scoring ») (Figure 7). Il existe plusieurs logiciels de docking et scoring et, en général, on en utilise plusieurs simultanément. On peut ainsi tester virtuellement des millions de molécules dont celles présentes dans nos librairies, celles commercialisées dont on ne dispose pas encore, et même des molécules qui n’ont encore jamais été produites mais dont la synthèse paraît réalisable ! Ces criblages virtuels sont séduisants mais encore très approximatifs et ne doivent être utilisés qu’en parallèle des autres méthodes. Ici encore, il faut des puissants ordinateurs pour gérer tous ces résultats et calculs. 3) Comme dans l’approche précédente, il faut des chimistes pour optimiser les « leads » résultant du criblage. 4) Si la cible est ici connue dès le départ, il faudra mettre en

Tous ces criblages sur cibles protéiques présélectionnées ont conduit à de nombreux ligands puissants et sélectifs qui ont constitué un apport fondamental à la connaissance de la fonction de ces protéines. Une minorité de ces ligands présentent les propriétés requises pour être des candidats médicaments et sont testés chaque année chez des patients. Hélas, beaucoup d’entre eux ne présentent pas le rapport bénéfice/risque escompté et sont abandonnés. Seul un petit nombre de ces ligands deviennent des avancées thérapeutiques. C’est le prix à payer pour la recherche de médicaments innovants, des « first-in-class » ! Mais ces échecs thérapeutiques restent un succès scientifique dans la mesure où ces molécules servent d’outils « chirurgicaux » pour élucider la fonction des protéines qu’ils affectent.

3

Les approches rationnelles

À côté des criblages phénotypiques ou sur cibles biochimiques présélectionnées, qui sont par définition aléatoires, des approches plus rationnelles peuvent aussi être utilisées pour produire des outils pharmacologiques ou des candidats médicaments. Cela signifie que, sur la base de connaissances scientifiques existantes, on peut concevoir à l’avance des molécules qui ont de bonnes chances d’atteindre la cible visée. À l’inverse, la structure des molécules issues des deux types de criblage évoqués plus haut est généralement inattendue.

Figure 7 Le criblage virtuel permet de tester de très grands nombres de molécules existantes dans les chimiothèques ou le commerce ou non encore existantes. Pour l’instant, cet outil est surtout utilisé en appui des méthodes expérimentales de criblage biochimiques ou biophysiques pour trouver des molécules se liant spécifiquement aux cibles protéiques. La modélisation moléculaire permet aussi d’affiner la structure de molécules actives sélectionnées par criblage expérimental.

La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments

place différents tests complémentaires in vitro et in vivo pour voir et comprendre les effets biologiques déclenchés par la fixation d’un bon ligand sur cette cible, c’est-à-dire pour découvrir ou approfondir sa fonction.

Les approches rationnelles sont très variées et nous présentons ci-après trois exemples qui utilisent tous des molécules bifonctionnelles, constituées de deux parties opérationnelles M1 et M2, liées entre elles par un bras appelé espaceur (« linker »). 3.1. Le Mylotarg®, contre les leucémies myéloïdes aiguës Le premier exemple concerne le Mylotarg®, une molécule

67

La chimie et la santé

développée par les laboratoires Wyeth, qui constitue une thérapie très ciblée des leucémies myéloïdes aiguës. Ce médicament est constitué de plusieurs molécules d’un cytotoxique1 très puissant accrochées par l’intermédiaire d’un espaceur à un anticorps monoclonal qui va reconnaître et se lier fortement à un antigène spécifique des cellules leucémiques. Ce complexe va ensuite pénétrer dans la cellule, des liaisons faibles de l’espaceur vont être rompues, et le cytotoxique ainsi libéré à l’intérieur de la cellule va la tuer (Encart « Les molécules bifonctionnelles : des médicaments intelligents »). 3.2. L’idrabiotaparinux® Le deuxième exemple correspond à un concept unique en thérapeutique humaine pour stopper très rapidement l’action d’un médicament dans l’organisme en cas de besoin. Le médicament en question est un anticoagulant et un antithrombotique (empêche la formation de caillots dans les vaisseaux sanguins), dont l’histoire est racontée dans l’encart « Les molécules bifonctionnelles : des médicaments intelligents ». La partie active de la molécule est un pentasaccharide de synthèse (idraparinux), qui mime le plus petit fragment de l’héparine encore pourvu de propriétés anticoagulantes et antithrombotiques. À un endroit judicieusement choisi de ce pentasaccharide est attachée une molécule de biotine (vitamine H ou B8) par

68

1. Cytotoxique : cellules.

qui

tue

les

l’intermédiaire d’un espaceur qui est ici stable dans l’organisme. Ce montage permet de conserver toutes les propriétés pharmacodynamiques et pharmacocinétiques de la partie pentasaccharide, et de supprimer presque instantanément ces effets, en cas d’hémorragie, en injectant de l’avidine (une protéine extraite de l’œuf de poule) qui a la propriété de se lier très fortement à la partie biotine provoquant une élimination très rapide du complexe ainsi formé (Figure 9). 3.3. Le SAR 106881® Le troisième exemple de recherche rationnelle de molécules se fixant sélectivement à une cible pourrait s’intituler « comment obtenir des agonistes à partir d’antagonistes ». Les FGF (Fibroblast Growth Factors) sont une famille de vingt-deux protéines qui agissent dans l’organisme par fixation sur quatre types de récepteurs. Cette fixation provoque la dimérisation et l’activation de ces récepteurs produisant divers effets possibles selon les FGF et la localisation des cellules réceptrices. Un effet bien connu est la stimulation de la prolifération des cellules endothéliales, cellules qui tapissent la paroi intérieure des vaisseaux sanguins et qui jouent un rôle clé dans la formation de néovaisseaux (angiogenèse). À la suite d’un criblage sur récepteur isolé et de l’optimisation chimique des « leads » détectés, il avait été montré

Le Mylotarg®, contre les leucémies myéloïdes aiguës Dans les leucémies myéloïdes aiguës, les cellules tumorales expriment à leur surface une protéine particulière : le CD33. Celle-ci peut être indirectement une cible de médicament. Comment ? Les chercheurs ont conçu une molécule bifonctionnelle, le Mylotarg®, qui est constitué d’un anticorps anti-CD33 lié à plusieurs molécules d’un puissant cytotoxique, la calichéamicine, par l’intermédiaire d’un espaceur comportant deux liaisons covalentes faibles (Figure 8). Lorsque l’on injecte ce médicament dans le corps d’un patient, il va se fixer sélectivement sur les cellules tumorales, grâce à l’établissement d’une liaison entre l’anticorps anti-CD33 et le CD33 (« reconnaissance »). Après internalisation dans la cellule, les liaisons faibles qui liaient la calichéamicine à l’anticorps sont rompues dans des compartiments acides (lysosomes), et ce toxique ainsi libéré va tuer les cellules tumorales après fixation sur le petit sillon de leur ADN. Plusieurs autres molécules bifonctionnelles, conçues sur ce principe de « charger » un anticorps, sont en développement aujourd’hui.

La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments

LES MOLÉCULES BIFONCTIONNELLES : DES MÉDICAMENTS INTELLIGENTS

Figure 8 Le Mylotarg®, médicament bifonctionnel, est constitué d’un anticorps anti-CD33 (en rouge), lié par un bras, appelé « espaceur » à un dérivé de la calichéamicine (en violet). La calichéamicine est produite par fermentation d’un microorganisme, le Micromonospora echinospora.

L’idrabiotaparinux®, contre les thromboses Rappelons que l’héparine est un mélange complexe de polysaccharides sulfatés, extrait d’intestins de porcs ou de poumons de bœufs, et ayant une activité anti-thrombotique : c’est un anticoagulant qui empêche la formation de caillots dans les vaisseaux sanguins. Dans les années 1980, l’industrie pharmaceutique française a réussi à isoler et à synthétiser le plus petit fragment de l’héparine encore pourvu d’une activité anti-thrombotique. C’est un pentasaccharide dont la synthèse en une soixantaine d’étapes a constitué un exploit industriel ayant permis la commercialisation d’un médicament.

69

La chimie et la santé

Par la suite, une autre molécule de structure similaire (un « analogue synthétique »), l’idraparinux, a été créée par les chimistes et présente une activité encore plus puissante, avec une durée de vie plus longue (une centaine d’heures chez l’homme, ce qui permet une seule administration par semaine par voie sous-cutanée). Mais tout anticoagulant comporte un risque hémorragique et même si l’idraparinux semblait moins hémorragipare que l’héparine standard dans des modèles animaux, la sécurité d’emploi d’un tel produit avec une si longue durée d’action et sans antidote connu était préoccupante. Les chercheurs ont alors trouvé une astuce : par l’intermédiaire d’un espaceur stable, ils ont fixé la biotine, molécule connue pour se lier très fortement à l’avidine – à un endroit judicieusement choisi de l’idraparinux. Ils ont ainsi obtenu une molécule bifonctionnelle, l’idrabiotaparinux®, qui a conservé les propriétés pharmacodynamiques et pharmacocinétiques du produit parent. Une fois injectée dans l’organisme, la partie idraparinux va se lier à sa cible protéique (ATIII) pour exercer son activité anticoagulante habituelle. Mais si l’on veut éliminer ce médicament de l’organisme (en raison d’une hémorragie), il suffira d’injecter au patient de l’avidine, qui va se lier fortement à la biotine et entraîner l’élimination rapide du complexe formé. En effet, l’avidine est une molécule qui s’élimine en seulement quelques minutes (Figure 9). De bons résultats ont été obtenus avec l’idrabiotaparinux® par voie sous-cutanée chez l’homme : il a présenté une activité anticoagulante maximale au bout de quatre heures et l’injection intraveineuse d’avidine à ce moment-là a provoqué une disparition quasi immédiate de l’effet anticoagulant.

Figure 9 L’idrabiotaparinux® est une molécule bifonctionnelle constituée d’une biotine couplée à l’idraparinux. La partie idraparinux se lie fortement à sa cible thérapeutique, l’antithrombine III (ATIII), dont elle va catalyser la fonction naturelle d’anticoagulant en stimulant sa fixation neutralisante sur le facteur de coagulation Xa. En cas d’hémorragie, on peut forcer l’élimination du médicament en injectant de l’avidine qui va se lier fortement à la biotine et permettre l’élimination rapide du complexe par les voies naturelles. 70

Il a été ensuite imaginé qu’en dimérisant cette molécule ou des analogues proches (M) à l’aide d’un espaceur stable de longueur appropriée (ML-M), on pourrait provoquer le rapprochement, la dimérisation et l’activation des récepteurs à l’instar des FGF naturels. Ce concept a été vérifié puisqu’une telle molécule, le SAR106881®, est entrée récemment en développement préclinique après avoir montré qu’elle stimulait effectivement l’angiogenèse dans divers modèles laissant espérer un intérêt thérapeutique pour revasculariser des territoires ischémiés (infarctus du myocarde, artérite…).

La biologie chimique et la chimie thérapeutique : des finalités et des contraintes différentes

4

Bien qu’en utilisant des techniques et des approches très voisines, la biologie chimique et la chimie thérapeutique ont des finalités différentes. Comme cela a déjà été souligné, la biologie chimique a pour objectif de produire des petites molécules très affines et très sélectives pour

un maximum de protéines humaines afin d’aider, à côté d’autres approches, à comprendre leur fonction. La chimie thérapeutique a quant à elle pour mission de découvrir des médicaments dont la plupart sont aussi des petites molécules se liant à des protéines. Mais on ne s’intéresse ici qu’aux protéines potentiellement impliquées dans des maladies, ce qui représente un nombre très limité par rapport à toutes celles du protéome. Selon les estimations, il n’y aurait qu’un nombre limité de cibles thérapeutiques (de quelques centaines à moins de 2 000), dont environ 300 auraient été exploitées par les médicaments existants. Par ailleurs, la fonction de ces protéines est en général assez bien connue lorsqu’elles sont choisies comme cibles thérapeutiques. Une autre différence notable est que les exigences de sélectivité d’une molécule pour sa cible sont généralement moindres en chimie thérapeutique. Le médecin et le patient sont plus concernés par le rapport bénéfice/risque que par la sélectivité, et beaucoup de médicaments doivent en fait leur intérêt à leurs effets simultanés sur des cibles multiples. La « polypharmacologie » n’est pas systématiquement liée à des effets indésirables. Par ailleurs, un médicament doit satisfaire à toute une série de contraintes auxquelles peuvent échapper les molécules produites dans une seule perspective biologie chimique. Dès le début d’un projet de recherche,

La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments

qu’une petite molécule, le SSR128129, était capable d’antagoniser les effets des FGF en empêchant compétitivement leur liaison sur la partie extracellulaire de leur récepteur. Ce produit présentait, comme attendu, de puissants effets antiangiogènes et antitumoraux dans divers modèles in vitro et in vivo chez l’animal.

71

La chimie et la santé

le chimiste thérapeute doit prendre en compte plusieurs critères pour synthétiser des molécules actives parmi lesquelles seront sélectionnés un ou deux candidats en développement préclinique (Encart « De la molécule au médicament : un chemin parsemé d’embûches », Figure 10). Un tel candidat doit être le meilleur compromis entre tous les critères de sélection exigés et n’est pas forcément la molécule la plus active de la série.

que le produit ne devienne un médicament commercialisé. Les abandons seront nombreux puisque, en moyenne, sur trente candidats entrant en développement préclinique, seulement dix parviendront au stade des études cliniques, et un seul deviendra finalement un médicament agréé par les autorités de santé (Encart « De la molécule au médicament : un chemin parsemé d’embûches », Figure 11 et le chapitre de F. Albericio, Figure 2).

La route sera ensuite longue, périlleuse et coûteuse avant

Encore plus de chimie au service des Sciences de la Vie

72

Il est hors de doute que la Biologie chimique et la Chimie thérapeutique s’intègrent dans les Sciences de la Vie et constituent un apport considérable dans la compréhension de la fonction des protéines. Dès lors qu’une petite molécule se lie sélectivement à une protéine et en modifie la (les) fonction(s), on est renseigné sur le rôle de cette protéine dans les processus biologiques qui la mettent en œuvre, in vitro et in vivo. Une telle approche présente des avantages indéniables, dans les études in vivo, par rapport à l’invalidation de gènes dans les classiques souris KO. Les petites molécules permettent par exemple : – d’éviter les problèmes de létalités embryonnaires et de mécanisme de compensation fréquemment observés dans les souris KO ; – de s’affranchir des longs délais de construction et de mise à disposition de ces souris ;

La Figure 10 présente quelques-unes des fourches caudines auxquelles doivent être soumises les molécules synthétisées par le chimiste thérapeute, avant même leur passage en développement préclinique. Elles doivent être brevetables, industrialisables, posséder de bonnes propriétés physico-chimiques (état cristallin, solubilité, stabilité…), être bien absorbées après administration orale, correctement distribuées dans l’organisme, ni trop, ni trop peu transformées par voie métabolique. Elles ne devraient pas générer de métabolites toxiques, ni être sources d’interactions médicamenteuses néfastes ; la vitesse d’élimination et la durée d’action pharmacologique de ces molécules doivent être appropriées à leur future utilisation clinique. Enfin, elles doivent être dépourvues d’effets toxiques (cardiovasculaires, hépatiques, mutagènes, tératogènes…), appréciées à travers des tests préliminaires, in vitro pour la plupart, qui seront complétés par des études toxicologiques plus lourdes lors du développement préclinique (Figure 11). Ces nombreux paramètres sont tous à prendre en compte : l’optimisation simultanée de plusieurs d’entre eux est un véritable casse-tête pour le chimiste thérapeute, mais c’est le prix à payer pour réduire autant que possible le nombre d’échecs et d’abandons après la mise en développement. Malgré toutes ces précautions, les chances de devenir un médicament restent faibles.

La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments

DE LA MOLÉCULE AU MÉDICAMENT : UN CHEMIN PARSEMÉ D’EMBÛCHES

Figure 10 De la molécule au médicament : un ensemble de paramètres à optimiser.

73

La chimie et la santé

Figure 11 De la cible thérapeutique au médicament : un long parcours.

74

– de moduler seulement un aspect fonctionnel d’une protéine en préservant les autres ; – d’agir au moment choisi, directement chez un animal adulte. Certes, les petites molécules présentent un inconvénient fréquent qui est un manque de spécificité. Cela est gênant dans l’optique biologie chimique mais peut être bénéfique dans une perspective chimie thérapeutique si cette « polypharmacologie » est finalement responsable de l’efficacité d’un médicament. En fait, il paraît crucial de combiner à la fois des approches génétiques, biochimiques et chimiques pour élucider la fonction des protéines et identifier et valider des cibles thérapeutiques. Pour rechercher ces petites molécules-sondes ou candidats médicaments, il paraît important de « ne pas mettre tous ses œufs dans le même

Cette chimie au service des sciences du vivant devrait se développer fortement pour plusieurs raisons : – Tout d’abord la prise de conscience par la communauté scientifique et les autorités que la chimie est une discipline précieuse pour la connaissance des mécanismes biologiques et la mise au point de nouveaux médicaments, même si une nouvelle vague médiatique remet les biomédicaments (biotherapeutics) loin devant les petites molécules de synthèse (voir le chapitre de B. Meunier, paragraphe 1.2.4). Par exemple aux États-Unis, le National Institute of Health (NIH) a créé le Molecular Libraries Screening Center Network (MLSCN) qui est un consortium de dix centres ayant chacun une expertise dans la mise au point de tests, dans les criblages haute capacité (HTS), dans la chimie et l’informatique. L’objectif du MLSCN est clairement de développer des sondes chimiques sélectives pour élucider de nouveaux mécanismes biochimiques.

La chimie thérapeutique : de la biologie chimique à la découverte de nouveaux médicaments

panier » en se limitant au criblage favori sur cible protéique identifiée (génétique chimique inverse). Le criblage phénotypique (génétique chimique directe) et la chimie rationnelle sont des approches complémentaires majeures.

– Des chimiothèques de qualité et des automates de criblage performants à des prix abordables sont récemment apparus sur le marché. De plus en plus d’équipes de recherche du secteur public peuvent ainsi acquérir ces technologies et se livrer à des activités autrefois réservées aux compagnies pharmaceutiques. – Des bases de données publiques et accessibles à tous (par exemple Pubchem, Connectivity Map, Drugbank, Chembank…) se sont développées, principalement aux États-Unis et au Canada pour mettre en commun l’énorme masse d’information sur la structure et l’activité des

75

La chimie et la santé 76

petites molécules et stimuler de nouvelles recherches. Bien loin de décliner, la Biologie chimique, au service de la connaissance scientifique, et la Chimie thérapeutique, au service de la santé, se fertiliseront mutuellement en aidant à mieux comprendre la chimie du vivant et ses dérèglements.

à son développement : l’indispensable chimie La société dans laquelle nous vivons n’est pas toujours consciente du rôle primordial que joue la chimie, parallèlement à la biologie et à la médecine, dans la prévention des maladies, leur traitement et leur guérison, qu’elles soient bénignes (médicaments dits de confort) ou sévères (antitumoraux, antibiotiques, antiviraux). Aux XVIIIe et XIXe siècles, la « matière chimique » était enseignée comme une discipline majeure et suscitait un grand respect. Au XXe siècle, sont apparues de nouvelles applications de la chimie, moins pacifiques, et des utilisations parfois peu ou pas contrôlées, y compris dans les domaines où son apport a été et reste un élément fondamental dans le progrès de notre bien-être, ou l’accroissement de notre espérance de vie – l’agriculture, l’alimentation, les matériaux ou l’énergie, en n’oubliant pas son apport dans le domaine de la santé. Pire encore, le chimiste est souvent pris à partie et tenu pour responsable de la plupart des maux modernes, marées noires et autres accidents écologiques. Et pourtant, l’introduction d’un nouveau produit chimique sur

le marché, qui est de plus en plus complexe et exige très souvent de très nombreuses étapes de fabrication, fait l’objet de réglementations de plus en plus sévères (voir l’encart « De la molécule au médicament : un parcours parsemé d’embûches » du chapitre de J.-P. Maffrand). Le coût de la recherche augmente très fortement et, corrélativement, le nombre de produits nouveaux qui voient le jour chaque année diminue, une vingtaine en moyenne au cours des dernières années (Figure 1). La situation est encore plus difficile dans le domaine du médicament et des produits de santé en général. Des contraintes réglementaires aussi strictes que celles de l’AMM (voir l’encart « L’autorisation de mise sur le marché d’un médicament » du chapitre de D. Mansuy) et de REACH ont pour objectif la protection de notre environnement et de notre santé, et sont donc tout à fait justifiées et acceptées au regard de la responsabilité des industriels vis-à-vis du public. À titre d’exemple, la mise sur le marché d’un nouveau médicament exige un investissement (recherche

D’après la conférence de Fernando Albericio De la conception du médicament à son développement : l’indispensable chimie

conception du médicament De la

La chimie et la santé Figure 1 Le nombre de nouveaux produits chimiques mis sur le marché a diminué entre 1992 et 2006, en même temps que le coût de la R&D a augmenté.

et coût de développement) sans cesse plus élevé et nécessite un temps de plus en plus long, pour répondre aux exigences réglementaires. Le retour sur investissement, lui, diminue en conséquence (voir le chapitre de B. Meunier, paragraphe 1).

Mettre un médicament sur le marché, comment faire… et réussir ?

1

1.1. Un parcours parsemé d’embûches

78

Entre la découverte dans le laboratoire (public ou privé) d’un « candidat médicament » et le moment où, reconnu efficace et sans danger, on le trouvera dans une officine, le cheminement est long et rempli d’obstacles, comme l’illustre la Figure 2 (voir aussi le chapitre de J.-P. Maffrand, Figure 11). Au bout du processus, il en restera un sur plusieurs milliers testés, après l’intervention d’un nombre considérable d’acteurs, scientifiques, médecins, patients, mais aussi financiers, juristes, etc.

L’augmentation des coûts et les difficultés pour parvenir à réaliser et mettre sur le marché le produit qui sera le « nouveau médicament » exigent de l’industrie pharmaceutique qu’elle adopte un mode nouveau d’organisation et de relation avec son environnement pour optimiser des moyens techniques et financiers, certes très supérieurs à ceux du secteur public (universités, organismes de recherche), mais qui ne sont pas extensibles à l’infini.

1.2. Une alliance des forces Le modèle américain dit d’« extended company » semble être le plus efficace actuellement : il se base sur une organisation dynamique en réseau qui orchestre toute une série de modes d’action complémentaires – externalisation, collaboration, contrats, licences – associant un à plusieurs industriels de la pharmacie, des petites entreprises et des groupes de recherche académiques, qui peuvent répondre aux besoins d’un ensemble que

De la conception du médicament à son développement : l’indispensable chimie l’on pourrait nommer « Big Pharma ». Pour être réellement interactives en temps réel et donc efficaces, il est important que les diverses entités complémentaires soient réunies sur un même site et y disposent d’infrastructures mutualisées, notamment informatiques et de gestion. La Figure 3 illustre comment un tel ensemble pourrait fonctionner, ses avantages et ses inconvénients. Ce réseau, organisé autour de l’articulation centrale Académie-Biotech-Sociétés, nécessite la création de nouveaux espaces, ce que

l’on appelle des « parcs scientifiques », sur lesquels s’installent des laboratoires académiques (Encart « Valoriser la recherche, promouvoir l’innovation, réussir Ces l’industrialisation »). parcs, véritables dynamisants de la relation entreprisesuniversités, ont pour vocation première d’encourager la formation et la croissance d’entreprises en renforçant leur capacité d’innovation. Ils ont bien entendu comme autre objectif de promouvoir le dialogue entre la science et la société afin de faire mieux connaître, par exemple, les travaux des chimistes.

Figure 2 De l’idée à la mise sur le marché d’un nouveau médicament : un long cheminement. Le chimiste y tient un rôle fondamental. C’est lui qui mène le jeu dans la première phase du processus d’élaboration des médicaments, le « discovery » : l’étape où l’on identifie une molécule active.

79

La chimie et la santé Figure 3

80

Le « Big Pharma », ou le modèle d’« extended company », un réseau de partenaires mobilisés dans la recherche des médicaments : des sociétés (souvent des PME-PMI), des plateformes technologiques (dont le but est d’optimiser les moyens et les compétences dont disposent les établissements publics d’enseignement, par leur mutualisation au service des PME-PMI), des organismes de recherche académiques, des biotech (entreprises spécialisées dans de nouvelles technologies en biologie), des organismes de recherche sous contrat (CRO) – par exemple des entreprises d’essais cliniques –, et des hôpitaux.

Depuis de nombreuses années et dans tous les pays, diverses expériences ont été tentées pour optimiser la créativité et l’innovation dans le but d’assurer une meilleure compétitivité sur les marchés intérieurs et extérieurs, une économie dynamique, la création d’emplois. Ces initiatives sont basées sur une même idée, favoriser les échanges entre chercheurs de disciplines différentes, entre chercheurs et industriels, entre inventeurs et financiers… La multiplication de ces structures vient de leur indéniable succès, avec le Cambridge Research Park en Grande-Bretagne ou la Silicon Valley aux États-Unis. Nés dans les pays anglo-saxons, les parcs scientifiques sont, selon la définition officielle donnée par l’« International Association of Science Parks » (IASP), des structures géographiquement localisées, gérées par des spécialistes et dont le but principal est d’accroître la richesse de la communauté qui les constitue par la promotion de la culture de l’innovation, ainsi que la compétitivité des entreprises et institutions fondées sur le savoir qui y sont associées ou implantées. Pour atteindre ce but, un parc scientifique doit stimuler et organiser le transfert des connaissances et des technologies parmi les universités, les structures de R&D, les entreprises (souvent petites et moyennes) et les marchés, faciliter la création et la croissance de structures industrielles axées sur l’innovation en leur offrant divers services à haute valeur ajoutée.

De la conception du médicament à son développement : l’indispensable chimie

VALORISER LA RECHERCHE, PROMOUVOIR L’INNOVATION, RÉUSSIR L’INDUSTRIALISATION

Les technopoles françaises s’inspirent souvent du modèle anglo-saxon, et, comme les expériences japonaises, comportent une part importante de recherche appliquée. Ils sont définis comme la réunion en un même lieu d’activités de haute technologie, centrées sur un thème donné (électronique, chimie, biologie…), et associant recherche publique et privée, ainsi qu’organismes financeurs, en facilitant les contacts personnels entre ces milieux. Leur objectif est souvent la production industrielle de haute technologie et les services aux entreprises, comme les incubateurs. Il en existe une petite centaine sur le territoire français, dont les plus anciens et/ou les plus connus sont Sophia Antipolis, Atalante à Rennes,. Futuroscope près de Poitiers, etc. Le pôle Axelera, particulièrement dédié à la chimie, a été créé autour de Lyon et retenu parmi les pôles à rayonnement mondial. La création des pôles de compétitivité a été décidée par le gouvernement français lors d’un comité interministériel d’aménagement et de compétitivité du territoire (CIACT) en décembre 2002, puis concrétisé lors du CIACT du 14 septembre 2004. La loi de finances pour 2005 (Pacte pour la recherche) les définit comme « le regroupement sur un même territoire d’entreprises, d’établissements d’enseignement supérieur et d’organismes ou centres de recherche publics et privés qui ont vocation à travailler en synergie pour mettre en œuvre des projets de développement économique pour l’innovation ». Leur objectif premier est de rendre l’économie régionale et nationale plus compétitive, plus lisible au niveau international, d’attirer ou de faire émerger de nouvelles entreprises, de créer des emplois. Leur vocation est thématique et le territoire impliqué est large, souvent régional voire interrégional. Ils bénéficient de subventions publiques et d’un régime fiscal favorable. Plusieurs appels successifs se sont concrétisés par la reconnaissance de plus de 70 pôles, regroupant plus de 9 000 chercheurs.

81

La chimie et la santé Figure 4 Le parc scientifique de Barcelone.

82

C’est ce que tente de réaliser le parc de Barcelone qui compte 2 200 professionnels (la plupart sont des universitaires) (Figure 4). Les activités du parc sont organisées autour de la thématique des Sciences de la Vie, mais d’autres domaines assurent la nécessaire multidisciplinarité comme les langues, le droit et l’économie, condition de la réussite. Trois organismes principaux participent aux travaux de recherche du parc de Barcelone, qui entretient maintenant des relations avec plus de 50 entreprises !

Le chimiste, le premier chaînon de l’innovation thérapeutique

2

Le chimiste tient un rôle fondamental dans la première phase du processus d’élaboration d’un nouveau médicament, la phase de découverte et de conception, dite « Discovery » (voir Figure 2), étape où se fait un choix déterminant, où le risque sur la santé est grand mais le coût de recherche encore limité, quoiqu’en augmentation constante. Les exemples qui suivent illustrent deux approches importantes que le chimiste

2.1. Les produits naturels à la source de l’innovation pharmaceutique De nombreuses molécules extraites de la nature – plantes et autres organismes vivants, de la terre comme de la mer [1] – ont démontré leur grande utilité pour combattre de nombreuses maladies. En les étudiant, les chercheurs ont pu élucider les mécanismes cellulaires complexes sous-jacents à leur activité thérapeutique. C’est ainsi qu’ils ont découvert de nouvelles « cibles thérapeutiques », à savoir des entités de notre organisme (protéines, ADN, etc.) sur lesquelles peuvent agir des médicaments pour nous soigner. Poussant encore plus loin leur recherche, ils ont ainsi pu concevoir de nouvelles molécules, ressemblant aux produits naturels, mais avec des propriétés thérapeutiques encore meilleures. Cette démarche a permis de réaliser de grandes avancées, si bien que 61 % des nouvelles molécules chimiques introduites comme médicaments au cours de la période 1981-2002 sont inspirées de produits naturels (78 % des antibactériens, 74 % des anticancéreux), ce chiffre atteignant 80 % en 2003. Ainsi le chimiste est à l’écoute de la nature et sait s’en inspirer, comme expliqué dans le chapitre de D. Mansuy (paragraphe 3 : « La chimie d’après le vivant »). Cette rencontre fertile entre le chimiste et la nature peut

être racontée à travers deux découvertes majeures de médicaments, l’un issu de la terre, l’autre de la mer. Dans les deux cas, le chimiste a su isoler les molécules de leur source naturelle, il a pu déterminer leurs structures et, après avoir mis en évidence leurs propriétés thérapeutiques, il a su les « recopier » en les synthétisant au laboratoire, puis dans les réacteurs industriels à l’échelle de la tonne, pour aboutir, dix à quinze ans plus tard, à la distribution de médicaments sur le marché. 2.1.1. Taxol et Taxotère®, une histoire de chimiste L’histoire du taxol, ainsi que la découverte et la commercialisation d’un de ses dérivés, le Taxotère®, sont emblématiques des bienfaits à attendre de l’exploitation de la diversité des substances naturelles. Depuis la caractérisation des propriétés antitumorales du taxol, molécule naturelle extraite de l’if, il s’est écoulé trente ans avant d’aboutir à la commercialisation du médicament Taxotère®. En voici le récit. C’est en 1962 qu’un botaniste américain, Arthur Barclay, découvrit les propriétés inattendues des extraits d’écorce d’un arbuste anonyme, un if présent dans les forêts primaires de l’Ouest (Figure 5). L’extrait actif, qu’il appela taxol, fut purifié par le chimiste Monroe Wall et son mode d’action, original, élucidé en 1979. Les travaux menés durant cette période avaient nécessité une centaine de kilos d’écorces séchées ce qui représentait le sacrifice

De la conception du médicament à son développement : l’indispensable chimie

met en œuvre au service de la santé, dans le domaine de la synthèse de médicaments.

83

La chimie et la santé

de 400 arbres. Les essais biologiques menés au cours des dix années suivantes ont exigé 3,25 tonnes d’écorce, puis trente tonnes en 1987, extraits de cette espèce à croissance très lente. C’est dire que l’extinction de l’espèce était programmée si la commercialisation du taxol, notamment pour le traitement du cancer de l’ovaire, était décidée. Choix cornélien entre la pression de mouvements féministes et celle d’écologistes partisans de la préservation de la biodiversité : « Sauver une vie, tuer un arbre » avait titré le New York Times à l’époque. Finalement, la société Squibb commença la commercialisation du taxol fin décembre 1992.

Figure 5 La pervenche de Madagascar est une plante qui produit deux principes actifs antitumoraux : la vinblastine et la vincristine, isolés entre 1958 et 1965.

84

En France, l’institut de chimie des substances naturelles (ICSN), laboratoire du Centre national de la recherche scientifique (CNRS) sous la direction de Pierre Potier, avait déjà démontré sa capacité à isoler, caractériser et réussir la commercialisation de produits naturels. Rappelons la première réussite de Pierre Potier, qui avait été la découverte d’un composé complexe (un alcaloïde indolique), la vinblastine, extrait de la pervenche de Madagascar, suivie de la mise au point d’un dérivé « non naturel », la Navelbine®, actif dans le traitement du cancer du sein et de certains cancers du poumon (Figure 5). Mais revenons au taxol… La plupart des agents anticancéreux ont pour cible directe l’ADN des cellules cancéreuses, inhibant leur division cellulaire, ce qui stoppe le développement du cancer. Le

taxol, quant à lui, a montré un mécanisme d’action original en empêchant la formation du fuseau mitotique, structure protéique (la tubuline) nécessaire à la division de la cellule cancéreuse, et donc à son développement. La mise au point, dès les années 1970, d’un test in vitro d’affinité pour la tubuline, permit de rechercher efficacement des précurseurs du taxol précisément dans les aiguilles et les rameaux de l’if européen, Taxus baccata, d’où fut extraite une molécule facilement transformée et en peu d’étapes en taxol (Figure 6). Au cours de cette hémisynthèse, fut isolé le Taxotère®, molécule non naturelle qui s’était avérée deux fois plus active que le taxol, et qui est aujourd’hui également largement commercialisée. Le chiffre d’affaire mondial de ces composés synthétiques, Navelbine® et Taxotère®, dépasse 1,5 milliard d’euros. 2.1.2. Un médicament de la mer : le Yondelis® Le Yondelis® est un autre médicament antitumoral, et son principe actif est la trabectidine (ET 743). Cette molécule avait été découverte par extraction à partir d’un animal marin de la famille des tuniciers, Ecteinascidia turbinata (Figure 7). Suite à l’observation de son mécanisme d’action anticancéreuse original, en interférant dans les processus de division cellulaire et de transcription génétique ainsi que dans les systèmes de réparation de l’ADN, cette molécule a été développée en tant que médicament, Yondelis®. Celui-ci a reçu en juillet 2007 son autorisation de

De la conception du médicament à son développement : l’indispensable chimie commercialisation (AMM) de la part de la Commission européenne pour le diagnostic du sarcome de tissu mou avancé. En outre, il se trouve en essai clinique de phase III pour le cancer de l’ovaire. Des essais de phase II sont aussi en cours pour le cancer du sein et celui de la prostate, et des essais de phase I pour les tumeurs pédiatriques. Comment obtenir le Yondelis® ? Trois voies sont envisageables : 1) par aquaculture : extraction et purification (par chromatographie) de lots de Ecteinascidia turbinata. Mais le rendement total de tout le processus est trop faible et ne permet pas l’industrialisation du médicament, faute de rentabilité ;

2) par synthèse totale : cet exploit de la chimie qu’a accompli le prix Nobel Elias J. Corey a permis d’obtenir, à partir de « briques moléculaires » très simples et au bout de 44 étapes… quelques milligrammes de la structure complexe de l’ET 743. Cette méthode n’est évidemment pas viable pour une production industrielle de Yondelis® ; 3) par hémisynthèse : un procédé de synthèse utilise comme produit de départ la safracine B cyano (Figure 7). Ce précurseur est un antibiotique d’origine bactérienne qui peut être obtenu en grande quantité par fermentation à partir de la bactérie Pseudomona fluorescens. L’utilisation de cet intermédiaire

Figure 6 Structures du taxol et du Taxotère®. Le précurseur du taxol est extrait du Taxus baccata, pied femelle cultivé au Jardin des Plantes (Paris).

85

La chimie et la santé

A

B

Figure 7

avancé permet la synthèse du Yondelis® en « seulement » 21 étapes, soit moins de la moitié de celle de la synthèse totale.

A. Le tunicier Ecteinascidia turbinata vit en grappes dans la mer des Caraïbes et en Méditerranée. Les tuniciers sont des créatures marines enveloppées d’une membrane coriace, la tunique. B. Ecteinascidia turbinata produit une molécule ET 743, dont les propriétés anticancéreuses originales ont amené la société biopharmaceutique espagnole PharmaMar à le développer en tant qu’anticancéreux : le Yondelis®. L’une des voies possibles d’obtention d’ET 743 est une hémisynthèse à partir de la safracine B cyano.

86

2.2. De la chimie verte dans la recherche de médicaments : faire de la chimie sans solvants ? Entre le moment où une molécule, sortie de la phase « discovery », a été élue pour être un futur médicament, et le moment de son développement dans les usines, entre en jeu une phase d’optimisation où les chimistes ont pour mission de mettre au point un procédé de synthèse de la molécule qui soit la plus rentable, la plus reproductible à grande échelle, mais aussi la plus respectueuse de l’environnement. Cette dernière contrainte prend de plus en plus d’importance ; la « chimie verte » est une préoccupation croissante de l’industrie chimique. Cette phase de synthèse chimique est cruciale et peut prendre plusieurs années. C’est un véritable art qui nécessite

de mobiliser en amont une recherche fondamentale poussée, en vue d’améliorer les procédés de synthèse industrielle (Figure 8). De manière classique, la synthèse chimique se fait en milieu liquide, dans un ou plusieurs solvants – éventuellement en milieu gazeux –, que ce soit au stade du laboratoire (petite verrerie) ou au stade de l’usine (cuves, réacteurs). Cela semble être une question de bon sens : pour que deux molécules réagissent entre elles, il faut qu’elles soient suffisamment mobiles dans l’espace pour pouvoir se rencontrer. Mais les inconvénients sont grands : à la fin de la réaction, il faudra extraire les produits, les séparer les uns des autres, éliminer le solvant… des étapes consommatrices d’énergie, créatrices de résidus donc de polluants. Trop polluants et trop coûteux les milieux liquides ? Mais alors pourquoi ne pas se tourner vers les milieux solides ? C’est ce qu’ont étudié et inventé les chercheurs chimistes.

La synthèse chimique en phase solide est une technique relativement nouvelle, permettant entre autres d’éviter l’utilisation de grandes quantités de solvants. Le concept est relativement simple : il consiste à avoir l’un des réactifs sur un support solide (en général un polymère comme le polystyrène), l’autre étant ajouté en excès, quand c’est possible, pour assurer un rendement acceptable. Les produits secondaires sont ensuite éliminés par simple lavage et filtration. Le support solide est recyclable, ce qui réduit les déchets. Les synthèses chimiques sont moins dangereuses et moins nocives, du fait de la grande stabilité chimique et physique des supports solides dans la plupart des cas. Dans les cas où elle est applicable, la synthèse chimique en phase solide présente de nombreux avantages : – Les manipulations sont plus simples : toutes dans le même réacteur. – Les« workups »(traitements : neutralisations, lavages, séparations de phases, etc.) sont plus simples. – On peut utiliser en cas de nécessité absolue des

solvants, « difficiles », coûteux ou dangereux (par exemple : le diméthylformamide, le diméthylsulfoxyde). – On peut automatiser. – Des solvants en principe incompatibles peuvent coexister. – Elle est utile pour les très petites échelles (μmol-nmol) ainsi que pour les très grandes échelles. – Elle peut faciliter des réactions chimiques délicates à mettre en œuvre, lorsque le produit est fragile (par exemple certaines cyclisations). Mais également quelques d’inconvénients : – Les réactions fonctionnent un peu moins bien qu’en solution dans un solvant. – Il est plus difficile de suivre et de contrôler la progression de la réaction. – Il est difficile de caractériser les intermédiaires de synthèse. – Les réactions qui requièrent uniquement un équivalent de réactifs (donc impossibilité de mettre des excès de réactifs) sont problématiques. – Contrairement à ce qui se passe avec la majorité des réactifs chimiques, la source commerciale du support solide est extrêmement importante.

Figure 8 Recherche en amont au laboratoire ou développement en usine, chaque étape est cruciale et repose sur les chimistes.

De la conception du médicament à son développement : l’indispensable chimie

2.2.1. La révolution de la synthèse en phase solide

87

La chimie et la santé

– Le polymère n’est pas toujours stable face aux conditions utilisées. 2.2.2. La synthèse peptidique en phase solide : un outil remarquable au service de la recherche thérapeutique La synthèse en phase solide trouve une application de choix dans la synthèse de peptides. Les peptides sont de petites protéines très étudiées dans la recherche pharmaceutique. On peut aisément le comprendre. En effet, d’une part, notre corps est constitué de millions de protéines, et les chercheurs ont besoin d’en reconstituer au laboratoire, du moins par fragments, afin de réaliser des expériences permettant de visualiser comment fonctionnent dans nos cellules les enzymes, hormones, récepteurs, anticorps, neurotransmetteurs, facteurs de croissance ou toute autre

protéine. D’autre part, les peptides peuvent jouer un rôle plus concret pour la santé : ils sont utilisés dans le développement de vaccins ou encore de tests diagnostiques. Les peptides sont tous structurés selon un enchaînement de plusieurs briques élémentaires, les acides aminés (il existe vingt acides aminés naturels que notre corps se procure lorsque l’on mange de la viande notamment). Le caractère répétitif que présentent ces structures a donné des idées aux chimistes, et en particulier au prix Nobel de chimie Robert B. Merrifield, pour mettre au point une méthode de synthèse standard et automatisable de peptides, et ce, en phase solide. Les années 1960-1990 ont connu l’essor de la synthèse peptidique en phase solide (Encart « L’idée géniale d’un chimiste qui voulait synthétiser beaucoup de protéines, et très vite ! »).

L’IDÉE GÉNIALE D’UN CHIMISTE QUI VOULAIT SYNTHÉTISER BEAUCOUP DE PROTÉINES, ET TRÈS VITE ! Depuis les travaux pionniers de Robert B. Merrifield (prix Nobel de chimie en 1963), la synthèse peptidique sur phase solide a connu un développement constant. Il existe deux approches de synthèse en phase solide : l’une est dite séquentielle et elle est adaptée pour la synthèse de peptides de petites et moyennes tailles ; pour les plus grands peptides, cette synthèse est inadaptée industriellement et l’on utilise la synthèse dite convergente (Figure 9). Un exemple de synthèse peptidique sur support solide, utilisant à la fois les deux approches, est celle du peptide T20 (Fuzéon Roche), dont l’action est d’empêcher l’entrée du virus VIH dans la cellule humaine. Le caractère itératif de la synthèse peptidique sur support solide a permis de mettre au point un procédé automatisable, dont le succès a conduit dans les années 1990 au développement de la « synthèse combinatoire », généralisée à d’autres types de réactions chimiques simples. Cette méthode a suscité un large engouement dans le domaine de la chimie pharmaceutique, du fait de la possibilité qu’elle offre de synthétiser des collections entières de molécules (appelées « chimiothèques ») à l’aide d’opérations très simples et automatisables. 88

De la conception du médicament à son développement : l’indispensable chimie

Son principe est simple : alors que la chimie classique fait réagir un produit A sur un produit B pour obtenir la molécule A-B, la chimie combinatoire utilise une famille de réactifs Ai (A1, A2..., An) et les fait réagir sur une famille de Bj (B1, B2..., Bm). On obtient ainsi une combinaison de n × m produits différents Ai-Aj. Le chapitre de J.-P. Maffrand décrit les moyens dont dispose l’industrie pharmaceutique pour tester ensuite des milliers voire des millions de petites molécules en peu de temps, ainsi que les applications de ce procédé dans la recherche de médicaments sur des cellules ou organimes vivants, en vue d’identifier des candidats médicaments.

Figure 9 A. Synthèse séquentielle : en premier lieu, le premier acide aminé, d’abord « protégé », est greffé au support solide (boule bleue) ; après déprotection, on y greffe le deuxième acide aminé lui-même protégé ; on déprotège ce deuxième acide aminé, auquel on greffe alors le troisième, et ainsi de suite. B. Synthèse convergente : on assemble plusieurs fragments de peptides, obtenus chacun par synthèse séquentielle.

De la molécule au médicament : les chimistes, des acteurs clés pour la santé Les bienfaits apportés par le chimiste et la chimie à la société sont particulièrement illustrés dans la recherche de médicaments. Mais cela ne va pas sans faire face à de nombreux risques, tant d’un point de vue environnemental qu’économique. De la molécule au médicament, les étapes sont nombreuses, les risques d’échec augmentent au fur et à mesure que l’on approche des derniers tests cliniques : à partir du principe actif qui constitue la découverte et qui pourra être breveté (durée de validité du brevet : 20 ans), des premiers tests d’affinité, de sélectivité et de toxicité, de la mise au point d’une synthèse industrielle efficace et reproductible aux tests précliniques puis cliniques, il se passera

89

La chimie et la santé Figure 10 Les dossiers de demande d’autorisation de mise sur le marché (AMM) de médicaments sont connus pour être des montagnes de papier.

10 à 15 ans (voir le chapitre de J.P. Maffrand, Figure 11). L’investissement nécessaire varie de 500 millions à 1 milliard d’euros, avec une probabilité d’échec proche de 95 à 99 %. Pour se rendre compte de la lourdeur du processus, un dossier type d’autorisation de mise sur le marché (AMM, voir l’Encart « L’autorisation de mise sur le marché d’un médicament » du chapitre de D. Mansuy) est constitué de plusieurs milliers de pages (Figure 10) : – chimie, 10 pages ; – analyses, 400 pages ; – formulation, 100 pages ; – études précliniques, 10 000 pages ; – études cliniques, 100 000 pages. Ces éléments montrent à quel point, pour réussir, il est nécessaire de faire interagir les diverses disciplines, les divers métiers, y compris les métiers juridiques et financiers. Les parcs scientifiques, les technopoles sont des lieux particulièrement adaptés pour que les contacts personnels soient les plus fructueux et permettent d’optimiser les chances de succès. En conclusion, les chimistes jouent un rôle essentiel dans le domaine de la santé, au même titre que les médecins et les pharmaciens. Loin de n’être qu’un pollueur ou un savant fou, le chimiste participe à sa façon à l’amélioration de la qualité de la vie des citoyens pour la santé et le bien-être social.

Bibliographie [1] La Chimie et la mer, ensemble au service de l’homme, coordonné par Minh-Thu Dinh-Audouin, EDP Sciences, 2009. 90

et un mariage particulièrement fécond Chimie et biologie sont en dialogue constant pour faire progresser la connaissance, en particulier pour la découverte de nouvelles molécules actives dans le domaine de la santé. En effet, un médicament est d’abord une molécule et, sans la chimie, on ne peut ni la connaître, ni surtout la synthétiser, comme nous l’avons vu dans le chapitre de F. Albericio (paragraphe 2.1) (Figure 1).

Médicaments, la révolution du XXe siècle

1

Au cours du XXe siècle, le médicament a connu d’énormes progrès, une véritable révolution. Au début de ce siècle, on connaît déjà beaucoup de sédatifs contre la douleur, mais rien encore de véritablement efficace dans un domaine qui fait des ravages, celui des anti-infectieux (l’épidémie de grippe espagnole de 1918-1919 a fait plus de morts que la guerre de 1914-1918). L’une des révolutions les plus extraordinaires du XXe siècle a sans aucun doute été la découverte des antibiotiques,

classe d’anti-infectieux particulièrement performants, dont les molécules sont souvent d’origine naturelle. Il en existe beaucoup et avec des formules très diverses ; la Figure 2 en donne un exemple typique, ce qu’on appelle une « tête de série ».

De nombreux médicaments sont des produits naturels

2

La plupart des molécules antiinfectieuses, en particulier les antibiotiques, sont à l’origine produites par des organismes vivants : bactéries, champignons, plantes, etc. comme mentionné précédemment. Ce fait illustre bien le lien entre les deux disciplines, chimie et biologie. En effet, le système vivant, comme le chimiste dans son laboratoire, effectue

D’après la conférence de Frédéric Dardel Chimie et biologie, un mariage particulièrement fécond

Chimie biologie,

Figure 1 Un médicament, c’est d’abord une molécule.

La chimie et la santé

d’une grande importance car elle a permis de soigner la tuberculose, la première maladie infectieuse de l’époque. Même de nos jours, alors qu’on la croyait éradiquée au moins dans les pays à haut revenu, une personne sur trois sur Terre est encore porteuse de la bactérie Mycobacterium tuberculosis. Figure 2 Le chloramphénicol a longtemps été utilisé comme antibiotique depuis les années 1950. Son mode d’action consiste en une fixation de cette molécule sur l’ARN du ribosome des bactéries.

la synthèse de molécules. Car ce sont très exactement les mêmes réactions chimiques, utilisant les mêmes mécanismes et les mêmes lois de la thermodynamique, qui déterminent l’activité de synthèse dans le vivant et dans le laboratoire du chimiste. Puisque de nombreux médicaments sont issus de produits naturels, il faut d’abord les caractériser, avant d’essayer de comprendre comment ils fonctionnent, et savoir éventuellement les modifier pour pouvoir mieux les utiliser. 2.1. 1943 : découverte de la streptomycine La découverte de la streptomycine en 1943 (Figure 3) illustre cette démarche. Cette molécule, produite par une bactérie nommée Streptomyces griseus (Figure 4), est

Figure 3

92

La cave du laboratoire du professeur Selman Waksman, où Albert Schatz a découvert la streptomycine (1943).

2.2. La famille s’agrandit : les aminoglycosides L’identification de la streptomycine fut suivie de la découverte de plusieurs molécules analogues, qui forment alors la famille des aminoglycosides. Le nom de cette famille est dû à la présence, d’une part, de structures cycliques très particulières appelées sucres (= « glyco », d’où « glycoside ») ; d’autre part, à la présence de fonctions amines –NH2 (d’où « amino- ») (Figure 5). Ces molécules ont des structures complexes, comme beaucoup de celles issues de la nature, et donc souvent difficiles à synthétiser au laboratoire. On remarque sur la représentation de la streptomycine et de la néomycine que certaines liaisons sont en traits gras, et d’autres en pointillés. Cela indique que les molécules sont en trois dimensions, avec, au niveau des atomes de carbone, des liaisons qui pointent soit vers le haut (traits gras), soit vers le bas (pointillés), et de manière parfaitement définie. Ces molécules possèdent, au niveau de ces carbones, ce qu’on appelle des centres d’asymétrie : le changement au niveau d’un seul même de ces centres en

2.3. Concevoir un médicament : une molécule, une cible biologique Comment agissent donc les aminoglycosides ? Ils ont pour cible biologique le ribosome des bactéries, ce qui en fait des antibiotiques. La néomycine par exemple va aller se loger dans un trou du ribosome, appelé site de décodage. Le ribosome est une structure cellulaire qui sert à lire l’information génétique contenue dans le noyau (les gènes), et il est constitué d’environ 10 000 acides aminés formant une macromolécule globulaire d’environ une dizaine de nanomètres de diamètre (pour rappel, voir l’encart « La structure des protéines »). Il agit comme interrupteur et permet de fabriquer des protéines dans une cellule. En effet, il possède un système de cliquet : si la lecture d’un élément de base de l’information génétique est bonne, le cliquet est ouvert, et l’on peut avancer d’un cran ; si, au contraire, elle ne l’est pas, le cliquet est fermé. Lorsque la molécule antibiotique s’y fixe, elle maintient le cliquet

ouvert tout le temps, et fait donc croire au ribosome que rien de négatif n’intervient dans le processus ; le ribosome fait alors de nombreuses erreurs. Les protéines fabriquées sont donc anormales et la cellule bactérienne en meurt. La vision en trois dimensions des objets sur lesquels on travaille est essentielle dans ce domaine (Figure 8). Elle permet de mieux comprendre comment fonctionnent ces molécules afin de définir les collaborations avec les chimistes, qui sont capables de les modifier pour améliorer leur action dans un but donné.

Figure 4

Chimie et biologie, un mariage particulièrement fécond

fait une autre molécule, ayant des propriétés différentes, comme la température de fusion, les propriétés optiques, et surtout les propriétés pharmacologiques. En effet, c’est la forme de la molécule et la position de ses groupements d’atomes dans l’espace qui déterminent, comme on va le voir, la possibilité d’avoir une interaction entre le médicament et sa cible dans l’organisme.

La bactérie Streptomyces griseus, dans une boîte de Pétri (A) et au microscope (B). Elle est faite de petits filaments d’un mycélium. Elle produit de la streptocymine, qui a permis de lutter contre la tuberculose.

Figure 5 Deux représentants de la famille des aminoglycosides, la streptomycine et la néomycine.

93

La chimie et la santé

LA STRUCTURE DES PROTÉINES Les protéines sont des macromolécules constituées d’enchaînements de plusieurs acides aminés, choisis parmi les vingt acides aminés présents dans le monde vivant, et reliés entre eux par des liaisons peptidiques CO-NH. De formule générale : HO2C-C(R1)H-CO-NH-…CHR2NH2, la séquence linéaire des acides aminés constitue la structure primaire de la protéine (Figure 6). Rappelons que la structure primaire d’une protéine est le fruit de la traduction de l’ARNm par le ribosome, selon le code génétique ; cet ARNm résultant de la transcription d’une molécule d’ADN comme expliqué dans le chapitre de C. Giovannangeli, paragraphe 1.1). Figure 6 La structure primaire d’une protéine est l’enchaînement de ses acides aminés constitutifs, liés entre eux par des liaisons peptidiques. Chacun des acides aminés apporte un groupement latéral Ri à la structure.

Selon la nature des acides aminés et des interactions qui peuvent s’établir entre eux, des segments de protéines peuvent subir des repliements locaux, dont les plus connus sont des hélices, des feuillets ou des coudes : cela détermine la structure secondaire de la protéine. L’ensemble adopte une structure tridimensionnelle complexe, la structure tertiaire, qui présente souvent un caractère globulaire (elle forme une sorte de pelote) doté d’un fort degré de rigidité en son centre et de chaînes flexibles à la périphérie (Figure 7). Lorsque cette structure tertiaire est cassée, on dit que la protéine est dénaturée.

Figure 7 Une protéine : une véritable pelote d’hélices, de feuillets et de coudes, constitués d’enchaînements d’acides aminés.

La détermination de la structure tridimensionnelle des protéines est un objectif partagé aujourd’hui. Elle nécessite des instruments et des méthodes sophistiquées et coûteuses, dont les plus connues sont : la diffraction des rayons X, la résonance magnétique nucléaire, la spectroscopie de masse, ainsi que la simulation numérique. Un fonctionnement chimique – et donc une action biologique – va de pair avec cette structure complexe. Souvent, les zones périphériques déterminent le positionnement général de la protéine par rapport aux autres macromolécules ou édifices moléculaires présents, alors que

94

Un médicament est une molécule active qui agit au niveau d’une cellule vivante en se fixant sur une cible biologique. Cette cible est en général une macromolécule, comme les ribosomes, les enzymes, les récepteurs cellulaires, etc. La petite molécule active va se lier et interagir avec la cible, ce qui va conduire soit à un blocage, comme dans le cas de la néomycine avec le ribosome (Figure 9), soit à activer quelque chose : déclencher une réponse positive. La biologie structurale est une discipline qui permet de comprendre l’interaction entre le médicament et sa cible biologique, d’imaginer comment modifier la molécule, changer ses propriétés et rendre le médicament plus performant. La possibilité d’étudier ces molécules – médicament et cible biologique – en trois dimensions a déjà permis des progrès majeurs, dont les limites ne sont pas encore atteintes. Elle ouvre un dialogue particulièrement fructueux entre chimistes et biologistes car, nous l’avons vu, les lois de la nature sont identiques dans les deux mondes, et, en faisant de la biologie au niveau

moléculaire, en vérité on fait de la chimie ! La biologie structurale est une discipline qui permet de comprendre l’interaction entre le médicament et sa cible biologique, d’imaginer comment modifier la molécule, changer ses propriétés et rendre le médicament plus performant.

Chimie et biologie, un mariage particulièrement fécond

la partie centrale est le siège des réactions chimiques spécifiques de l’action de la protéine ; elle porte alors le nom de centre actif (« site catalytique », pour les enzymes : voir l’encart « Les enzymes, ces catalyseurs de notre organisme » du chapitre de D. Mansuy). Ce centre est capable de fixer les molécules dans des positions adaptées aux réactions chimiques (réactions de coupure, réactions d’oxydoréduction par exemple) que demande sa fonction. La physico-chimie moderne permet souvent de bien décrire les interactions qui règnent au sein du centre actif. Il est alors possible d’imaginer d’autres molécules, artificielles, qui interagissent avec la protéine, et viennent perturber son fonctionnement naturel : c’est la démarche de base de la conception rationnelle des médicaments, dont le développement résulte des progrès de la connaissance moléculaire des processus biologiques (voir le chapitre de J.-P. Maffrand, paragraphe 2.2 et Figure 8).

Figure 8 La modélisation moléculaire permet de construire virtuellement des molécules et des protéines en trois dimensions, et de simuler leurs interactions par informatique.

2.4. Modéliser et prédire Les études du virus VIH fournissent un autre exemple des possibilités apportées

95

La chimie et la santé Figure 9 La biologie structurale a permis d’obtenir des images de synthèse représentant la néomycine (molécule au milieu) fixée à sa cible, le ribosome (structure en rouge autour). Pour ce faire, la néomycine établit un certain nombre d’interactions entre ses atomes et ceux de sa cible, et va en quelque sorte se verrouiller à l’intérieur de ce site. On s’aperçoit qu’en réalisant des modifications chimiques de la molécule, on pourrait ne pas conserver les interactions, et donc perdre l’effet recherché. Mais l’on pourrait aussi imaginer de modifier la structure de cette molécule, afin d’augmenter sa pénétration dans la cellule, diminuer sa toxicité, etc.

Figure 10

96

La protéase du virus du sida est composée de deux unités symétriques. Deux acides aminés (en jaune), sont impliqués dans la réaction de coupure de protéinesprécurseurs, permettant au virus de se développer. Lorsque l’on place une molécule antiprotéase au centre de la protéase (B), elle a pour effet d’inhiber l’activité de l’enzyme, et donc d’arrêter le développement du virus.

par la biologie structurale. La protéase du virus VIH (Figure 10) est une enzyme qui provoque une réaction de coupure de précurseurs protéiques, qui participent à la fabrication de l’enveloppe du virus, ainsi que des enzymes qui en permettent la réplication, et donc la multiplication du virus. Quand on bloque la coupure de cette protéase par des antiprotéases, la réplication du virus est arrêtée. C’est un élément essentiel de la thérapie anti-VIH. La structure de la protéase a été déterminée, notamment sa forme et la nature des atomes

de la surface de la cavité. À partir de ces données, on a imaginé une structure de molécule qui pouvait se lier à cette protéase, pour bloquer son action. C’est ainsi qu’une molécule antiprotéase a été conçue, et les chimistes se sont chargés de la synthétiser à partir de molécules de départ simples. Une fois synthétisée, cette antiprotéase est placée à l’intérieur de la structure de la protéase, en bouchant la cavité où se fait normalement la coupure. On observe alors que la réaction de coupure ne se réalise pas : le virus ne peut donc pas survivre. La molécule a bien joué le rôle d’inhibiteur de protéase (Figure 11).

Biologie structurale : un pont entre chimie et biologie

3

Pont entre la chimie et la biologie, la biologie structurale est aussi un outil pour l’industrie pharmaceutique qui l’utilise pour essayer de découvrir et développer de nouveaux médicaments. On constate en effet que les propriétés pharmacologiques des molécules sont conditionnées par leurs structures chimiques…

Le tamoxifen (Figure 13), utilisé par exemple pour traiter des cancers du sein, est un antagoniste du récepteur nucléaire aux œstrogènes, c’est-à-dire qu’il empêche ce récepteur de réagir avec l’ADN. En bloquant la stimulation par les œstrogènes, il empêche la prolifération des cellules cancéreuses. L’œstradiol et le tamoxifen sont des molécules qui se ressemblent et vont se fixer au même endroit sur le récepteur, mais qui auront des effets tout à fait différents.

Figure 11 La protéase du virus du sida (en vert) avec un inhibiteur en son centre : vue de la surface et de près (B), en coupe : l’inhibiteur empêche l’accès aux deux acides aminés impliqués dans l’activité de l’enzyme. On note à nouveau l’importance de la spécificité spatiale des objets chimiques en interaction.

Chimie et biologie, un mariage particulièrement fécond

Le fonctionnement du récepteur nucléaire aux œstrogènes est un exemple où la structure explique la pharmacologie. Dans les noyaux de nos cellules, il se trouve une protéine appelée récepteur nucléaire aux œstrogènes, lesquels font partie des principales hormones féminines. L’œstradiol en particulier, déterminant des caractères sexuels secondaires chez la femme, est un stéroïde qui va traverser la membrane des cellules, rentrer dans le noyau et se lier à un récepteur constitué de deux parties (Figure 12) : l’une qui fixe l’œstradiol (en bleu) et l’autre qui va interagir avec l’ADN (en rouge). Lorsque l’œstradiol se fixe sur ce récepteur, celui-ci dimérise, et peut ainsi facilement interagir avec deux sites de l’ADN. Les gènes situés à côté des sites d’interaction vont être activés, ce qui induit l’expression des caractères sexuels féminins.

Figure 12 L’œstradiol se fixe sur la partie bleue du récepteur nucléaire aux œstrogènes. Après dimérisation du récepteur, la partie rouge va interagir avec l’ADN, provoquant l’expression des caractères sexuels féminins. C’est ainsi que fonctionne l’hormone œstradiol.

97

La chimie et la santé Figure 13 A. Lorsque l’œstradiol (l’agoniste) se fixe sur le récepteur, celui-ci dimérise puis peut sous cette forme se lier à l’ADN. B. Lorsque le tamoxifen (l’antagoniste) est utilisé, il prend la place de l’œstradiol sur le site du récepteur, modifie sa structure tridimensionnelle (déplacement d’une hélice), et défavorise toute interaction avec l’ADN.

98

Cette différence s’explique par leurs structures : l’œstradiol va se placer au centre du récepteur, le tamoxifen également mais, étant plus grand, il va repousser une partie de ce récepteur et changer l’orientation d’une de ses hélices. Or, c’est justement là que se trouve la partie du récepteur qui devrait se lier à l’ADN ; en changeant ainsi de forme, cette liaison ne sera plus possible (Figure 13). Ainsi, alors que l’agoniste (l’œstrogène) va déclencher une réponse, l’antagoniste va empêcher cette réponse en occupant la place de l’agoniste. On voit donc que le changement de structure de la molécule explique bien le changement de son activité sur une protéine donnée. Une petite partie de cette molécule (le cycle en vert Figure 13) va jouer un grand rôle : elle transforme un agoniste en antagoniste, car c’est la partie qui va repousser l’hélice vers l’extérieur et donc empêcher le récepteur de se lier à l’ADN.

Sur de telles bases, on peut faire de la pharmacomodulation, c’est-à-dire modifier la structure de la molécule pour modifier ses propriétés biologiques. Une belle illustration de l’interaction entre chimie et biologie.

Contourner la biorésistance : découvrir de nouvelles molécules

4

Il existe un mécanisme naturel que l’on connaît bien aujourd’hui, qui stimule la recherche de nouveaux médicaments, et donc l’étude moléculaire de l’action biologique des entités en jeu. Il s’agit de la résistance aux antibiotiques, l’antibiorésistance, que peuvent développer les bactéries, et qui rendent inefficaces les médicaments usuels ; cette baisse d’efficacité constatée à partir des années 1970 est due à l’usage excessif et inadapté d’antibiotiques. Un exemple de cette situation est fourni par la famille

tantes, capables de résister à toutes les molécules appartenant à la famille des aminoglycosides, voire même à tous les antibiotiques structurellement différents !

La résistance aux molécules de première génération est malheureusement un phénomène très général, et il a fallu inventer des antibiotiques dits de seconde génération, semisynthétiques, en transformant astucieusement chimiquement la molécule originale naturelle pour en changer la fonctionnalité et tromper ainsi la cible biologique.

Pour lutter contre les germes totorésistants, il est à nouveau possible d’utiliser les outils de la biologie structurale pour prédire des molécules actives qui soient efficaces, qui puissent contourner les mécanismes de résistance.

Plus grave, depuis 2002, on s’est aperçu, en testant l’ensemble des aminoglycosides connus, qu’il pouvait exister des bactéries dites totorésis-

Chimie et biologie, un mariage particulièrement fécond

des aminoglycosides déjà évoquée, avec la découverte en 1943 de la streptomycine. Efficaces jusqu’aux années 1970, elles ne le sont pratiquement plus, et de nos jours, la streptomycine n’est plus utilisée pour traiter la tuberculose ; le seul antibiotique naturel encore utilisé étant la gentamycine.

4.1. La biologie structurale permet-elle de prédire des molécules actives ?

Voyons comment les choses se passent lorsqu’un antibiotique telle la néomycine interagit avec une bactérie (Figure 14). Celle-ci va mobiliser ses armes pour résister à la molécule active, en se comportant comme un petit laboratoire de chimie : elle va

Figure 14 A. La néomycine à l’intérieur du ribosome. B. L’enzyme de résistance a induit des modifications sur la néomycine, il n’y a plus la même interaction avec le ribosome.

99

La chimie et la santé

parvenir à induire des modifications fonctionnelles sur l’antibiotique et ce, à l’aide d’une enzyme dite de résistance. Ces modifications vont suffire pour empêcher la molécule de se fixer sur le ribosome. L’antibiotique ne peut plus faire effet. Mais si l’on connaît les structures de la molécule active et de la molécule transformée par l’enzyme, on peut s’arranger pour modifier chimiquement l’antibiotique de façon à ce qu’il ne soit plus reconnu par l’enzyme de résistance. En revanche, il restera reconnu par le ribosome, ce qui lui permet de conserver son efficacité antibactérienne. Biologistes et chimistes se concertent donc pour opposer à la stratégie de défense du germe pathogène une stratégie d’attaque fondée sur des considérations analogues !

Figure 15 La néamine, cœur des aminoglycosides, comporte une partie 2-désoxystreptamine dont la synthèse chimique est un cassetête pour les chimistes.

Le travail de synthèse ainsi défini peut cependant se révéler extrêmement compliqué et/ou coûteux pour une production à l’échelle industrielle. On peut illustrer ce problème en revenant à l’exemple des aminoglycosides. Ceux-ci sont formés à

base d’un cœur, la néamine (Figure 15), qui comporte une partie nommée 2-désoxystreptamine, molécule très compliquée à synthétiser (elle a quatre centres d’asymétrie mais une réactivité identique des deux côtés (c’est un composé meso) ce qui rend l’asymétrie difficile à introduire, car il faut un moyen de fonctionnaliser un côté mais pas l’autre). L’obtention d’une telle molécule est cependant possible, comme le montre la synthèse de l’un de ses dérivés, réalisée en 2003. Mais cette synthèse implique 14 réactions chimiques successives, et son rendement final n’est que de 6 %. Beaucoup trop coûteuse, elle est donc inexploitable à l’échelle industrielle. 4.2. La biologie pour guider la chimie de synthèse Évaluer l’activité biologique d’une molécule à chacun de ses changements structuraux est une tâche immense. D’où l’idée de réduire le nombre de composés à tester et à synthétiser, en construisant des molécules de façon plus astucieuse, à partir d’une approche rationnelle. Par ailleurs, en s’appuyant sur la connaissance du mécanisme des réactions en jeu, on peut choisir de tester des molécules plus simples, mais aux mêmes propriétés chimiques, en évitant ainsi des synthèses longues et difficiles. 4.2.1. Réduire le nombre de composés par une approche rationnelle

100

Prenons l’exemple de l’agoniste du récepteur de la somatostatine. Cette hormone

difficile qu’avec la molécule complète car cette interaction est moins forte : il faut utiliser des techniques d’analyse sophistiquées, en particulier la cristallographie (Figure 16) et la Résonance Magnétique Nucléaire (RMN). Dans des protéines cristallisées, de l’eau et du solvant emplissent les canaux entre les protéines. On introduit la petite molécule en la dissolvant dans le milieu avant cristallisation. S’il y a un site de fixation sur la protéine, lorsqu’on examine la structure protéine-molécule par les techniques de la biologie structurale, on va observer la petite molécule dans la cavité à l’endroit où elle aura trouvé un site de fixation préférentiel. Cela nous permet de trouver un premier bloc à partir duquel on peut commencer à construire la molécule agoniste finale recherchée. Diverses techniques sont utilisées pour ces études, notamment la RMN qui permet de différencier certains atomes d’une molécule supposée active, dans un mélange ciblemolécule, selon qu’elle est ou non fixée sur la cible. 4.2.2. Simplifier la synthèse en sélectionnant des analogues Reprenons l’exemple des aminoglycosides, où il était très difficile de synthétiser les molécules à cause de l’élément de base très complexe, constitué de six atomes de carbone asymétriques. Si on le remplace par un cycle à cinq atomes de carbone, avec seulement trois centres d’asymétrie, la synthèse est beaucoup plus rapide (Figure 17).

Chimie et biologie, un mariage particulièrement fécond

a une très forte activité biologique ; ses constantes physico-chimiques indiquent qu’elle va aller facilement sur sa cible, le récepteur de la somatostatine. C’est un composé avec lequel on espère soigner le cancer des glandes surrénales. Cette molécule en apparence compliquée est comme un lego fait de différentes briques, de blocs très simples. On essaie donc de faire du « lego moléculaire », c’està-dire de trouver une molécule active qui aille se loger dans le site actif de la cible biologique. Or, ce site actif a la forme d’une cavité pouvant avoir une surface compliquée. Il faut donc trouver une molécule qui ait exactement la bonne forme, ce qui n’exclue pas, malheureusement, de devoir en tester beaucoup, avant de parvenir à trouver la bonne structure. À partir de tels blocs moléculaires élémentaires, on détermine une collection de molécules de différentes formes dans laquelle il faut piocher intelligemment pour choisir celles qui sont potentiellement les plus prometteuses, et éviter ainsi de synthétiser trop de composés inutiles. Le fil conducteur est le suivant : on se limite à étudier la fixation de fragments de molécules sur la cible, plutôt que d’effectuer la recherche directe d’une molécule finale active. On pourrait ainsi identifier un à un chacun des blocs élémentaires intéressants, puis les accrocher ensemble. Déterminer l’interaction entre un fragment et la cible est cependant beaucoup plus

Figure 16 La molécule active, un inhibiteur, s’est logée sur le site de fixation de la protéine.

101

La chimie et la santé

4.2.3. Simplifier le processus : la chimie combinatoire dynamique

Figure 17 Au lieu de travailler avec la 2-désoxystreptanamine, on utilise un cycle à cinq carbones au lieu de six.

102

Mais cette molécule présentet-elle la même activité biologique que celle qui comporte un cycle à six atomes de carbone ? Sa fixation, déterminée expérimentalement sur l’ARN du ribosome et sur l’enzyme de résistance, valide le fait qu’elle puisse effectivement avoir une activité biologique. On peut même aller plus loin et prévoir que c’est l’empreinte de ces molécules – en rouge sur la Figure 17 – qui est probablement responsable de l’activité. À partir de cette hypothèse raisonnable, on a cherché à savoir quelles modulations doivent être réalisées autour de ce fragment élémentaire ; pour ce faire, on a synthétisé une vingtaine de molécules et on les a testées pour trouver la meilleure en termes d’activité, de stabilité, etc.

Il existe une autre voie où l’observation biologique permet de simplifier la synthèse chimique. Il s’agit d’utiliser les méthodes par lesquelles les organismes vivants effectuent eux-mêmes la synthèse des molécules dont ils ont besoin. Par exemple, comment fait la bactérie pour synthétiser des molécules complexes telles que la néomycine et la streptomycine ? La voie de synthèse en laboratoire est assez longue mais la bactérie la réalise efficacement grâce à l’intervention des enzymes, qui agissent comme catalyseurs. Aujourd’hui, on connaît les gènes responsables de la production des enzymes et l’on sait manipuler génétiquement les micro-organismes. Par exemple, on peut à partir d’un précurseur synthétique faire effectuer le reste du travail par le micro-organisme. Depuis les avancées de la génétique (voir le chapitre de C. Giovannangeli), cette méthode est devenue de plus en plus intéressante : aujourd’hui on est même capable de faire fabriquer « naturellement » des molécules qui n’existaient pas ; on arrive donc à combiner approches chimique et biologique pour vaincre la complexité et la difficulté de synthèse en ne fabriquant que les précurseurs pour des molécules très complexes.

Cette nouvelle branche de la chimie biologique, au cœur de la compréhension du fonctionnement des systèmes vivants, acquiert depuis quelques années une importance stratégique particulièrement critique. On observe en effet depuis quelques années une décroissance marquée du nombre de nouvelles molécules conduisant à des filières de médicaments. Cette tendance est peut-être due à la saturation de nos méthodes actuelles d’exploration des milieux naturels, qui apportent traditionnellement des voies fondamentales de recherche aux chimistes et pharmacologues ; peut-être aussi est-elle due à la complexité croissante des méthodes utilisées par les chimistes pour imaginer et synthétiser des molécules thérapeutiques à partir des bases actuelles. Toujours est-il que la définition in situ des molécules thérapeutiques faite à partir de la base, c’est-à-dire du fonctionnement même des systèmes vivants, comme cela a été montré dans ce chapitre, fournit aux collaborations entre chimistes et biologistes une voie royale, plus que jamais prometteuse vers les traitements pharmacologiques des maladies.

Chimie et biologie, un mariage particulièrement fécond

Conclusion

103

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

nanomédicaments : une approche intelligente pour le traitement des maladies sévères Lors de l’introduction d’un médicament dans l’organisme, le principe actif rencontre des barrières naturelles qui peuvent limiter son efficacité (Figure 1). C’est ainsi que de nombreuses molécules peinent à traverser les membranes cellulaires, car elles sont trop hydrophiles ou ont un poids moléculaire trop élevé. Cela pose problème lorsque la cible du médicament se trouve à l’intérieur de la cellule. D’autres molécules, en particulier celles issues de biotechnologies, (peptides, fragments d’ADN…) sont très instables en milieu biologique car elles sont rapidement métabolisées par l’organisme, armé de ses enzymes et de nombreux systèmes de défense (anticorps…). Par ailleurs, lors de son administration, un médicament est distribué au niveau des différents tissus et cellules en fonction de ses caractéristiques physicochimiques, lesquelles ne sont pas toujours maîtrisées. Au lieu d’exercer sa fonction thérapeutique de manière ciblée, le médicament peut produire des effets toxiques

imprévus, ce qui limite son index thérapeutique (avec pour conséquence une activité faible ou insuffisante et une toxicité plus importante). Enfin, on observe de plus en plus de phénomènes de résistance, en particulier envers de nouvelles molécules, qui sont parfois trop spécifiques vis-à-vis d’une voie de signalisation. Ainsi, un médicament administré sous une forme galénique traditionnelle se heurte à de multiples barrières physiologiques ; et il n’est pas garanti qu’il atteigne bien sa cible. Pour pallier à ces difficultés, une nouvelle approche consiste à associer le principe actif à un nanovecteur, dont la taille est de l’ordre de la

Patrick couvreur Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

Les

Figure 1 Lorsqu’un médicament est administré, il entre dans la circulation sanguine et doit atteindre les tissus visés pour exercer son action thérapeutique : un parcours du combattant !

La chimie et la santé

centaine de nanomètres (soit dix à cent fois plus petit qu’une cellule vivante), et dont le rôle est d’encapsuler et de véhiculer efficacement ce principe actif vers sa cible (Figure 2). À cette fin, la chimie va pouvoir user de sa créativité pour équiper les nanovecteurs d’un certain nombre de fonctionnalités, à l’aide de traitements chimiques de leur surface.

Figure 2 Des nanovecteurs pour encapsuler les médicaments… A. Un principe actif libre ; B. Ce principe actif est encapsulé dans un nanovecteur équipé de fonctionnalités : c’est un nanomédicament.

Dans l’objectif d’améliorer l’efficacité des médicaments, on utilise des nanovecteurs pour encapsuler les principes actifs et les véhiculer vers leurs cibles. D’une part, l’encapsulation permet de protéger les prin-

- Passage transmembranaire limité (faible disponibilité) - Instabilité/Métabolisation - Manque de spécificité cellulaire/tissulaire (faible activité + toxicité) - Pénétration intracellulaire insuffisante - Induction de résistances 106

cipes actifs de la dégradation, dans le cas où ils y sont sensibles. D’autre part, elle peut permettre d’améliorer le ciblage, soit au niveau tissulaire, soit au niveau cellulaire. Ce dernier cas peut être favorisé grâce à la fonctionnalisation chimique de la surface des nanovecteurs, ou tout simplement parce qu’ils seront captés dans les cellules via des mécanismes d’endocytose. Ils pourront ainsi pénétrer dans les cellules et y concentrer les molécules de principe actif alors que, seules, celles-ci ne s’y accumuleraient pas spontanément. Enfin, il est possible d’utiliser cette approche de la vectorisation pour contourner des résistances aux médicaments.

- Ciblage cellulaire/tissulaire (meilleur index thérapeutique) - Protection de la dégradation - Pénétration intracellulaire accrue - Contournement des résistances

1

Nanomédicaments et cancer

1.1. Les nanomédicaments de première génération pour mieux traiter le cancer du foie 1.1.1. Améliorer l’efficacité et diminuer la toxicité du médicament À l’heure actuelle, on dispose d’un arsenal relativement vaste de nanovecteurs pour administrer des médicaments : liposomes, nanoparticules polymères, nanoparticules sous forme d’oxyde de fer, micelles, etc. Tous ces vecteurs n’ayant subi aucune modification chimique de leur surface sont qualifiés de vecteurs de première génération (Figure 3). On observe que lors de leur administration par voie intraveineuse à un animal, ces vecteurs de première

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

Nous allons montrer au travers d’exemples dans le cadre de la lutte contre le cancer et de la thérapie génique, comment il est possible d’améliorer l’activité, voire de réduire la toxicité des molécules, lorsqu’elles sont transportées et vectorisées sous forme de nanomédicaments.

génération se concentrent essentiellement au niveau des tissus du système réticulo-endothélial, c’està-dire principalement dans le foie. Ce phénomène est essentiellement dû au fait qu’ils présentent une surface spécifique considérable, sur laquelle viennent s’adsorber de nombreuses protéines plasmatiques, en particulier des opsonines, qui seront par la suite reconnues sélectivement par les macrophages du foie. Ces derniers viennent alors interagir avec les nanovecteurs : cela explique pourquoi les nanovecteurs de première génération se concentrent rapidement au niveau hépatique. Les nanovecteurs de première génération se retrouvent principalement au niveau du foie, car ils sont reconnus par ses macrophages grâce aux opsonines qui s’adsorbent à leur surface.

Bien que cela puisse être considéré comme un inconvénient, on peut aussi en tirer avantage. En effet, ces systèmes constituent

Figure 3 Liposome simple, vecteur de médicament de première génération, dont la cible principale est le système réticulo-endothélial. Le liposome est une vésicule biodégradable constituée d’une double couche de phospholipides et d’un compartiment aqueux. Le principe actif est encapsulé dans la phase aqueuse quand il est hydrophile et dans la bicouche quand il est lipophile. La structure phospholipidique du liposome est proche de celle de la membrane de la cellule : on dit qu’il est biomimétique. Un liposome est environ 70 fois plus petit qu’un globule rouge. Sa taille varie entre 100 et 300 nm.

107

La chimie et la santé

de véritables navettes pour amener de manière sélective des médicaments au niveau du tissu hépatique ; de cette manière, il est possible de traiter efficacement les pathologies sévères du foie, telles que l’hépatocarcinome résistant, ou encore les métastases hépatiques. En vue de cette application, un médicament anticancéreux comme la doxorubicine a été encapsulé à l’intérieur d’une nanomatrice conçue à partir d’un polymère, le p o ly ( a l k y lc y a n o a c r y l a t e ) (sa synthèse est présentée Figure 4A). Ce polymère, déjà largement utilisé comme colle chirurgicale1, a l’avantage d’être biodégradable et biocompatible. Son utilisation peut donc être envisagée en clinique humaine. Des tests ont ensuite été pratiqués dans des traitements de métastases hépatiques (Figure 4C) [1]. Les résultats montrent que, dans le cas d’un traitement par la doxorubicine sous une forme galénique traditionnelle, il apparaît un problème inhérent à la chimiothérapie anticancéreuse : le nombre de métastases diminue effectivement en fonction de la dose injectée – ce qui montre bien l’activité anticancéreuse de la doxorubicine – mais, à la dose de 5 mg/kg, on ne réduit que de 50 % les métastases hépatiques, ce qui n’est pas suffisant ; et à la dose de 7,5 mg/kg, quelques animaux

108

1. Une colle chirurgicale est un adhésif tissulaire possédant des propriétés hémostatiques, qui peut réduire le nombre de points de sutures.

meurent, non pas de leur tumeur, mais de la toxicité cardiaque du produit. On retrouve ici tout le problème du traitement du cancer par de petites molécules : la « fenêtre de tir » est extrêmement étroite entre la dose pharmacologiquement active et la dose toxique. En revanche, si l’on encapsule la doxorubicine (Figure 4B), on observe que sa concentration au niveau du foie est fortement accrue et, pour une dose de seulement 2,5 mg/ kg, le nombre de métastases hépatiques diminue de manière beaucoup plus importante qu’avec la doxorubicine seule. De plus, pour des doses de 5 à 7,5 mg/kg, il est possible de débarrasser les animaux de la quasi-totalité de leurs métastases, tout en réduisant fortement la toxicité cardiaque du produit. Ces résultats montrent clairement l’un des principaux intérêts de la vectorisation : le médicament est mieux concentré au niveau de l’organe cible, alors que la toxicité est réduite, ce qui améliore considérablement son index thérapeutique. C’est ainsi qu’un nanomédicament de première génération à base de doxorubicine est entré fin 2006 en phase II/III d’essais cliniques pour le traitement du cancer primitif du foie. 1.1.2. Réduire la résistance aux médicaments Récemment, il a été montré que la vectorisation permettait également de contourner une résistance importante de certaines tumeurs : la

2. La résistance multidrogue présentée par des cellules cancéreuses est une résistance dont le mécanisme n’est pas spécifique à un médicament donné.

la cellule cancéreuse qui se « détoxifie » (Figure 5). Le raisonnement consiste alors à se dire que, si l’on enrobe ce médicament anticancéreux dans une nanomatrice polymère biodégradable telle que le p o ly ( h ex y lc ya n o a c r y l a t e ) (PHCA), on va le rendre invisible pour la P-gp, qui ne pourra donc pas la reconnaître ni l’expulser. En collaboration avec le laboratoire de C. Trépo (INSERM, Lyon), nous avons montré l’efficacité de cette approche dans un hépatocarcinome humain présentant la résistance multidrogue. Lorsque ces cellules cancéreuses ont été incubées avec des concentrations croissantes de doxorubicine seule, pratiquement

Figure 4

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

résistance multidrogue2. C’est cette résistance qui fait que de nombreux cancers, d’abord sensibles aux médicaments, finissent par développer des résistances aux chimiothérapies. Elle est en fait due à la présence de « glycoprotéines » au sein de la membrane des cellules cancéreuses. Ces pompes d’efflux, comme la P-glycoprotéine (P-gp), prennent en charge les molécules de médicament, puis les expulsent à l’extérieur de la cellule. Cela s’assimile à un mécanisme de défense naturelle de

A. Une nanoparticule de poly(alkylcyanoacrylate) est préparée par polymérisation anionique. B. Cette nanoparticule est utilisée comme nanomatrice pour vectoriser la doxorubicine vers les métastases du foie. C. On constate que l’efficacité du traitement avec un tel nanovecteur (en rouge) est améliorée par rapport à un traitement à la doxorubicine seule (en vert).

109

La chimie et la santé

Ces exemples montrent que les nanomédicaments peuvent, dans certaines circonstances, permettre de contourner des mécanismes de résistance naturelle des cellules aux médicaments.

Figure 5 Quand une cellule cancéreuse résiste aux anticancéreux qu’on lui a injectés. Ici, la cellule cancéreuse possède dans sa membrane une glycoprotéine P-gp qui expulse le médicament anticancéreux vers l’extérieur. Il s’agit d’un mécanisme de défense naturelle des cellules cancéreuses.

Figure 6 Résultat des tests menés in vivo sur des souris transgéniques porteuses d’un hépatocarcinome multirésistant. Le nombre de cellules cancéreuses a été mesuré par comptage histologique (d’après [2]).

110

aucune activité anticancéreuse n’a été observée ; alors que vectorisée (PHCA-Dox), la molécule a présenté une cytotoxicité vis-à-vis des cellules cancéreuses. Des tests ont également été menés in vivo sur un hépatocarcinome multirésistant chez la souris transgénique [2]. Les mesures (Figure 6) ont montré que seules les nanoparticules de PHCA chargées en doxorubicine conduisent à une apoptose (mort) des cellules cancéreuses, alors que l’introduction de doxorubicine sous forme d’une simple solution conduit à un niveau d’apoptose faible, similaire à celui observé lors de l’administration de nanoparticules sans anticancéreux ou lors de l’administration d’un placebo sous forme d’une solution aqueuse de glucose à 5 % !

Néanmoins, les résultats précédents ne concernent que des pathologies tumorales localisées dans le foie. Il est donc intéressant de savoir si l’activité anticancéreuse peut être étendue à d’autres organes. 1.2. Contourner les défenses du foie pour cibler d’autres organes : les nanovecteurs de deuxième génération Comme expliqué précédemment, les opsonines qui viennent se fixer sur la surface des nanovecteurs sont responsables de leur capture par le foie. Pour contourner ce ciblage au niveau hépatique, l’idée est de « décorer » la surface de ces nanovecteurs par des chaînes de polymères hydrophiles et flexibles, capables de ce fait de repousser ces opsonines. Une fois encore, l’apport de la chimie est important, en particulier dans le concept physico-chimique de « répulsion stérique » utilisé ici, à l’aide de nanovecteurs dits de deuxième génération. Ils sont également dits « furtifs » car ils ne sont pas reconnus par le foie (plus précisément par les cellules de Kupffer du système réticulo-endothélial) et ne vont pas s’y concentrer. Afin de véhiculer des médicaments vers d’autres organes que le foie, un nanovecteur a été développé à partir du polymère biodégradable précédemment utilisé pour

Les nanovecteurs de deuxième génération ne sont pas reconnus par le foie et peuvent circuler plus longtemps dans le sang pour atteindre d’autres organes.

Au cours d’expériences comparatives, on observe qu’après injection intraveineuse de nanoparticules non PEGylées, celles-ci disparaissent de façon extrêmement rapide et massive du compartiment sanguin : elles sont captées par le foie. Au contraire, les nanoparticules PEGylées sont présentes beaucoup plus longtemps dans la circulation sanguine : étant partiellement furtives vis-à-vis des cellules du foie, elles sont beaucoup moins captées par cet organe (Figure 7C). Ce résultat témoigne de leur meilleure efficacité en termes de pharmacocinétique. Cette augmentation du temps de circulation va leur permettre de cibler d’autres tumeurs. Or les études histologiques montrent que, dans un tissu sain, l’endothélium vasculaire est dit jointif, c’est-à-dire que les jonctions intercellulaires sont serrées, ce qui empêche les nanovecteurs de pénétrer dans ce tissu. Inversement, au niveau

des tissus cancéreux, on observe une réaction inflammatoire, caractérisée par l’arrivée de macrophages et une libération de toute une série de cytokines, qui induit une augmentation de la perméabilité vasculaire. Mécaniquement, cette augmentation de perméabilité va permettre aux nanoparticules de pénétrer dans le tissu cancéreux par diffusion. Il y aura donc une pénétration ciblée au niveau de la tumeur, en raison de la réaction inflammatoire. Cet effet est appelé effet EPR (« enhanced permeability and retention effect ») [3]. Il existe à la fois un effet de pénétration sélective mais aussi un effet d’accumulation dans la tumeur du fait de la présence du système nanoparticulaire (Figure 7D). L’effet « EPR » a par exemple été observé dans le cas du cancer du cerveau chez le rat, (gliome cérébral 9L). Lorsque l’on introduit des nanoparticules PEGylées de deuxième génération, on observe bien au cours du temps leur accumulation au niveau de la tumeur, alors qu’au niveau de l’hémisphère sain, aucune translocalisation de ces nanomédicaments n’est observée. L’effet « EPR » n’est pas seulement observé dans les cancers, mais il peut s’appliquer à toutes les pathologies où l’on observe une réaction inflammatoire. C’est le cas, par exemple, de l’encéphalomyélite auto-immune expérimentale, qui est une maladie auto-immune cérébrale induisant une forte réaction inflammatoire, en particulier au niveau de la moelle épinière.

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

les nanovecteurs de première génération, mais auquel ont été greffées des chaînes de polyéthylèneglycol PEG (Figure 7A). On obtient ainsi un nanovecteur de deuxième génération dit « PEGylé » (Figure 7B).

111

La chimie et la santé Figure 7 A. À partir du polymère biodégradable poly(hexadecylcyanoacétate) (PHDCA), un copolymère a été développé par copolymérisation avec du poly(éthylèneglycolcyanoacétate) en présence de formol, grâce à une réaction de Knoevenagel inverse. B. On obtient ainsi un copolymère amphiphile qui, placé dans l’eau, s’auto-organise avec les parties hydrophiles de polyéthylèneglycol (PEG) en surface du vecteur, la partie hydrophobe à l’intérieur étant formée des chaînes de PHDCA et dans laquelle il est possible de piéger le médicament. © CNRS Photothèque/Sagascience/Caillaud François. UMR8612 – Physico-chimie, pharmacotechnie, Biopharmacie – Châtenay-Malabry. C. Le copolymère PEG-PHDCA (courbe rouge) reste plus longtemps dans la circulation sanguine par rapport aux nanoparticules non « PEGylées » (courbe bleue). D. L’effet « EPR » : au niveau des vaisseaux sanguins sains, le nanovecteur ne peut pas pénétrer, alors qu’au niveau d’une tumeur, la réaction inflammatoire qui s’y est produite augmente la perméabilité du vaisseau, entraînant une concentration du nanovecteur, ciblée au niveau de la tumeur.

112

Des tests ont été menés sur des animaux atteints par cette maladie et auxquels des nanoparticules PEGylées ont été administrées. On a alors observé leur translocalisation importante et massive au niveau des zones où se localise la réaction inflammatoire, c’est-à-dire la moelle épinière et, dans une

moindre mesure, le colliculi, le cortex frontal et le cervelet. En revanche, lorsqu’elles ont été injectées à des animaux sains, aucune pénétration au niveau du tissu cérébral n’a été observée. Ces résultats témoignent une fois de plus d’un bon ciblage des tissus malades par des

Si ces vecteurs peuvent permettre de véhiculer sélectivement les médicaments au niveau des tissus cancéreux, ils ne restent cependant que dans l’espace interstitiel, c’est-à-dire entre les cellules cancéreuses, mais ils n’y pénètrent pas. Les nanovecteurs de troisième génération ont été conçus afin de pouvoir traverser les membranes cellulaires. 1.3. Pénétrer dans les cellules malades : les nanovecteurs de troisième génération Un nouveau type de nanovecteurs a été conçu pour pouvoir pénétrer à l’intérieur de la cellule, permettant ainsi de véhiculer les médicaments vers des cibles intracellulaires. Ce sont les nanovecteurs de troisième génération. Pour cela, on les équipe de ligands qui, à l’échelle moléculaire, vont être reconnus par des récepteurs situés sur les membranes tumorales, ce qui va leur permettre de rentrer dans les cellules. À l’heure actuelle, les progrès de la biologie ont permis d’identifier les récepteurs auxquels les nanovecteurs doivent être adressés.

Les nanovecteurs de troisième génération permettent de délivrer des principes actifs à l’intérieur des cellules.

Dans le cas du cancer de l’ovaire par exemple, on sait que les cellules cancéreuses

possèdent sur leurs membranes un récepteur de l’acide folique (on dit qu’elles surexpriment ce récepteur, par rapport aux cellules saines). Lorsque ce récepteur reconnaît son ligand, le complexe récepteur-ligand va être internalisé par la cellule et se retrouver dans un endosome intracellulaire, ce qui va permettre ensuite, via un mécanisme complexe, la libération du ligand à l’intérieur de la cellule (Figure 8B). Ce phénomène naturel peut être judicieusement utilisé comme moyen de routage pour permettre à des nanoparticules de troisième génération, qui seraient vectorisées avec de l’acide folique, de délivrer leur principe actif dans la cellule. La synthèse de ces nanovecteurs fait, une fois encore, appel à la chimie. En effet, on utilise à nouveau les nanoparticules PEGylées, mais dont les bras PEG ont été fonctionnalisés à leurs extrémités par des amines. Celles-ci peuvent alors être couplées avec la fonction acide carboxylique de l’acide folique, via une réaction d’amidation (Figure 8A). Et, en fonction de la densité de PEG aminé à la surface des particules, il est possible de contrôler la densité de l’acide folique qui va se retrouver au bout de ces chaînes de PEG. On obtient alors des nanovecteurs qui ont une double fonctionnalité : d’une part, du fait des chaînes de PEG, elles repoussent les protéines plasmatiques (opsonines) et restent dans la circulation vasculaire (comme les nanoparticles de deuxième génération) ; d’autre part, l’acide folique est reconnu

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

nanovecteurs de deuxième génération grâce à l’effet EPR.

113

La chimie et la santé Figure 8 A. Une nanoparticule PEGylée a été fonctionnalisée avec de l’acide folique. B. Ainsi dotée d’une « tête chercheuse », la nanoparticule va pouvoir se lier aux récepteurs foliques des membranes tumorales (en rouge), ce qui permet son transfert à l’intérieur de la cellule tumorale via un endosome, qui relargue alors son contenu en principe actif anticancéreux dans le cytoplasme de la cellule. 114

2

Nanomédicaments et thérapie génique

2.1. Vectoriser de petits ARN interférents La thérapie génique au sens large revient à transférer au niveau d’une cellule un gène ou un ADN manquant. Cette technique est très difficile et ne réussira très probablement qu’à long terme. En effet, l’ADN étant une macromolécule, elle doit être bien positionnée par rapport aux pores des noyaux cellulaires pour pouvoir y entrer. Il est avéré qu’avec des vecteurs non viraux, quel que soit le moyen utilisé, on ne parvient jamais à intégrer un ADN complet dans le génome de la cellule. Une approche plus simple et plus facilement réalisable consiste à utiliser de petits fragments, soit des monobrins tels que les oligonucléotides antisens (voir l’encart « Les ARN interférents : une grande innovation dans la biologie moléculaire » chapitre de C. Giovannangeli), soit des doubles brins comme les petits ARN interférents ou siRNA3 (« small interfering 3. Les siRNA (« small interfering RNA ») sont de petits ARN en doubles brins possédant une vingtaine de nucléotides et capables de se lier spécifiquement à une séquence d’ARN messagers, de la couper, et ainsi d’empêcher l’expression des gènes qui les engendrent.

RNA »). L’avantage est que la cible de ces molécules, qui est l’ARN messager, ne se situe pas au niveau du noyau, mais au niveau du cytoplasme cellulaire, plus accessible. Cette approche est donc plus facile à mettre au point en utilisant les nanotechnologies.

En thérapie génique, c’est grâce aux nanotechnologies que les chimistes créent des nanovecteurs qui vont agir comme le font les vecteurs viraux pour amener leur matériel (gènes, ARN…) à l’intérieur de la cellule.

L’exemple du carcinome papillaire de la thyroïde (maladie de Tchernobyl) est intéressant car la biologie moléculaire de cette pathologie est bien connue. En effet, on sait que les cellules deviennent cancéreuses en raison de la fusion de deux gènes : le gène ret et le gène H4. Chez un individu sain, ces deux gènes sont normalement positionnés sur deux chromosomes différents, alors que chez les individus porteurs du carcinome papillaire de la thyroïde, on observe une fusion de ces deux gènes sur un même chromosome. Des expériences réalisées sur des cellules fibroblastiques 3T3 (chez la souris) ont montré que l’introduction des gènes fusionnés ret et H4 dans ces modèles de cellules induit la production d’une protéine chimère, ret/PTC1, responsable de la cancérisation. Dès lors, la jonction entre les deux gènes, appelée « oncogène

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

par le récepteur des cellules tumorales, permettant ainsi le transfert de ces nanovecteurs et de leur contenu dans la cellule, par endocytose (Figure 8B) [4].

115

La chimie et la santé Figure 9 À une nanoparticule de polymère biodégradable ont été greffées des chaînes de chitosane (bleu), portant des charges positives. Ces dernières permettent ensuite de fixer un grand nombre de doubles brins de siRNA (en vert), prêts à être véhiculés vers l’ARN-cible, à l’intérieur d’une cellule.

Figure 10 Schéma de l’oncogène de jonction (la cible) et des siRNA prêts à être injectés dans la cellule. A. Les gènes ret et H4 présents dans une tumeur (carcinome papillaire de la thyroïde) sont fusionnés. La cible de la thérapie génique est la séquence de jonction entre ces gènes. B. On a synthétisé un siRNA #5 capable de s’associer à cette séquence de jonction. Rappelons que l’association d’un siARN avec une séquence de gènes s’effectue grâce à l’association de paires de bases complémentaires C-G et A-U

116

de jonction », est une cible thérapeutique unique pour faire de la vectorisation, soit d’oligonucléotides anti-sens, soit d’ARN interférents comme le siRNA. Pour cela, il est nécessaire de développer des technologies de vectorisation adaptées, et ce, en utilisant les outils de la chimie.

comportant des charges positives, et qui a été utilisé pour synthétiser des nanoparticules de 20 à 100 nanomètres. À ces nouveaux nanovecteurs ont alors été fixées des quantités importantes de siRNA, grâce aux charges positives du chitosane qui forment avec les charges négatives des siRNA des paires d’ions [5] (Figure 9).

Ainsi il a été développé voici quelques années une technique permettant de recouvrir des nanoparticules de polymères biodégradables (voir les paragraphes 1.1 et 1.2) par tous types de chaînes de polysaccharides. Un exemple choisi pour la vectorisation des siRNA est le chitosane, un polysaccharide naturel

Afin de tester l’efficacité de ces nanoparticules de chitosane pour vectoriser des siRNA, des tests ont été effectués sur des cellules tumorales qui ont été greffées à des souris par voie sous-cutanée. Rappelons que la cible de la thérapie est la jonction entre

(l’uracile U étant l’équivalent pour l’ARN de la thymine pour l’ADN). C. Un siRNA de contrôle a également été synthétisé et ne

peut pas s’associer à la séquence de jonction, car quatre bases (orange) ne peuvent s’apparier à celles de la cible.

Pour montrer que cette inhibition du cancer est bien due à une reconnaissance de l’oncogène de jonction par siRNA, on a injecté le siRNA contrôle, encapsulé dans le même nanovecteur et, dans ce cas, aucun effet antisens n’a été observé.

L’évolution de la tumeur a ensuite été observée chez les animaux traités par une simple solution de NaCl (0,9 %), et chez ceux ayant reçu cinq injections de siRNA sous forme libre. Il n’a alors été observé aucun effet en termes d’inhibition de la croissance tumorale, bien que ce siRNA soit bien orienté contre la séquence de l’oncogène de jonction. En revanche,

Ces résultats mettent en évidence deux conditions requises pour bien toucher la cible avec les siRNA : posséder la bonne séquence de bases dans l’ARN interférent, sans quoi l’action serait nulle ; et avoir une forme galénique qui soit capable de favoriser la pénétration intracellulaire, et surtout de protéger ces ARN interférants de la dégradation…

Figure 11 Le siRNA libre ne permet pas d’inhiber la croissance tumorale (tumeur encore présente chez la souris), alors que vectorisés par les nanoparticules de chitosane, on observe une disparition des masses tumorales. Les analyses des tissus in vivo par gel de Northern-blots montrent que l’injection de siRNA sous forme de nanoparticules permet de retrouver du siRNA intact au niveau de la tumeur après un et deux jours [5].

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

ce même siRNA associé aux nanoparticules de chitosane provoque une inhibition significative de l’évolution de la masse tumorale (Figure 11A).

les deux gènes ret et H4, dont les séquences sont données Figure 10. Il a été synthétisé à la fois un siRNA (siRNA #5) théoriquement capable de s’associer à l’oncogène de jonction par complémentarité des bases (effet antisens), et un siRNA de contrôle (siRNA Ct), qui possède quatre bases qui ne reconnaissent pas ou ne « collent » pas avec la séquence-cible au niveau de l’oncogène de jonction [5].

117

La chimie et la santé

En effet, une question importante demeure : ces ARN sontils effectivement protégés de la dégradation ? Des biopsies effectuées au niveau des animaux traités par le siRNA libre ou par le siRNA encapsulé ont permis de confirmer cette protection. On voit en effet que la structure du siRNA est maintenue lorsqu’il est vectorisé, à la fois un et deux jours après l’injection, ce qui n’est pas le cas avec le siRNA libre (Figure 11B). Les nombreux exemples décrits montrent que de grands progrès ont été faits au cours de cette dernière décennie dans le développement de nanovecteurs plus efficaces pour l’administration des médicaments : au niveau tissulaire, cellulaire, en contournant les barrières cellulaires, les défenses du foie et les résistances aux médicaments.

2.2. La technologie de vectorisation rencontre des limites Figure 12 On ne parvient pas toujours à encapsuler la totalité du principe actif (en rouge) dans le nanovecteur : une partie reste adsorbée en surface et sa libération dans l’organisme devient incontrôlée.

118

Malgré les grands progrès réalisés, un certain nombre de verrous technologiques très importants demeurent. Si tout se passait comme prévu, le principe actif serait bien piégé à l’intérieur d’une nanoparticule pour être vectorisé. En réalité, une fraction du médicament est effectivement encapsulée, mais une autre, parfois plus importante, va s’adsorber en surface (Figure 12). En conséquence, lorsque l’on va administrer cet ensemble par voie intraveineuse, il y aura une libération immédiate et totalement incontrôlée du principe actif.

Un autre inconvénient, probablement plus important, et qui limite d’autant plus les possibilités de ces technologies est le taux de charge. En effet, il est important de pouvoir estimer quel poids de médicament il est possible d’introduire par rapport au poids du vecteur. Bien souvent, il s’avère que la valeur de 8 % est très satisfaisante, alors qu’il est souvent difficile de dépasser les 1 ou 2 %. Cette limitation pose un problème important puisqu’alors, soit la quantité de médicament injectée est insuffisante, et donc l’efficacité est faible, soit il va être nécessaire d’administrer des grandes quantités de matériel vecteur, ce qui provoquera l’apparition d’effets secondaires, en particulier liés à la toxicité par accumulation intracellulaire de matériel polymère. Un gros travail reste donc à faire par les chimistes, pour développer des nanotechnologies qui résoudront ces deux problèmes, en particulier celui du taux de charge, afin de pouvoir améliorer l’index thérapeutique des médicaments et éventuellement de contourner des phénomènes de résistance. Dans ce but, de nouvelles nanotechnologies ont été développées récemment pour pallier à ces verrous rencontrés avec les nanovecteurs : c’est la squalénisation.

3.1. Des médicaments qui s’auto-organisent en nanoparticules De nombreuses molécules de la famille des analogues nucléosidiques ont un énorme potentiel, à la fois dans le domaine du cancer (comme la gemcitabine ou la cytarabine), mais aussi dans le traitement de maladies virales comme le VIH (par exemple l’AZT). Pourtant, toutes ces molécules sont rapidement métabolisées et ne restent pas longtemps dans le sang : les taux plasmatiques diminuent rapidement après administration. De plus, elles ont le défaut d’être plus ou moins hydrophiles donc elles diffusent mal à travers les barrières biologiques qui sont hydrophobes, et en particulier à l’intérieur de la cellule où se trouvent justement leurs cibles. Enfin, elles induisent pratiquement toutes des résistances dont les mécanismes sont divers. L’idée a été de rendre ces molécules lipophiles pour permettre une meilleure pénétration intracellulaire et pour les protéger de la métabolisation par l’organisme (dans le chapitre de D. Mansuy est expliqué le mécanisme général de métabolisation des médicaments). Pour cela, elles ont été associées au squalène, un lipide présent en grande quantité dans l’huile du foie des requins, d’où son nom. Précurseur du cholestérol, il existe aussi chez les humains. Son intérêt est que, pour être cyclisé en lanostérol puis en

cholestérol, il doit adopter en milieu aqueux une conformation moléculaire particulièrement ramassée pour rentrer dans la poche hydrophobe de l’enzyme qui va induire sa cyclisation. Ainsi, il a été imaginé qu’en couplant le squalène aux analogues nucléosidiques, il serait possible de former des systèmes nanoparticulaires injectables. Cela a été réalisé avec la gemcitabine : cet anticancéreux a été associé au squalène, par réaction entre sa fonction amine et l’acide squalénique [6] (Figure 13). Le choix de la fonction amine comme site de greffage du squalène n’est pas anodin. On sait en effet que quand elle est administrée seule, la gemcitabine est métabolisée par l’organisme via une réaction de désamination qui la transforme en un métabolite totalement inactif. En greffant le squalène au niveau de cette fonction sensible, on protège la gemcitabine de la dégradation, ce qui lui permet de séjourner plus longtemps dans la circulation sanguine. La molécule résultante, une fois placée dans de l’eau, s’est spontanément auto-organisée en formant des systèmes nanoparticulaires d’une centaine de nanomètres… Et en calculant le poids moléculaire du squalène par rapport à celui de la gemcitabine, on observe que l’on atteint l’équivalent d’un taux de charge non plus de 8 %, mais de 50 %… ce qui revient à encapsuler dans une nanomatrice la moitié de son poids moléculaire en principe actif ; à la différence qu’ici, principe actif et constituant de la nanomatrice

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

La nanotechnologie de la squalénisation : une révolution

3

119

La chimie et la santé

(squalène) forment la même molécule !

Figure 13 La squalénisation de la gemcitabine : on fait réagir l’anticancéreux gemcitabine avec l’acide squalénique et l’on obtient des molécules de gemcitabinesqualène. Lorsqu’on les met dans l’eau, elles se mettent à s’autoorganiser en colonnes parallèles, où la partie principe actif (gemcitabine) est orientée vers l’intérieur. La « coque » extérieure est constituée par les chaînes de squalène. L’ensemble de ces nanoparticules de 100 à 150 nm de diamètre est observable par microscopie électronique.

120

Suite à ce résultat encourageant, le concept de « squalénisation » a été appliqué à d’autres types d’analogues nucléosidiques que la gemcitabine, et en greffant le squalène à d’autres sites de la molécule. Cela a été réalisé notamment avec l’anti-VIH AZT. Même succès obtenu : on observe des nanoparticules qui se forment d’elles-mêmes, atteignant des diamètres de 100 à 150 nanomètres ! Des études approfondies, réalisées grâce à une technique de diffraction de rayons X aux petits angles, combinée à de la modélisation moléculaire, ont permis de mettre en évidence une structuration des nanoparticules

sous forme de colonnes, en formant des phases hexagonales [6] (Figure 13).

3.2. Les nanomédicaments squalénisés : quelle efficacité ? 3.2.1. Nanomédicaments et cancer Du point de vue pharmacologique, l’activité de ces nouveaux médicaments a été testée sur un modèle relativement agressif de tumeur expérimentale, la leucémie de murine L-1210 [8]. Dans ces expériences, les cellules cancéreuses ont été injectées par voie intraveineuse aux souris, puis elles ont été traitées par la même voie, dans différentes conditions.

Ensuite il fallait s’assurer que la technologie de squalénisation fonctionnait sur des tumeurs localisées. Pour cela,

V

100 

Survivants (%)

Figure 14 Résultats des tests sur la leucémie murine L-1210 [8].

V

80

X

60

O X

V



40

X  OX

0 0

Q Q Q

O

20

V

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

est prolongée en moyenne de 50 %. Cependant, elles ne sont pas guéries puisqu’aucun survivant à long terme n’est observé et qu’après 45 jours toutes finissent par mourir. Il est bien évident que les particules de squalène injectées seules n’ont aucun effet. En revanche, les particules de gemcitabine-squalène injectées à une dose cinq fois moindre que la gemcitabine libre conduisent (en rouge) à 75 % de survivants à long terme, c’est-à-dire des souris guéries.

Les souris non traitées meurent au bout de vingt jours, et l’on voit bien que cette leucémie est très agressive (en bleu sur la Figure 14). Les cellules cancéreuses vont disséminer extrêmement rapidement au niveau des organes profonds et induire des métastases ; très vite les souris vont perdre du poids et toutes vont mourir moins de vingt jours après la greffe des cellules tumorales. Au contraire, pour les souris traitées par la gemcitabine libre à la dose de 100 mg/kg (en violet) qui est la dose maximale tolérée, on observe que le médicament a une activité puisque la survie des souris

20

Q Q 40 60 Jours

80

100

Non traitées Squalène 100mg/kg Cytarabine 100mg/kg Gemcitabine 100mg/kg Nanoassemblages gemcitabine-squalène 20mg/kg 121

La chimie et la santé

les cellules cancéreuses ont été injectées par voie souscutanée et l’évolution des tumeurs a été suivie. Tout d’abord pour les souris non traitées, le volume tumoral croît de manière très rapide, en concordance avec les observations précédentes. L’évolution tumorale a ensuite été étudiée pour les souris traitées à la gemcitabine (à la dose de 100 mg/kg) et il apparaît que la tumeur est résistante à ce médicament. En effet, aucune différence de la croissance tumorale n’est observée par rapport aux souris non traitées, alors que l’on est à la dose maximale tolérée.

Figure 15 Résultats des traitements par la gemcitabine libre ou squalénisée sur le volume tumoral.

122

Inversement, les souris traitées par voie intraveineuse par les nanoparticules de gemcitabine-squalène (en rouge) subissent dans un premier temps une diminution de la masse tumorale, et après dix jours, la tumeur disparaît [7] (Figure 15).

3.2.2. Nanomédicaments et sida La technologie des nanomédicaments squalénisés a également fait ses preuves dans le domaine du sida. Par exemple, un médicament antiVIH, la didanosine (ddI), a été squalénisé et le nanomédicament ainsi obtenu a été testé sur des lymphocytes humains originaires de trois donneurs différents et infectés par le VIH. Sur une souche sensible, on observe que les nanoparticules de ddI-squalène sont quatre fois plus efficaces comparativement à la ddI incubée sous forme libre. Plus intéressante encore est l’observation qui a été faite avec des souches résistantes de VIH, en particulier la souche 146, pour laquelle l’incubation de la ddI sous forme de nanoparticules squalénisées conduit à une efficacité dix fois plus importante que la ddI sous forme libre.

Les nanomédicaments constituent une nouvelle forme prometteuse de médicaments. Une « première génération » de nanomédicaments anticancéreux à base de doxorubicine sera peut-être bientôt sur le marché. Il se prépare au laboratoire des nanovecteurs de « deuxième génération » capables d’acheminer avec précision des principes actifs vers les régions atteintes ; mais aussi des nanovecteurs de « troisième génération » capables de cibler spécifiquement des récepteurs des cellules malades ; et enfin des nanoparticules squalénisées pouvant traiter des maladies variées… un bon nombre ont montré leur efficacité au stade expérimental sur des animaux malades. Qu’en sera-t-il de leur application en médecine humaine ? Force est de constater que les remarquables progrès de la nanomédecine résultent d’une approche résolument transdisciplinaire associant biologie moléculaire et cellulaire, génomique, pharmacologie, galénique, chimie et physique. Dans cette approche particulière de la nanovectorisation, on ne peut s’empêcher de penser à une citation de Saint Augustin : « La manière de donner est au moins aussi importante que ce que l’on donne ». La contribution de la chimie à ces nouveaux médicaments est très importante, mais la galénique, discipline associée à la chimie, a également un rôle très important dans ce domaine et ne doit pas être oubliée.

Les nanomédicaments : une approche intelligente pour le traitement des maladies sévères

La médecine de demain ne peut plus se passer d’une association pluridisciplinaire

123

La chimie et la santé 124

Bibliographie [1] Chiannilkulchai N., Ammoury N., Caillou B., Devissaguet J.P., Couvreur P. (1990). Hepatic tissue distribution of doxorubicinloaded nanoparticles after i.v. administration in reticulosarcoma M5076 metastasis-bearing mice. Cancer Chemother. Pharmacol., 26 : 122-126. [2] Barraud L., Merle P., Soma E., Lefrançois L., Guerret S., Chevallier M., Dubernet C., Couvreur P., Trépo C., Vitvitski L. (2005). Increase of doxorubicin sensitivity by doxorubicin loading into nanoparticles for hepatocellular carcinoma cells in vitro and in vivo. J. Hepathology, 42 : 736-743. [3] Peracchia M.T., Fattal E., Desmaele D., Besnard M., Noel J.P., Gomis J.M., Appel M., D’Angelo J., Couvreur P. (1999). Stealth (R) PEGylated polycyanoacrylate nanoparticles for intravenous administration and splenic targeting. J. Control. Release, 60 : 121-128. [4] Stella B., Arpicco S., Peracchia M.T., Desmaële D.,

Hoebeke J., Renoir M., D’Angelo J., Cattel L., Couvreur P. (2000). Design of folic acid-conjugated nanoparticles for drug targeting. J. Pharm. Sci., 89 : 1452-1464. [5] De Martimprey H., Bertrand J.-R., Fusco A., Santoro M., Couvreur P., Vauthier C., Malvy C. (2008). siRNA nanoformulation against the Ret/PTC1 junction oncogene is efficient in an in vivo model of papillary thyroid carcinoma. Nucl. Ac. Res., 36 : 1093-1094. [6] a) Couvreur P., Stella B., Reddy L.H., Hillaireau H., Dubernet C., Desmaële D., Lepêtre-Mouelhi S., Rocco F., Dereuddre-Bosquet N., Clayette P., Rosilio V., Marsaud V., Renoir J.-M., Cattel L. (2006). Squalenoyl nanomedicines as potential therapeutics. Nano letters, 11 : 2544-2548 ; b) Couvreur P., Harivardhan Reddy L., Mangenot S., Poupaert J.H., Desmaële D., LeprêtreMouelhi S., Pili B., Bourgaux C., Amenitsch H., Ollivon M. (2008). Discovery of new hexagonal supramolecular nanostructures formed by squalenoylation of an

anticancer nucleoside analogue. Small, 4 : 247-253. [7] Reddy L.H., Renoir J.M., Marsaud V., Lepêtre-Mouelhi S., Desmaële D., Couvreur P. (2009). Anticancer Efficacity of Squalenoyl Gemcitabine Nanomedicine on 60 Human Tumor Cell Panel and on Experimental Tumor. Molecular Pharmaceutics, 6 : 1526-1535. [8] a) Harivardhan Reddy L., Khoury H., Paci A., Deroussent A., Ferreira H., Dubernet C., Declèves X., Besnard M., Chacun H., Lepêtre-Mouelhi S., Desmaële D., Rousseau B., Laugier C., Cintrat J.-C., Vassal G., Couvreur P. (2007). Squalenoylation favorably modifies the in vivo pharmacokinetics and biodistribution of gemcitabine in mice. J. Control. Rel. 124 : 20-27 ; b) Harivardhan Reddy L., Marque P.-E., Dubernet C., Lepêtre-Mouelhi S., Desmaële D., Couvreur P. (2008). Preclinical toxicology (subacute and acute) and efficacy of a new squalenoyl gemcitabine anticancer nanomedicine. J. Pharmacol. Exp. Ther. 325 : 484-490.

pour de nouveaux médicaments : mythe ou réalité ? L’industrie pharmaceutique : une pénurie de nouveaux médicaments ?

1

1.1. Bilan L’époque actuelle est difficile pour l’innovation dans le domaine du médicament, dans un environnement de plus en plus contraignant chaque année. Précaution, anxiété, tout devient dangereux… Les médicaments sont, comme beaucoup d’autres produits, victimes de ce changement de mentalité. Cela a un impact sur l’aspect économique de l’industrie pharmaceutique : le développement de médicaments est de plus en plus onéreux. De plus, l’opinion publique pense que l’accès au médicament doit être gratuit, rendant difficile une augmentation des prix, y compris pour les médicaments innovants (Figure 1). Par ailleurs, le délai qui sépare le brevet et la mise sur le marché étant devenu très long, les coûts de Recherche et Développement ont donc explosé,

comme le montre la flèche en bleu, Figure 2. La flèche en rouge indique la diminution du nombre de médicaments recevant chaque année une autorisation de mise sur le marché par la Food and Drug Administration (FDA) américaine. Le coût de la mise sur le marché d’un nouveau médicament se compte désormais en milliards de dollars : 10 % de ce coût global est dédié à la recherche, 15 % aux essais précliniques, et 55 % sont utilisés pour les essais cliniques. Sur le diagramme de la Figure 2, la tendance actuelle de sortie de nouvelles molécules est illustrée par la flèche rouge et l’augmentation du

Bernard Meunier Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ?

Molécules hybrides

Figure 1 Les médicaments ont un prix pour l’industrie pharmaceutique, mais aussi pour le public.

La chimie et la santé Figure 2 Nombre de molécules recevant une autorisation de la FDA de mise sur le marché américain entre 1996 et 2007. On voit en rouge la tendance actuelle de sortie de nouvelles molécules, et en bleu l’allure de l’augmentation du prix des différents médicaments. Si l’on fait une extrapolation simpliste, dès 2020, il ne restera que deux molécules à recevoir une autorisation, avec un coût de développement qui serait de 4-5 milliards de dollars ! Il s’agirait alors d’une crise sans précédent pour l’industrie pharmaceutique, qui peut difficilement survivre sur ce modèle économique.

Figure 3 Le criblage à haut débit est réalisé par des robots capables d’évaluer l’activité biologique de milliers de molécules.

prix des différents médicaments par la flèche bleue. Si l’on fait une extrapolation simpliste, dès 2020 il ne resterait que trois-quatre molécules industrialisées, dont le coût de développement serait de 4-5 milliards. Il s’agirait alors d’une crise sans précédent pour l’industrie pharmaceutique qui ne peut donc vraisemblablement pas survivre avec ce modèle économique. 1.2. Perspectives Passons en revue quelquesunes des voies possibles pour éviter cette situation de blocage et améliorer la créativité, en espérant que la durée de vie des brevets soit augmentée, afin d’assurer

un retour sur investissement raisonnable. 1.2.1. Utiliser les méthodes de la génomique L’une des réponses à ce problème a été d’utiliser les nouvelles voies offertes par la génomique, ainsi que les diverses méthodes qui lui sont liées (protéomique, etc.). Cette voie, associée aux méthodes de criblage à haut débit (présentées dans le chapitre de J.-P. Maffrand), ne s’est pas avérée aussi concluante que prévu, comme le montre l’exemple de l’entreprise GlaxoSmithKline (GSK), dans sa recherche de nouvelles cibles pour des antibactériens capables de lutter contre les bactéries multirésistantes. Après sept ans de recherche de nouvelles cibles, cette grande entreprise n’a obtenu aucun résultat tangible, alors que plus de 300 000 à 500 000 molécules avaient été testées, au cours de plusieurs campagnes de criblage sur de nouvelles cibles potentielles (Figure 3) ! Cette démarche a été abandonnée, et GSK s’est tournée vers les vaccins… 1.2.2. Le retour aux produits naturels

126

Une autre tendance dans les recherches de médicaments

1.2.3. Approfondir les nouvelles possibilités de recherches La méthode dite « reverse chemical genetics », ou génétique chimique inverse (voir le paragraphe 2.2. du chapitre de J.-P. Maffrand), consiste à identifier des molécules capables de réguler l’expression de gènes de manière très spécifique. En fait, des observations faites chez l’animal ou chez les premiers patients conduisent parfois à faire de la « reverse chemical genetics » sans le savoir ! C’est alors l’occasion de découvrir une propriété inattendue pour une molécule créée pour un autre usage thérapeutique. Rappelons l’exemple de la découverte du Viagra®, primitivement développée pour soigner les affections cardiaques. Cela souligne l’importance de la

phase d’observation clinique, au moment du développement des molécules. Par ailleurs, on assiste au développement des méthodes de calculs modernes et prédictives, grâce à un accès facile aux calculateurs puissants. Enfin, la chimie combinatoire dynamique, abordée dans le paragraphe 4.2.3 du chapitre de F. Dardel, fournit un autre exemple de ces nouvelles approches pour la recherche de pharmacophores non conventionnels : on prend en considération l’auto-assemblage de « synthons » (parties de molécules réactives) au niveau de la cible biologique (protéine, enzyme). Cette méthode a été récemment développée par le prix Nobel de chimie Jean-Marie Lehn et ses collaborateurs.

Figure 4 Forêt tropicale du massif de l’Aoupinié sur la côte Est de la Nouvelle-Calédonie. Des recherches ont lieu pour trouver de nouvelles molécules aux vertus thérapeutiques à partir de plantes.

Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ?

est de revenir aux produits naturels. La Nature offre une très grande diversité de structures chimiques très différentes les unes des autres (Figures 4 et 5 et voir le chapitre de F. Albericio, paragraphe 2.1), et qui peuvent servir de sources d’inspiration pour des synthèses de nouveaux médicaments « bioinspirés » (rappelons-nous de la « chimie d’après le vivant », évoquée dans le chapitre de D. Mansuy). Effet, les structures des molécules actives que produisent micro-organismes, plantes, animaux, terrestres ou marins, nous fournissent des bases moléculaires pharmacologiquement intéressantes (les « pharmacophores »), qui peuvent nous servir de modèles pour concevoir de nouveaux principes actifs.

1.2.4. L’extension du recours aux biomolécules ? Depuis une dizaine d’années, les « biomolécules » – molécules, et surtout macromolécules naturellement présentes dans les systèmes vivants (Figure 6) – sont

Figure 5 Éponge Axinelle, « Axinella sp. », en milieu naturel en Bretagne, source potentielle de molécules bioactives.

127

La chimie et la santé

en plus spécifiques, grâce aux progrès de la recherche. Mais cette spécificité a des limites, comme le montre l’utilisation de l’Avastine®, qui peut provoquer des nécroses de tissus très loin des zones d’application de la thérapie (au niveau des parois nasales, par exemple). Certains pays ne remboursent plus ce médicament, bien qu’il constitue l’un des nouveaux traitements anticancéreux les plus efficaces, mais avec une spécificité qu’il reste à améliorer.

Figure 6 Protéines, lipides, glucides… ces biomolécules peuvent devenir des outils thérapeutiques efficaces.

128

considérées comme représentant l’essentiel de l’avenir des nouveaux outils thérapeutiques. Par opposition, les « petites molécules » faites par les chimistes constituent des médicaments symbolisant l’innovation thérapeutique du XXe siècle, alors que le XXIe siècle serait celui des biomolécules, telles que des vaccins ou des anticorps. La biopharmacie serait-elle alors la seule solution ? La vraie question est donc la suivante : « y aura-t-il basculement ou pas vers les biomolécules ? » En fait, il est plus vraisemblable que le développement de ces macromolécules biologiques comme agents thérapeutiques se fera au fur et à mesure de l’apparition de leurs nouvelles indications. Il n’y aura pas de basculement brutal, et cela pour plusieurs raisons. Les vaccins seront de plus en plus efficaces, car on aura des anticorps monoclonaux de plus

Actuellement, 80 % du marché du médicament sont encore constitués par les petites molécules synthétisées chimiquement. Ce ratio va très certainement être réduit, mais cela se fera progressivement, pour atteindre un équilibre qu’il est difficile de prévoir actuellement. En effet, il ne faut pas négliger un point très sensible : le coût élevé des biopharmaceutiques, en comparaison de celui des molécules issues de la chimie. 1.2.5. Les limites scientifiques dues aux possibilités de la recherche La chimie est-elle dépassée ? A-t-elle atteint la limite de ses possibilités ? Il n’en est rien : les limites ont toujours été repoussées, et elles le seront encore. En effet, il suffit de regarder le nombre de molécules que l’on peut créer avec douze atomes (en combinant C, H, O et N), en utilisant les méthodes de synthèse chimique connues : il existe dans ces conditions 26 millions de possibilités (Figure 7). Or, seulement 63 000 sont connues et synthétisées actuellement, soit

Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ?

moins de 0,3 % du nombre de molécules potentielles. Cela montre bien que la chimie préparative est loin d’avoir atteint ses limites ; les futures générations de chimistes ont de vastes espaces devant eux ! Certains espaces ont bien sûr été plus développés que d’autres, mais il en reste énormément à découvrir…

Une voie vers de nouveaux médicaments : les molécules hybrides

2

2.1. Pourquoi faire des molécules hybrides ? Le choix de cette voie est lié en fait aux travaux effectués avec mon équipe de recherche au Laboratoire de Chimie de Coordination du CNRS à Toulouse au cours des années 1985-1995, sur le mécanisme d’action de différents médicaments, et en particulier de celui d’un anticancéreux, la bléomycine. La bléomycine est un exemple très remarquable de molécule hybride. Produite par une bactérie, Streptomyces verticillus, elle se compose de trois parties. Une première partie de la molécule est utile à l’interaction avec sa cible thérapeutique qui est l’ADN ; une seconde, faite de sucres, est responsable de la pénétration dans les organismes, et une troisième est impliquée dans la création de complexes avec des ions métalliques à activité d’oxydo-réduction comme le fer. Son activité dépend donc de trois facteurs : son interaction avec l’ADN, sa distribution, et sa capacité à chélater des ions métalliques. Ces

trois activités vont provoquer une double coupure sur l’ADN de cellules tumorales, origine de l’action anticancéreuse de ce médicament.

Figure 7 Combien de médicaments potentiels dans les millions de molécules pouvant être synthétisées par les chimistes ?

Jusqu’en 1990, les chimistes n’étaient peu ou pas entrés dans la stratégie des molécules hybrides, qui constitue donc un champ de travail important avec de larges perspectives d’évolution.

2.2. Les molécules hybrides : fonctionnement et intérêt Il est évident que deux pharmacophores (qui rappelons-le sont les parties pharmacologiquement actives d’une molécule) sont toujours plus efficaces qu’un seul face à un agent pathogène (Figure 8). De très nombreuses maladies sont en effet traitées maintenant par des polytraitements : les polychimiothérapies, qui associent plusieurs molécules

129

La chimie et la santé Figure 8 Schéma du mécanisme d’action d’une molécule hybride.

Figure 9 Plasmodium falciparum, agent responsable du paludime.

actives. La trithérapie anti-VIH en est un exemple récent, mais n’oublions pas la lutte efficace dans les années 1950 contre le bacille de la tuberculose avec l’association rimifon-streptomycine. De plus, pour les traitements contre les bactéries ou contre les parasites responsables du paludisme, les monothérapies conduisent à l’apparition de souches de pathogènes résistantes à la molécule utilisée (souche de Plasmodium falciparum, résistantes à la chloroquine). 2.3. Les traitements contre le paludisme

130

Quatre agents infectieux, Plasmodia, sont pathogènes pour l’homme : P. vivax, P. ovale, P. malariae et P. falciparum (Figure 9). Ce dernier est le plus dangereux, il est

responsable du paludisme qui touche le cerveau et est à l’origine des décès. Différents traitements existent pour éliminer ces parasites chez l’homme, mais aucun n’est parfait ni complètement satisfaisant. La chloroquine a été très efficace pendant plus de 40-50 ans, mais de nombreuses souches de parasites sont maintenant résistantes à ce médicament. D’autres molécules sont efficaces sur ces souches chloroquino-résistantes, comme la méfloquine (ou Lariam®), mais avec des effets secondaires qui ne sont donc pas négligeables. Cette molécule peut induire des états dépressifs chez une personne sur mille. Cependant, peu de molécules actives ont été découvertes depuis une trentaine d’années, ce qui explique

2.3.1. Le cas du DDT Il existe une molécule dont on n’ose à peine parler : le DDT (dichlorodiphényltrichloroéthane). Cet insecticide chloré est maintenant considéré comme l’archétype de l’insecticide dangereux pour l’environnement, car très peu biodégradable. Sa persistance et son caractère hydrophobe conduisent à son accumulation dans les graisses de nombreuses espèces vivantes. Très efficace, cet insecticide a été produit en très grandes quantités après la Seconde Guerre mondiale et a permis d’éradiquer le paludisme dans toute l’Europe du Sud, en réduisant de manière sévère les populations des moustiques, vecteurs de cette maladie parasitaire. Bien que banni depuis un protocole international signé à Stockholm en 2001, l’Organisation Mondiale de la Santé (OMS) a demandé le maintien de l’utilisation de cette molécule en Afrique, pour l’imprégnation des murs des habitations en zones fortement endémiques (Figure 10). La Figure 11 présente les résultats d’une étude faite dans une zone de paludisme résistant, entre l’Afrique du Sud et le Mozambique. Le nombre de cas de paludisme est stable jusqu’en 1995. À cette date, l’arrêt de l’utilisation de cet insecticide conduit à une augmentation significative des cas de paludisme. Dès la reprise de l’utilisation modérée du DDT après 2000, on note la diminution

significative du nombre de personnes infectées. Pour les maladies tropicales, il est important de ne pas penser qu’en fonction des réactions des habitants des pays du Nord (Europe, États-Unis, pays hors de zones endémiques) et d’éviter de prendre des décisions sans tenir compte des réalités locales.

Figure 10 Habitants du village sénégalais de Dielmo, où l’Institut Pasteur maintient une station permanente d’études sur le paludisme. Plasmodium falciparum est holoendémique dans la région (plus de 90 % des enfants sont infectés).

Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ?

que le Lariam® n’a pas encore été retiré du marché.

2.3.2. Mettre au point des vaccins antipaludiques efficaces : quelles difficultés ? Les succès très spectaculaires de la prévention de nombreuses maladies infectieuses au moyen de la vaccination, largement développée au XXe siècle, ont conduit à un optimisme excessif sur la possibilité de la mise au point de vaccins pour toutes les maladies infectieuses. Le décryptage des génomes des agents pathogènes a encore accentué cette confiance au cours des années 1990-2000 : « si on connaît le génome du pathogène, on va être capable de créer des vaccins efficaces ». Les génomes de l’homme, du plasmodium (agent infectieux

131

La chimie et la santé Figure 11

132

En Afrique du Sud, trois provinces montrent comment la conjugaison de plusieurs facteurs – résistance aux médicaments et aux pesticides, climat, troubles politiques et sida – peut accélérer la propagation du paludisme. Depuis le milieu des années 1980, la maladie n’a cessé de progresser, surtout après l’arrêt officiel de l’utilisation du DDT, en 1996. Une nouvelle utilisation de cet insecticide depuis 2000 et de nouveaux médicaments ont aidé à inverser la donne.

Il en est de même pour le virus du sida, un petit rétrovirus de moins de 10 000 bases dont on connaît la séquence depuis 1985. En débit de nombreuses recherches et d’un effort financier sans précédent sur plus de vingt ans, le vaccin se fait toujours attendre. En grande partie, les difficultés de mise au point de vaccins efficaces viennent du fait que ces pathogènes (parasites ou virus), pour pouvoir survivre, doivent pénétrer les cellules de l’hôte. Pour cela, ils ont multiplié les interactions avec les cellules qu’ils ont l’habitude de pénétrer. Par exemple, plus de cinquante parties de protéines sont impliquées dans les interactions entre le plasmodium et un globule rouge. Bien que la taille d’un plasmodium corresponde au dixième de la taille d’un globule rouge, il est remarquable de constater que la pénétration se fait en moins de trois heures. Le même parasite peut, en l’espace de quelques heures, interagir avec plusieurs de ces globules rouges avant de choisir d’en infecter un en particulier. Les mécanismes d’interaction pathogène-hôte sont donc très complexes et multiparamétriques. À cela s’ajoute la capacité de ces pathogènes à muter facilement pour s’adapter

constamment à de nouveaux environnements. Dans ces conditions, imaginer une approche vaccinale simple qui joue au mieux sur quelquesuns de ces paramètres est un défi de grande envergure. Voilà quelques-unes des causes de l’échec de la création de vaccins contre les vecteurs du sida ou du paludisme. 2.3.3. Le mode de vie du parasite du paludisme chez l’homme Comment agit le parasite du paludisme ? Après l’infection des globules rouges et lors de sa phase de multiplication rapide, ce parasite découpe près de 50 % de leur hémoglobine, et s’en sert comme source d’acides aminés pour construire au plus vite ses propres protéines, puis se multiplier rapidement. Notons que le relargage dans la circulation sanguine de ces nouveaux parasites correspond aux poussées de fièvre. Ce faisant, le parasite doit alors gérer sa production de déchets toxiques pour survivre ! L’un de ces déchets est l’hème, molécule qui est libérée lors de la digestion de l’hémoglobine par notre parasite. Or, en présence d’agents réducteurs et de l’oxygène, que l’on trouve dans toutes les cellules, toute protoporphyrine de fer qui n’est pas contrôlée par une protéine va être soumise à des phénomènes redox : la réduction catalytique de l’oxygène va générer de nombreux radicaux hydroxyles (OH°), capables de modifier toutes les structures cellulaires, et va

Figure 12 L’anophèle est le moustique transmetteur du paludisme.

Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ?

du paludisme), et de l’anophèle (le moustique transmetteur du paludisme, Figure 12) sont maintenant tous connus : toutes les bases de ces séquences d’ADN ont été découvertes. Après des efforts très importants, le vaccin universel contre le paludisme n’est toujours pas là !

133

La chimie et la santé

conduire à la mort du parasite. Pour se défendre, le parasite va agréger l’hème en un polymère inerte vis-à-vis de ces systèmes redox. Ce polymère s’appelle l’hémozoïne, pigment coloré visible avec un simple microscope optique classique.

Figure 13 Artemisia annua (Armoise annuelle) est utilisée en Chine depuis plus de 2 000 ans pour soulager les fièvres, dont celles dues au paludisme. Le principe actif extrait de cette plante est l’artémisinine.

134

De nombreux médicaments antipaludiques, comme la quinine ou la chloroquine, sont en fait des inhibiteurs de cette polymérisation. Toute molécule capable d’empêcher l’agrégation de l’hème en hémozoïne est donc potentiellement un antipaludique.

2.3.4. Une molécule contre le paludisme : l’artémisinine Dans cette recherche de traitement antipaludique, l’artémisinine est une molécule intéressante. Produit extrait des feuilles d’une plante (Artemisia annua, Figure 13), cette molécule est utilisée en médecine traditionnelle chinoise depuis plus de 2 000 ans pour soigner les fièvres, et en particulier celles qui sont dues au paludisme. Cas unique pour un médicament, le pharmacophore de ce produit est constitué d’un trioxane (en rouge sur la Figure 14), cycle de six carbones contenant trois atomes d’oxygène dont deux liés dans un pont peroxyde (deux oxygènes liés par une liaison simple O-O). S’il manque un atome d’oxygène sur ce pont, l’activité antipaludique disparaît. Cette molécule est très efficace, mais elle présente quelques défauts : la production de la plante est aléatoire ; la pharmacocinétique de

l’artémisinine est très courte, donc très différente de celle que l’on pourrait espérer. Comprendre le mécanisme d’action de cette molécule antipaludique unique dans sa catégorie, c’est aussi essayer de construire de nouvelles molécules pouvant agir selon ce même mécanisme. Le mécanisme présenté dans l’encart « L’artémisine : comment agit cet antipaludique ? », s’il est bien argumenté, reste encore l’objet de nombreux débats dans la communauté scientifique ; il fournit cependant une interprétation de la suite de réactions chimiques par lesquelles l’artémisinine conduit à la mort du parasite et de la cellule infectée. 2.3.5. Une nouvelle famille d’antipaludiques : les trioxaquines À partir de ces études de mécanisme d’action, il a été imaginé de faire des molécules hybrides, s’inspirant du fonctionnement précédent décrit pour l’artémisinine, et de relier le motif trioxane à une aminoquinoléine comme dans la chloroquine. Cette idée de molécules hybrides à activité duale a conduit à la synthèse des trioxaquines. Plus de 120 trioxaquines ont été créées, et toutes étaient actives in vitro. 77 d’entre elles ont été testées in vivo sur un modèle souris pertinent permettant de discriminer les molécules. Six d’entre elles ont alors été reconsidérées, une, la trioxaquine PA1103SAR116242 (Figure 15), a été sélectionnée par PALUMED et par le groupe pharmaceutique Sanofi-Aventis [1].

Le scénario débute lorsque le parasite du paludisme infecte nos globules rouges. Ces derniers sont des milieux dits réducteurs (donc propices aux phénomènes redox), et vont par conséquentdonc réduire l’hème du parasite (son fer devient Fe(II), Figure 14). Cet hème libre (déchet du parasite) réagit extrêmement vite avec les peroxydes, en l’occurrence le cycle trioxane de l’antipaludique artémisinine (en rouge, Figure 14). Un composé très réactif est alors créé (« radical alkylant »), possédant la capacité de réagir avec l’hème (réaction d’alkylation), pour former un composé, l’« adduit hème-artémisinine », selon le mécanisme chimique représenté Figure 14. On voit donc, par ce mécanisme d’action, que l’hème est l’activateur et la cible de l’artémisinine ; et l’adduit hème-artémisinine est un inhibiteur de la synthèse de l’hémozoïne.

Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ?

L’ARTÉMISININE : COMMENT AGIT CET ANTIPALUDIQUE ?

Figure 14 Comment agit l’artémisinine contre le parasite du paludisme ? L’hème libre ouvre le pont peroxyde O-O. Il y a alors deux possibilités : dans 90 % des cas, le fer va rester accroché sur l’oxygène et le radical va être sur le carbone 4 de l’artémisinine, qui vient alors s’alkyler sur l’hème.

En recherchant les adduits hème-artémisinine sur des souris de laboratoire, saines ou infectées, on n’a détecté leur présence que sur les souris infectées, ce qui montre que la formation de ces adduits est liée au développement du parasite chez l’animal. Cela n’est pas une preuve irréfutable en faveur du mécanisme présenté précédemment, mais on peut le considérer comme un argument. Ce que l’on a identifié sur une paillasse l’a été chez la souris infectée. Il y a deux façons d’expliquer comment ces adduits conduisent à la mort du parasite. D’une part, ces adduits ne polymérisent pas pour donner de l’hémozoïne : ils ne disparaissent pas et vont s’accumuler. De plus, ils sont des inhibiteurs de cette polymérisation. D’autre part, ces adduits non polymérisés possèdent de l’hème qui peut être réduit en fer (II), ce qui va conduire à la production de radicaux hydroxyles OH° toxiques, capables de provoquer la mort du parasite. 135

La chimie et la santé

de recevoir le parasite humain Plasmodium falciparum et non celui de la souris. De plus, elle présente la même activité sur des souches de terrain sensibles ou résistante à la chloroquine, ce qui a été vérifié avec des isolats cliniques au Gabon.

Figure 15 Un antipaludique prometteur, conçu grâce à la connaissance du mécanisme chimique d’action de l’artémisinine.

Cette molécule est en cours de production pour réaliser les études précliniques réglementaires et les essais de phase I. Cette molécule a également montré une bonne activité sur des souris dites « humanisées », c’est-à-dire capables

Enfin, un avantage supplémentaire de cette molécule est son mode d’action dual : alkylation de l’hème in vivo/in vitro qui va détruire le parasite ; action sur les formes du parasite qui sont ensuite maturées chez le moustique (gamétocytes), ce qui contribue à la diminution globale de la population des parasites.

Chimie et faux médicaments Cette courte présentation est le résumé d’une dizaine d’années de recherches effectuées à la fois dans des laboratoires académiques du CNRS-Université de Toulouse ou du CHUToulouse et d’une petite « start-up », PALUMED, et de la recherche amont d’un grand groupe pharmaceutique, Sanofi-Aventis. Il est clair que l’innovation thérapeutique est issue maintenant d’un continuum entre recherche fondamentale et recherche à vocation d’application. Le décloisonnement des structures et des esprits est essentiel pour assurer la mise au point de nouveaux médicaments au cours de projets dont la durée est souvent supérieure à quinze ans. Un fléau pour tous, la contrefaçon de médicaments

136

Après la description de ces efforts pour mettre au point de nouveaux médicaments, il

Molécules hybrides pour de nouveaux médicaments : mythe ou réalité ?

n’est pas possible de passer sous silence les problèmes croissants posés par le trafic de faux médicaments. C’est un sujet peu abordé dans les médias, qui souhaitent aller dans le seul sens d’une grande partie de l’opinion qui considère les groupes pharmaceutiques comme des entreprises voulant uniquement faire de l’argent avec une capacité d’innovation faible. Comment les groupes pharmaceutiques perdent de l’argent avec les contrefaçons de médicaments n’est pas un sujet très à la mode. Cependant il ne s’agit pas que de cela, car il y a avant tout un problème majeur de santé publique qui touche tous les pays. Une étude récente d’une économiste américaine a donné l’alerte : les flux financiers de la contrefaçon de médicaments dans le monde représentent plus de 10 % du marché mondial total des médicaments. Cela représente plus de 50 milliards de dollars par an ! L’explosion de ce trafic est due au fait que les mafias ayant prospéré depuis une trentaine d’années avec la vente des drogues illicites ont les moyens financiers et le savoir-faire pour se lancer dans la contrefaçon de médicaments, activité qui est très faiblement réprimée en comparaison des trafics habituels. C’est donc une nouvelle activité, toujours illicite, mais beaucoup moins risquée et avec une rentabilité très forte. Ce trafic connaît actuellement une grande extension, en particulier en Afrique mais aussi dans les pays développés, grâce à Internet. En décembre 2007, la FDA a dénombré 24 sites Internet aux États-Unis proposant des médicaments contrefaits. Ces sites vendaient surtout des pilules anti-âge, du Viagra®, etc. Les médicaments de contrefaçon sont soit vides de tout principe actif, soit composés de produits potentiellement très dangereux. En Afrique, le Nigéria est une des plaques tournantes du trafic de faux médicaments. La

137

La chimie et la santé

lutte contre ce trafic dans ce pays est menée de manière très courageuse par Madame Dora Akunyili. Cette pharmacologue a mis en place des laboratoires d’analyse et de contrôle permettant de lutter avec efficacité contre l’introduction dans son pays de faux médicaments. De plus, elle a réussi à faire changer la loi et le trafic de médicaments au Nigéria est maintenant puni de cinq ans de prison, au lieu de trois mois auparavant. Mais elle est devenue la cible des mafias du domaine et a échappé à plusieurs tentatives d’assassinat (un chauffeur a été tué au cours d’une de ces tentatives). Il est donc important que l’opinion publique de tous les pays soutienne des actions aussi exemplaires.

Bibliographie [1] Coslédan F. et al. PNAS (2008), 105 : 17579-17584.

138

Les chimistes utilisent depuis longtemps les interactions avec la lumière pour observer et caractériser les milieux organiques ou inorganiques. La présence, dans la matière, de sites optiquement actifs, naturellement émetteurs de lumière, est à l’origine des méthodes de microscopie optique et d’imagerie. Ces méthodes, historiquement antérieures aux méthodes de spectroscopies infrarouge ou visibles-UV (où l’on mesure l’absorption de l’échantillon étudié en fonction de la longueur d’onde d’un faisceau lumineux incident), connaissent à l’heure actuelle de nouveaux développements. On peut attribuer ces progrès en grande partie à l’avènement des sources laser et aux phénomènes d’absorption à deux photons (ADP) (ou phénomènes dits « biphotoniques »), auxquels leurs considérables intensités lumineuses (mille à cent mille fois supérieures – en énergie instantanée – aux sources classiques) donnent naissance.

L’apparition de ces nouvelles méthodes, les microscopies biphotoniques, que les chimistes savent adapter aux systèmes biologiques moléculaires, et leur perfectionnement constant, ouvrent de nouvelles voies vers la compréhension toujours plus fine des phénomènes biologiques à l’échelle moléculaire, au sein de l’organisme vivant (nos tissus, nos cellules). Ce chapitre en donne quelques exemples.

Avantages de la microscopie biphotonique et comment les optimiser

1

L’excitation biphotonique, dépendant fortement de l’intensité lumineuse, ne se produit en pratique qu’au point où celle-ci est maximum – c’est-à-dire au point focal d’un montage d’illumination. La Figure 1 illustre bien ce point : en éclairement à un photon à 488 nm de longueur d’onde, l’ensemble du trajet du faisceau est rendu visible

Mireille Blanchard-Desce Nouvelles techniques d’imagerie laser

Nouvelles techniques d’imagerie laser

La chimie et la santé

mais elle évite également l’autofluorescence (fluorescence des régions voisines qui interfèrent avec le signal principal). En effet, comme la longueur d’onde incidente ne peut produire que peu d’effets à un photon, on peut exposer des tissus biologiques plus longtemps et sans dommages pour ces derniers, et limiter le bruit de fond dû à la fluorescence naturelle, pour obtenir ainsi des gains de sensibilité appréciables.

Figure 1 Contrastes en excitation monoou biphotonique. Dans le premier cas (A), l’ensemble des molécules situées sur le parcours optique sont émettrices de fluorescence. Dans le second cas (B), seul le point focal, où la lumière excitatrice est intense, est émetteur. l est la longueur d’onde incidente du rayon lumineux généré par un laser et focalisé dans la cuve par passage à travers l’objectif du microscope (visible à droite sur l’image).

142

par fluorescence alors qu’en excitation par deux photons à 1 032 nm de longueur d’onde, seul le point focal émet la fluorescence. Cette propriété ouvre à la microscopie biphotonique la possibilité de réaliser des images en trois dimensions, par un jeu de translation de l’objectif qui permet au point focal de balayer l’échantillon selon son axe, et de réaliser ainsi de véritables « coupes optiques ». La longueur d’onde excitatrice étant située dans le rouge ou l’infrarouge du spectre lumineux (entre 700 et 1 100 nm), et non dans l’ultra-violet, elle aura une bien meilleure pénétration dans les tissus vivants et pourra en fournir une image plus complète. Qualifiée d’imagerie douce, cette microscopie biphotonique permet par ailleurs d’éviter les photodommages, tels que l’altération de la peau ou de l’ADN pouvant survenir lors d’expositions aux UV ;

La microscopie biphotonique est une technique d’imagerie douce, qui permet d’obtenir de bonnes qualités d’images de coupes des tissus et cellules vivants, grâce à une bonne pénétration de la lumière. Une fois les caractéristiques de cette technique spécifiées de manière qualitative, se pose le problème de la quantification du phénomène d’absorption simultanée de deux photons. Alors que, dans le cas d’un photon, la réponse de la molécule excitée à une longueur d’onde donnée est mesurée par le coefficient d’extinction molaire, en absorption à deux photons (ADP), elle est mesurée par la section efficace ADP dont l’unité de mesure est le Göppert-Mayer (GM), du nom de la première physicienne à avoir envisagé la possibilité de l’absorption à deux photons (Figure 2). Pour faire de l’imagerie par absorption à deux photons, on a donc besoin de bonnes

Dans l’étude des systèmes biologiques, on cherchera à atteindre de fortes brillances dans la gamme de longueurs d’onde allant de 700 nm à 1 100 nm. Pour ce faire, on pourra utiliser des molécules aux propriétés émettrices efficaces – des chromophores biphotoniques – et les introduire dans le système à étudier pour en accroître la réponse. 1.1. Le rôle du chimiste dans le développement de ces nouvelles techniques L’utilisation de ces nouvelles techniques optiques requiert ainsi au premier chef l’intervention de chimistes, qui vont concevoir et réaliser des chromophores appropriés aux diverses études entreprises. Des expériences montrent que les meilleurs des chromophores endogènes comme la riboflavine1 ont des sections efficaces d’ADP de l’ordre de 1 GM. Par conséquent pour que l’ADP ne produise pas de dommages sur le système 1. La riboflavine, encore appelée vitamine B2 (apportée par les laitages, viandes et poissons), est une molécule largement présente dans notre organisme (intestins, cœur, cerveau) où elle jour un rôle important.

Nouvelles techniques d’imagerie laser

sections efficaces d’ADP et de bons rendements quantiques de fluorescence. On introduit alors une grandeur, la brillance à deux photons, qui est le produit des deux grandeurs précédentes. Si cette brillance est importante dans la plage de longueur d’onde qui nous intéresse, la molécule sera observable par la microscopie biphotonique.

biologique, il faut produire des chromophores synthétiques antennes, ayant une section efficace d’ADP largement supérieure à celle des tissus biologiques (et donc des chromophores endogènes), soit environ 1 000 GM et au-delà. Cela permet alors une sélectivité d’excitation importante, les molécules non synthétiques étant alors non affectées par l’irradiation. De plus, ces chromophores synthétiques doivent être de petite taille pour pouvoir s’insérer dans le milieu biologique et permettre d’en faire l’image. À l’heure actuelle, les fluorophores commerciaux ne répondent pas à ces objectifs et ne permettent pas de bénéficier des effets de sélectivité de l’absorption à deux photons. Le chimiste va donc se fixer, pour définir et réaliser les chromophores adaptés, le cahier des charges suivant :

Figure 2 Maria Göppert-Mayer obtint le prix Nobel de physique en 1963. C’est en 1929, au cours de sa thèse en physique, qu’elle démontra théoriquement l’existence de l’absorption à deux photons. Ce phénomène fut mis en évidence seulement trente ans après, lors de l’apparition des lasers.

– rendement quantique de fluorescence élevé ; – section efficace d’ADP très élevée dans la gamme 700 à 1 100 nm ; – molécule non excitable par un seul photon dans cette même gamme, car le monophotonique nécessitant moins d’énergie l’emporterait sur le biphotonique. Si ces critères sont bien remplis, on obtient alors : – une image en 3D ; – une sensibilité plus élevée ; – une réduction des photodommages pour le milieu environnant. L’ingénierie moléculaire pour l’absorption à deux photons a mis en évidence les

143

La chimie et la santé Figure 3 Chromophores et ingénierie moléculaire. L’étude optique montre l’intérêt de la présence d’un groupe donneur d’éléctrons (D) séparé d’un groupe accepteur d’électrons (A) par un système π-conjugué, conduisant à des composés dits « push-pull ». La présence de chaînes lipidiques sur le motif donneur et d’une charge (positive) sur le motif accepteur permettent au chromophore de s’insérer dans les zones membranaires de la cellule, et favorisent une orientation particulière au sein de cette membrane (flèche rouge).

Figure 4 Images simultanées obtenues par émission de fluorescence à deux photons (A) ou par GSH (B, et voir l’encart « La spectroscopie à deux photons »). Les chromophores fluorescents rentrent dans les cellules, mais seuls les chromophores orientés dans la membrane donnent une image GSH.

144

principales corrélations entre structure moléculaire et efficacité en ADP. Ainsi, on sait que pour des molécules de type quadripôles (assemblage symétrique de deux dipôles), la réponse à deux photons est élevée, et que la gamme de réponse de la molécule synthétisée peut être ajustée à la gamme d’intérêt biologique (700 nm à 1 100 nm). On montre aussi, autre exemple, l’intérêt des chromophores dits « push-pull » (Figure 3). L’ingénierie moléculaire a notamment permis d’accéder à des systèmes répondant au cahier des charges établi plus haut et présentant des sections efficaces d’ADP dépassant 5 000 GM à certaines longueurs d’onde, et supérieure à 1 000 GM sur une large plage de la gamme spectrale d’intérêt biologique

(700 à 1 000 nm). En outre, comme on le souhaite, la fluorescence est importante à toutes ces longueurs d’onde. La synthèse de fluorophores de pointe conçus selon ces principes a permis de visualiser les régions membranaires dans les échantillons biologiques cellulaires (Figure 4). 1.2. Vers des sondes biphotoniques ? La microscopie par observation de la lumière émise par fluorescence révèle la répartition des molécules émettrices présentes dans l’échantillon étudié et permet ainsi d’analyser les systèmes hétérogènes comme ceux présents chez le vivant. On peut aussi concevoir des molécules émettrices dont l’efficacité dépend d’un paramètre physico-chimique local. La cartographie fera alors ressortir les zones de l’échantillon où ces paramètres ont les valeurs particulières appelées par le phénomène utilisé, qu’il s’agisse de fluorescence ou de GSH (Encart « La spectroscopie à deux photons »), et différentes dans les deux cas.

Les intensités lumineuses gigantesques (des gigawatts instantanés) que peut atteindre la lumière produite par les lasers, en particulier par ceux qui délivrent la lumière par brèves impulsions (de durées inférieures à quelques nanosecondes), permettent d’observer des phénomènes d’absorption à deux photons, inobservables avec les sources lumineuses classiques. Avec ces dernières, l’interaction de la lumière avec une molécule se fait par transitions monophotoniques : l’énergie d’un photon est transférée du faisceau lumineux incident à la molécule, qui est ainsi portée dans un état excité d’énergie supérieure à son état fondamental par une quantité d’énergie égale à celle d’un photon. C’est ce phénomène de base qui est utilisé par les méthodes traditionnelles de microscopie ou d’imagerie, ainsi que des méthodes d’études spectroscopiques. Avec de très grandes intensités lumineuses, le transfert simultané de l’énergie de deux photons (biphotonique) du faisceau lumineux à la molécule peut intervenir par un processus non-linéaire. De même que l’on parle classiquement d’absorption par processus monophotonique (qu’on abrège en « absorption ») de la lumière, on peut par conséquent parler d’absorption à deux photons (Figure 5).

Nouvelles techniques d’imagerie laser

LA SPECTROSCOPIE À DEUX PHOTONS

Figure 5 Multiphotonique : imagerie combinée. La figure résume les transferts d’énergie qui prennent place dans l’interaction biphotonique. Le faisceau incident (flèches rouges) porte la molécule dans un état électronique excité par transfert de deux photons. Le retour à l’état fondamental se fait par l’un ou l’autre des deux mécanismes qui donnent chacun naissance à une émission lumineuse caractéristique : la fluorescence (en vert) et la « génération de seconde harmonique » (GSH) (en violet).

Dans le phénomène de fluorescence, le retour à l’état fondamental après excitation se fait par émission (en vert sur la figure) d’un photon d’énergie un peu inférieure à celle du photon incident photonique (dans le processus monophotonique) ou de deux photons incidents (en rouge sur la Figure 5) dans le cas de l’absorption biphotonique (FEDP) : c’est le phénomène de la fluorescence. Le décalage entre la longueur d’onde de la lumière émise par fluorescence et celle, un peu plus courte, de la lumière excitatrice, traduit qu’un très rapide réarrangement des atomes au sein de la molécule (dénommé « relaxation ») a dissipé une (petite) quantité d’énergie entre excitation et émission. Le phénomène de génération de seconde harmonique (GSH), bien que produit par la même excitation de base, est de nature différente. Il a d’abord été découvert dans l’étude optique de cristaux d’oxydes métalliques qu’une émission d’un faisceau lumineux de longueur d’onde moitié (seconde harmonique) de celle du faisceau incident (énergie de photon double) pouvait prendre place dans une direction bien définie de l’espace, déterminée par les propriétés du cristal. L’étude de ce phénomène, aujourd’hui largement utilisé en optique non-linéaire, a montré que son intensité dépend étroitement à la fois des propriétés d’ensemble de 145

La chimie et la santé

l’arrangement des atomes dans le cristal et des propriétés électriques du milieu. L’application de ce phénomène aux systèmes biologiques a représenté une approche hardie, compte tenu des différences intrinsèques entre les milieux, mais qui se révèle très prometteuse. L’ordre très local des systèmes moléculaires biologiques permet en effet de conserver certaines des propriétés optiques observées dans les cristaux, malgré l’absence d’ordre à longue distance, et une production significative de seconde harmonique. Les informations que l’on tire de son étude sont alors précisément de caractérisation de cet ordre local ; c’est en particulier le cas dans les systèmes membranaires, sans surprise, vu leur organisation spatiale poussée. Les deux phénomènes de fluorescence et de génération de seconde harmonique interviennent simultanément consécutivement à l’excitation lumineuse. Ils correspondent chacun à l’émission de photons de longueurs d’onde différentes (la moitié de la longueur d’onde incidente pour la GSH, déplacée vers les plus grandes longueurs d’onde pour l’émission de fluorescence). Ils peuvent donc être étudiés séparément sans interférence de l’un vers l’autre, par l’utilisation de détecteurs sélectifs en longueur d’onde.

Figure 6 Principe des émissions consécutives à l’excitation biphotonique, la fluorescence et la seconde harmonique, et un exemple de leur détection.

146

Les chromophores correspondants jouent alors le rôle de sonde pour les valeurs de ces paramètres. On peut donner les exemples suivants.

variation de la section efficace d’ADP entre le cas où la molécule est protonée et déprotonée, et d’en faire la traduction au niveau du pH2.

1.2.1. Les sondes biphotoniques de pH

1.2.2. Les sondes de potentiel (voltmètres moléculaires)

Les sondes de pH biphotoniques permettent de connaître avec précision la concentration en protons H+ à proximité de certaines molécules. Le principe consiste à utiliser la

Par ailleurs, la génération de seconde harmonique (GSH), qui est un phénomène simultané à l’émission de fluorescence (Encart « La spectroscopie à deux photons »), a permis de développer des sondes de potentiel. La GSH consiste en l’arrivée simultanée de deux photons sur la même molécule qui se « combinent » pour en produire un troisième d’énergie double (et donc de longueur d’onde moitié). L’absorption à deux photons permet de sonder et de localiser le milieu étudié grâce au phénomène de fluorescence, tandis que la GSH permet de connaître l’ordre local du système. Le même chromophore reémet alors 2. Rappelons que le potentiel hydrogène est défini par : pH = – log [H+], [H+] étant la concentration en protons.

Nouvelles techniques d’imagerie laser

deux signaux différents, celui de l’émission de fluorescence et celui de la seconde harmonique, qui donnent des informations complémentaires sur le système étudié (Figure 6). Cependant une limite importante existe pour pouvoir observer la GSH. En effet, il est nécessaire de travailler avec des molécules asymétriques, qui de plus s’organisent de manière asymétrique. Pour faire de l’imagerie combinée, on a besoin de travailler sur des systèmes pour lesquels les deux phénomènes (ADP et GSH) se produisent de manière importante. Des systèmes répondant bien à ces deux types d’excitation sont les chromophores dits « push-pull » (Figure 3). Sensible à l’ordre local, la GSH est une technique de mesure des distances inter-membranaires difficilement accessibles jusque-là (Figure 7). Par ailleurs, le phénomène de GSH permet également de mesurer le potentiel électrique en tout point d’une membrane et par conséquent

de connaître l’activité électrique cellulaire3. Le principe repose sur le fait que l’intensité du signal de GSH varie avec le potentiel. Le suivi de la variation de cette intensité dans le temps permet alors de suivre en direct la variation de potentiel en tout point de la membrane puisqu’on a une image 3D (Figure 8).

Figure 7 Modèle de l’arrangement des chromophores permettant de visualiser les membranes des cellules vivantes par analyse de la GSH. Cela permet de réaliser une imagerie dynamique des processus membranaires.

3. Rappelons que nos cellules vivantes sont en activité permanente, et de nombreux flux de molécules et d’ions ont lieu de part et d’autre des membranes cellulaires, générant une activité électrique.

Figure 8 L’intensité du signal de GSH généré au niveau de la membrane de modèles simplifiés de cellules varie linéairement avec le potentiel électrique. Les molécules introduites dans le milieu et qui génèrent ce signal (telles que celle représentée ici) se comportent donc comme de véritables voltmètres membranaires. Ceci permet d’envisager leur utilisation pour le suivi spatio-temporel de l’activité électrique de véritables cellules.

147

La chimie et la santé

utilisation en imagerie biologique sont les « quantums dots » (ou points quantiques). Ces nano-objets, à base de semi-conducteurs, présentent l’avantage d’être extrêmement brillants et robustes. Ils existent de plus dans toute une palette de tailles et de couleurs différentes. Ils présentent toutefois l’inconvénient d’inclure dans leur structure des métaux lourds (comme par exemple le cadmium), ce qui pose un problème de toxicité et restreint leur utilisation pour l’imagerie médicale et dans le domaine de la santé humaine. Cela soulève également le problème de leur biodégradabilité et du risque écologique associé aux rejets dans l’environnement. Figure 9 L’imagerie biphotonique par observation de la GSH permet de visualiser des réseaux neuronaux. Un exemple est donné ici avec l’image de neurones de culture (aplysie) marqués avec des molécules adaptées (« voltmètres membranaires ») et imagé par GSH. La longueur d’onde employée pour réaliser cette image (940 nm) permet de s’affranchir des effets de photodommages et de pouvoir voir « en profondeur » grâce à une meilleure pénétration dans les tissus. Collaboration D. Dombeck, W.W. Webb (Cornell).

Des tests effectués sur des modèles simplifiés de cellules montrent que l’intensité de GSH varie très sensiblement avec le potentiel électrique et ceci de manière très rapide (i.e. en temps réel). Ces molécules constituent donc de véritables voltmètres moléculaires de nos cellules ! Ces propriétés ont été appliquées au suivi spatio-temporel de l’activité électrique de cellules neuronales avec une excellente résolution spatiale (inférieure au micromètre) et temporelle (inférieure à la milliseconde) (Figure 9).

Des nanosondes entièrement organiques pour de nouvelles percées en imagerie

2

148

Les objets nanométriques les plus populaires à l’heure actuelle notamment pour leur

Face à cette problématique, la recherche s’est orientée vers l’élaboration de substituts des quantums dots à travers la réalisation de nano-objets « mous » (par rapport au caractère « dur » des nanoparticules les plus classiques), et construits à partir de modules complètement organiques. Il s’agissait de concevoir des alternatives à la fois bio- et éco-compatibles aux quantums dots, et que l’on puisse à terme utiliser pour l’imagerie médicale. Et ceci en arrivant à atteindre le même niveau de performances techniques (en termes de brillance notamment) que les quantums dots. L’idée pour accéder à de tels objets a consisté à confiner au sein de nanoparticules organiques un grand nombre de fluorophores, la cohésion de l’objet synthétisé étant assurée par des liaisons chimiques. Pour parvenir à une telle réalisation, il fallait néanmoins surmonter

Nouvelles techniques d’imagerie laser deux difficultés techniques importantes. La première est d’arriver à fixer les chromophores de manière efficace et contrôlée sur une plateforme de taille nanométrique. La seconde est de parvenir à ce que le confinement dans la nanoparticule ne diminue pas la luminescence des chromophores. Après de nombreux travaux de recherche, ces difficultés techniques ont enfin pu être surmontées grâce à l’utilisation de nouveaux objets chimiques, les dendrimères, molécules globulaires ramifiées aisément modulables à

la masse désirée et auxquelles on peut fixer les chromophores souhaités (Figures 10 et 11). La fluorescence des chromophores introduits dans le dendrimère est essentiellement conservée et, au total, la réponse à l’excitation augmente de façon linéaire avec le nombre de chromophores du dendrimère (donc exponentielle avec leur taille). On peut de cette façon obtenir des images d’objets difficiles à visualiser avec d’autres chromophores inaccessibles aux techniques monophotoniques (Figure 12).

Figure 10 Une voie modulaire vers les nanodots organiques ? Le dendrimère est une molécule constituée par l’assemblage en symétrie globulaire de fragments rayonnants. On peut fixer des chromophores sur les éléments rayonnants, réalisant ainsi un « nanodot » tout organique.

Figure 11 Les nanodots : une approche modulaire. La taille des dendrimères, d’après leur conception même, peut être ajustée et permet d’obtenir des nanoobjets luminescents efficaces pour toute une variété d’applications [1].

149

La chimie et la santé Figure 12 Image d’un réseau vasculaire obtenu in vivo par l’injection de nanodots organiques [2]. Collab. S. Charpak, L. Moreaux (INSERM, Paris Descartes).

Figure 13

Un autre intérêt majeur des dendrimères vient du contrôle de leur dimension : on peut conserver la taille et jouer sur la nature du fluorophore greffé pour modifier les propriétés du nano-objet fabriqué, alors que pour les quantum dots, chaque taille correspond à une propriété (couleur) particulière. Ces importants

progrès ont permis d’obtenir des images inédites. On a ainsi pu observer le cerveau d’un rat grâce à l’injection d’un nanodot émetteur bleu. Un autre exemple est celui de l’injection d’un nanodot émetteur vert ayant permis la visualisation du système vasculaire du têtard de Xenopus (Figure 13) après injection intracardiaque.

Exemple d’imagerie obtenue in vivo du petit animal par l’utilisation de nanodots organiques. Des nanodots hydrosolubles émetteurs verts sont injectés en intracardiaque dans le têtard de Xenopus permettant ultérieurement la visualisation 3D du système vasculaire musculaire par imagerie multiphotonique. Collab. F. Tiaho, G. Recher (CNRS-Univ. Rennes 1).

150

Ces travaux sur les techniques d’absorption à deux photons ouvrent de nouvelles perspectives, tant au niveau de l’imagerie biomédicale (diagnostic précoce, assistance à la chirurgie peroperatoire) que de la thérapie, notamment anticancéreuse.

Nouvelles techniques d’imagerie laser

Conclusion

Bibliographie [1] a) Blanchard-Desce (2007), Chem. Commun., 915-917 ; b) Blanchard-Desce (2007), New J. Chem., 31 : 1354-1367.

[2] Blanchard-Desce (2006), Angew. Chem., Int. Ed., 45 : 4645-4648.

151

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

de

dans

par résonance magnétique pour le diagnostic médical Les agents de contraste IRM (Encart « L’IRM et les agents de contraste, des outils puissants pour le diagnostic médical ») sont des molécules destinées à améliorer la qualité des diagnostics par imagerie médicale par résonance magnétique. Les agents actuellement commercialisés sont caractérisés par une pharmacocinétique à distribution dite interstitielle, c’est-à-dire qu’après l’injection par voie intravasculaire, l’agent se répartit dans tout l’espace extracellulaire. Ces agents permettent notamment de détecter des tumeurs cérébrales, mammaires…,

des pathologies ostéo-articulaires, et permettent de réaliser l’imagerie des vaisseaux, procédure appelée angiographie (Figure 1).

D’après la conférence de Marc Port Les agents de contraste dans l’imagerie par résonnance magnétique pour le diagnostic médical

agents contraste l’imagerie Les

Les agents de contraste : quelles exigences ?

1

1.1. Les agents de contraste : des « médicaments » pas comme les autres Outre les critères liés à la technique de la résonance magnétique (voir paragraphe 1.3), la conception des agents de contraste doit prendre en

Figure 1 Les agents de contraste permettent de visualiser de nombreux territoires et tissus grâce à l’imagerie par résonance magnétique (IRM).

La chimie et la santé

L’IRM ET LES AGENTS DE CONTRASTE, DES OUTILS PUISSANTS POUR LE DIAGNOSTIC MÉDICAL La technique d’imagerie par résonance magnétique (IRM) est basée sur le phénomène de la résonance magnétique nucléaire des noyaux d’atomes d’hydrogène – les protons – présents dans les molécules d’eau. Ces protons sont munis d’un moment magnétique (le spin) qui peut occuper deux positions, et qui, en présence du champ magnétique d’un aimant, correspondent à des énergies distantes de ΔE. L’application d’une onde de radiofréquence d’énergie ΔE permet de modifier les états énergétiques des spins. Lors de la coupure de l’onde de radiofréquence, les spins retournent dans leur état fondamental en restituant de l’énergie sous la forme d’un signal IRM. Ce signal, dit de résonance magnétique nucléaire, dépend de la concentration locale en protons et des relaxations longitudinales et transverses T1, T2 des protons contenus dans les tissus imagés. L’IRM permet ainsi la lecture des images pondérées en T1, T2 ou densité de proton. On localise le signal dans l’espace en modifiant légèrement le champ magnétique à l’aide de gradients de champ (Figure 2). Lors d’un examen par IRM, certaines régions sont difficiles à visualiser : on accentue alors les contrastes en utilisant des agents de contraste, qui réagissent aussi au champ magnétique (ils sont dits paramagnétiques). L’injection d’agents de contraste a pour but d’accélérer les vitesses de relaxation magnétiques 1/T1 et 1/T2 des protons des molécules d’eau, c’est-à-dire de raccourcir le temps pendant lequel les spins de ces protons regagnent leur état initial après excitation par l’onde de radiofréquence. C’est ce qui permet d’augmenter le contraste du signal observé par IRM. Il faut noter que ce n’est pas l’agent de contraste qui est visualisé en IRM mais son influence sur la relaxation des protons de l’eau située autour de l’agent de contraste. Le rayonnement utilisé étant de faible énergie, le processus d’imagerie médicale par IRM est inoffensif, comparé aux autres techniques d’imagerie (rayons X, imagerie nucléaire…).

Figure 2 On voit sur l’écran d’un ordinateur l’image anatomique d’un cerveau acquise avec un appareil d’IRM d’un champ magnétique de 3 Teslas, et dans lequel est installé un patient. 154

La plupart des agents de contraste étant injectables par voie intraveineuse, ils ne rencontrent donc pas le problème du franchissement de la barrière intestinale contrairement à un grand nombre de médicaments. Mais leur dose d’injection est généralement importante : on injecte classiquement à un patient 4 grammes d’agent de contraste dans une seringue de 20 mL, et dans un laps de temps de l’ordre de 3 à 6 secondes, par exemple pour une angiographie… ce qui oblige à prendre en compte les caractéristiques physicochimiques de la solution administrée, à savoir : la solubilité, l’osmolalité et la viscosité. Au vu des doses importantes utilisées, même pour une injection unique, il est nécessaire de contrôler de très près la tolérance de l’organisme à ces produits. Par définition, les agents de contraste sont des médicaments au sens du Code de la santé publique et n’échappent pas aux lourds protocoles des tests précliniques de toxicité, ainsi qu’aux études cliniques visant à démontrer le bénéfice/risque du médicament (voir l’encart « De la molécule au médicament : un chemin parsemé d’embûches du chapitre de J.-P. Maffrand). C’est ainsi au stade même de leur conception au laboratoire qu’il faut étudier la toxicité des agents de contraste. C’est ce qui sera abordé dans le paragraphe 1.2. L’efficacité des agents de contraste en IRM repose sur

la capacité des éléments paramagnétiques qu’ils contiennent à modifier les temps de relaxation T1 et T2 de l’eau, et donc à améliorer les contrastes des images. Du fait de ses propriétés paramagnétiques bien adaptées (sept électrons célibataires), l’ion gadolinium Gd3+ est l’élément de choix pour concevoir des agents de contraste IRM. Il est aujourd’hui largement utilisé dans les produits de contraste. Qu’en est-il de la toxicité et de l’efficacité des agents de contraste à base de gadolinium ?

1.2. La stabilité des agents de contraste : un enjeu sur la toxicité Le gadolinium ne peut être utilisé sous sa forme ionique libre Gd3+ à cause de sa haute toxicité. Il possède en fait le même rayon ionique que l’ion calcium Ca2+, élément important dans l’équilibre de l’organisme, lequel serait fortement perturbé si l’on injectait du Gd3+. Il est néanmoins possible de masquer cette toxicité en séquestrant cet ion dans des molécules ligands appartenant à deux grandes familles : les polyaminocarboxylates linéaires et macrocycliques. On obtient ainsi des chélates de gadolinium, aussi appelés contrastophores (Figure 3). Effectivement, d’après des études menées sur des souris, on observe que la toxicité de l’ion Gd3+ seul est diminuée de cent fois lorsqu’il est chélaté sous forme de contrastophore. Il est important de pouvoir garantir l’innocuité de tels agents de contraste tout au

Les agents de contraste dans l’imagerie par résonnance magnétique pour le diagnostic médical

compte les contraintes liées à leur utilisation chez l’homme.

155

La chimie et la santé Figure 3 Différents types de chélates (ou complexes) de gadolinium : des agents de contraste commercialisés depuis les années 1980.

156

long de leur séjour dans l’organisme. Ainsi se pose la question cruciale de leur stabilité dans l’organisme, question d’autant plus pertinente qu’est apparue dans les années 2000 une nouvelle pathologie, la fibrose systémique néphrogénique, survenue chez des patients souffrant d’une insuffisance rénale sévère. Jusqu’alors connue comme une maladie cutanée systémique se caractérisant par des lésions diffuses, elle s’est avérée être une maladie d’évolution bien plus grave (atteignant le muscle, le poumon, le cœur) et débouchant parfois vers la mort. À ce jour, il n’existe pas de

traitement validé de cette pathologie. Il a été suggéré qu’une amélioration de la fonction rénale pourrait ralentir l’évolution de la maladie, et dans certains cas en inverser le cours. C’est en 2006 qu’un lien causal possible a été établi avec l’administration d’agents de contraste à base de gadolinium chélaté : la plupart des malades avaient subi un examen par IRM avec injection de gadolinium dans les mois précédant les premiers symptômes. Et l’on a effectivement retrouvé des ions Gd3+ dans des biopsies cutanées de ces malades.

Cette découverte malheureuse a donc soulevé la question cruciale de la stabilité des agents de contraste en IRM. Les alertes ont été données par les pouvoirs publics. Aux États-Unis, la Food and Drug Administration a émis une alerte sur l’injection de tous les chélates de gadolinium, notamment aux patients en insuffisance rénale sévère ; tandis qu’en Europe, trois des produits les moins stables (Omniscan®, Optimark® et Magnevist®) sont contreindiqués chez ces patients. L’Agence européenne des médicaments (EMEA) étend la recommandation de prudence à l’utilisation de tous les autres chélates de gadolinium chez les patients en insuffisance rénale sévère. Outre l’enjeu crucial de la stabilité des chélates de gadolinium en termes de toxicité, il faut pouvoir assurer un bon contraste de l’image IRM, et sans besoin de doses excessives. Un témoin de cette efficacité est la relaxivité. 1.3. La relaxivité dans la qualité d’un agent de contraste La capacité des agents de contraste à accélérer ainsi les vitesses de relaxation 1/T1 et

1/T2 des protons de l’eau est mesurée par une grandeur : la relaxivité. Celle-ci dépend d’un ensemble de paramètres (Encart « La relaxivité ou l’efficacité d’un agent de contraste »). Le défi du chimiste dans la conception des agents de contraste est donc d’optimiser simultanément l’ensemble de ces paramètres, pour concevoir des molécules efficaces. D’après les calculs théoriques, on trouve que la relaxivité maximale atteignable pour les agents de contraste à base de gadolinium est de l’ordre de 100 mM–1.s–1. Les agents de contraste actuellement commercialisés atteignent des relaxivités de 4 mM–1.s–1, ce qui laisse augurer un gain notable en efficacité durant les années à venir.

Vers des agents de contraste plus efficaces

2

Les agents de contraste dans l’imagerie par résonnance magnétique pour le diagnostic médical

Le mécanisme de cette maladie n’a pas encore été clarifié, mais une des hypothèses formulées se base sur la libération des ions Gd3+ par les chélates de gadolinium les moins stables. Ces ions précipiteraient ensuite sous forme de phosphate de gadolinium, qui serait phagocyté par des macrophages, lesquels recruteraient alors des fibrocytes circulants, déclenchant les fibroses.

2.1. Le principe : une approche classique de la chimie médicinale Dans l’objectif de concevoir des agents de contraste au gadolinium stables et efficaces, une approche rationnelle a été adoptée en partant d’une structure d’agent de contraste unique, appelée « plateforme », à partir de laquelle on crée plusieurs agents de contraste dérivés, dont on va essayer de moduler les propriétés pharmacocinétiques et la biodistribution – c’est-à-dire l’accessibilité à des territoires pathologiques précis.

157

La chimie et la santé

LA RELAXIVITÉ OU L’EFFICACITÉ D’UN AGENT DE CONTRASTE On définit la relaxivité (r) d’un agent de contraste comme la vitesse de relaxation, normalisée par la concentration de l’agent de contraste (Figure 4).

Figure 4 La relaxivité d’un agent de contraste est définie par la vitesse de relaxation normalisée par sa concentration.

La relaxivité est une grandeur physique régie par des équations mathématiques aux paramètres multiples : pour celui qui conçoit les agents de contraste, cela peut devenir un véritable cauchemar ! Comment transformer ces équations en conceptions moléculaires ? Des idées importantes peuvent en ressortir : – la relaxivité de l’agent de contraste, et donc son efficacité, dépend du nombre de molécules d’eau venant interagir avec l’ion paramagnétique : il est donc important de concevoir des complexes tels que l’eau puisse facilement pénétrer dans leur sphère interne ; – la relaxivité dépend du temps de résidence (τm) des molécules d’eau dans la sphère interne du complexe de gadolinium, du temps de rotation du complexe (τr) et du temps de relaxation (τs) du gadolinium chélaté (Figure 5).

Figure 5 Complexe du gadolinium (Gd au centre en violet) avec son chélate, au milieu d’un environnement de molécules d’eau. Certaines molécules d’eau entrent dans la sphère interne du complexe et interagissent avec le gadolinium, ce qui a pour effet d’augmenter la vitesse de relaxation et donc l’intensité du signal IRM dans cette région. 158

2.2.1. La structure de départ : la plateforme P730 La structure de départ choisie est le complexe DOTA Gd, qui est un agent de contraste à base de gadolinium particulièrement stable. Le ligand macrocyclique DOTA forme en effet une cavité particulièrement bien adaptée à la taille de l’ion Gd3+. À partir de la structure DOTA Gd, les chimistes ont eu l’idée de greffer quatre bras périphériques « glutariques », qui offrent alors quatre sites de fonctionnalisation chimique possibles (Figure 6). La plateforme P730 s’est révélée aussi stable que le DOTA Gd. Elle se décomplexe très peu au pH physiologique et présente une bien meilleure stabilité que certains agents de contraste commerciaux, incriminés aujourd’hui dans la survenue des fibroses systémiques néphrogéniques. Dans cette structure, les trois temps caractérisant la relaxivité sont simultanément optimisés. Le temps de relaxation électronique (τs) est optimisé en partant d’une structure dérivée du DOTA Gd. En effet, on sait que le DOTA Gd

présente un temps de relaxation électronique long et donc très favorable à la relaxivité. Cela est attribué à la symétrie et à la rigidité du macrocycle DOTA vis-à-vis des chocs des molécules d’eau sur le complexe (Figure 7). Le temps de résidence (τm) des molécules d’eau dans la sphère interne du complexe de gadolinium est accéléré grâce à l’adjonction de bras glutariques qui induisent une compression autour du gadolinium. Enfin, le temps de rotation du complexe (τr) est efficacement ralenti en plaçant l’ion gadolinium au barycentre de la structure P730 et de ses dérivés.

Figure 6 La plateforme P730, un modèle de conception rationnelle d’un contrastophore au gadolinium à haute efficacité. Elle présente quatre bras qui fournissent quatre positions possibles de fonctionnalisation chimique.

Figure 7

Les agents de contraste dans l’imagerie par résonnance magnétique pour le diagnostic médical

2.2. Synthèse d’une série d’agents de contraste performants

La plateforme P730, du fait de sa symétrie et sa rigidité structurales, devrait posséder une relaxivité importante en présence d’un champ magnétique B0.

159

La chimie et la santé

2.2.2. Fonctionnaliser la plateforme P730 : accès à une série de nouveaux complexes Les quatre extrémités des chaînes glutariques sont des positions de fonctionnalisation chimique, où l’on a envisagé de greffer une grande diversité de branches hydrophiles par une simple réaction de couplage peptidique (Figure 8).

Figure 8 La plateforme P730 tétrasubstituée. Une grande diversité de branches R peut être greffée aux quatre bras glutariques pour générer autant de nouveaux contrastophores.

160

C’est ainsi qu’a été synthétisée une série de complexes possédant des groupements R de poids moléculaires variés (avec des groupements poly-aromatiques éventuellement basés sur des structures dendrimères). Verdict des tests de relaxivité : on se rapproche de l’optimum prédit par les équations mathématiques avec le complexe de plus haute masse moléculaire de la série ! Des études ont permis de mettre en évidence une corrélation entre masses moléculaires et relaxivité. Et il a été possible de moduler facilement les relaxivités des complexes en faisant varier le groupement R. Qu’en est-il des propriétés pharmacocinétiques de ces produits ?

2.2.3. Une nouvelle classe d’agents de contraste spécifiques : des produits à rémanence vasculaire Les propriétés pharmacocinétiques de cette nouvelle série de complexes au gadolinium ont été étudiées sur des rats, et l’on observe qu’ils restent confinés plus ou moins longtemps dans le sang, selon leur structure (rigidité, poids moléculaire). Il s’agit là d’une propriété intéressante pour des agents de contraste, qui est la rémanence vasculaire (Encart « Des agents de contraste spécifiques : les produits à rémanence vasculaire »).

Des agents de contraste spécifiques : les produits à rémanence vasculaire Les produits de contraste en IRM actuellement commercialisés sont peu spécifiques : injectés par voie intravasculaire, ils se répartissent dans tout l’espace interstitiel (entre les cellules). De nouveaux produits se développent dits à rémanence vasculaire. Ils se distribuent essentiellement dans le compartiment vasculaire. Suite à la synthèse de plusieurs complexes de gadolinium à partir de la plateforme P730, une structure présentant de bons résultats a émergé : le Vistarem®. Au cours des tests d’évaluation, des angiographies ont été réalisées, l’une avec le Vistarem®, l’autre avec le Dotarem®, agent de contraste

Les agents de contraste dans l’imagerie par résonnance magnétique pour le diagnostic médical commercial. On voit qu’avec une dose injectée presque dix fois plus faible pour le Vistarem®, sa rémanence vasculaire est bien supérieure à celle du Dotarem®, après cinq minutes d’injection, et l’on observe bien une compartimentation du produit dans le réseau artériel. Cela permet d’améliorer significativement l’image angiographique, où le réseau artériel et même veineux est mieux délimité. Les images obtenues permettent au radiologue de mieux appréhender les distalités par exemple (Figure 9).

Le Vistarem® permet également de réaliser l’imagerie des artères coronaires (Figure 10), Ces artères coronaires sont particulièrement difficiles à imager car ce sont des petits vaisseaux (2 mm de diamètre) très tortueux, et qui se déplacent avec les mouvements cardiaques. Reste à savoir si l’on peut quantifier les sténoses dans les coronaires, ce qui est l’objectif diagnostique final. Peut-on maintenant affiner la technique d’imagerie par résonance magnétique pour des applications encore plus précises ?

Figure 9 Angiographies avec deux agents de contraste différents, le Dotarem® (0,1 mmol.kg–1) en haut et le Vistarem® (0,015 mmol.kg–1) en bas. Bolus = injection intraveineuse d’une dose importante de l’agent de contraste.

161

La chimie et la santé Figure 10 Coronarographie chez le porc, avec injection de l’agent de contraste Vistarem®.

162

Une nouvelle voie de recherche : l’imagerie moléculaire

3

Une voie actuelle de recherche et développement est l’application de l’imagerie par résonance magnétique à l’échelle cellulaire ou subcellulaire, comme une variante de ce que l’on appelle l’imagerie moléculaire, et qui permet de visualiser de manière non invasive de nombreux processus ayant lieu à cette échelle, comme par exemple l’expression d’un gène, d’un récepteur, le fonctionnement d’un système enzymatique, etc. C’est une imagerie fonctionnelle qui permet, grâce à un « traceur », d’étudier le fonctionnement des organes. Elle est nommée imagerie moléculaire ou métabolique, parce qu’on peut imager le devenir d’une molécule dans l’organisme. L’imagerie moléculaire est déjà utilisée en médecine nucléaire (par utilisation

d’isotopes radioactifs). C’est une technique très sensible, mais irradiante et peu résolutive. Elle utilise notamment un traceur efficace, disponible aujourd’hui sur le marché (le 18FDG), qui permet de tracer la consommation de glucose dans des cellules cancéreuses. Utilisé en routine clinique, ce traceur d’imagerie moléculaire représente un apport considérable en diagnostic médical, notamment dans des applications oncologiques. On souhaite maintenant utiliser des traceurs en tant qu’agents de contraste, mais pour de l’imagerie moléculaire par résonance magnétique, technique non irradiante et permettant d’accéder à de hautes résolutions spatiales. Actuellement, il existe déjà des traceurs de l’activité des macrophages, qui permettent par exemple de détecter des lésions inflammatoires associées à la sclérose en plaques. Ces traceurs ont déjà été évalués en phase II

3.1. Concevoir un traceur en IRM pour l’imagerie moléculaire : un défi de chimiste La conception de traceurs en IRM pour l’imagerie moléculaire nécessite de lier une structure moléculaire appelée pharmacophore à un contrastophore, via un « espaceur » (Figure 11). On va faire varier le pharmacophore, en vue d’optimiser son affinité et sa sélectivité pour une cible déterminée. En faisant varier également le contrastophore, on cherche toujours à optimiser la relaxivité c’est-à-dire l’efficacité du traceur sur le signal IRM. En effet, pour les produits de contraste existants, il est nécessaire d’accumuler le traceur localement à des concentrations de 10 à 100 μM pour obtenir un signal détectable par IRM. Or, la concentration des récepteurs cellulaires intervenant dans les processus pathologiques est de l’ordre d’1 μM à 1 nM. Pour générer un contraste spécifique, il est nécessaire d’obtenir des concentrations locales d’agent de contraste comparables à celle de la cible biologique étudiée. En conséquence, il faudrait augmenter la sensibilité des agents de contraste de plusieurs ordres de grandeur pour pouvoir visualiser ce qui

se passe à l’échelle de l’imagerie moléculaire. L’espaceur est également intéressant, car il peut permettre de modifier les propriétés physicochimiques du produit, comme la solubilité ou la viscosité, mais également d’améliorer l’accessibilité à un territoire bien déterminé, par exemple le passage de la barrière hémato-encéphalique, ou la diffusion dans des tumeurs.

3.2. Des traceurs prometteurs pour l’IRM moléculaire

Figure 11 Traceurs constitués d’un pharmacophore et d’un contrastophore, liés par un espaceur. L’approche rationnelle du chimiste, pour concevoir des traceurs efficaces pour l’imagerie moléculaire par résonance magnétique, consiste à faire varier les trois parties, de manière à optimiser les qualités du traceur.

Les agents de contraste dans l’imagerie par résonnance magnétique pour le diagnostic médical

de tests cliniques. Des agents de contraste IRM d’imagerie moléculaire ont également été développés pour suivre les processus angiogéniques (apparition de nouveaux vaisseaux associés à des tumeurs malignes et leurs métastases).

3.2.1. Vers le diagnostic précoce de la maladie d’Alzheimer Les recherches ont abouti à trouver un premier traceur efficace, constitué d’un complexe de gadolinium (contrastophore) auquel on a attaché un peptide (pharmacophore) capable de reconnaître les plaques bêta-amyloïdes, ces plaques qui s’accumulent de manière anormale dans la maladie d’Alzheimer. À l’espaceur qui les lie, est greffée une structure putrécine, structure aminée qui va favoriser le passage de la barrière hématoencéphalique. Ce traceur a été testé sur des souris transgéniques modèles de la maladie l’Alzheimer, dont on a analysé

163

La chimie et la santé

le cerveau par IRM ; les images IRM ont bien mis en évidence la présence de plaques bêtaamyloïdes caractéristiques de la maladie. 3.2.2. Vers le diagnostic précoce du cancer de l’ovaire

Figure 12 Mécanisme d’endocytose d’un agent de contraste (« traceur ») dans une cellule cancéreuse, via une reconnaissance par les récepteurs du folate. De la même manière que l’on peut envisager de vectoriser des nanomédicaments à l’intérieur des cellules cancéreuses (chapitre de P. Couvreur), on peut également envisager de vectoriser des agents de contraste pour l’imagerie médicale.

164

Une autre recherche a porté sur la détection des cellules cancéreuses dans certains cancers, notamment celui de l’ovaire. Ce cancer « silencieux et tueur » n’est généralement détecté qu’à des stades trop tardifs ; il représente aujourd’hui un défi notable en diagnostic. Ces cellules se distinguent bien des cellules saines par la surexpression de récepteurs à l’acide folique sur leurs membranes. Ces récepteurs sont d’ailleurs

des cibles intéressantes pour véhiculer des médicaments anticancéreux, et c’est ce qui est précisément décrit dans le chapitre de P. Couvreur. Ici, le but est de les détecter par IRM à l’aide d’un traceur, dans l’espoir d’un diagnostic précoce. Pour cela, la stratégie envisagée est de greffer de l’acide folique sur un agent de contraste dérivé de la plateforme P730Gd, en espérant utiliser le mécanisme naturel de l’endocytose, par lequel la cellule cancéreuse va pouvoir internaliser le traceur (Figure 12). Pour vérification, des tests comparatifs ont été réalisés : on a synthétisé deux agents de contraste, P866 et P999, à partir de la plateforme P730

Une première expérience in vitro a été réalisée sur des cellules tumorales humaines : elle a mis en évidence une affinité particulière du traceur comportant le folate vis-à-vis de ces cellules. On voit bien sur la Figure 14 l’accroissement de plus d’un facteur dix de la quantité de contrastophore P866 fixée sur la cellule tumorale, par rapport au témoin Dotarem®. Pour vérifier maintenant l’efficacité de la méthode pour l’imagerie médicale IRM, on a réalisé des tests in vivo chez des souris possédant des tumeurs KB surexprimant le récepteur à l’acide folique, auxquelles on a injecté ce nouveau traceur P866. La concentration du gadolinium dans les tissus tumoraux a été dosée quatre heures après l’injection, et l’on s’aperçoit que ce traceur s’accumule spécifiquement dans les organes, contrairement au traceur témoin P999. Toutefois, cette sélectivité n’est obtenue qu’avec des doses injectées inférieures à 10 μmol d’ions gadolinium par kilogramme. Au-delà (30 μmol par kilogramme), il n’y a plus de sélectivité (Figure 15). Et malheureusement, si l’on reste en dessous de cette dose, le signal IRM n’est pas assez intense (Figure 16).

Figure 13 Deux traceurs pour des tests comparatifs en imagerie moléculaire : l’ajout du résidu folate va-t-il faire la différence pour la détection de cellules cancéreuses ?

Figure 14 Deux traceurs ont été comparés pour la détection de tumeurs : un agent de contraste commercial (Dotarem®) et le P866, contrastophore auquel on a greffé le résidu folate. Ce dernier est celui qui cible le mieux les tumeurs.

Les agents de contraste dans l’imagerie par résonnance magnétique pour le diagnostic médical

vue précédemment (paragraphe 2.2.1.). Leurs structures sont identiques, à la différence que sur l’un d’entre eux, le P866, on a greffé un « résidu folate » (par réaction avec l’acide folique), tandis que l’autre produit, le P999, ne contient pas ce résidu et constitue donc une molécule témoin (Figure 13).

165

La chimie et la santé

Figure 15 Concentration en gadolinium dans les organes (μM) quatre heures après l’injection, pour des doses injectées en agents de contraste de 3 et 30 μmol/kg. À 3 μmol/kg, le traceur vectorisé par le folate s’accumule sélectivement dans les tissus cancéreux. À 30 μmol, il n’y a plus de sélectivité.

Figure 16 IRM de souris traitées par le traceur vectorisé par le résidu folate, à différentes doses. En dessous de 10 μmol par kg, l’intensité du signal n’est pas suffisante. À 30 μmol par kg, l’intensité du signal est rehaussée, mais aucune différence de sélectivité n’est observée entre les traceurs avec ou sans résidu folate greffé.

166

La perte d’information à 30 μmol par kilogramme peut s’expliquer : l’excès de traceur injecté noie dans un bruit de fond le signal spécifique provenant des molécules de traceurs qui se sont bien liées aux récepteurs de la tumeur. Il s’agit alors d’un problème de sensibilité des sondes de mesure, qu’il faut encore améliorer. On en revient encore au problème de l’amélioration de la relaxivité…

L’IRM moléculaire pour visualiser les processus dans les cellules reste donc un défi. Les chercheurs ont encore plusieurs cartes à jouer, notamment avec l’utilisation de logiciels de traitement d’image ; ou encore le développement de contrastophores plus efficients, en particulier des structures nanoparticulaires à base d’oxydes de fer « super paramagnétiques ». À suivre…

Les agents de contraste apparus il y a une trentaine d’années permettent de diagnostiquer des pathologies multiples. Leurs caractéristiques en font des outils indispensables dans l’imagerie par résonance magnétique et leur domaine d’application s’élargit. Cependant, la stabilité de ces produits demeure un problème majeur car la toxicité des agents à base de gadolinium n’est pas totalement contrôlée. Il est alors indispensable de chercher à concevoir des produits de plus en plus efficients, dont le risque pour le patient soit moindre, et la chimie peut jouer un grand rôle dans ce domaine. L’IRM devrait pouvoir offrir bientôt de nouvelles possibilités. Les travaux consistent notamment à fixer sur les molécules de gadolinium – produit aux propriétés paramagnétiques, déjà couramment utilisé – des substances susceptibles d’être captées par les récepteurs de cellules spécifiques. Ainsi, il serait possible d’accéder à l’imagerie moléculaire IRM. Les promesses de l’imagerie moléculaire sont considérables en sciences fondamentales : pouvoir enfin étudier le vivant, explorer de façon longitudinale migration cellulaire, différentiation, sénescence1 et réponse aux facteurs environnementaux. En médecine, l’imagerie moléculaire est incontournable pour identifier les déterminants moléculaires des processus pathologiques in situ, évaluer les nouvelles thérapies moléculaires comme la thérapie génique, accélérer le développement des médicaments (délivrance des principes actifs, mesure de l’efficacité des vecteurs), etc. L’imagerie moléculaire IRM est promise à un bel avenir, mais il reste un long chemin à parcourir pour l’intégration de cette nouvelle discipline dans la pratique radiologique courante. 1. Sénescence : vieillissement.

Les agents de contraste dans l’imagerie par résonnance magnétique pour le diagnostic médical

Vers des diagnostics plus précoces ?

167

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Glossaire

Glossaire Aérobie (organisme) : organisme capable de se développer dans un milieu contenant de l’oxygène. Agoniste : molécule qui active certains récepteurs (protéines). Amiante : présent dans le sol et constitué de silicate de magnésium ou de calcium, ce matériau à texture fibreuse est utilisé dans des bâtiments comme isolant acoustique et thermique. Reconnu nocif pour la santé (fibroses pulmonaires, voire cancers de la plèvre), son utilisation a été progressivement limitée jusqu’à son interdiction en France, le 1er janvier 1997. Angiogenèse : processus décrivant la croissance de nouveaux vaisseaux sanguins (néovascularisation) à partir de vaisseaux préexistants. C’est un processus physiologique normal, que l’on retrouve notamment lors du développement embryonnaire. Mais c’est aussi un processus pathologique, primordial dans la croissance des tumeurs malignes et le développement des métastases. Angiographie : technique d’imagerie médicale permettant d’examiner des vaisseaux

sanguins (non visibles sur des radiographies standards) par injection de produit de contraste lors d’une imagerie par rayons X ou IRM. Anophèle : moustique des régions chaudes et tempérées dont il existe environ 600 espèces. Pour 70 d’entre elles, la femelle peut transmettre le paludisme lors d’une piqûre qui lui sert à récupérer du sang pour nourrir ses propres œufs. Antagoniste : molécule qui inhibe les effets d’un agoniste en empêchant sa fixation sur sa protéine cible. Anticorps : substance synthétisée par certaines de nos cellules en réponse à une stimulation par une substance étrangère à notre organisme (antigène). Un anticorps est « monoclonal » quand ses extrémités ne peuvent se fixer que sur un seul antigène spécifique. Aptamère : catégorie spéciale d’ARN, capable de fixer des ligands. Ces derniers sont souvent des petites molécules (par exemple des acides aminés). La fixation des ligands induit un changement de conformation tridimentionelle de l’ARN.

La chimie et la santé

ARN : acide ribonucléique. Macromolécule formée d’une seule chaîne hélicoïdale de structure analogue à l’une des deux chaînes constitutives de l’acide désoxyribonucléique (ADN). L’ARNm, ou ARN messager, sert à transporter l’information génétique du noyau de la cellule où se situe l’ADN jusqu’au cytoplasme où il va être traduit en protéine. Artères coronaires : artères disposées en couronne autour du cœur, permettant d’irriguer et par conséquent de nourrir le muscle cardiaque. Avastine® (bévacizumab de chez Genentech) : médicament indiqué en traitement de première ligne chez les patients atteints de cancer colorectal métastatique, en association à une chimiothérapie intraveineuse. Barrière hémato-encéphalique : interface sélective entre le sang et l’espace extracellulaire cérébral. Biodisponibilité : pourcentage d’un médicament qui, après administration, atteint la circulation générale. Biopsie : prélèvement d’un échantillon de tissus de l’organisme dans le but de réaliser un examen microscopique. Centre d’asymétrie : atome de carbone lié à quatre atomes ou groupes d’atomes différents. Chélation : processus physicochimique au cours duquel est formé un complexe entre un ligand (le chélatant ou chélateur) et un cation ou atome de métal (qui se trouve chélaté).

170

Chimère (protéine) : protéine anormale résultant de la fusion de deux gènes.

Chromatographie : technique de purification dans laquelle un échantillon contenant une ou plusieurs molécules est entraîné par un courant de phase dite mobile (liquide, gaz…) le long d’une phase dite stationnaire (papier, gélatine, silice, polymère, etc.). Chaque molécule se déplace à une vitesse différente, selon son affinité avec chacune des phases mobile/stationnaire. C’est cette différence de vitesse qui permet d’isoler chaque molécule l’une après l’autre. Chromophore : molécule colorée, ou partie de molécule à l’origine de sa coloration, du fait de sa capacité à absorber de l’énergie de photons dans une gamme du spectre visible de la lumière. Clairance plasmatique : la clairance est la fraction d’un volume théorique totalement épuré (c’est-à-dire ne contenant plus le médicament concerné) par unité de temps. La clairance plasmatique est le volume apparent de plasma épuré par unité de temps. Coefficient d’extinction molaire : mesure de la capacité d’un matériau à absorber le rayonnement. Plus le coefficient est grand, mieux le matériau absorbe. Cofacteur : substance chimique nécessaire, en plus du substrat et de l’enzyme, à une réaction biochimique. Il s’agit généralement d’ions métalliques ou de vitamines. Colliculi : noyaux de substance grise situés sur la face postérieure du mésencéphale. Ils sont responsables des réflexes visuels pour les deux colliculi supérieurs et des

Glossaire réflexes auditifs pour les deux colliculi inférieurs. Compensation (mécanisme de) : l’inactivation d’un gène peut déclencher une cascade de mécanismes mobilisant un ou plusieurs autres gènes dont l’activation ou la répression va masquer ou modifier les effets liés à la destruction du gène étudié. Conformation : la conformation d’une molécule est l’une des différentes structures spatiales qu’elle peut prendre par suite de rotations autour d’une ou plusieurs liaisons simples entre deux atomes. Coronarographie : technique d’imagerie médicale utilisée en cardiologie pour visualiser les artères coronaires. C’est un examen médical complémentaire invasif qui utilise la technique de radiographie aux rayons X et l’injection d’un produit de contraste iodé. Criblage fonctionnel : test d’un grand nombre de molécules (« criblage ») sur des cellules ou organismes entiers pour induire et mesurer un changement biologique : changement morphologique, modification de localisations subcellulaires, de division cellulaire, perturbation d’une activité de synthèse, mort cellulaire, etc. Crohn (maladie de) : maladie inflammatoire intestinale de l’ensemble du tube digestif, pouvant devenir chronique et entraîner dénutrition et diarrhées. Cryomicroscopie : outil mo derne de la biologie struc turale, la cryomicroscopie élec tronique complète d’autres approches (rayons X, RMN) et repose sur l’observation

d’objets biologiques hydratés et congelés. Couplée à des techniques d’analyse d’images, elle permet d’obtenir des informations structurales à moyenne résolution (généralement entre 7 et 30 Å). Cytokines : substances solubles de communication synthétisées par les cellules du système immunitaire ou par d’autres cellules et/ou tissus, agissant à distance sur d’autres cellules pour en réguler l’activité et la fonction. Le terme cytokine est peu connu du grand public alors qu’avec les hormones et les neuromédiateurs, ces molécules sont essentielles à la communication de nos cellules. Dendrimère : macromolécule dont la forme reprend celle des branches d’un arbre. Diffraction : phénomène par lequel les rayons lumineux issus d’une source ponctuelle sont déviés de leur trajectoire lorsqu’ils rencontrent un obstacle qui ne leur est pas complètement transparent. Distalité : désigne la partie d’un membre la plus éloignée de la racine de celui-ci. Diurétique : substance qui entraîne une augmentation de la sécrétion urinaire et qui peut être utilisée notamment pour traiter l’hypertension artérielle, l’insuffisance cardiaque ou certains œdèmes. Endogène : qualifie un phénomène ou une substance qui prend naissance à l’intérieur d’un corps, qui est dû à une cause interne. Endosome/endocytose : les endosomes sont des sous-

171

La chimie et la santé

compartiments de la cellule sur lesquels les vésicules d’endocytose (transporteurs de molécules vers l’intérieur de la cellule) s’accrochent et fusionnent pour relarguer leur contenu, à savoir les molécules qui étaient à la surface de la cellule et qui ont été internalisées à l’intérieur des vésicules d’endocytose : c’est le mécanisme d’endocytose. Endothélium vasculaire : couche la plus interne des vaisseaux sanguins, celle en contact avec le sang. Endotoxine : substance toxique (toxine) contenue à l’intérieur d’une variété de bactéries qui n’est libérée que lors de la destruction de la bactérie qui la sécrète. Épigénétique : se dit d’une modification transmissible et réversible de l’expression des gènes ne s’accompagnant pas de changements des séquences de leur ADN. Ces modifications peuvent être dues à des changements sur des protéines liées à l’ADN, comme les histones, ou à la méthylation de l’ADN. Cela peut se produire spontanément, en réponse à l’environnement. Extravasation : désigne, en médecine, le passage anormal d’un liquide de son canal adducteur vers les tissus environnants, soit par rupture du canal, soit par diffusion.

172

Fibroblaste : cellule fusiforme à cytoplasme étoilé riche pouvant exercer plusieurs rôles dans l’organisme : protection de l’athérome grâce à la métabolisation du cholestérol, renouvellement du collagène et des protéines des fibres grâce à leur fabrication, défense anti-infectieuse

et antivirale par la sécrétion de facteurs chimiotactiques et d’interféron b. Fibrose (synonyme : sclérose) : modification structurelle de tissus qui survient à la suite d’une destruction substantielle de ceux-ci ou lorsqu’une inflammation a lieu à l’endroit où les tissus ne se renouvellent pas. Elle survient généralement dans la dernière phase d’une inflammation chronique. Fluorescence : émission lumineuse provoquée par diverses formes d’excitation autres que la chaleur. Fluorophore : composante d’une molécule entraînant sa fluorescence. Galénique : la forme galénique d’un médicament désigne la forme sous laquelle sont formulés le principe actif et les excipients (forme de comprimé, gélule, sachet, sirop, etc.). Ce terme vient du nom de Claude Galien, médecin grec de l’Antiquité. Gliome : les gliomes ou tumeurs gliales désignent l’ensemble des tumeurs du cerveau issues du tissu de soutien ou glie. Ce sont des tumeurs dont le pronostic est sévère. Hémisynthèse : synthèse d’une molécule réalisée à partir de composés naturels possédant déjà une partie de la molécule visée. Hémoglobine : pigment de coloration rouge contenu par les globules rouges et permettant le transport de l’oxygène des poumons vers les tissus. Hémorragipare : qui favorise l’hémorragie.

Glossaire Hépatocarcinome (du grec « hépar » = foie, « karkinôma » = cancer) : cancer primitif du foie. Un carcinome est un type de cancer qui se développe à partir d’un tissu épithélial (peau, muqueuse). Histologie : étude de la structure des tissus et des cellules qui les composent. IDDM (Insulin-Dependent Diabetes Mellitus) : diabète insulinodépendant ou diabète de type 1, qui touche environ 10 % des patients atteints de diabète. Index thérapeutique : rapport Activité/Toxicité. Infectieuse (maladie) : ensemble des troubles des fonctions vitales qui trahissent un conflit entre l’organisme et un microbe agresseur. Ischémie : diminution de l’apport sanguin artériel à un organe. Cette diminution entraîne essentiellement une baisse de l’oxygénation des tissus de l’organe. Lariam® : médicament utilisé pour la prophylaxie du paludisme en zone d’incidence élevée de paludisme chimiorésistant (pays du groupe 3), et le traitement des accès simples de paludisme contracté en particulier en zone de résistance aux amino4-quinoléines (chloroquine). Ce médicament peut provoquer des troubles psychologiques graves. Leucémie myéloïde aiguë : cancer du sang envahissant la moelle osseuse par des cellules jeunes anormales, à grande capacité de prolifération. Rappelons que la moelle produit les cellules sanguines.

Luminescence : émission de tout rayonnement électromagnétique visible, ultra-violet ou infrarouge, qui n’est pas d’origine purement thermique. Macrophage : grosse cellule du système immunitaire présente dans divers tissus, notamment le foie, chargée d’intégrer (phagocyter) les bactéries et autres cellules étrangères, et qui permet aux globules blancs de les identifier pour les éliminer. Médecine nucléaire : branche de la médecine qui utilise des traceurs radioactifs pour plusieurs types d’application : imagerie physiologique (scintigraphies, radio-immunologie), radiothérapie métabolique, etc., dans des domaines aussi divers que l’oncologie, la neurologie ou encore la cardiologie. Médiateur : substance de l’organisme sécrétée par certaines cellules et capable de se lier à un récepteur cellulaire (de la membrane plasmique ou intracellulaire), pour entraîner une réponse de cette cellule. Les médiateurs chimiques régissent le fonctionnement des organes, le développement embryonnaire (facteurs d’organisation et de différenciation cellulaire, facteurs de croissance), diverses réorganisations tissulaires (processus de cicatrisation), et la production de tumeurs bénignes ou malignes (facteur induisant la transformation). Meso (composé) : il s’agit d’une molécule qui est superposable à son image dans un miroir, et qui possède au moins une paire de carbones

173

La chimie et la santé

asymétriques dont les substituants sont les mêmes pour les deux carbones. Il a la caractéristique de posséder un plan de symétrie. Méta-analyses : la méthodologie des méta-analyses est basée sur la réunion d’articles sélectionnés pour leur bonne qualité et sur leur analyse par des experts. Métabolisme : ensemble des réactions biochimiques se déroulant au sein des cellules des organismes vivants. Deux grands processus existent : l’anabolisme et le catabolisme. L’anabolisme est l’ensemble des réactions aboutissant à la synthèse de molécules nouvelles : les composés devenus inutiles, voire inutilisables, sont dégradés en des molécules plus petites qui sont soit réutilisées, soit éliminées par l’organisme. Le catabolisme est l’ensemble des réactions aboutissant à une dégradation : il permet de récupérer de l’énergie et de la stocker dans des composés cellulaires particuliers. Ces réserves énergétiques peuvent ensuite être utilisées par l’organisme. Métastase (cancéreuse) (en grec metavstasi", du verbe meqvivsthmi, je change de place) : croissance d’une cellule tumorale à distance du site initialement atteint. Chez l’homme, les métastases peuvent se produire par diffusion de cellules malignes par voie sanguine ou lymphatique.

174

Modélisation moléculaire : ensemble de techniques faisant appel à des logiciels informatiques pour modéliser, prévoir ou imiter le comportement de molécules.

Monogénique (maladie) : maladie pour laquelle il est établi qu’un seul gène est impliqué. Ce sont aujourd’hui, dans l’état de la technique, les seules qui soient accessibles aux thérapies par les gènes. Mutations : modifications irréversibles de l’information génétique contenue dans la molécule d’ADN constituant nos gènes (chromosomes). Elles peuvent être dues à des erreurs de copie des chromosomes lorsque nos cellules se divisent ou à l’exposition à des agents mutagènes (rayonnements ultra-violets, agents chimiques, virus…). Elles peuvent aussi survenir spontanément. Une très grande partie des erreurs commises au cours de la division cellulaire est corrigée immédiatement par des mécanismes complexes et efficaces de réparation de l’ADN, et seule une faible part de ces mutations peut conduire ou non au développement d’un cancer. Northern-blot : méthode d’analyse de l’ARN par électrophorèse. Opsonine : en immunologie, toute substance qui se lie à des antigènes et induit leur phagocytose par des macrophages ou des leucocytes neutrophiles. Les opsonines désignent donc les anticorps et certains fragments du complément qui se lient aux antigènes de surface d’une bactérie pendant l’activation du complément, et favorisent la liaison des récepteurs des macrophages à la surface cellulaire. Optiquement actif : une molécule est dite optiquement active quand elle a la propriété

Glossaire de faire tourner le plan de polarisation d’un faisceau de lumière polarisée, c’està-dire une lumière dont les photons ont été orientés dans une direction privilégiée (par passage à travers un cristal de quartz par exemple). Osmolalité : nombre d’osmoles par kilogramme. Un osmole est la masse d’une mole osmotiquement active d’une substance en solution. L’osmose est le phénomène par lequel des molécules (l’eau en général) diffusent à travers une membrane semi-perméable qui sépare deux liquides de concentrations différentes. En biologie cellulaire, l’osmose contribue à de nombreux échanges chimiques au sein de l’organisme. Pharmacocinétique : devenir d’un principe actif contenu dans un médicament dans l’organisme. Elle comprend quatre phases, se déroulant simultanément : absorption, distribution, métabolisme, élimination du principe actif. La détermination des paramètres pharmacocinétiques d’un principe actif apporte les informations qui permettent de choisir les voies d’administration et la forme galénique, et d’adapter les posologies pour son utilisation future. Pharmacodynamique : effet d’un médicament sur l’organisme, à travers la réponse provoquée par l’interaction entre le principe actif et le récepteur (protéine cible). Pharmacogénétique : branche de la pharmacologie destinée à l’étude des relations entre la variabilité du génome et la réponse à un traitement

médicamenteux observée chez les individus. Elle a pour finalité d’optimiser les décisions thérapeutiques en fonction du génome de l’individu et de la molécule cible afin d’améliorer l’efficacité des traitements et de prévenir des effets indésirables. Phénotype : ensemble des traits caractérisant un être vivant (anatomie, morphologie, physiologie, etc.). Ils résultent de l’expression des gènes, à travers la synthèse des protéines codées par ces gènes. Photoaffinité : technique de marquage qui permet de mettre en évidence, avec une bonne précision, la fixation d’une petite molécule (ligand) sur une protéine (récepteur, enzyme…). Elle consiste à utiliser une sonde qui possède une fonction photosensible et qui, après photoactivation, génère une entité hautement réactive capable de s’incorporer dans la protéine. Photodommage : altération de la peau ou de l’ADN due à une exposition aux UV. Photon : particule élémentaire de lumière. Point focal : point sur lequel convergent tous les rayons lumineux qui passent à travers une lentille optique. Protéase : enzyme qui brise les liaisons peptidiques des protéines en présence d’eau. Une liaison peptidique permet de lier entre eux les différents acides aminés constitutifs d’une protéine. Elle est formée par réaction entre la fonction acide d’un acide aminé (–COOH) et la fonction amine d’un autre (–NH2).

175

La chimie et la santé

Protéomique : science qui étudie les protéomes, c’est-àdire l’ensemble des protéines des organismes vivants. Protoporphyrine : type de porphyrine. Les porphyrines sont des molécules à structures cycliques impliquées dans le transport de l’oxygène, et pouvant jouer le rôle de cofacteur lié de certaines enzymes (exemples : cytochromes P450). Puce à ADN (ou biopuce) : petite surface de quelques millimètres carrés de silicium ou de verre portant un grand nombre de sondes nucléiques capables de se lier (s’hybrider), dans un milieu biologique à analyser, avec des fragments spécifiques d’ADN. Les puces à ADN permettent de mesurer et de visualiser très rapidement les différences d’expression entre les gènes et ceci à l’échelle d’un génome complet. Quantum dots : cristaux semi-conducteurs de dimensions nanométriques qui présentent des propriétés de fluorescence ajustables par le contrôle de leur diamètre.

176

REACH : règlement sur l’enregistrement, l’évaluation, l’autorisation et les restrictions des substances chimiques (Registration, Evaluation and Authorization of CHemicals). Adopté le 18 décembre 2006 par le Parlement européen et le Conseil de l’Union européenne, ce règlement, entré en vigueur le 1er juin 2007, rationalise et améliore l’ancien cadre réglementaire sur les produits chimiques. Son objectif est d’améliorer la protection de la santé humaine et de l’environnement, tout en

maintenant la compétitivité et en renforçant l’esprit d’innovation de l’industrie chimique européenne. Dans ce cadre, il est obligatoire pour les industriels d’évaluer, de gérer les risques posés par les produits chimiques et de fournir des informations de sécurité adéquates à leurs utilisateurs. Recombinaison homologue : ce terme correspond à un événement de recombinaison génétique entre deux séquences identiques situées sur deux molécules d’ADN différentes, ou distantes l’une de l’autre sur la même molécule. Redox (oxydo-réduction) : processus de transfert d’une espèce à une autre. Régiosélectivité : une réaction chimique est dite régiosélective si l’un des réactifs réagit préférentiellement avec certains sites d’un autre réactif parmi plusieurs possibles, conduisant préférentiellement à certains produits parmi plusieurs possibles. Rendement quantique de fluorescence : rapport entre le nombre de photons émis et le nombre de photons absorbés par l’objet irradié. Résonance magnétique nucléaire (RMN) : une technique d’analyse chimique et structurale non destructive et très utilisée en physique (études de matériaux), chimie ou biochimie (structure de molécules). Son application la plus connue du grand public est l’imagerie médicale par résonance magnétique (IRM). Réticulo-endothélial (système) : ensemble de cellules macrophagiques

Glossaire disséminées dans l’organisme et particulièrement dans le foie (cellules de Kupffer), le système lymphatique, la moelle osseuse, la rate entre autres, organisées en réseau. Ce système possède diverses fonctions dont la fabrication des éléments du sang, la destruction des corps considérés comme étrangers, l’immunité, etc. Ribosome : petite structure dans le cytoplasme des cellules qui sert à assembler les acides aminés pour former des protéines. Un ribosome contient deux parties, une qui « lit » l’information génétique et une qui fait la synthèse des protéines. Sarcome : tumeur maligne qui se forme aux dépens du tissu conjonctif ou des tissus qui en dérivent comme le tissu musculaire, l’os. Satellite (séquence) : séquence d’ADN hautement répétitive trouvée dans l’hétérochromatine, principalement près des centromères des chromosomes. Souris Knock-Out (KO) : souris domestiques qui ont été génétiquement modifiées par une procédure dite de knock-out, qui consiste à modifier les gènes dans les cellules souches embryonnaires dont elles sont issues. Ces cellules souches étant pluripotentes, elles sont donc toutes identiques. Il faut distinguer le knock-out d’une simple recherche de mutants. Le knock-out est une mutagenèse ciblée dans la mesure où elle n’altère que la séquence du gène étudié. Cette méthode se distingue des manipulations sur des

animaux transgéniques, lesquels sont plutôt soumis à l’ajout d’un gène. Spectrométrie de masse : technique physique d’analyse permettant de détecter et d’identifier des molécules en mesurant leur masse et/ou les masses de leurs fragments constitutifs. La spectrométrie de masse est utilisée dans pratiquement tous les domaines scientifiques : physique, astrophysique, chimie en phase gazeuse, chimie organique, dosages, biologie, médecine. Sténose : étroitesse pathologique permanente, congénitale ou acquise d’un canal ou d’un orifice d’organe (par exemple artère). Synthèse totale : synthèse d’une molécule nécessitant généralement un nombre d’étapes important de réactions chimiques, en partant de précurseurs simples, souvent disponibles commercialement, et dérivés du raffinage du pétrole. Thérapie génique : méthode consistant à introduire du matériel génétique dans les cellules d’un organisme pour y corriger une anomalie (mutation, altération…) à l’origine d’une pathologie. Il s’agit souvent d’apporter un gène normal et fonctionnel dans une cellule où le gène présent est altéré. Transgène : gène étranger introduit dans le génome d’un organisme génétiquement modifié. Transgenèse : technique servant à introduire un gène étranger (transgène) dans le génome d’un organisme, en

177

La chimie et la santé 178

vue d’obtenir un organisme génétiquement modifié. Vecteur viral : en thérapie génique, on fait pénétrer des gènes dans les cellules d’un organisme pour traiter une maladie génétique. Pour cela, les biologistes passent

généralement par des virus modifiés capables de transporter un matériel génétique, en particulier un gène thérapeutique, dans les cellules. Ces vecteurs biologiques sont appelés vecteurs viraux.

photographiques PARTIE 1-CHAPITRE 2 – Fig. 3 et 5 (gauche) : CNRS Photothèque/Université de Montpellier 2, UPR 9080 – Laboratoire de Biochimie Théorique – Paris. – Fig. 4 : CNRS Photothèque/ Lamoureux Richard, GIPGENOSCOPE – Centre natio nal de séquençage.

– Fig. 11 : « Synthèse parallèle » : CNRS Photothèque/ Schmitt Sophie, UPS 2682 – Molécules et cibles thérapeutiques – Roscoff Cedex ; « Galénique » : CNRS Pho tothèque/Sagascience/ Caillaud François, UMR 8612 – Physico-Chimie, Pharmacotechnie, Biopharmacie – Châtenay-Malabry.

– Fig. 7 : Georges Dolisi. – Fig. 14 : CNRS Photothèque/ Raguet Hubert, UMR 8612 – Physico-Chimie, Pharmacotechnie, Biopharmacie – Châtenay-Malabry. – Fig. 16 et 17 : E. Kas. PARTIE 2-CHAPITRE 3 – Fig. 2 et 3 : Protéine : CNRS Photothèque/Mussacchio A., UPS 2682 – Molécules et cibles thérapeutiques – Roscoff Cedex. – Fig. 3 et 4 : Chimiothèque : CNRS Photothèque/Robin Laurent, UMR 6005 – Institut de Chimie Organique et Analytique (ICOA) – Orléans. – Fig. 6 : CNRS Photothèque/ Perrin Emmanuel, UMR 3145 – Modélisation et ingénierie des systèmes complexes pour le diagnostic – Montpellier.

PARTIE 2-CHAPITRE 4 – Fig. 5 et 6 : Photothèque/ Allorgue Lucile, UPR 2301 – Institut de Chimie des Substances Naturelles (ICSN) – Gif sur Yvette. – Fig. 7A : PharmaMar.

PARTIE 2-CHAPITRE 5 – Fig. 4 : Library of congress. – Fig. 8 : CNRS Photothèque/ Perrin Emmanuel, UMR 6098 – Architecture et fonction des macromolécules biologiques (AFMB) – Marseille.

PARTIE 2-CHAPITRE 6 – Fig. 3 et 7 (nanoparticule) : CNRS Photothèque/Sagascience/Caillaud François, UMR 8612 – Physico-Chimie,

Crédits photographiques

Crédits

La chimie et la santé

Pharmacotechnie, Biopharmacie – Châtenay-Malabry. PARTIE 2-CHAPITRE 7 – Fig. 3 : CNRS Photothèque/Jannin François, Institut Gilbert Laustriat – Biomolécules et innovations thérapeutiques – Illkirch. – Fig. 4 : CNRS Photothèque/ Sevenet Thierry, Intitut de Chimie des Substances Naturelles (ICSN) – Gif-surYvette – Fig. 5 : CNRS Photothèque/ Fontana Yann, FR2424 – Station biologique de Roscoff. Photo prise à 30 m de profondeur à PorzhKamor, Ploumanac’h – Côtes d’Armor. – Fig. 6 : CNRS Photothèque/ Clantin Bernard, UMR 8161 – Institut de biologie de Lille. – Fig. 10 : CNRS Photothèque/ Institut Pasteur/Rogier C., URA 361 – Expression génétique et variabilité dans les systèmes multigénétiques – Paris. – Fig. 13 : Kristian Peters, 2007 UTC. PARTIE 3-CHAPITRE 8 – Fig. 12 : Krishna T.R., Parent M., Werts M.H.V., Moreaux

180

L., Gmouh S., Charpak, S., Caminade A.-M., Majoral J.-P., Blanchard-Desce M. (2006). Angewandte Chemie. PARTIE 3-CHAPITRE 9 – Fig. 2 : CNRS/Photothèque/ Rajau Benoît, UMR 6232 – Centre d’imagerie – eurosciences et d’applications aux pathologies (CI-NAPS) – Caen. – Fig. 9 : Ruehm S.G., Christina H., Violas X., Corot C., Debatin J.F. (2002), MR Angiography With a New Rapid-Clearance Blood Pool Agent: Initial Experience in Rabbits, Magnetic Resonance in Medicine, 48 : 844-851. – Fig. 10 : Dirksen M.S., Lamb H.J., Robert P., Corot C. de Ross A. (2003). Improved MR Coronary Angiography with Use of a New Rapid Clearance Blood Pool Contrast Agent in Pigs, Radiology, 227 : 802808. – Fig. 13 : Corot C., Robert P., Lancelot E., Prigent P., Ballet S., Guilbert I., Raynaud J.S., Raynal I., Port M. (2008). Tumor Imaging Using P866, a Hight-Relaxivity Gadolinium Chelate Designed for Folate Receptor Targeting, Magnetic Resonance in Medicine, 60 : 1337-1346.