I bottoni di Napoleone 9788850250707

Cosa c'entra Napoleone con la chimica, la noce moscata con la peste, un grembiule da cucina con gli esplosivi, il P

2,002 352 11MB

Italian Pages 440 Year 2006

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

I bottoni di Napoleone
 9788850250707

Table of contents :
Presentazione......Page 2
Frontespizio......Page 4
Pagina di copyright......Page 5
Introduzione......Page 8
Breve storia del pepe......Page 27
Chimica piccante......Page 31
Il miraggio delle spezie......Page 34
Le molecole aromatiche dei chiodi di garofano e della noce moscata......Page 36
La noce moscata e New York......Page 41
2. L'acido ascorbico......Page 45
Lo scorbuto in mare......Page 46
Cook: centinaia di uomini, nessun caso di scorbuto......Page 51
Una piccola molecola in un grande ruolo......Page 54
Scorbuto sul ghiaccio......Page 60
3. Il glucosio......Page 62
Schiavismo e coltivazione dello zucchero......Page 63
Dolce chimica......Page 66
Sapore dolce......Page 72
I dolcificanti artificiali......Page 76
Il cotone e la Rivoluzione industriale......Page 81
La cellulosa, un polisaccaride strutturale......Page 84
I polisaccaridi di riserva......Page 91
Cellulosa esplosiva......Page 94
La polvere da sparo: il primo esplosivo......Page 99
Chimica degli esplosivi......Page 101
L'idea della dinamite di Nobel......Page 106
La guerra e gli esplosivi......Page 108
La diffusione della seta......Page 117
La chimica del lustro e della lucentezza......Page 119
La ricerca della seta sintetica......Page 127
Il nailon: una nuova seta artificiale......Page 130
Chirurgia sterile......Page 137
Le molte sfaccettature dei fenoli......Page 142
Il fenolo nelle plastiche......Page 146
Un fenolo per il sapore......Page 153
Le origini della gomma......Page 157
Cis e trans......Page 159
Lo sviluppo della gomma......Page 164
Che cosa la fa allungare?......Page 167
La gomma influisce sulla storia......Page 170
La storia influisce sulla gomma......Page 173
Colori primari......Page 180
Coloranti sintetici......Page 191
L'eredità dei coloranti......Page 196
10. Farmaci miracolosi......Page 200
L'Aspirina......Page 202
La saga dei sulfamidici......Page 205
Le penicilline......Page 212
11. La pillola......Page 221
I primi tentativi di contraccezione orale......Page 222
Gli steroidi......Page 223
Le sorprendenti avventure di Russell Marker......Page 229
La sintesi di altri steroidi......Page 235
Le madri della pillola......Page 238
12. Le molecole della stregoneria......Page 245
Fatica e sofferenze......Page 246
Erbe curative, erbe dannose......Page 249
Gli alcaloidi della segale cornuta......Page 260
Le guerre dell'oppio......Page 268
Nelle braccia di Morfeo......Page 271
Fumo da bere......Page 279
La struttura stimolante della caffeina......Page 284
L'olivo fra leggenda e realtà......Page 295
La chimica dell'olio d'oliva......Page 299
Il commercio dell'olio d'oliva......Page 310
Sapone di olio d'oliva......Page 311
15. Il sale......Page 320
La produzione del sale......Page 321
Il commercio del sale......Page 323
La struttura del sale......Page 326
Il fabbisogno di sale del corpo......Page 329
La tassazione del sale......Page 331
Il sale come materia prima......Page 335
La refrigerazione......Page 338
I favolosi Freon......Page 340
I Freon rivelano il loro lato oscuro......Page 344
Il lato oscuro del cloro......Page 348
PCB: altri guai da composti clorurati......Page 349
Il cloro negli antiparassitari: dai benefìci al veneficio, alla proibizione......Page 351
Molecole che ti fanno dormire......Page 355
17. Molecole contro la malaria......Page 360
Chinina: l'antidoto della natura......Page 362
La sintesi della chinina......Page 369
Le soluzioni dell'uomo alla malaria......Page 371
Emoglobina: una protezione naturale......Page 376
Epilogo......Page 382
Ringraziamenti......Page 386
Bibliografia scelta......Page 387
Indice analitico......Page 395
Note......Page 428
5. I nitroderivati......Page 429
6. Seta e nailon......Page 430
12. Le molecole della stregoneria......Page 431
14. L'acido oleico......Page 432
16. I clorocarburi......Page 433
Indice......Page 434
Seguici su IlLibraio......Page 440

Citation preview

PRESENTAZIONE

Che cosa ha dato e dà alla chimica la straordinaria facoltà di far nascere le civiltà e far cadere gli imperi? Il fatto che strutture chimiche, semplici e complesse, possano determinare con differenze minime l’intera varietà delle sostanze naturali. Quelle che hanno inciso sul corso della storia sono state moltissime: il pepe e le altre spezie (determinanti nelle scoperte geografiche e nella conservazione dei cibi fino all’avvento della refrigerazione), la seta (originaria della Cina, che diede un contributo allo sviluppo delle basi finanziarie del Rinascimento italiano), lo zucchero (che come il cotone alimentò la tratta degli schiavi e l’espansione economica che condusse alla Rivoluzione industriale), lo sviluppo delle armi da fuoco (che trasformò le tecniche della guerra), la gomma (che rivoluzionò il trasporto su strada) hanno esercitato la loro incredibile azione sul divenire della storia grazie a proprietà legate a piccoli gruppi di atomi presenti nelle loro molecole. E i bottoni di Napoleone (o meglio, dei suoi soldati) che c’entrano in tutto ciò? Perché l’esercito dell’imperatore fallì nella campagna di Russia del 1812? Secondo una teoria, perché i bottoni di stagno delle uniformi francesi si disintegrarono al gelo dell’inverno russo, impedendo agli uomini di combattere. Infine, lasciamo la parola a Roald Hoffmann, Premio Nobel per la chimica nel 1981: «Qualche atomo aggiunto qui, qualcuno sottratto là: ecco tutto ciò che fa la differenza tra le caratteristiche sessuali maschili e femminili, fra una molecola innocua e una letale. In che modo tutto questo funzioni, e come in realtà la cultura sia stata plasmata dalla chimica, è l’argomento di questo libro di grandissima leggibilità».

PENNY LE COUTEUR insegna chimica in British Columbia da più di trent’anni. Ha vinto il Polysar Award per l’insegnamento della chimica nelle università canadesi e vive a Vancouver.

JAY BURRESON ha lavorato come chimico industriale e compiuto ricerche per i National Institutes of Health degli Stati Uniti sui composti chimici nella vita marina. È direttore generale di una società di high-tech e vive a Corvallis, nell’Oregon.

www.longanesi.it

facebook.com/Longanesi

@LibriLonganesi

www.illibraio.it

PROPRIETÀ LETTERARIA RISERVATA Longanesi & C. © 2006 – Milano ISBN 978-88-304-4622-9 Titolo originale Napoleon’s Buttons In copertina: © Jacques-Louis David, Napoleone Bonaparte nel suo studio alle Tuileries (1812, particolare), The National Gallery of Art, Samuel H. Kress Collection, Washington DC; foto © The Bridgeman Art Library / Alinari Grafica Studio Baroni Copyright © 2003 by Micron Geological Ltd. and by Jay Burreson All rights reserved including the right of reproduction in whole or in part in any form. This edition published by arrangement with Jeremy P. Tarcher, a member of Penguin Group (USA) LLC, a Penguin Random House Company

Prima edizione digitale 2016 Quest’opera è protetta dalla Legge sul diritto d’autore. È vietata ogni duplicazione, anche parziale, non autorizzata.

I BOTTONI DI NAPOLEONE

Alle nostre famiglie

INTRODUZIONE

Per la mancanza di un chiodo si perse lo zoccolo. Per la mancanza di uno zoccolo si perse il cavallo. Per la mancanza di un cavallo si perse il cavaliere. Per la mancanza di un cavaliere si perse la battaglia. Per la mancanza di una battaglia si perse il regno. E tutto per la mancanza di un chiodo per ferrare un cavallo. Da un’antica filastrocca inglese

Nel giugno 1812 l’esercito di Napoleone era forte di 600.000 uomini; sei mesi dopo, all’inizio di dicembre, quella stessa Grande Armata che era stata l’orgoglio della Francia era ridotta a meno di diecimila uomini. I resti cenciosi delle forze napoleoniche avevano riattraversato la Beresina, nei pressi di Borisov, nella Russia occidentale, sulla lunga via della ritirata da Mosca. I pochi soldati che ancora restavano agli ordini dell’imperatore stavano lottando con le residue energie contro la fame, le malattie e il gelo paralizzante: nemici non meno pericolosi dei combattenti russi. Gran parte di loro erano destinati a perire, essendo insufficientemente vestiti ed equipaggiati per poter sopravvivere ai rigori di un gelido inverno russo. La ritirata di Napoleone da Mosca ebbe conseguenze di vasta portata sulla carta geografica dell’Europa. Nel 1812 il 90 per cento della popolazione russa

era costituito da servi della gleba, appartenenti a proprietari terrieri che avevano il diritto di comprarli, venderli e scambiarli a loro arbitrio: una situazione più vicina alla schiavitù di quanto non fosse mai stata la servitù della gleba nell’Europa occidentale. I princìpi e gli ideali della Rivoluzione francese del 1789-1799 avevano seguito l’armata conquistatrice di Napoleone, dissolvendo l’ordine medievale della società, cambiando i confini politici e fomentando i nazionalismi. L’eredità di Napoleone ebbe anche aspetti pratici. Una comune amministrazione civile e codici legali comuni sostituirono il sistema confuso ed eterogeneo delle leggi e regolamentazioni regionali, e furono introdotti nuovi concetti di diritti individuali, familiari e di proprietà. Il sistema decimale dei pesi e delle misure sostituì il caos di centinaia di scale locali diverse. Che cosa causò lo sfacelo della più grande armata che fosse mai stata guidata da Napoleone? Perché i soldati agli ordini dell’imperatore francese, vittoriosi nelle battaglie precedenti, fallirono nella campagna di Russia? Una delle teorie più strane che siano state proposte può essere enunciata parafrasando un’antica filastrocca inglese: «E tutto per la mancanza di un bottone». Per quanto possa sembrare sorprendente, la dissoluzione dell’armata napoleonica potrebbe essere in effetti ricondotta a qualcosa di così insignificante come la disintegrazione di un bottone: un bottone di stagno, per essere esatti, di quelli che servivano per tutto, dai cappotti degli ufficiali di Napoleone ai calzoni e alle giubbe dei suoi fanti. Al calare della temperatura, lo stagno metallico lucido comincia a trasformarsi in una polvere grigia non metallica, che è ancora stagno, ma con una diversa forma strutturale. È questo ciò che accadde ai bottoni di stagno dell’armata di Napoleone? A Borisov un osservatore descrisse l’armata di Napoleone come «una folla di spettri avvolti in abiti femminili, in vecchi pezzi di tappeti o in cappotti bruciati pieni di buchi». Gli uomini di Napoleone, quando i bottoni delle loro uniformi si disgregavano, erano così indeboliti dal freddo da non potersi più comportare da soldati? In conseguenza della perdita dei bottoni, erano costretti a usare le mani per tenersi su gli indumenti, anziché per impugnare le armi? È difficile stabilire la fondatezza di questa teoria. La «malattia dello stagno», come veniva chiamato il problema, era nota nell’Europa settentrionale da secoli. Perché mai Napoleone, uomo fermamente convinto che gli uomini dovessero essere sempre nelle condizioni più idonee per

combattere, aveva permesso l’uso di quei bottoni nei loro indumenti? In realtà la disintegrazione dello stagno è un processo alquanto lento, persino alle bassissime temperature dell’inverno russo del 1812. La malattia dello stagno è però divertente da raccontare, e i chimici amano citarla come una ragione chimica della sconfitta di Napoleone. E ammesso che nella teoria dello stagno ci sia qualche verità, ci si deve domandare se – qualora lo stagno non si fosse deteriorato nel gelido inverno russo – i francesi avrebbero potuto continuare la loro espansione verso est. I contadini russi sarebbero stati liberati dal giogo della servitù della gleba mezzo secolo prima di quando avvenne storicamente? E la distinzione fra Europa occidentale e orientale, che è segnata grosso modo dai confini raggiunti dall’impero napoleonico – un segno della sua perdurante influenza –, sarebbe evidente ancor oggi? Nel corso di tutta la storia i metalli hanno avuto un’influenza fondamentale nel plasmare gli eventi umani. A parte il suo ruolo forse apocrifo nei bottoni di Napoleone, lo stagno proveniente dalle miniere della Cornovaglia, nell’Inghilterra meridionale, era stato molto ricercato dai romani ed era stato una delle ragioni dell’espansione dei romani nella Britannia. Si stima che nel 1650 sedicimila tonnellate di argento provenienti dalle miniere del Nuovo Mondo fossero finite nelle casse della Spagna e del Portogallo, per essere usate in gran parte a sostegno di guerre in Europa. La ricerca d’oro e d’argento ebbe un’influenza grandissima sull’esplorazione, sulla colonizzazione e sull’ambiente di molte regioni; per esempio, le corse all’oro dell’Ottocento in California, Australia, Sudafrica, Nuova Zelanda e nel Klondike canadese incisero moltissimo sull’apertura di quei Paesi. La lingua comune contiene molte espressioni che si riferiscono a questo metallo, come lingotto d’oro, sistema aureo, valuta aurea, buono come l’oro. Intere epoche sono state denominate con riferimento all’importanza dei metalli. L’Età del Bronzo, nella quale si usò questa lega di stagno e rame nella produzione di armi e di utensili, fu seguita dall’Età del Ferro, caratterizzata dalla fusione del ferro e dall’uso di utensili di ferro. Ma la storia è stata plasmata soltanto da metalli come lo stagno, l’oro e il ferro? I metalli veri e propri – il vocabolo si applica impropriamente anche a leghe metalliche, come il bronzo e l’ottone – sono elementi, sostanze che non possono essere decomposte in materiali più semplici per mezzo di reazioni chimiche. In natura ci sono solo novanta elementi, e altri diciannove circa sono stati prodotti in piccole quantità dall’uomo. Esistono però circa sette

milioni di composti, sostanze formate ciascuna da due o più elementi chimicamente combinati in proporzioni fisse. Senza dubbio devono esserci stati anche composti che hanno svolto un ruolo cardine nella storia e in assenza dei quali lo sviluppo della civiltà umana sarebbe stato molto diverso: composti che hanno cambiato il corso della storia del mondo. Questa è un’idea molto interessante ed è il principale tema unificatore che è alla base di ogni capitolo di questo libro. Considerando in questa diversa prospettiva alcuni composti comuni o non tanto comuni emergono storie affascinanti. Col trattato di Breda del 1667 gli olandesi cedettero il loro unico possedimento nordamericano in cambio della piccola isola di Run, un atollo nelle isole Banda, appartenenti alle Molucche (o Isole delle Spezie), a est di Giava, nell’attuale Indonesia. L’altra nazione firmataria del trattato, l’Inghilterra, rinunciò ai suoi legittimi diritti su Run – la cui unica risorsa erano boschetti di alberi di noce moscata – proprio per assicurarsi i diritti su quel possedimento olandese in America: l’isola di Manhattan. Gli olandesi avevano avanzato rivendicazioni su Manhattan poco tempo dopo che quest’area era stata visitata da Henry Hudson, mentre – per conto della Compagnia olandese delle Indie orientali – cercava un Passaggio a Nord-ovest verso le Indie orientali e le favolose Isole delle Spezie. Nel 1664 il governatore olandese di Nieuw Amsterdam, Peter Stuyvesant, fu costretto a cedere la colonia agli inglesi. In conseguenza delle proteste degli olandesi per questo esproprio e per altre rivendicazioni territoriali le due nazioni rimasero in guerra per quasi tre anni. La sovranità inglese su Run aveva irritato gli olandesi, il cui monopolio del commercio della noce moscata aveva bisogno solo del possesso di Run per completarsi. Gli olandesi, che avevano una lunga storia di spietata colonizzazione, di massacri e di schiavitù nella regione, non erano disposti a concedere agli inglesi di mantenere un appiglio anche minimo nel redditizio commercio di questa spezia. Dopo un assedio di quattro anni e molti cruenti combattimenti, gli olandesi invasero Run. Gli inglesi, per ritorsione, attaccarono le navi della Compagnia olandese delle Indie orientali, saccheggiandone i ricchi carichi. Gli olandesi, esasperati dagli atti di pirateria degli inglesi, chiesero la restituzione di Nieuw Amsterdam; gli inglesi pretendevano a loro volta un indennizzo per gli attacchi olandesi nelle Indie orientali e la restituzione di Run. Poiché nessuna delle due parti era disposta ad arretrare né era in grado

di conseguire la vittoria in battaglie navali, il trattato di Breda offrì un’opportunità di salvare la faccia agli uni e agli altri. Gli inglesi avrebbero tenuto Manhattan rinunciando alle loro rivendicazioni su Run. Gli olandesi avrebbero tenuto Run e rinunciato a ulteriori richieste per Manhattan. Quando su Nieuw Amsterdam (ribattezzata New York) fu issata la bandiera inglese, parve che gli olandesi avessero fatto l’affare migliore. Ben pochi avrebbero attribuito maggiore importanza a un piccolo insediamento di un migliaio di persone nel Nuovo Mondo rispetto al valore immenso del commercio della noce moscata. Ma perché la noce moscata era considerata tanto importante? Come altre spezie, fra cui i chiodi di garofano, il pepe e la cannella, era molto usata in Europa per conservare i cibi e per insaporirli, oltre che come medicina. Aveva però anche un altro ruolo, molto importante. Si pensava che fornisse una protezione contro la peste, la Morte Nera, che fra il Trecento e il Settecento flagellò periodicamente l’Europa. Oggi sappiamo che la Morte Nera era una malattia batterica trasmessa da ratti infettati dalla puntura di pulci. Perciò l’uso di portare una noce moscata in un sacchetto attorno al collo per difendersi dalla peste potrebbe essere considerato semplicemente una delle tante superstizioni medievali, finché non si considera la chimica della noce moscata. Il caratteristico odore della noce moscata è dovuto all’isoeugenolo. Alcune piante sviluppano composti di questo tipo come antiparassitari naturali, per difendersi contro gli organismi che se ne cibano, insetti e funghi. È possibilissimo che l’isoeugenolo contenuto nella noce moscata agisse come insetticida per tenere lontane le pulci. (Inoltre, chi era abbastanza ricco da permettersi l’acquisto della noce moscata viveva probabilmente in condizioni di minore affollamento, con conseguente minore esposizione a ratti e pulci, e quindi anche con minori probabilità di contrarre la peste.) Ma indipendentemente dal fatto che la noce moscata fosse o no efficace contro la peste, le molecole volatili e aromatiche che contiene erano senza dubbio all’origine del suo apprezzamento. Le esplorazioni e lo sfruttamento che si accompagnarono al commercio delle spezie, il trattato di Breda e il fatto che oggi i newyorkesi non siano nieuwamsterdamer, o qualcosa del genere, possono essere attribuiti al composto isoeugenolo. La considerazione della storia dell’isoeugenolo ha condotto alla contemplazione di molti altri composti che hanno cambiato la storia del

mondo, alcuni ben noti e ancora di importanza vitale per l’economia mondiale e altri caduti nel frattempo nell’oblio. Tutte queste sostanze chimiche sono state responsabili o di un evento chiave nella storia o di una serie di eventi che hanno trasformato la società. Noi abbiamo deciso di scrivere questo libro per raccontare la storia di connessioni affascinanti fra strutture chimiche ed episodi storici, per scoprire come eventi apparentemente privi di alcun nesso fra loro siano dipesi da strutture chimiche simili, e per capire in quale misura lo sviluppo della società sia dipeso dalla chimica di certi composti. L’idea che eventi importanti possano dipendere da qualcosa di così piccolo come una molecola – un gruppo di due o più atomi tenuti insieme in una disposizione ben definita – ci offre un approccio nuovo alla comprensione della crescita della civiltà umana. Un cambiamento così piccolo come la posizione di un legame – il tipo di connessione che lega gli atomi in una molecola – può condurre a differenze enormi nelle proprietà di una sostanza e quindi influire sul corso della storia. Questo non è, quindi, un libro sulla storia della chimica, bensì piuttosto sulla chimica nella storia. La scelta dei composti da includere in questo libro è stata ovviamente personale e non esaurisce certo l’argomento. Abbiamo scelto i composti che ci sono parsi più interessanti sia per la loro storia sia per la loro chimica. È opinabile se le molecole da noi scelte siano o no le più importanti nella storia del mondo; altri chimici avrebbero senza dubbio scelto altre molecole, aggiungendone alcune o eliminandone altre. Spiegheremo perché crediamo che certe molecole diedero impulso all’esplorazione geografica, mentre altre resero possibili i successivi viaggi di scoperta. Descriveremo molecole che ebbero un’importanza critica per lo sviluppo dei commerci, che furono responsabili di migrazioni umane e della colonizzazione di altri continenti e che condussero allo schiavismo e al lavoro forzato. Discuteremo di come la struttura chimica di certe molecole abbia cambiato ciò che mangiamo, ciò che beviamo e come ci vestiamo. Esamineremo molecole che hanno spronato progressi in medicina, nei servizi igienici e nella sanità. Considereremo molecole che hanno condotto a grandi imprese di ingegneria, e molecole di guerra e di pace, alcune delle quali sono state responsabili di milioni di decessi, mentre altre hanno salvato milioni di vite umane. Esploreremo quanti mutamenti in ruoli sessuali, in culture umane e nella società, nel diritto e nell’ambiente possano essere attribuiti alle strutture chimiche di un piccolo

numero di molecole cruciali. (Le diciassette molecole su cui abbiamo deciso di concentrarci in questi capitoli – le diciassette molecole cui ci riferiamo nel sottotitolo – non sono sempre singole molecole. Spesso saranno gruppi di molecole con strutture, proprietà e ruoli molto simili nella storia.) Gli eventi di cui ci occupiamo in questo libro non sono narrati in ordine cronologico. Abbiamo preferito fondare i capitoli su connessioni: fra molecole simili, fra insiemi di molecole simili, e persino fra molecole chimicamente del tutto diverse ma dotate di proprietà simili o collegabili a eventi simili. Per esempio, la Rivoluzione industriale deve il suo inizio ai profitti realizzati da un composto coltivato da schiavi (lo zucchero) nelle piantagioni in America, ma fu un altro composto (il cotone) ad alimentare importanti mutamenti economici e sociali in Inghilterra; e chimicamente il cotone è un fratello maggiore, o forse un cugino, dello zucchero. La crescita dell’industria chimica tedesca verso la fine dell’Ottocento fu dovuta, in parte, allo sviluppo di nuovi coloranti derivati dal catrame di carbone fossile (un materiale di scarto derivante dalla produzione di gas dal carbone). Queste stesse aziende chimiche tedesche furono le prime a sviluppare antibiotici di sintesi, formati da molecole con strutture chimiche simili a quelle dei nuovi coloranti. Il catrame di carbone fossile fornì anche il primo antisettico, il fenolo, una molecola che in seguito fu usata nella produzione della prima plastica artificiale e che è chimicamente affine all’isoeugenolo, la molecola aromatica della noce moscata. Connessioni chimiche come queste sono abbondanti nella storia. Eravamo molto incuriositi anche dal ruolo che è stato assegnato alla fortuna in numerose scoperte chimiche. La fortuna è stata spesso citata come un fattore determinante in numerose scoperte, ma a noi pare che sia più importante la capacità degli scopritori di rendersi conto che è accaduto qualcosa di insolito, e di domandarsi come sia accaduto e come possa essere utile per ottenere altre cose. In molti casi nel corso della sperimentazione chimica si persero opportunità ignorando risultati strani ma potenzialmente importanti. La capacità di riconoscere le possibilità presenti in un risultato inatteso merita di essere lodata piuttosto che sminuita come un colpo di fortuna. Alcuni fra gli inventori e gli scopritori dei composti di cui ci occuperemo qui furono chimici, mentre altri non avevano alcuna preparazione scientifica. Molti di loro potrebbero essere descritti come personaggi insoliti, appassionati o trascinati da qualche impulso. Le loro

storie sono affascinanti.

Organico: non è come l’orticoltura? Per aiutare i lettori a capire le connessioni chimiche di cui ci occuperemo nelle pagine seguenti, forniremo innanzitutto una breve rassegna di termini chimici. Molte fra le sostanze di cui ci occupiamo in questo libro sono classificate come composti organici. Negli ultimi venti o trent’anni la parola organico ha assunto un significato del tutto diverso rispetto alla sua definizione originaria. Oggi il termine organico, usato con riferimento all’orticoltura o al cibo, è inteso nel senso di agricoltura praticata senza antiparassitari o erbicidi artificiali e senza fertilizzanti di sintesi. In origine però il termine, introdotto nel 1807 dal chimico svedese Jöns Jakob Berzelius, fu applicato a composti derivati da organismi viventi. Corrispondentemente Berzelius usò il termine inorganico per indicare composti che non derivavano da esseri viventi. L’ipotesi che i composti chimici di origine naturale fossero in qualche modo speciali, che contenessero un’essenza vitale anche se questa non poteva essere scoperta o misurata, ha avuto circolazione a partire dal Settecento. Quest’essenza speciale era nota come energia vitale. La convinzione che nei composti derivati da piante o da animali ci fosse qualcosa di mistico fu chiamata vitalismo. Si pensava che la produzione di un composto organico in laboratorio fosse impossibile per definizione, ma curiosamente tale obiettivo fu realizzato proprio da uno degli allievi di Berzelius. Nel 1828 Friedrich Wöhler, che in seguito sarebbe diventato professore di chimica all’Università di Gottinga, riscaldò il composto inorganico ammoniaca con acido cianico, producendo cristalli di urea che erano esattamente identici a quelli del composto organico urea isolato da urina animale. Anche se i vitalisti sostenevano che l’acido cianico era organico essendo stato ottenuto da sangue essiccato, la teoria del vitalismo cominciò a presentare delle crepe. Nel corso di pochi decenni essa crollò completamente quando altri chimici furono in grado di produrre composti organici a partire da fonti totalmente inorganiche. Benché alcuni scienziati fossero riluttanti a credere a quella che sembrava essere un’eresia, la morte del vitalismo fu

infine comunemente riconosciuta. Si rendeva dunque necessaria una nuova definizione chimica della parola organico. Nella definizione attuale i composti organici sono i composti contenenti l’elemento carbonio. La chimica organica è quindi lo studio dei composti del carbonio. Questa non è però una definizione perfetta, essendoci vari composti contenenti carbonio che i chimici non hanno mai considerato organici. La ragione di questo stato di cose è principalmente tradizionale. I carbonati, composti di carbonio e ossigeno, venivano derivati da fonti minerali e non necessariamente da esseri viventi già molto tempo prima dell’esperimento di Wöhler che costrinse a modificare la definizione. Così il marmo (carbonato di calcio) e il bicarbonato di sodio non sono mai stati considerati composti organici. Similmente, l’elemento stesso del carbonio, tanto sotto forma di diamante quanto di grafite – entrambi estratti in origine da depositi nel suolo, benché oggi vengano prodotti anche sinteticamente –, è sempre stato concepito come inorganico. L’anidride carbonica o biossido di carbonio, contenente un atomo di carbonio legato a due di ossigeno, è nota da secoli ma non è mai stata classificata come un composto organico. La definizione di organico non è dunque del tutto coerente. In generale però un composto organico è un composto che contiene carbonio, e un composto inorganico è uno formato da elementi diversi dal carbonio. Più di qualsiasi altro elemento, il carbonio ha una grandissima variabilità nel modo di formare legami e anche nel numero degli elementi con cui è in grado di legarsi. Il numero dei composti del carbonio, tanto naturali quanto artificiali, è quindi infinitamente maggiore del numero dei composti di tutti gli altri elementi presi insieme. Ciò può spiegare perché in questo libro ci occuperemo di molte più molecole organiche che inorganiche; o forse è solo perché i due autori sono entrambi chimici organici.

Strutture chimiche: usarle o no in un libro di divulgazione? Scrivendo questo libro, il nostro problema maggiore era quello di determinare quanta chimica includere nelle sue pagine. Alcuni ci consigliarono di ridurla al minimo, di ignorarla completamente e di limitarci a raccontare le storie. Soprattutto ci fu raccomandato di rinunciare del tutto alla raffigurazione di

strutture chimiche. Ma la cosa che ci sembra più affascinante è proprio la connessione fra le strutture chimiche e ciò che fanno, fra come e perché un composto ha le proprietà chimiche che ha, e come e perché ciò influì su certi eventi nella storia. Anche se è certamente possibile leggere il libro senza guardare le strutture, noi pensiamo che la loro comprensione infonda vita alla relazione fra chimica e storia. I composti organici sono formati principalmente solo da pochi tipi di atomi: carbonio (simbolo chimico C), idrogeno (H), ossigeno (O) e azoto (N). Possono essere presenti anche altri elementi, fra cui per esempio bromo (Br), cloro (Cl), fluoro (F), iodio (I), fosforo (P) e zolfo (S). Le strutture raffigurate in questo libro intendono in generale illustrare differenze o somiglianze fra composti; quasi tutto quel che si richiede al lettore è osservare i disegni. Le differenze sono quasi sempre evidenziate con frecce o cerchi, o indicate in qualche altro modo. Per esempio, l’unica differenza fra le due strutture presentate qui sotto e alla pagina seguente è nella posizione in cui l’OH è legato a un C; la posizione è indicata in entrambi i casi con una freccia. Nella prima molecola l’OH è legato al secondo carbonio (C) da sinistra; nella seconda è legato al primo da sinistra.

Molecola prodotta dall’ape regina

Molecola prodotta da un’ape operaia

Questa è una differenza molto piccola, ma è estremamente importante per un’ape. Le api regine producono la prima molecola. Esse sono in grado di distinguerla dalla seconda, che è prodotta da api operaie. Guardando le api possiamo distinguere fra regina e api operaie.

Ape regina

Ape operaia

(Per gentile concessione di Raymond e Sylvia Chamberlin)

Le api usano segnali chimici per percepire la differenza. Potremmo dire che vedono attraverso la chimica. I chimici disegnano tali strutture per raffigurare in che modo gli atomi

sono uniti l’uno all’altro da legami chimici. I simboli chimici stanno per atomi e i legami sono rappresentati da linee rette. A volte due atomi sono uniti da più di un legame. Se ce ne sono due si ha un doppio legame, che è rappresentato così: =. Se fra due atomi esistono tre legami chimici, si parla di triplo legame e lo si rappresenta col simbolo≡. In una delle molecole organiche più semplici, quella del metano, il carbonio è circondato da quattro legami singoli, che lo uniscono a quattro atomi di idrogeno. La formula chimica è data come CH4 e la struttura è disegnata così:

Metano

Il composto organico più semplice che abbia un doppio legame è l’etene, o più comunemente etilene, con formula C2H4 e struttura:

Etilene

Anche qui il carbonio ha quattro legami, in quanto il doppio legame vale due legami singoli. Pur essendo un composto semplice, l’etilene è molto importante. Esso è un ormone vegetale che promuove la maturazione dei frutti. Se le mele non sono conservate in presenza di una ventilazione appropriata, l’etilene che producono si accumulerà e le farà maturare più in

fretta. Ecco perché si può accelerare la maturazione di un avocado o di un kiwi acerbi mettendoli dentro un sacchetto insieme a una mela già matura. L’etilene prodotto dalla mela accelera la maturazione dell’altro frutto. Il composto organico metanolo, noto anche come alcol metilico, ha formula CH4O. La molecola contiene un atomo di ossigeno e ha la struttura seguente:

Metanolo

Qui l’atomo di ossigeno, O, ha due legami singoli, uno legato all’atomo di carbonio e l’altro a un atomo di idrogeno. Come sempre il carbonio ha un totale di quattro legami. Nei composti in cui c’è un doppio legame fra un atomo di carbonio e un atomo di ossigeno, come nell’acido acetico (l’acido dell’aceto), la formula, scritta C2H4O2, non indica direttamente dove si trova il doppio legame. Ecco perché noi disegniamo strutture chimiche: per far vedere esattamente come siano attaccati fra loro i singoli atomi e dove si trovino i doppi o tripli legami.

Acido acetico

Noi possiamo disegnare queste strutture in una forma abbreviata o più condensata. L’acido acetico potrebbe essere quindi disegnato così: o anche

dove non sono mostrati tutti i legami. Essi sono ovviamente ancora presenti, ma queste forme abbreviate sono più rapide da scriversi e mostrano in modo altrettanto chiaro i rapporti fra gli atomi. Questo sistema di rappresentazione delle strutture funziona bene per gli esempi minori, ma quando le molecole crescono è più difficile da seguire e richiede più tempo. Per esempio, se torniamo alla molecola di riconoscimento prodotta dalla regina:

e la confrontiamo con una versione scritta per esteso che mostra tutti i legami, questa seconda struttura avrà l’aspetto seguente:

Struttura disegnata per esteso della molecola di riconoscimento dell’ape regina

Questa struttura disegnata per esteso è lunga da disegnare e ci appare piuttosto confusa. Perciò noi spesso disegniamo i composti usando un certo numero di scorciatoie, la più comune delle quali è quella di lasciar fuori molti fra gli atomi di idrogeno. Ciò non significa che non ci siano, ma solo che abbiamo deciso di non mostrarli. Un atomo di carbonio ha sempre quattro legami, cosicché quando sembra che non li abbia si può stare certi che li ha comunque: i legami che non appaiono sono con atomi di idrogeno non rappresentati.

Molecola di riconoscimento dell’ape regina

Gli atomi di carbonio sono inoltre rappresentati a volte uniti con trattini ad angolo fra loro anziché in linea retta; questo tipo di rappresentazione è più fedele alla vera forma della molecola. In questo modo di raffigurazione la molecola dell’ape regina ha questo aspetto:

Una versione ancora più semplificata lascia fuori la maggior parte degli atomi di carbonio:

Qui la fine di una linea e una qualsiasi intersezione rappresentano un atomo di carbonio. Tutti gli altri atomi (eccezion fatta per la maggior parte degli atomi di carbonio e di idrogeno) sono ancora rappresentati dai loro simboli. Semplificando in questo modo, è facile vedere la differenza fra la molecola della regina e la molecola delle api operaie.

Molecola dell’ape regina

Molecola di ape operaia

Oggi è più facile confrontare questi composti con quelli prodotti da altri insetti. Per esempio, il bombicolo, il feromone prodotto dal baco da seta maschio che determina l’attrazione sessuale in questa falena, ha sedici atomi di carbonio (in opposizione ai dieci atomi presenti nella molecola prodotta dall’ape regina, che è anch’essa un feromone), due doppi legami invece di uno e non ha il gruppo funzionale carbossile, COOH.

Molecola dell’ape regina

Molecola di bombicolo

È particolarmente utile lasciar fuori molti atomi di carbonio e di idrogeno quando ci si occupa dei cosiddetti composti ciclici: una struttura piuttosto comune in cui gli atomi di carbonio formano un anello. La struttura seguente

rappresenta la molecola del cicloesano, C6H12:

Versione abbreviata o condensata della struttura chimica del cicloesano. Ogni intersezione rappresenta un atomo di carbonio; gli atomi di idrogeno non sono rappresentati.

Il cicloesano, rappresentato completamente, apparirebbe così:

La struttura chimica, disegnata completamente, del cicloesano, nella quale sono rappresentati tutti gli atomi e tutti i legami.

Come potete vedere, quando disegniamo tutti i legami e scriviamo tutti i simboli degli atomi, il diagramma che ne risulta può perdere trasparenza. Quando poi si passa a strutture più complicate, come quella dell’antidepressivo Prozac (principio attivo: fluoxetina), la versione scritta per esteso (qui sotto) rende davvero difficile la visione della struttura.

Struttura del Prozac rappresentata per esteso

Molto più chiara è invece la versione semplificata:

Versione abbreviata della struttura del Prozac

Un altro termine usato spesso per descrivere aspetti di una struttura chimica è aromatico. Il dizionario definisce l’aggettivo aromatico come «che ha un odore fragrante, speziato, pungente o inebriante, con la connotazione di buon odore». Nella terminologia della chimica, un composto aromatico ha spesso un odore, anche se non è necessariamente un odore piacevole. L’aggettivo aromatico, applicato a una sostanza chimica, significa che il composto contiene la struttura ad anello del benzene (qui sotto), che viene disegnata più comunemente come una struttura condensata.

Struttura del benzene

Struttura condensata del benzene

Se si osserva la struttura del Prozac, si può vedere che contiene due di questi anelli aromatici. Il Prozac viene perciò definito un composto aromatico.

I due anelli aromatici nel Prozac

Questa è solo una breve introduzione alle strutture della chimica organica, ma in realtà è tutto ciò di cui avete bisogno per capire quel che descriviamo in questo libro. Confronteremo delle strutture per mostrare in che cosa differiscano e in che cosa siano uguali, e mostreremo come a volte cambiamenti estremamente piccoli in una molecola producano effetti profondi. Seguendo le connessioni fra le forme particolari e le proprietà ad esse connesse di varie molecole si chiarirà l’influenza delle strutture chimiche sullo sviluppo della civiltà.

1 PEPE, NOCE MOSCATA E CHIODI DI GAROFANO

Christos e espiciarias! – «Per Cristo e per le spezierie!» – era il grido di esultanza dei marinai di Vasco da Gama quando, nel maggio 1498, si avvicinavano all’India e al sogno di ricavare enormi ricchezze dalle spezie che per secoli erano state il monopolio dei mercanti veneziani. Nell’Europa medievale una di quelle spezie, il pepe, era così pregiata che bastava una libbra di tali bacche essiccate per comprare la libertà di un servo della gleba dal suo signore feudale. Benché oggi il pepe appaia sulle tavole da pranzo di tutto il mondo, la domanda di questa spezia e delle molecole aromatiche della cannella, dei chiodi di garofano, della noce moscata e dello zenzero alimentò una ricerca mondiale che introdusse l’epoca delle grandi scoperte geografiche.

Breve storia del pepe Il pepe, ricavato dalla pianta tropicale Piper nigrum, originaria dell’India, è ancor oggi la spezia più usata. I suoi maggiori produttori sono attualmente i territori tropicali dell’India, del Brasile, dell’Indonesia e della Malaysia. La pianta è una liana robusta, sublegnosa, che può crescere fino a sei metri o più. Fra i due e i cinque anni di età comincia a produrre frutti in forma di piccole drupe più o meno sferiche di colore rossastro, e nelle condizioni giuste continua a produrre per una quarantina di anni. Una pianta produce ogni stagione dieci chilogrammi di pepe. Circa tre quarti di tutto il pepe viene venduto come pepe nero, prodotto per mezzo di una fermentazione fungina di bacche di pepe non ancora mature. Il pepe bianco, ottenuto dai frutti maturi essiccati a cui viene tolto il pericarpo

(la polpa e la buccia), costituisce gran parte dell’altro pepe in commercio. Una percentuale molto piccola di pepe viene venduta come pepe verde. Le piccole bacche verdi, raccolte non appena cominciano a maturare, vengono messe in salamoia. Il pepe in granelli di altri colori, che si trova a volte nelle drogherie, è stato colorato artificialmente o è formato in realtà da drupe di altre specie di piante. Si ritiene che il pepe sia stato introdotto in Europa da mercanti arabi, e che vi sia arrivato in origine percorrendo le antiche vie delle spezie che passavano per Damasco e per il mar Rosso. Il pepe era noto in Grecia nel V secolo a.C. A quel tempo era usato in medicina più che in cucina, spesso come antidoto a veleni. Vari secoli dopo, i romani facevano già un grande uso del pepe e di altre spezie nel loro cibo. Nel I secolo d.C. più di metà delle importazioni dall’Asia e dalla costa orientale dell’Africa nei Paesi mediterranei erano spezie, e gran parte di queste era costituita da pepe proveniente dall’India. Le spezie venivano usate nei cibi per due ragioni: come conservanti e per esaltare i sapori. Roma era una grande città, i trasporti erano lenti, la refrigerazione non era ancora stata inventata e doveva essere molto difficile procurarsi cibi freschi e mantenerli freschi. Per stabilire se un cibo fosse ancora buono, i consumatori potevano affidarsi solo al loro naso; le etichette «Da consumarsi preferibilmente entro...» sarebbero venute solo parecchi secoli dopo. Il pepe e altre spezie coprivano il sapore di cibi guasti o rancidi, e probabilmente ne rallentavano l’ulteriore deperimento. Inoltre il loro uso poteva rendere più gradevole il sapore dei cibi essiccati, affumicati e salati. Nel Medioevo gran parte dei traffici dell’Europa con l’Oriente avveniva attraverso Baghdad (nel moderno Iraq) e Costantinopoli (oggi Istanbul), dove le merci orientali arrivavano seguendo la riva meridionale del mar Nero. Da Costantinopoli le spezie venivano imbarcate per Venezia, che esercitò un dominio quasi completo sugli scambi commerciali nel Basso Medioevo e Rinascimento. Dal VI secolo d.C. Venezia era cresciuta in misura considerevole esportando il sale prodotto nelle sue lagune. Aveva poi prosperato nel corso dei secoli grazie ad accorte decisioni politiche, che avevano permesso alla città di mantenere la sua indipendenza commerciando con tutte le nazioni. A partire dalla fine dell’XI secolo quasi due secoli di crociate diedero ai mercanti veneziani la possibilità di consolidare la loro posizione come signori

mondiali delle spezie. La fornitura di approvvigionamenti, navi da guerra, armi e denaro ai crociati dell’Europa occidentale fu un investimento proficuo, che apportò grandi benefìci diretti alla Repubblica di Venezia. I crociati, tornando dai Paesi più caldi del Medio Oriente ai loro freddi Paesi settentrionali, portavano spesso con sé le spezie esotiche che avevano imparato ad apprezzare nei loro viaggi. All’inizio il pepe poté essere una novità, un lusso che in pochi potevano permettersi, ma la sua proprietà di mascherare la rancidità, di esaltare il sapore di cibi essiccati ormai spenti e presumibilmente di ridurre il sapore salato di cibi conservati sotto sale, lo rese ben presto indispensabile. I mercanti di Venezia avevano conquistato un nuovo grande mercato, e commercianti di tutta l’Europa si recavano nella città lagunare a comprarvi spezie, e particolarmente pepe. Nel Quattrocento il monopolio veneziano del commercio delle spezie era così completo e i margini di profitto così grandi che anche altri Paesi cominciarono a prendere in considerazione la possibilità di trovare vie alternative per l’India, in particolare una rotta marittima che circumnavigasse l’Africa. Il principe Enrico il Navigatore, figlio del re di Portogallo Giovanni I, commissionò un grande programma di costruzione di navi per far fronte alle condizioni meteorologiche estreme in cui ci si poteva trovare nell’oceano aperto. Stava per cominciare l’epoca delle grandi scoperte geografiche, motivata in gran parte dalla domanda di pepe. Alla metà del Quattrocento i portoghesi si avventurarono verso sud fino al Capo Verde, sulla costa nordoccidentale dell’Africa. Nel 1483 il navigatore portoghese Diago Cão si spinse più a sud sino alla foce del fiume Congo. Solo quattro anni dopo un altro navigatore portoghese, Bartholomeu Dias, doppiò il capo di Buona Speranza aprendo una nuova via al connazionale Vasco da Gama, che giunse in India nel 1498. I sovrani indiani di Calicut, un principato sulla costa sudoccidentale dell’India, volevano oro in cambio del pepe, cosa che non era esattamente quel che avevano in mente i portoghesi quando avevano pensato di procurarsi il dominio mondiale del commercio del pepe. Così, cinque anni dopo, Vasco da Gama, tornato con soldati e armi da fuoco, sconfisse Calicut e assicurò al Portogallo il controllo del commercio del pepe. Questo fu l’inizio dell’impero portoghese, che infine si estese a est dall’Africa fino all’India e all’Indonesia e a ovest fino al Brasile. Anche la Spagna aveva rivolto le sue mire al commercio delle spezie, e in

particolare del pepe. Nel 1492 il navigatore genovese Cristoforo Colombo, confidando nell’esistenza di una via alternativa, forse più breve, per raggiungere il confine orientale dell’India navigando verso occidente, convinse i regnanti di Spagna Ferdinando il Cattolico e Isabella di Castiglia a finanziare un viaggio di scoperta di cui gli fu affidata la direzione. Le idee di Colombo erano corrette solo in parte. Si può giungere in India anche navigando verso occidente, ma non è la via più breve. I continenti allora ignoti del Nord- e Sudamerica, come pure l’oceano Pacifico, sono ostacoli considerevoli. Che cosa c’è nel pepe che possa spiegare la grandezza conseguita dalla città di Venezia, l’inizio dell’epoca delle grandi scoperte geografiche e la spedizione di Colombo che condusse alla scoperta del Nuovo Mondo? L’ingrediente attivo sia del pepe nero sia del pepe bianco è la piperina, composto che ha formula chimica C17H19O3N e la struttura

Piperina

La sensazione di grande calore che proviamo quando ingeriamo piperina non è in realtà un sapore, bensì una risposta dei nostri nervi del dolore. Non si sa esattamente in che modo funzioni questo meccanismo; una congettura plausibile è che esso dipenda dalla forma della molecola di piperina, la quale ha la capacità di fissarsi a una proteina sui recettori algorecettivi nella nostra bocca e in altre parti del corpo. In conseguenza di ciò la proteina cambia forma e invia un segnale lungo il nervo del dolore che arriva fino al cervello e gli dice: «Ahi, come brucia!» La storia della molecola della piperina e dei viaggi di Cristoforo Colombo non si conclude col fallimento del tentativo del navigatore ligure di trovare una rotta occidentale per l’India. Quando, nell’ottobre 1492, Colombo riuscì

finalmente a mettere piede a terra nel Nuovo Mondo, suppose, o forse sperò, di essere giunto in una parte dell’India. Nonostante l’assenza di grandi città e dei ricchi regni che aveva sperato di trovare in India, chiamò la terra da lui scoperta Indie occidentali, e indiani gli esseri umani che vi abitavano. Nel corso del suo secondo viaggio nelle Indie occidentali, Colombo trovò ad Haiti un’altra spezia piccante. Benché questa nuova spezia, il peperoncino rosso, fosse del tutto diversa dal pepe che conosceva, tuttavia la portò in Spagna. La nuova spezia avrebbe poi viaggiato verso est con i portoghesi intorno all’Africa fino all’India e oltre. In meno di cinquant’anni il peperoncino rosso si diffuse in tutto il mondo e fu rapidamente integrato nelle cucine locali, specialmente in quelle dell’Africa e dell’Asia orientale e meridionale. Per i molti milioni di persone che amano il suo sapore piccante, il peperoncino rosso è senza dubbio uno dei benefìci più importanti e duraturi dei viaggi di Colombo.

Chimica piccante Diversamente dalla singola specie che fornisce i vari tipi di granelli di pepe, il chili, o peperoncino rosso, è prodotto da varie specie del genere Capsicum. Nativo dell’America tropicale e probabilmente originario del Messico, è usato dall’uomo da almeno novemila anni. All’interno di ogni singola specie c’è una grandissima variazione. Il Capsicum annuum, per esempio, è una specie annuale che comprende peperoni dolci e piccanti, pimento o pepe della Giamaica, paprika, pepe rosso o pepe di Caienna e molti altri tipi di spezie piccanti. Il peperone rabbioso è prodotto da una pianta legnosa perenne, il Capsicum frutescens. Il chili si presenta in realtà in molti colori, dimensioni e forme, ma in tutte queste varietà il composto chimico responsabile del sapore pungente e spesso molto caldo è la capsaicina, che ha formula chimica C18H27O3N e una struttura piuttosto simile a quella della piperina:

Capsaicina

Piperina

Entrambe le strutture hanno un atomo di azoto (N) accanto a un atomo di carbonio (C), unito con doppio legame a un atomo di ossigeno (O), ed entrambe hanno un singolo anello aromatico a cui è unita una catena di atomi di carbonio. Il fatto che entrambe le molecole siano urenti forse non sorprende se la sensazione di bruciore deriva dalla forma della molecola. Una terza molecola piccante che si concilia anch’essa con questa teoria della forma molecolare è lo zingerone (C11H14O), che si trova nel rizoma della pianta dello zenzero, Zingiber officinale. Pur essendo più piccola delle molecole della piperina e della capsaicina (e, secondo la maggior parte delle persone, meno piccante), anche la molecola di zingerone ha un anello aromatico con gli stessi gruppi HO e H3C-O attaccati come nella capsaicina, ma senza l’atomo di azoto.

Capsaicina

Zingerone

Piperina

Perché mangiamo tali molecole che ci causano dolore? Forse per qualche buona ragione chimica. Capsaicina, piperina e zingerone accrescono la secrezione di saliva nella nostra bocca, facilitando la digestione. Si pensa anche che stimolino il movimento del cibo nell’intestino. Diversamente dalle papille gustative, che nei mammiferi sono soprattutto sulla lingua, i nervi del dolore, in grado di scoprire i messaggi chimici di queste molecole, si trovano anche in altre parti del corpo umano. Vi siete mai sfregati inavvertitamente gli occhi mentre sminuzzate del peperoncino? I lavoratori che raccolgono il peperoncino piccante devono mettere guanti di gomma e proteggersi gli occhi

dall’olio di chili, che contiene molecole di capsaicina. Il calore bruciante che sentiamo mangiando cibi contenenti pepe è direttamente proporzionale alla quantità di pepe in essi contenuta. Il calore trasmesso dal peperoncino può essere invece ingannevole. La sensazione di bruciore che esso ci comunica è connessa al colore, grandezza e regione d’origine del peperoncino. Nessuno di questi dati è attendibile di per sé. Mentre i peperoncini sono spesso piccanti, i peperoni grossi non sempre sono dolci. La geografia non fornisce sempre necessariamente indicazioni utili, anche se si dice che i peperoncini più piccanti del mondo crescano in alcune regioni dell’Africa orientale. Il bruciore generalmente aumenta quando i peperoncini vengono essiccati. Dopo avere mangiato un cibo molto piccante, noi sperimentiamo spesso un senso di soddisfazione o di appagamento; queste sensazioni potrebbero essere dovute alle endorfine, sostanze oppioidi simili alla morfina che vengono prodotte nel cervello come risposta naturale del corpo al dolore. Questo fenomeno può spiegare quella sorta di dipendenza che alcune persone sviluppano da cibi molto piccanti. Quanto più piccante è il chili tanto maggiore è il dolore, e quindi tanto maggiori sono le quantità, per quanto sempre infinitesime, di endorfine prodotte e tanto maggiore è il piacere. A parte la paprika, che divenne d’uso comune in cibi ungheresi come il goulasch, il peperoncino rosso non invase la cucina europea come fece in quella africana e asiatica. Per gli europei la molecola piccante preferita rimase la piperina, presente nel pepe. Il dominio portoghese di Calicut e quindi il controllo del commercio del pepe continuarono per circa 150 anni, ma all’inizio del Seicento subentrarono in tale dominio gli olandesi e gli inglesi. Amsterdam e Londra divennero i principali empori per il commercio del pepe in Europa. La East India Company – o, per citarla col nome formale con cui fu fondata nel 1600, il Governor and Company of Merchants of London Trading into the East Indies – fu creata per assicurare un ruolo più attivo per l’Inghilterra nel commercio delle spezie delle Indie orientali. I rischi associati al finanziamento del viaggio in India di una nave che tornasse con un carico di pepe erano elevati, cosicché all’inizio i mercanti cercavano di finanziare solo «quote» di un viaggio, limitando in tal modo la potenziale perdita individuale. Quest’uso si trasformò infine nell’acquisto di quote della società stessa, e potrebbe essere quindi considerato responsabile dell’inizio del

capitalismo. Forse è solo una piccola forzatura della verità attribuire alla piperina – che oggi dev’essere considerata senza dubbio un composto chimico relativamente insignificante – l’inizio dell’attuale complessa struttura economica dei mercati azionari mondiali.

Il miraggio delle spezie Storicamente il pepe non fu l’unica spezia di grande valore. Anche la noce moscata e i chiodi di garofano erano molto apprezzati, ed erano molto più rari del pepe. Tanto la prima quanto i secondi erano originari delle favolose Isole delle Spezie o Molucche, che formano oggi la provincia indonesiana di Maluku. L’albero della noce moscata, la Myristica fragrans, cresceva solo sulle isole Banda, un gruppo di sette isole nel mar di Banda, quasi 2600 km a est di Giacarta. Queste isole sono molto piccole: la più grande è lunga meno di 10 km e la più piccola è lunga solo pochi chilometri. A nord delle Molucche si trovano le isole ugualmente piccole di Ternate e Tidore, gli unici luoghi al mondo in cui si poteva trovare l’Eugenia aromatica, l’albero dei chiodi di garofano. Per secoli gli abitanti di questi due gruppi insulari avevano raccolto i prodotti aromatici dei loro alberi, vendendo spezie ai mercanti arabi, malesi e cinesi che le compravano per inviarle in Asia e in Europa. Le vie commerciali erano ben stabilite, e sia che le spezie toccassero nel loro viaggio l’India, l’Arabia, la Persia o l’Egitto, passavano di mano almeno una decina di volte prima di arrivare ai consumatori nell’Europa occidentale. Poiché ogni transazione poteva raddoppiarne il prezzo, non sorprende che il governatore delle Indie portoghesi, Afonso de Albuquerque, volgesse le sue mire ancora più lontano, sbarcando prima a Ceylon e poi conquistando Malacca, sulla penisola malese, che era allora il centro del commercio delle spezie delle Indie orientali. Nel 1512 Albuquerque raggiunse i luoghi di produzione della noce moscata e dei chiodi di garofano, stabilì un monopolio portoghese trattando direttamente con le Molucche e ben presto soppiantò i mercanti veneziani. Anche la Spagna ambiva al commercio delle spezie. Nel 1518 il navigatore portoghese Ferdinando Magellano (Fernão de Magalhães), il cui

progetto di una spedizione era stato rifiutato dal proprio Paese, convinse i regnanti di Spagna che non solo sarebbe stato possibile raggiungere le Isole delle Spezie navigando verso occidente, ma che quella rotta sarebbe stata più breve. La Spagna aveva buone ragioni per sostenere tale spedizione. Una nuova rotta verso le Indie orientali avrebbe permesso alle navi spagnole di evitare i porti portoghesi e di raggiungere le Indie senza passare per l’Africa e per l’India. Inoltre un precedente decreto del papa Alessandro VI Borgia aveva concesso ai portoghesi tutte le terre non cristiane a est di una linea nord-sud immaginaria posta un centinaio di leghe (quasi 500 km) a ovest delle isole di Capo Verde, mentre venivano accordate alla Spagna tutte le terre non cristiane a ovest di tale linea. Il Vaticano aveva trascurato o ignorato la sfericità della Terra, un fatto accettato da molti studiosi e navigatori del tempo. Perciò la navigazione verso ponente poteva legittimare una rivendicazione della Spagna sulle Isole delle Spezie. Magellano convinse i reali di Spagna di essere a conoscenza di un passaggio attraverso il continente americano, cosa di cui riuscì a convincere anche se stesso. Partì dalla Spagna nel settembre 1519 facendo rotta verso sud-ovest, per attraversare l’Atlantico e poi seguire verso sud la costa degli attuali stati del Brasile, Uruguay e Argentina. Quando l’estuario – largo ben 225 km – del Río de la Plata, che conduce alla città di Buenos Aires, si rivelò per quello che effettivamente era, appunto solo un estuario, lo sconforto e la delusione di Magellano devono essere stati enormi. Egli continuò però a costeggiare il continente verso sud, confidando che un passaggio dall’Atlantico al Pacifico potesse essere vicino. Il viaggio per le sue cinque navi, con 265 uomini a bordo, era però destinato a peggiorare. Quanto più a sud si spingeva la spedizione, tanto più si accorciavano i giorni e più costanti diventavano le tempeste. La linea di costa era pericolosa, con forti moti di marea, condizioni meteorologiche sempre più avverse, ondate immense, grandinate, nevischio e ghiaccio, e alle sofferenze del viaggio si aggiungeva la minaccia molto reale della caduta di qualche marinaio dal sartiame ghiacciato. Alla latitudine di 50 gradi sud, non avendo trovato alcun passaggio e avendo già represso un ammutinamento, Magellano decise di attendere la fine dell’inverno australe prima di continuare il viaggio, per scoprire e infine navigare le acque insidiose che oggi portano il suo nome. Nell’ottobre 1520 quattro delle sue cinque navi riuscirono ad attraversare lo stretto di Magellano. Mentre le riserve scarseggiavano, gli ufficiali

sostennero che si doveva tornare indietro. Ma il miraggio dei chiodi di garofano e della noce moscata, nonché della gloria e della ricchezza che si sarebbero accompagnate all’espropriazione dei portoghesi dal commercio delle spezie delle Indie orientali, indusse Magellano a proseguire la navigazione verso ovest con tre navi. Il viaggio di quasi ventimila chilometri attraverso lo sterminato oceano Pacifico – un viaggio senza carte nautiche e con solo strumenti nautici rudimentali, poco cibo e riserve d’acqua quasi esaurite, in un oceano molto più grande di quanto chiunque avesse immaginato – fu peggiore del passaggio attorno alla punta australe del Sudamerica. L’attracco, il 6 marzo 1521, a Guam, nelle isole Marianne, permise all’equipaggio di evitare una morte certa per fame o in conseguenza dello scorbuto. Dieci giorni dopo Magellano fece il suo ultimo sbarco, sulla piccola isola di Mactan, nelle Filippine. Ucciso in uno scontro con i nativi, non raggiunse mai le Molucche, anche se le sue navi e quanto restava del suo equipaggio ripresero il mare per Ternate, la patria dei chiodi di garofano. Tre anni dopo avere lasciato la Spagna, un equipaggio ridotto a diciotto superstiti continuò la navigazione verso Siviglia con ventisei tonnellate di spezie nella stiva della Victoria, l’unica nave restante, e in condizioni tutt’altro che ottimali, della piccola armada di Magellano.

Le molecole aromatiche dei chiodi di garofano e della noce moscata Benché chiodi di garofano e noce moscata siano prodotti da piante appartenenti a famiglie diverse e siano originari di remoti gruppi insulari separati fra loro da centinaia di miglia di mare aperto, il loro odore molto diverso è dovuto a molecole estremamente simili. Il principale componente dell’olio di garofano è l’eugenolo; il composto odoroso dell’olio di noce moscata è l’isoeugenolo. Queste due molecole aromatiche – sia in quanto odorose sia nel senso della struttura chimica – differiscono solo nella posizione di un doppio legame:

Eugenolo (estratto da chiodi di garofano)

Isoeugenolo (da noce moscata)

Le frecce indicano l’unica differenza in questi due composti: la posizione del doppio legame.

Sono chiare anche le somiglianze fra le strutture di questi due composti e quella dello zingerone (estratto dallo zenzero). Anche l’odore dello zenzero è del tutto diverso sia da quello dei chiodi di garofano sia da quello della noce moscata.

Zingerone

Le piante non producono certamente queste molecole dall’odore intenso a nostro beneficio. Non potendosi sottrarre con la fuga agli animali che le brucano, agli insetti che ne succhiano la linfa o ne mangiano le foglie, o a infestazioni fungine, si proteggono con la guerra chimica, servendosi di molecole come l’eugenolo e l’isoeugenolo, come pure della piperina, della capsaicina e dello zingerone. Queste sostanze sono molecole molto potenti che svolgono la funzione di antiparassitari naturali. L’uomo può consumare tali composti, sia pure in quantità modeste, grazie all’efficienza del processo di detossificazione che si svolge nel nostro fegato. Già nel 200 a.C. circa, al tempo della dinastia Han, i chiodi di garofano venivano usati per profumare

l’alito dei cortigiani alla corte imperiale cinese. L’olio di garofano era apprezzato come potente antisettico e come rimedio per il mal di denti. A volte è ancora usato come anestetico locale dai dentisti. La noce moscata è una di due spezie diverse prodotte dall’albero Myristica fragrans: l’altra è il macis. La noce moscata viene ottenuta macinando il seme scuro lucido, o nocciolo, del frutto, che assomiglia all’albicocca, mentre il macis viene ottenuto dalla polpa rossastra, o arillo, che circonda il seme. La noce moscata viene usata da moltissimo tempo: in Cina come farmaco, per curare reumatismi e mal di stomaco, e nell’Asia sudorientale per curare dissenteria e coliche. In Europa, oltre a essere considerata un afrodisiaco e un sonnifero, veniva portata in un piccolo sacchetto legato intorno al collo come protezione contro la Morte Nera, che flagellò l’Europa a intervalli più o meno regolari dopo la prima epidemia registrata del 1347. Benché anche epidemie di altre malattie (tifo, vaiolo) visitassero periodicamente varie parti dell’Europa, la peste era quella più temuta. Essa si presentava in tre forme. La peste bubbonica si manifestava con bubboni o tumefazioni dolorose dei linfonodi all’inguine e sotto le ascelle; le emorragie interne e il deterioramento neurologico erano fatali nel 50-60 per cento dei casi. Meno frequente ma più virulenta era la peste polmonare. Quanto alla peste setticemica, nella quale il corpo è invaso da grandi quantità di batteri, era sempre fatale, spesso in meno di un giorno.

Chiodi di garofano messi a essiccare lungo la strada nel Sulawesi settentrionale, Indonesia. (Foto di Penny Le Couteur)

È possibilissimo che le molecole di isoeugenolo presenti nella noce moscata fresca potessero agire come deterrente nei confronti delle pulci portatrici dei batteri della peste bubbonica. Anche altre molecole contenute nella noce moscata potrebbero avere proprietà insetticide. Tanto nella noce moscata quanto nel macis sono presenti grandi quantità di altre due molecole aromatiche, la miristicina e la elemicina. Le strutture di questi due composti sono molto simili fra loro e alle molecole che abbiamo già visto nella noce moscata, nei chiodi di garofano e nel pepe.

Miristicina

Elemicina

Oltre a essere utilizzata come talismano contro la peste, la noce moscata era considerata la «spezia della follia». Le sue proprietà allucinogene – derivanti probabilmente dalle molecole miristicina ed elemicina – erano note da secoli. Una relazione del 1576 parlava di «una signora inglese gravida che, dopo avere mangiato dieci o dodici noci moscate, fu colta da un’ebbrezza delirante». La correttezza di questo racconto è dubbia, specialmente in considerazione del grande numero di noci moscate consumate; le relazioni attuali ci dicono infatti che l’ingestione di una sola noce moscata provoca nausea, abbondante sudorazione, palpitazioni cardiache e pressione sanguigna molto alta, unitamente a varie giornate di allucinazioni. Questa è un po’ di più di un’ebbrezza delirante; al consumo di molto meno di dodici noci moscate sono stati attribuiti anche casi di morte. La miristicina in grande quantità può causare gravi danni al fegato. Oltre alla noce moscata e al macis, contengono miristicina ed elemicina, anche se solo in tracce, carote, sedano, aneto, prezzemolo e pepe nero. In generale noi non consumiamo le grandi quantità di queste sostanze necessarie perché si manifestino effetti psichedelici. Inoltre non ci sono prove che miristicina ed elemicina siano sostanze psicoattive di per sé. Può darsi che esse vengano convertite, per mezzo di un qualche meccanismo ancora ignoto nel nostro corpo, in tracce di composti analoghi alle amfetamine. Le ragioni chimiche di questo scenario dipendono dal fatto che un’altra molecola, il safrolo, con una struttura che differisce da quella della miristicina solo per la mancanza di un gruppo OCH3, è il materiale di partenza per la produzione, illegale, del composto il cui nome chimico per esteso è 3,4-metilendiossi-N-metilamfetamina, abbreviato in MDMA, nota anche come ecstasy.

Miristicina

Safrolo. La freccia indica la posizione dell’OCH3 mancante.

La trasformazione del safrolo in ecstasy può essere rappresentata così:

Safrolo

3,4-metilendiossi-N-metilamfetamina o MDMA (ecstasy)

Il safrolo proviene dall’albero di sassofrasso. Se ne possono trovare tracce anche nel cacao, nel pepe nero, nel macis, nella noce moscata e nello zenzero selvatico. L’olio di sassofrasso, estratto dalla radice dell’albero, è composto per l’85 per cento circa di safrolo e una volta era usato come principale agente aromatizzante nella root beer, una bevanda frizzante ottenuta da estratti di radici ed erbe. Oggi il safrolo è considerato una sostanza cancerogena e, insieme all’olio di sassofrasso, è stato proibito come additivo alimentare.

La noce moscata e New York Il commercio dei chiodi di garofano fu dominato dai portoghesi per la maggior parte del Cinquecento, ma essi non riuscirono mai ad assicurarsene un monopolio totale. Stipularono accordi sul commercio di spezie e sulla costruzione di forti con i sultani delle isole di Ternate e Tidore, ma questi accordi si rivelarono temporanei. Gli abitanti delle Molucche continuarono a

vendere chiodi di garofano ai loro tradizionali partner commerciali giavanesi e malesi. Nel secolo seguente assunsero il controllo del commercio delle spezie gli olandesi – che avevano più navi, più uomini, cannoni migliori e una politica coloniale molto più dura – principalmente attraverso gli auspici della potentissima Compagnia olandese delle Indie orientali, la Vereenigde Oostindische Compagnie, o VOC, fondata nel 1602. Non fu facile realizzare o sostenere tale monopolio. Soltanto nel 1667 la VOC riuscì a ottenere un controllo totale sulle Molucche, cacciando spagnoli e portoghesi dai loro pochi avamposti restanti e schiacciando spietatamente l’opposizione della popolazione locale. Per consolidare appieno la loro posizione, gli olandesi avevano bisogno di dominare il commercio della noce moscata nelle isole Banda. Un trattato del 1602 avrebbe dovuto dare alla VOC diritti esclusivi di comprare tutta la noce moscata prodotta sulle isole, ma, benché il trattato fosse stato firmato dai capi villaggio, il concetto di esclusività non fu accettato (o forse non fu capito) dalle popolazioni locali, che continuarono a vendere i loro prodotti ad altri mercanti ai prezzi più alti che venivano loro offerti: un concetto che capivano bene. La reazione degli olandesi fu spietata. Nell’arcipelago di Banda apparvero una flotta e centinaia di uomini, e furono costruiti vari grandi forti, il tutto in vista del controllo del commercio della noce moscata. Dopo una serie di attacchi, contrattacchi, massacri, rinnovi di contratti e altre violazioni, gli olandesi agirono in modo ancora più deciso. Furono distrutte piantagioni di alberi di noce moscata tranne che intorno ai luoghi in cui erano stati costruiti i forti olandesi. Villaggi di bandanesi furono dati completamente alle fiamme, i capi villaggio furono giustiziati e la popolazione restante fu ridotta in schiavitù sotto i coloni olandesi, introdotti nell’arcipelago per esercitare una supervisione sulla coltivazione della noce moscata. L’unica minaccia restante al totale monopolio della VOC era la persistente presenza degli inglesi a Run, la più remota delle isole Banda, dove vari anni prima i capi villaggio avevano firmato un trattato commerciale con gli inglesi. Questo piccolo atollo, in cui gli alberi di noce moscata erano così numerosi da crescere anche abbarbicati sulle scogliere, divenne la scena di molti scontri cruenti. Dopo un assedio brutale, un’invasione olandese e un’ulteriore distruzione di piantagioni di noce moscata, col trattato di Breda

del 1667 gli inglesi rinunciarono a qualsiasi rivendicazione sull’isola di Run in cambio di una dichiarazione formale di rinuncia degli olandesi a ogni loro diritto sull’isola di Manhattan: Nieuw Amsterdam divenne New York e gli olandesi ebbero in cambio la noce moscata. Nonostante tutti i loro sforzi, però, gli olandesi non riuscirono a conservare a lungo il monopolio del commercio di questa spezia e dei chiodi di garofano. Nel 1770 un diplomatico francese riuscì a trafugare dalle Molucche delle pianticelle di Eugenia caryophyllata – la pianta da cui si ottengono i chiodi di garofano – e a portarle nella colonia francese di Mauritius. Di qui la pianta si diffuse poi su tutta la costa dell’Africa orientale e specialmente a Zanzibar, dove i chiodi di garofano divennero rapidamente la principale esportazione. Quanto alla noce moscata, si rivelò notoriamente difficile coltivarla fuori della sua patria originaria sulle isole Banda. Questo albero richiede un suolo ricco, umido e ben drenato e condizioni calde e umide, in aree protette da un’esposizione diretta al sole e da forti venti. Nonostante le difficoltà incontrate dai concorrenti degli olandesi a coltivare la noce moscata altrove, gli olandesi presero la precauzione di immergere le noci intere, prima di esportarle, in latte di calce (idrossido di calcio o calce spenta) per impedire che germogliassero. Infine i britannici riuscirono a introdurre la noce moscata a Singapore e nelle Indie occidentali. L’isola caraibica di Grenada divenne nota come «l’isola della noce moscata» ed è oggi il maggior produttore mondiale di questa spezia.

Fu l’avvento della refrigerazione a determinare infine il declino del grande commercio delle spezie a livello mondiale. Essendo venuta a mancare la necessità del pepe, dei chiodi di garofano e della noce moscata come conservanti, crollò l’immensa domanda della piperina, dell’eugenolo, dell’isoeugenolo e delle altre molecole aromatiche di queste spezie un tempo esotiche. Oggi il pepe e altre spezie crescono ancora in India, ma non sono più fra le esportazioni principali. Le isole di Ternate e Tidore e l’arcipelago di Banda, che oggi fanno parte dell’Indonesia, sono più lontane che mai. Non più frequentate dai grandi velieri che venivano a caricarvi chiodi di garofano e noce moscata, queste piccole isole sonnecchiano pigre sotto il sole cocente, visitate solo da occasionali turisti che esplorano i vecchi forti olandesi in

rovina o si immergono nelle intatte scogliere coralline. Il miraggio delle spezie è passato. Noi le gustiamo ancora per il sapore ricco e caldo che queste molecole impartiscono ai nostri cibi, ma raramente pensiamo alle fortune che hanno creato, ai conflitti che hanno provocato e alle fantastiche imprese di esplorazione che hanno ispirato.

2 L’ACIDO ASCORBICO

L’epoca delle grandi scoperte geografiche prese impulso dalle molecole del commercio delle spezie, ma fu la mancanza di un’altra molecola, del tutto diversa, che rischiò di mettervi fine. Più del 90 per cento degli uomini di Magellano non fece ritorno in patria al termine della sua circumnavigazione del globo, iniziata nel 1519 e terminata nel 1522: gran parte dei marinai perirono a causa dello scorbuto, una malattia devastante causata dalla mancanza della molecola dell’acido ascorbico, la vitamina C della dieta (lo stesso Magellano morì nel 1521 in uno scontro con gli abitanti di un’isola delle Filippine). Stanchezza e debolezza, gonfiore delle braccia e delle gambe, rammollimento delle gengive, frequenza eccessiva degli ematomi, emorragie dal naso e dalla bocca, alito fetido, diarrea, dolori muscolari, perdita dei denti, problemi ai polmoni e ai reni: l’elenco dei sintomi dello scorbuto è lungo e orribile. La morte è in generale la conseguenza di un’infezione acuta come la polmonite o di una qualche altra malattia respiratoria oppure, anche in persone giovani, di infarto cardiaco. Un sintomo, la depressione, si manifesta molto presto, ma non è chiaro se sia un effetto primario della malattia o una reazione agli altri sintomi. Dopotutto, una persona che soffra di stanchezza persistente e di piaghe che non si risanano, di gengive doloranti e sanguinanti, di alito fetido e di diarrea, e che si rende conto che il peggio deve ancora venire, non ha forse buone ragioni per essere depressa? Lo scorbuto è una malattia antica. Taluni cambiamenti nella struttura delle ossa osservati in resti umani neolitici sembrano essere compatibili con lo scorbuto, e anche alcuni geroglifici dell’antico Egitto sono stati interpretati come riferimenti a questa malattia. Si dice che la parola scorbuto sia derivata dal norreno, la lingua dei guerrieri e navigatori vichinghi che, dall’inizio del IX secolo, cominciarono a fare scorrerie sulle coste europee dell’Atlantico a

partire dalla loro patria in Scandinavia. La mancanza di frutta e verdura fresca, ricca di vitamine, doveva essere un’evenienza comune a bordo delle navi ma anche nelle comunità artiche durante l’inverno. Nel loro viaggio in America passando per la Groenlandia, i vichinghi avrebbero fatto uso della coclearia (Cochlearia officinalis), una crocifera nordica ricca di vitamina C. Le prime vere descrizioni di una malattia identificabile con una certa sicurezza con lo scorbuto risalgono alle crociate, nel XIII secolo.

Lo scorbuto in mare Nel Tre- e Quattrocento, quando lo sviluppo di vele più efficienti e di navi ben equipaggiate rese possibili viaggi più lunghi, lo scorbuto divenne abbastanza comune in mare. Le galere, spinte dai remi, come quelle usate dai greci e dai romani, e le piccole imbarcazioni a vela dei mercanti arabi, navigavano per lo più a poca distanza dalla costa. Queste navi non erano di solito in grado di resistere a un moto ondoso violento come quello che si poteva trovare in pieno oceano: perciò ben di rado si allontanavano molto dalla costa e potevano quindi rinnovare le loro provviste a distanza di pochi giorni o di poche settimane. La regolarità dell’accesso a cibi freschi permetteva di evitare le gravi conseguenze dello scorbuto. Nel Quattrocento, però, i lunghi viaggi oceanici con grandi navi annunciarono non solo l’epoca delle grandi scoperte geografiche, ma anche la dipendenza da cibo conservato. Navi più grandi dovevano trasportare carichi e armi, un equipaggio più numeroso per gestire sartiame e vele più complicati, e cibo e acqua per sopravvivere in mare anche per mesi. Un aumento nel numero dei ponti e degli uomini, e nella quantità delle provviste, si tradusse inevitabilmente per l’equipaggio in condizioni di maggiore affollamento, minore ventilazione e conseguente aumento delle malattie infettive e dei disturbi respiratori. Erano diffusi la consunzione (ossia la tubercolosi) e una forma di diarrea perniciosa con evacuazione di sangue, come pure, senza dubbio, pidocchi del corpo e dei capelli, la scabbia e altre malattie contagiose della pelle. Il cibo consumato comunemente dai naviganti non poteva certo migliorarne le condizioni di salute. La dieta in mare era dettata da due fattori

principali. Innanzitutto a bordo delle navi di legno era estremamente difficile conservare qualunque derrata asciutta ed esente da muffe. La chiglia di legno assorbiva acqua, poiché l’unico materiale impermeabile a disposizione era la pece, una resina scura, vischiosa – ottenuta come prodotto secondario della produzione del carbone di legna –, la quale veniva applicata all’esterno della chiglia. L’interno di questa, specialmente dove c’era poca ventilazione, era estremamente umido. Molte relazioni su lunghi viaggi per mare descrivono un’umidità incessante, con muffe che crescevano sugli indumenti, sulle scarpe e le cinture di pelle, su coperte e materassi e sui libri. La dieta quotidiana dei marinai era formata da carne bovina o suina salata e gallette: un miscuglio di farina e acqua, senza sale, cotto al forno fino a diventare secco e duro, che costituiva il pane. Le gallette avevano la caratteristica desiderabile di essere scarsamente attaccabili dalle muffe. Venivano cotte fino a un grado di durezza che le rendeva commestibili per decenni, ma erano molto difficili da mordere e masticare, specialmente per chi aveva le gengive infiammate da un principio di scorbuto. Di norma le gallette a bordo erano infestate da punteruoli o curculionidi, circostanza che veniva vista con favore dai marinai, in quanto le perforazioni prodotte nelle gallette dalle larve di questi insetti le rendevano più facili da rompere e da masticare. Il secondo fattore che controllava la dieta sulle navi di legno era il timore di incendi a bordo. La costruzione in legno e il grande impiego di pece, che è altamente combustibile, imponevano di usare sempre la massima diligenza al fine di evitare incendi in mare. Perciò l’unico luogo in cui era permesso accendere il fuoco a bordo era la cucina, e solo in condizioni di relativa bonaccia. Al primo segno di cattivo tempo si spegneva ogni fuoco per non riaccenderlo fino a quando la tempesta non fosse passata. Spesso non si poteva cucinare per giorni e giorni. In tali casi la carne non poteva essere fatta sobbollire in acqua per le lunghe ore necessarie a ridurne la salinità, né le gallette potevano essere rese almeno un po’ più appetibili immergendole in uno stufato o in un brodo caldo. All’inizio di un viaggio si caricavano a bordo le provviste: burro, formaggio, aceto, pane, piselli essiccati, birra e rum. Il burro diventava presto rancido, il pane si copriva di muffa, i piselli secchi venivano infestati da curculionidi, i formaggi diventavano duri e la birra acida. Nessuno di questi cibi forniva vitamina C, cosicché già sei settimane dopo la partenza erano evidenti i primi segni dello scorbuto. C’è quindi da stupirsi se le marine di

vari Paesi europei dovevano far ricorso all’arruolamento forzato per assicurare un equipaggio alle loro navi? I giornali di bordo delle navi che per prime affrontarono lunghi viaggi ci informano in modo eloquente del pesante tributo pagato allo scorbuto in termini di vite umane e di cattive condizioni di salute. Quando l’esploratore portoghese Vasco da Gama doppiò il capo di Buona Speranza nel 1497, un centinaio dei suoi 160 uomini erano già morti di scorbuto. Esistono relazioni della scoperta di navi alla deriva in mare con l’intero equipaggio morto a causa di questa malattia. Si stima che per secoli lo scorbuto sia stato responsabile di più decessi in mare di tutte le altre cause prese insieme: più della somma complessiva delle battaglie navali, delle azioni di pirateria, dei naufragi e di altre malattie. Sorprendentemente, in quegli anni si conoscevano profilassi e rimedi per lo scorbuto, che però venivano in gran parte ignorati. Già nel V secolo i cinesi coltivavano zenzero in vasi a bordo delle loro navi. L’idea che frutta e verdura fresche potessero alleviare i sintomi dello scorbuto esisteva senza dubbio anche in altri Paesi del Sud-est asiatico in contatto con le navi mercantili cinesi. Essa dovrebbe essere stata trasmessa agli olandesi, che la riferirono poi ad altri europei; si sa infatti che, nel 1601, la prima flotta della Compagnia inglese delle Indie orientali raccolse arance e limoni nel Madagascar nel corso del viaggio verso est. Questa piccola squadra di quattro navi era al comando del capitano James Lancaster, che trasportò con sé sulla propria nave ammiraglia, la Dragon, succo di limone in bottiglia. A chiunque presentasse sintomi di scorbuto venivano somministrati ogni mattina tre cucchiaini da tè di succo di limone. All’arrivo al capo di Buona Speranza nessuno degli uomini a bordo della Dragon soffriva di scorbuto, mentre il tributo pagato sulle altre tre navi fu considerevole. Nonostante le istruzioni e l’esempio di Lancaster, quasi un quarto dell’equipaggio totale della sua spedizione morì di scorbuto, e non uno di questi decessi avvenne sulla nave ammiraglia. Circa sessantacinque anni prima, l’equipaggio della seconda spedizione dell’esploratore francese Jacques Cartier a Terranova e nella provincia di Quebec fu colpito da una grave epidemia di scorbuto che costò varie vite umane. Fu tentata, con risultati in apparenza miracolosi, un’infusione di aghi di abete rosso, suggerita dagli indiani locali. Le fonti dicono che i sintomi si attenuarono quasi da un giorno all’altro e che la malattia scomparve

rapidamente. Nel 1593 l’ammiraglio della marina inglese Sir Richard Hawkins affermò che, in base alla sua esperienza, almeno diecimila uomini erano morti in mare di scorbuto, ma che una terapia a base di succo di limone avrebbe fornito risultati immediati. Furono pubblicate addirittura relazioni su trattamenti efficaci dello scorbuto. Nel 1617 John Woodall descrisse, nel libro The Surgeon’s Mate, l’uso del succo di limone sia nella terapia sia nella prevenzione. Ottant’anni dopo il medico William Cockburn, in Sea Diseases, or the Treatise of their Nature, Cause and Cure, raccomandò frutta e verdura fresche. Altri suggerimenti, come quelli di usare aceto, acqua salata, cannella e siero di latte, furono del tutto inutili e potrebbero avere contribuito a creare confusione. Solo alla metà del secolo seguente fu, infine, dimostrata l’efficacia del succo di limone nei primi studi clinici controllati dello scorbuto. Benché il numero delle persone studiate fosse molto piccolo, le conclusioni furono chiare. Nel 1747 James Lind, chirurgo navale imbarcato sulla Salisbury, scelse per il suo esperimento dodici uomini dell’equipaggio affetti dallo scorbuto. Egli scelse uomini con sintomi il più possibile uguali fra loro. Somministrò loro la stessa dieta: non la solita carne salata e galletta, che questi pazienti avrebbero avuto grande difficoltà a masticare, ma pappa d’avena dolcificata, brodo di montone, biscotti bolliti, orzo, sago, riso, uva passa, uva sultanina e vino. Lind aggiunse a questo regime a base di carboidrati vari supplementi. Due marinai ricevettero ogni giorno un quarto di sidro ciascuno. Altri due ebbero invece aceto, e un altro paio, più sfortunati, ricevettero elisir di vetriolo (o acido solforico) diluito. Altri due dovettero bere mezza pinta (un quarto di litro) di acqua di mare al giorno, e ad altri due fu somministrato un miscuglio di noce moscata, aglio, semi di senape, gomma di mirra, cremore di tartaro e infuso d’orzo. Ai fortunati ultimi due soggetti restanti furono forniti ogni giorno due arance e un limone ciascuno. I risultati furono immediati e ben visibili, e furono gli stessi che ci attenderemmo con le nostre conoscenze attuali. In sei giorni gli uomini che ricevettero gli agrumi furono pronti a riprendere servizio. Si interruppe, per fortuna, il trattamento degli altri dieci marinai che erano stati curati con una terapia a base di acqua di mare, noce moscata o acido solforico e si passò a trattarli con limoni e arance. I risultati ottenuti da Lind furono pubblicati in A

Treatise of Scurvy, ma sarebbero passati altri quarant’anni prima che la marina britannica cominciasse la distribuzione obbligatoria ai marinai di succo di limone. Se si conosceva un trattamento efficace nella terapia dello scorbuto, perché non lo si usò abitualmente? Pare, purtroppo, che il rimedio contro lo scorbuto non sia stato riconosciuto o non abbia goduto di molta fiducia, benché la sua efficacia fosse stata dimostrata. Una teoria molto diffusa attribuiva lo scorbuto a una dieta con troppa carne salata o con troppo poca carne fresca anziché alla mancanza di frutta e verdura fresche. C’era, inoltre, un problema logistico: era difficile mantenere freschi agrumi o il loro succo per settimane. Furono fatti tentativi per concentrare e conservare succo di limone, ma tali procedimenti erano lunghi, costosi e forse non molto efficaci, e noi oggi sappiamo che la vitamina C viene facilmente distrutta dalla luce e dal calore, e che una conservazione a lungo termine di frutta e verdura riduce il loro contenuto di acido ascorbico. A causa dei costi e della scomodità, gli ufficiali di marina, i medici delle navi, l’ammiragliato britannico e gli armatori non vedevano la possibilità di produrre abbastanza verdure o agrumi su navi con grandi equipaggi. A questo fine si sarebbe dovuto usare dello spazio prezioso destinato ai carichi paganti. Gli agrumi freschi o conservati erano cari, specialmente se dovevano essere distribuiti giornalmente come misura preventiva. Tutto era subordinato all’economia e ai margini di profitto, anche se, col senno di poi, questa ci pare un’economia sbagliata. Le navi dovevano avere equipaggi superiori alla loro capacità per poter sopportare percentuali di decessi per scorbuto del 30, 40 o anche 50 per cento. Ma anche se non si fossero registrati tassi di mortalità così elevati, l’efficienza di un equipaggio con molti malati di scorbuto sarebbe stata notevolmente bassa. E poi c’era il fattore umano, che raramente in quei secoli veniva considerato. Un altro elemento era l’intransigenza dell’equipaggio medio. A bordo gli uomini erano abituati a mangiare i cibi normali della marineria, e pur lagnandosi della dieta monotona di carne salata e galletta che consumavano in mare, quando avevano occasione di scendere a terra in qualche porto, quel che volevano erano grandi quantità di carne fresca, pane fresco, formaggio, burro e buona birra. Anche quando erano disponibili frutta e verdura fresche, la maggioranza dell’equipaggio non era interessata a mangiare croccanti verdure fresche saltate in padella. Quel che voleva era carne, e ancora carne:

bollita, in umido o arrosto. Gli ufficiali, che in generale venivano da una classe sociale superiore, nella quale era comune una dieta più ampia e variata, dovevano trovare normale e probabilmente accettabile mangiare in porto frutta e verdura. Non doveva essere insolito per loro assaggiare nuovi cibi esotici nelle località in cui gettavano l’ancora. Tamarindi, limette e altri frutti con un alto tenore di vitamina C dovevano essere usati in piatti della cucina locale che essi, diversamente dall’equipaggio, avevano probabilmente voglia di provare. Lo scorbuto, di conseguenza, colpiva gli ufficiali molto meno degli equipaggi.

Cook: centinaia di uomini, nessun caso di scorbuto James Cook, della Regia marina britannica, fu il primo capitano di mare a preservare i suoi equipaggi dallo scorbuto. Egli viene associato a volte alla scoperta degli antiscorbutici, come sono chiamati i cibi che servono a curare lo scorbuto, ma il suo risultato più importante consistette negli alti livelli di dieta e di igiene che si sforzò di mantenere a bordo di tutte le sue navi. I livelli meticolosamente elevati da lui realizzati ebbero come conseguenza condizioni di salute eccezionalmente buone e una mortalità estremamente ridotta fra i suoi uomini. Cook entrò nella Regia marina relativamente tardi, a ventisette anni, ma i nove anni di esperienza fatta in precedenza come marinaio su una nave mercantile nel mare del Nord e nel Baltico, la sua intelligenza e il suo innato senso del comando lo aiutarono a bruciare le tappe e a fare rapidamente carriera nei ranghi della marina. Ebbe occasione di osservare per la prima volta i danni prodotti dallo scorbuto a bordo della Pembroke, nel 1758, nel corso della sua prima traversata dell’Atlantico verso il Canada per andare a sfidare il controllo del fiume San Lorenzo da parte dei francesi. Cook era molto intimorito dai guasti prodotti da questa malattia così diffusa in mare e non poteva accettare che la morte di un così gran numero di uomini, la pericolosa riduzione dell’efficienza lavorativa dell’equipaggio e persino la perdita di navi fossero considerate in generale un male inevitabile. L’esperienza da lui conseguita nell’esplorazione e nel rilievo cartografico della Nova Scotia, del golfo del San Lorenzo e di Terranova, e le sue accurate osservazioni dell’eclisse di sole impressionarono moltissimo la Royal

Society, un’istituzione fondata nel 1645 con l’obiettivo di «migliorare la conoscenza della natura». Gli fu affidato il comando della nave Endeavour e assegnato il compito di esplorare gli oceani australi e tracciarne le carte nautiche, di investigare nuove piante e nuovi animali e di compiere osservazioni astronomiche del transito dei pianeti sul disco solare. Ragioni meno note ma tuttavia non meno pressanti per questo viaggio e per i successivi viaggi di Cook erano politiche. L’ammiragliato guardava con impazienza alla presa di possesso, in nome della Gran Bretagna, di terre già scoperte; alla rivendicazione di nuove terre ancora da scoprire, fra cui la Terra Australis Incognita, il grande continente australe; e alle speranze di trovare un Passaggio a Nord-ovest. Che Cook fosse o no in grado di realizzare un così gran numero di obiettivi dipendeva in grande misura dall’acido ascorbico. Consideriamo lo scenario dell’11 giugno 1770, quando l’Endeavour si incagliò sul corallo della Grande barriera corallina immediatamente a sud dell’attuale cittadina di Cooktown, nel Queensland settentrionale, in Australia. Fu quasi una catastrofe. La nave aveva urtato la barriera all’alta marea; la falla che si era aperta nella chiglia richiedeva misure drastiche. Per alleggerire la nave, l’equipaggio gettò fuori bordo tutto ciò di cui si poteva fare a meno. Per ventitré ore gli uomini azionarono le pompe mentre l’acqua di mare continuava a entrare inesorabilmente nella stiva, finché non si riuscì a tamponare provvisoriamente la falla. Lo sforzo incredibile, una superba perizia tecnica e la buona sorte ebbero la meglio. La nave si staccò infine dalla scogliera e poté essere tirata a riva per le riparazioni. Cook riuscì a salvarla per un pelo: un’impresa che un equipaggio stremato dallo scorbuto non sarebbe riuscito a realizzare. Un equipaggio sano ed efficiente era essenziale per Cook al fine di ottenere i grandi risultati che si era proposto. I risultati da lui raggiunti furono riconosciuti dalla Royal Society quando gli conferì la sua massima onorificenza, la medaglia d’oro Copley, non per le sue imprese nautiche bensì per avere dimostrato che lo scorbuto non era un flagello inevitabile nei lunghi viaggi oceanici. I metodi di Cook erano semplici. Egli sostenne che si doveva mantenere la pulizia in tutta la nave, anche negli alloggi dei marinai. Tutto il personale doveva lavare regolarmente i propri indumenti, aerare e fare asciugare coperte e materassi quando il tempo lo permetteva, fare disinfestazioni con il fumo fra un ponte e l’altro e in generale mantenere la

nave in perfetto ordine. Quando non era possibile procurarsi frutta e verdura fresche, che riteneva necessarie per una dieta equilibrata, imponeva ai suoi uomini di mangiare i crauti acidi che aveva incluso nelle provviste della nave. Cook toccava terra ogni volta che poteva per reintegrare le provviste e raccogliere erbe locali (sedano, coclearia) o piante con cui faceva preparare infusi. La dieta da lui imposta non godeva di grande favore presso l’equipaggio, abituato ai pasti soliti in marina e riluttante a provare qualsiasi novità. Ma Cook era inflessibile. Anche lui e i suoi ufficiali si attenevano a questa dieta e se il suo regime fu seguito fu anche grazie al suo esempio, alla sua autorità e alla sua determinazione. Non abbiamo testimonianze che Cook abbia fatto fustigare qualcuno per essersi rifiutato di mangiare crauti o sedano, ma gli uomini sapevano che il capitano non avrebbe esitato a farlo se qualcuno si fosse opposto alle sue regole. Cook si servì anche di un approccio più sottile. Egli ricorda che un «Sour Kroutt» (un piatto di «crauti acidi») preparato con piante locali fu messo all’inizio a disposizione dei soli ufficiali; entro una settimana gli uomini dell’equipaggio chiesero che venisse concesso anche a loro. Il successo aiutò senza dubbio a convincere l’equipaggio di Cook che la strana ossessione del capitano per ciò che mangiavano aveva delle buone ragioni. Cook non perse mai neppure un solo uomo a causa dello scorbuto. Nel suo primo viaggio, di quasi tre anni, un terzo del suo equipaggio morì per avere contratto la malaria o la dissenteria a Batavia (oggi Giacarta) nelle Indie orientali olandesi (l’attuale Indonesia). Nel suo secondo viaggio, dal 1772 al 1775, Cook perse un membro dell’equipaggio per malattia, ma non per scorbuto. Nel corso di quel viaggio, tuttavia, l’equipaggio della sua seconda nave fu gravemente colpito dallo scorbuto. Il comandante, Tobias Furneaux, fu severamente ripreso e istruito da Cook sulla necessità di preparare e somministrare antiscorbutici. Grazie alla vitamina C, la molecola dell’acido ascorbico, Cook poté compilare un elenco impressionante di risultati raggiunti: la scoperta delle isole Hawaii e della Grande barriera corallina, la prima circumnavigazione della Nuova Zelanda, il primo rilievo cartografico della costa del Pacifico nordoccidentale e il primo attraversamento del Circolo polare antartico.

Una piccola molecola in un grande ruolo Che cos’è questo piccolo composto che ha avuto un effetto tanto grande sulla carta del mondo? La parola vitamina deriva dalla contrazione di due parole: vitale (necessaria per la vita) e ammina (composto organico contenente azoto: in origine si pensava infatti che tutte le vitamine contenessero almeno un atomo di azoto). La C nell’espressione vitamina C indica che questa fu la terza vitamina a essere identificata.

Struttura dell’acido ascorbico (o vitamina C)

Questo sistema terminologico ha in realtà numerose pecche. Le vitamine del gruppo B e la vitamina H sono le uniche a contenere effettivamente azoto. In seguito si scoprì che la vitamina B originaria era costituita effettivamente da più di un composto: dalla vitamina B1, dalla B2 ecc. Si trovò inoltre che varie vitamine ritenute diverse erano in realtà uno stesso composto: perciò oggi non esistono una vitamina F o una vitamina G. Fra i mammiferi, solo i primati, le cavie e i pipistrelli frugivori dell’India richiedono la presenza di vitamina C nella loro dieta. In tutti gli altri vertebrati – per esempio nei canidi e nei felidi – l’acido ascorbico è prodotto nel fegato a partire dallo zucchero semplice glucosio per mezzo di una serie di quattro reazioni, ognuna delle quali è catalizzata da un enzima. Per questi animali, quindi, l’acido ascorbico non è una necessità della dieta. È presumibile che a un certo punto lungo il percorso dell’evoluzione umana l’uomo abbia perso la capacità di sintetizzare l’acido ascorbico dal glucosio, a

quanto pare perdendo il materiale genetico che ci permetteva di produrre la gulonolattone ossidasi, l’enzima necessario per il passo finale in questa sequenza. Un insieme di reazioni simile, anche se caratterizzato da una sequenza un po’ diversa, è alla base del moderno metodo sintetico – anch’esso a partire dal glucosio – per la preparazione industriale dell’acido ascorbico. Il primo passo è una reazione di ossidazione, cosa che significa che alla molecola si aggiunge ossigeno, o si toglie idrogeno, o si fanno entrambe le cose.

Glucosio

Acido glucuronico

Acido gulonico

Il secondo passo implica una riduzione all’estremo opposto della molecola di glucosio rispetto a quello della prima reazione, con formazione di un composto noto come acido gulonico. La parte successiva della sequenza, il terzo passo, implica che l’acido gulonico formi una molecola ciclica o ad anello nella forma di un lattone. Un passo finale di ossidazione produce quindi il doppio legame della molecola dell’acido ascorbico. Quello che manca agli esseri umani è l’enzima per questo quarto e ultimo passo.

Acido gulonico

Gulonolattone

Acido ascorbico

I primi tentativi per isolare e identificare la struttura chimica della vitamina C non ebbero buon esito. Uno fra i problemi principali consiste nel fatto che, benché l’acido ascorbico sia presente in quantità apprezzabile nel succo di agrumi, la sua separazione dai molti altri zuccheri e sostanze simili presenti in tale succo è molto difficile. Non sorprende, perciò, che il primo campione di acido ascorbico puro sia stato isolato non da piante bensì da una fonte animale. Nel 1928 il medico e biochimico ungherese Albert Szent-Györgyi, che lavorava all’Università di Cambridge in Inghilterra, pensò di avere isolato un nuovo ormone simile a uno zucchero, per il quale suggerì il nome di ignose («ignosio», dove -osio è la desinenza usata comunemente per i nomi degli zuccheri, come glucosio e fruttosio, mentre il prefisso ign-, dal latino i[n][g]notus, significava che la struttura della sostanza era ignota). Quando la redazione del Biochemical Journal (che evidentemente non condivideva il suo senso dell’umorismo) rifiutò anche il secondo nome da lui proposto, Godnose (letteralmente, «naso di Dio»), Szent-Györgyi optò per il nome più pacifico di acido esuronico. Il campione ottenuto da Szent-Györgyi era abbastanza puro da permettere a un’accurata analisi chimica di mostrare sei atomi di carbonio nella formula, C6H8O6, donde il prefisso es- (= esa-) dell’acido esuronico. Quattro anni dopo si vide che l’acido esuronico e la vitamina C erano, come frattanto Szent-Györgyi era giunto a sospettare, la stessa sostanza. Il passo successivo nella comprensione dell’acido ascorbico fu la determinazione della sua struttura, un compito che la tecnologia attuale potrebbe assolvere con relativa facilità anche usandone dosi piccolissime, ma che negli anni Trenta era impossibile in assenza di quantità considerevoli. Ancora una volta Szent-Györgyi ebbe fortuna. Scoprì che la paprika ungherese era particolarmente ricca di vitamina C e, cosa più importante, che non conteneva gli zuccheri che avevano reso difficile isolare il composto nel succo degli agrumi. Dopo una sola settimana di lavoro il chimico ungherese riuscì a isolare più di un chilo di cristalli di vitamina C pura: una quantità più che sufficiente perché il suo collaboratore, Norman Haworth, professore di chimica all’Università di Birmingham, potesse iniziare la determinazione della struttura della molecola di quello che Szent-Györgyi e Haworth chiamarono ora acido ascorbico. Riconosciuta nel 1937 l’importanza di

questa molecola da parte della comunità scientifica, Szent-Györgyi ricevette il premio Nobel per la medicina per le sue ricerche sulla vitamina C, e Haworth ricevette il premio Nobel per la chimica. Nonostante più di sessant’anni di ulteriori ricerche, non siamo ancora completamente sicuri di tutti i ruoli che l’acido ascorbico svolge nel nostro organismo. Esso ha un’importanza vitale per la produzione del collagene, la proteina più importante nel regno animale, la quale si trova nei tessuti connettivi che uniscono e sostengono altri tessuti. La mancanza di collagene spiega ovviamente alcuni fra i primi sintomi dello scorbuto: il gonfiore degli arti, le gengiviti e la perdita dei denti. Si dice che soli dieci milligrammi di acido ascorbico al giorno siano sufficienti a tenere a bada i sintomi dello scorbuto, anche se a quel livello esiste già uno scorbuto subclinico (con deficienza di vitamina C al livello cellulare ma senza grossi sintomi). Le ricerche in aree così svariate come l’immunologia, l’oncologia, la neurologia, l’endocrinologia e la nutrizione stanno scoprendo ancora oggi il coinvolgimento dell’acido ascorbico in molti percorsi biochimici. Controversie e misteri hanno avvolto per molto tempo questa piccola molecola. La marina britannica attese scandalosamente per quarantadue anni prima di mettere in pratica le raccomandazioni di James Lind. La Compagnia inglese delle Indie orientali si sarebbe deliberatamente astenuta dal fornire cibi antiscorbutici nell’intento di mantenere i propri marinai deboli e controllabili. Oggi ci sono controversie sul problema se megadosi di vitamina C possano svolgere un ruolo nel trattamento di una varietà di condizioni. Linus Pauling ricevette nel 1954 il premio Nobel per la chimica per le sue ricerche sul legame chimico e nel 1962 fu premiato col Nobel per la pace per le sue attività contro i test nucleari. Nel 1970 questo grande chimico pubblicò il primo di una serie di articoli sul ruolo della vitamina C in medicina, raccomandando alte dosi di acido ascorbico per la prevenzione e la cura di raffreddori, influenza e cancro. Nonostante la sua eminenza come scienziato, l’establishment medico non ha accettato in generale le sue opinioni. La dose giornaliera raccomandata di vitamina C per un adulto è in generale di 60 milligrammi, grosso modo quella che si trova in una piccola arancia. Questa dose è variata nel corso del tempo e in diversi Paesi, indicando forse che non comprendiamo ancora bene il ruolo fisiologico completo di questa molecola non così semplice. C’è comunque un buon accordo sull’opportunità di aumentare la dose durante la gravidanza e

l’allattamento al seno. Una dose giornaliera maggiore è raccomandata anche per le persone più anziane; in età avanzata si tende infatti ad assumere meno vitamina C, in conseguenza di una dieta più povera o di una mancanza di interesse per la cucina e il cibo. Oggi lo scorbuto non è ignoto fra gli anziani. Una dose giornaliera di 150 milligrammi di acido ascorbico corrisponde in generale a un livello di saturazione, e un’ulteriore assunzione non determina un accrescimento sensibile del contenuto di acido ascorbico nel sangue. Poiché la vitamina C in eccesso viene eliminata attraverso i reni, qualcuno ha sostenuto che l’unico vantaggio apportato dalle megadosi è l’aumento di profitti delle case farmaceutiche. Pare però che dosi maggiori possano essere necessarie in circostanze come infezioni, febbre, guarigione di ferite, diarrea e un lungo elenco di malattie croniche. Proseguono le ricerche sul ruolo della vitamina C su più di quaranta diverse malattie: borsite, gotta, malattia di Crohn, sclerosi multipla, ulcere gastriche, obesità, osteoartrite, infezioni da Herpes simplex, morbo di Parkinson, anemia, cardiopatia coronarica, malattie autoimmuni, aborti, febbre reumatica, cataratta, diabete, alcolismo, schizofrenia, depressione, malattia di Alzheimer, sterilità, raffreddore, influenza e cancro, per nominarne solo alcune. Quando si considera quest’elenco, si può capire perché la vitamina C sia stata a volte descritta come la «giovinezza in bottiglia», anche se finora le ricerche non hanno confermato tutti i miracoli che sono stati rivendicati. Attualmente si producono più di 50.000 tonnellate di acido ascorbico all’anno. La vitamina C sintetica prodotta industrialmente dal glucosio è assolutamente identica sotto ogni aspetto alla vitamina C naturale. Fra l’acido ascorbico naturale e quello sintetico non c’è alcuna differenza fisica o chimica, cosicché non c’è alcuna ragione per comprarne una versione costosa commercializzata come «vitamina C naturale, estratta delicatamente dai puri cinorrodi rosa della rara Rosa macrophylla cresciuta sulle pendici incontaminate della parte inferiore dell’Himalaya». Anche se il prodotto ha avuto esattamente quell’origine, anche se la vitamina che contiene è vitamina C, essa è esattamente la stessa vitamina C che è stata prodotta a tonnellate a partire dal glucosio. Non intendo dire con questo che le compresse di vitamine sintetiche siano esattamente equivalenti alle vitamine naturali contenute nei cibi. L’assunzione di una compressa di acido ascorbico di 70 milligrammi può non

produrre esattamente gli stessi benefìci dei 70 milligrammi di vitamina C forniti da un’arancia di media grandezza. Altre sostanze contenute in frutta e verdura, come quelle responsabili dei loro colori vivaci, potrebbero favorire l’assorbimento della vitamina C o intensificarne l’effetto in un qualche modo che non conosciamo ancora. Il principale uso commerciale della vitamina C è oggi quello di conservante dei cibi, ruolo nel quale agisce come antiossidante e come agente antimicrobico. In anni recenti si è cominciato a vedere i conservanti dei cibi come cose negative. Sulle confezioni di cibi viene spesso sbandierata l’indicazione «privo di conservanti». Eppure in assenza di conservanti gran parte dei nostri cibi avrebbero un cattivo sapore, un cattivo odore, sarebbero immangiabili o potrebbero addirittura ucciderci. La perdita dei conservanti chimici sarebbe per le nostre provviste di cibi un disastro altrettanto grande della cessazione della refrigerazione e della surgelazione. Nel processo di inscatolamento alla temperatura dell’acqua bollente è possibile conservare senza rischi la frutta, poiché questa è di solito abbastanza acida da prevenire la crescita del mortale batterio Clostridium botulinum. Le verdure e la carne, che hanno un minore contenuto di acidi, devono essere lavorate a temperature superiori per uccidere questo microrganismo alquanto diffuso. L’acido ascorbico viene usato spesso nella conservazione domestica di frutta come antiossidante per impedire che diventi scura. Esso accresce anche l’acidità e protegge contro il botulismo, termine con cui si indica l’avvelenamento del cibo causato dalla tossina prodotta da questo microrganismo. Il Clostridium botulinum non sopravvive all’interno del corpo umano. È la tossina che esso produce in contenitori non perfettamente sterili a essere pericolosa (solo nel caso che la si ingerisca). Piccole quantità della tossina purificata iniettata sotto la pelle interrompono gli impulsi nervosi e inducono la paralisi muscolare. Ne risulta fra l’altro una temporanea cancellazione delle rughe: il sempre più popolare trattamento Botox. Benché i chimici abbiano sintetizzato molte sostanze chimiche tossiche, è stata la natura a creare le più mortali. La tossina botulinica A, prodotta dal Clostridium botulinum, è il veleno più letale che si conosca, un milione di volte più mortale della diossina, il veleno più potente prodotto dall’uomo. Per la tossina botulinica A, la dose letale (indicata con la sigla DL50) in grado di

uccidere il 50 per cento di una popolazione sperimentale è di 3×10-8 mg per kg. Bastano 0,00000003 milligrammi di tossina botulinica A per chilogrammo di peso corporeo per uccidere un individuo. Per la diossina, la DL50 è invece di 3×10-2 mg per kg, ovvero 0,03 milligrammi per chilogrammo di peso corporeo. È stato stimato che un grammo di tossina botulinica potrebbe uccidere più di tre milioni e mezzo di persone. Questi numeri dovrebbero senza dubbio farci meditare sui rischi che associamo all’uso di conservanti.

Scorbuto sul ghiaccio Ancora all’inizio del XX secolo alcuni esploratori delle regioni antartiche credevano che lo scorbuto fosse causato dalla putrefazione di cibo conservato, dall’intossicazione acida del sangue e da infezioni batteriche. Benché la somministrazione obbligatoria di succo di limone avesse praticamente eliminato lo scorbuto dalla marina britannica già all’inizio dell’Ottocento, benché gli eschimesi delle regioni artiche che mangiavano carne fresca ricca di vitamina C, cervello, cuore e reni di foche non venissero mai colpiti dallo scorbuto, e a dispetto dell’esperienza di numerosi esploratori le cui misure cautelative contro lo scorbuto comprendevano la maggiore quantità di carne fresca possibile nella dieta, il comandante di marina britannico Robert Falcon Scott continuò a credere che lo scorbuto fosse causato da carne guasta. L’esploratore norvegese Roald Amundsen trattò invece lo scorbuto con grande serietà e fondò la dieta per la sua fortunata spedizione al Polo Sud su carne fresca di foca e di cane. Nel 1911, il suo viaggio di ritorno dal Polo, di circa 2250 chilometri, ebbe luogo senza malattie o incidenti. Gli uomini di Scott non furono altrettanto fortunati. Il loro ritorno, dopo avere raggiunto il Polo Sud nel gennaio 1912, fu rallentato da un’ondata eccezionale di maltempo. Sintomi di scorbuto, provocati da una dieta priva di cibi freschi e di vitamina C protratta per vari mesi, possono avere gravemente ostacolato i loro sforzi. A meno di diciotto chilometri da un deposito di cibo e di combustibile erano ormai troppo stremati per proseguire. Per il comandante Scott e per i suoi compagni di sventura sarebbero bastati pochi milligrammi di acido ascorbico per cambiare il loro mondo.

Se l’efficacia dell’acido ascorbico fosse stata riconosciuta prima, oggi il mondo potrebbe essere molto diverso. Se Magellano avesse avuto un equipaggio sano, non avrebbe avuto bisogno di fare scalo alle Filippine. Avrebbe potuto far vela direttamente alla volta delle Molucche per assicurare il mercato dei chiodi di garofano alla Spagna, riprendere poi trionfalmente la navigazione fino a Siviglia e ricevere gli onori dovuti all’autore della prima circumnavigazione del globo. Un monopolio spagnolo del mercato dei chiodi di garofano e della noce moscata avrebbe potuto frustrare l’affermazione della Compagnia olandese delle Indie orientali, e cambiare l’Indonesia moderna. Se i portoghesi, i primi esploratori europei ad avventurarsi su distanze così lunghe, avessero conosciuto il segreto dell’acido ascorbico, avrebbero potuto esplorare l’oceano Pacifico vari secoli prima di James Cook. Oggi il portoghese potrebbe essere la lingua parlata nelle isole Figi e nelle Hawaii, che avrebbero potuto unirsi al Brasile come colonie di un immenso impero portoghese. E il grande navigatore olandese Abel Janszoon Tasman, se nel corso dei suoi viaggi del 1642 e del 1644 avesse avuto le conoscenze necessarie a prevenire lo scorbuto, avrebbe potuto sbarcare e avanzare diritti formali sulle terre note come Nuova Olanda (Australia) e Staten Land (Nuova Zelanda), anziché limitarsi a costeggiarle. I britannici, arrivati più tardi nel Pacifico meridionale, avrebbero avuto un impero molto più piccolo e avrebbero esercitato un’influenza molto minore nel mondo fino a oggi. Queste congetture ci conducono a concludere che l’acido ascorbico merita un posto importante nella storia – e nella geografia – del mondo.

3 IL GLUCOSIO

I versi di una filastrocca infantile inglese – «Sugar and spice and everything nice» – associano zucchero e spezie: un classico abbinamento culinario che noi apprezziamo molto in dolci come la torta di mele e i biscotti speziati. Le spezie e lo zucchero ci mandano in sollucchero. Come le spezie, anche lo zucchero è stato un tempo un lusso che potevano permettersi solo i ricchi, e veniva usato come un ingrediente in salse per piatti di carne e di pesce che noi oggi considereremmo appetitosi più che dolci. E come le molecole delle spezie, la molecola dello zucchero influì sul destino di Paesi e continenti all’origine della Rivoluzione industriale, modificando il commercio e le culture in tutto il mondo. Il glucosio è uno fra i componenti principali del saccarosio, la sostanza alla quale più propriamente ci riferiamo quando parliamo di zucchero. Esso viene indicato con vari nomi che si riferiscono specificatamente alla sua origine, come zucchero di canna, zucchero di barbabietola e zucchero di mais. Si presenta anche in numerose varietà: zucchero scuro, zucchero raffinato, zucchero in zollette, zucchero semolato, zucchero greggio e zucchero bruno della Guayana. La molecola di glucosio, presente in tutti questi tipi di zucchero, è piuttosto piccola. Ha solo sei atomi di carbonio, sei atomi di ossigeno e dodici atomi di idrogeno: in totale lo stesso numero di atomi presenti nelle molecole responsabili del sapore della noce moscata e dei chiodi di garofano. E come in quelle molecole di spezie, il sapore – in questo caso un sapore dolce – è una conseguenza della disposizione spaziale degli atomi della molecola di glucosio (così come di quelle degli altri zuccheri). Lo zucchero può essere estratto da molte piante; nelle regioni tropicali viene ottenuto di solito dalla canna da zucchero e nelle regioni temperate dalla barbabietola da zucchero. La canna da zucchero (Saccharum officinale)

è variamente descritta come originaria del Pacifico meridionale o dell’India meridionale. La coltivazione della canna da zucchero si diffuse in Asia e in Medio Oriente, raggiungendo infine il Nordafrica e la Spagna. Lo zucchero cristallino estratto dalla canna fu portato in Europa dai partecipanti alla Prima crociata che tornavano in patria nel XIII secolo. Nei tre secoli successivi rimase una merce esotica, trattata press’a poco come le spezie: il principale emporio per il commercio dello zucchero si sviluppò inizialmente a Venezia, insieme al prospero commercio delle spezie. Lo zucchero era usato in medicina per mascherare il sapore spesso nauseabondo di altri ingredienti, come agente legante per farmaci e come medicina in sé. Nel Quattrocento lo zucchero era diventato in Europa molto più facilmente disponibile, ma era ancora costoso. Un aumento della domanda dello zucchero e prezzi più bassi coincisero con una diminuzione dell’offerta di miele, che era stato in precedenza l’agente dolcificante primario in Europa e in gran parte del resto del mondo. Nel Cinquecento lo zucchero si avviò a diventare rapidamente il dolcificante più diffuso, anche per le masse. La sua popolarità aumentò ancora di più nel Seicento e Settecento quando ci si rese conto che esso permetteva di conservare la frutta e di preparare gelatine, confetture e marmellate. In Inghilterra si stima che nel 1700 ci sia stato un consumo medio di zucchero pro capite di circa 1800 grammi. Nel 1780 esso era salito a circa 5400 grammi, e nell’ultimo decennio del secolo a circa 7200 grammi, gran parte del quale era consumato probabilmente nelle bevande divenute da poco tempo popolari: tè, caffè e cioccolata. Lo zucchero era usato anche nei dolci: noci e nocciole glassate, marzapane, torte e caramelle. Era diventato un cibo di uso comune, una necessità più che un lusso, e il suo consumo continuò a salire per tutto il XX secolo. Fra il 1900 e il 1964 la produzione mondiale di zucchero aumentò del 700 per cento, e molti Paesi sviluppati raggiunsero un consumo annuo pro capite di quasi 50 chilogrammi. Questa cifra è un po’ calata negli ultimi tempi con la diffusione dei dolcificanti artificiali e con la lotta alle diete ipercaloriche.

Schiavismo e coltivazione dello zucchero Se non ci fosse stata la grande domanda di zucchero, oggi il nostro mondo

sarebbe probabilmente molto diverso. Fu infatti lo zucchero ad alimentare la tratta degli schiavi, che portò milioni di africani di pelle nera nel Nuovo Mondo, e fu il profitto legato al commercio dello zucchero a stimolare all’inizio del Settecento la crescita economica in Europa. I primi esploratori del Nuovo Mondo riferirono di Paesi tropicali ideali per la coltivazione dello zucchero. Occorse poco tempo agli europei, desiderosi di sottrarsi al monopolio dello zucchero del Medio Oriente, per cominciare a produrre zucchero in Brasile e poi nelle Indie occidentali. La coltivazione della canna da zucchero è un lavoro che richiede un impiego intensivo di mano d’opera, e le due fonti di lavoratori allora possibili – le popolazioni native del Nuovo Mondo (già decimate da malattie introdotte dai bianchi, come il vaiolo, il morbillo e la malaria) e gli schiavi provenienti dall’Europa, già impegnati – non potevano fornire nemmeno una frazione della forza lavoro richiesta. I coloni del Nuovo Mondo guardarono allora all’Africa. Fino a quest’epoca la tratta degli schiavi importati dall’Africa occidentale era rimasta limitata principalmente ai mercati interni del Portogallo e della Spagna, ed era una propaggine della tratta transahariana dei mori nei Paesi del Mediterraneo. Il bisogno di lavoratori nel Nuovo Mondo determinò però un drastico sviluppo di quella che era stata fino ad allora un’attività relativamente minore. La prospettiva di ricavare grandi ricchezze dalla coltivazione dello zucchero fu però sufficiente a convincere l’Inghilterra, la Francia, l’Olanda, la Prussia, la Danimarca e la Svezia (e infine anche il Brasile e gli Stati Uniti) a diventare parte dell’immenso sistema di trasporto di africani dai loro Paesi al Nuovo Mondo. Benché lo zucchero non fosse l’unica merce la cui produzione era fondata sul lavoro degli schiavi, era probabilmente quella più importante. Secondo alcune stime, circa due terzi degli schiavi africani presenti nel Nuovo Mondo lavoravano nelle piantagioni di canna da zucchero. Il primo zucchero prodotto col lavoro degli schiavi nelle Indie occidentali fu imbarcato per l’Europa nel 1515, a soli ventidue anni di distanza da quando Cristoforo Colombo, nel corso del suo secondo viaggio, aveva introdotto la canna da zucchero nell’isola di Hispaniola (Haiti e Santo Domingo). Alla metà del Cinquecento insediamenti spagnoli e portoghesi in Brasile, in Messico e in molte isole caraibiche stavano producendo zucchero. Ogni anno arrivavano dall’Africa nelle piantagioni di quei Paesi circa diecimila schiavi. Poi, nel Seicento, cominciarono a coltivare canna da

zucchero nelle Indie occidentali anche le colonie inglesi, francesi e olandesi. La domanda di zucchero in rapida espansione, la crescente tecnologia della lavorazione dello zucchero e lo sviluppo di un nuovo liquore, il rum, ottenuto dalla raffinazione dei prodotti secondari dell’estrazione dello zucchero dalla canna, contribuirono a far crescere in modo esplosivo il numero delle persone trasportate dall’Africa per lavorare nelle piantagioni di canna da zucchero. È impossibile stabilire il numero esatto degli schiavi imbarcati su velieri al largo della costa occidentale dell’Africa per essere poi venduti nel Nuovo Mondo. I documenti sono incompleti e forse fraudolenti, riflettendo tentativi di aggirare le leggi che tentarono tardivamente di migliorare le condizioni a bordo delle navi negriere, regolamentando il numero degli schiavi che potevano essere trasportati. Ancora negli anni Venti dell’Ottocento più di cinquecento esseri umani venivano accalcati, su navi negriere brasiliane, in uno spazio di non più di una novantina di metri quadrati di superficie e di una novantina di centimetri di altezza. Alcuni storici calcolano che più di 50 milioni di africani siano stati trasportati in America nel corso dei tre secoli e mezzo della tratta degli schiavi. Questa cifra non comprende quelli uccisi nelle incursioni compiute dai cacciatori di schiavi per rifornire le navi negriere, quelli morti nel corso del viaggio dall’interno del continente africano fino alla costa e quelli che non sopravvissero agli orrori del viaggio per mare, che divenne noto come il middle passage, dall’Africa alle Indie occidentali. Il middle passage è il secondo lato del triangolo (della tratta degli schiavi) noto come il Grande Circuito. Il primo lato del triangolo era il viaggio dall’Europa alla costa africana, soprattutto la costa occidentale della Guinea, nel corso del quale si trasportavano prodotti industriali da scambiare con gli schiavi. Il terzo lato del triangolo era il viaggio di ritorno dal Nuovo Mondo all’Europa. Le navi negriere avevano scambiato il loro carico umano con minerali e prodotti delle piantagioni, generalmente rum, cotone e tabacco. Ogni lato del triangolo procurava guadagni enormi, specialmente ai britannici: alla fine del Settecento i profitti da loro ottenuti negli scambi con le Indie occidentali erano maggiori di quelli da loro ricavati dal commercio col resto del mondo. Lo zucchero e i prodotti dello zucchero, in effetti, furono la fonte dell’enorme aumento di capitale e della rapida espansione economica necessaria per alimentare la Rivoluzione industriale inglese, e in seguito anche quella francese, della fine del Settecento e inizio

dell’Ottocento.

Dolce chimica Il glucosio è il più comune fra gli zuccheri semplici, chiamati a volte monosaccaridi dalla parola latina saccharum, per zucchero. Il prefisso monosi riferisce a un’unità, in opposizione ai disaccaridi, composti da due unità, o ai polisaccaridi, composti da molte unità. La struttura del glucosio può essere rappresentata come una catena rettilinea

Glucosio

o come un lieve adattamento di questa catena, nel quale ogni intersezione di linee verticali e orizzontali rappresenta un atomo di carbonio. Un insieme di convenzioni di cui non è il caso che ci occupiamo qui attribuiscono numeri agli atomi di carbonio, a partire dall’atomo più in alto, che riceve sempre il numero 1. Questo tipo di rappresentazione è noto come formula di proiezione di Fischer, dal chimico tedesco Emil Fischer che nel 1891 determinò la struttura reale del glucosio e di vari altri zuccheri affini. Benché gli strumenti scientifici e le tecniche disponibili a quell’epoca fossero molto rudimentali, i suoi risultati rimangono ancora oggi uno fra gli esempi più eleganti di logica chimica. Egli ricevette nel 1902 il premio Nobel per la sua ricerca sugli zuccheri.

Formula di proiezione di Fischer per il glucosio, nella quale è indicata la numerazione della catena del carbonio.

Anche se oggi possiamo continuare a rappresentare zuccheri come il glucosio in questa forma di catena rettilinea, sappiamo che essi esistono di norma in una forma diversa: quella di strutture cicliche (ad anello). Le rappresentazioni di queste strutture cicliche sono note come formule di Haworth, dal chimico britannico Norman Haworth che nel 1937 ricevette il premio Nobel per le sue ricerche sulla vitamina C e sulle strutture dei carboidrati (vedi il capitolo 2). L’anello esagonale del glucosio è formato da cinque atomi di carbonio e uno di ossigeno. La sua formula di Haworth qui di seguito a destra indica per mezzo dei numeri in che modo i vari atomi di carbonio corrispondano agli atomi di carbonio nella precedente formula di proiezione di Fischer.

Formula di Haworth del glucosio, nella quale sono indicati tutti gli atomi di idrogeno.

Formula di Haworth del glucosio, in cui non sono indicati tutti gli atomi di idrogeno, ma in cui gli

atomi di carbonio compaiono attraverso la loro numerazione.

In realtà il glucosio esiste in due versioni della forma ad anello, le quali si distinguono per la posizione dell’OH legato al carbonio numero 1, sopra o sotto l’anello. Questa potrebbe sembrare una distinzione di poco conto, ma val la pena di sottolinearla in quanto ha conseguenze molto importanti per le strutture di molecole più complicate contenenti unità di glucosio, come i carboidrati complessi. Se l’OH legato al carbonio numero 1 si trova sotto l’anello, il glucosio è noto come alfa-glucosio (α-glucosio). Se l’OH è sopra l’anello, si parla di beta-glucosio (β-glucosio).

α-glucosio β-glucosio

Quando usiamo la parola zucchero ci riferiamo di norma al saccarosio. Questo è un disaccaride, ed è chiamato così perché è composto da due unità semplici di monosaccaridi: un’unità di glucosio e una di fruttosio. Il fruttosio, o zucchero della frutta, ha la stessa formula del glucosio – C6H12O6 – e anche lo stesso numero e tipo di atomi (sei di carbonio, dodici di idrogeno e sei di ossigeno). Ha però una struttura diversa: i suoi atomi sono disposti in un ordine differente. Si dice in proposito che fruttosio e glucosio sono isomeri. Gli isomeri sono composti che hanno la medesima formula chimica (lo stesso numero di ogni tipo di atomi), ordinati però secondo una diversa disposizione.

Glucosio Fruttosio

Formule di proiezione di Fischer degli isomeri glucosio e fruttosio da cui risulta il diverso ordine degli atomi di idrogeno e di ossigeno nelle posizioni degli atomi di carbonio numero 1 e 2. Il fruttosio non ha atomi di idrogeno nella posizione del C numero 2.

Il fruttosio esiste principalmente nella forma ciclica ma ha un aspetto un po’ diverso dal glucosio, formando un anello a cinque membri – rappresentato qui sotto a destra in una formula di Haworth – in luogo dell’anello a sei membri del glucosio. Come per il glucosio, anche nel caso del fruttosio ci sono formeα eβ, ma poiché nel fruttosio è il carbonio in posizione 2 a legarsi all’anello di ossigeno, è intorno a questo atomo di carbonio che indichiamo il gruppo OH sotto l’anello comeα e l’OH sopra l’anello comeβ.

Formula di Haworth per ilβ-glucosio

Formula di Haworth per ilβ-fruttosio

Il saccarosio contiene quantità uguali di glucosio e fruttosio, ma non nella forma di un miscuglio di due molecole diverse. Nella molecola di saccarosio un glucosio e un fruttosio sono legati insieme attraverso la rimozione di una

molecola d’acqua (H2O) fra l’OH legato al carbonio numero 1 di unαglucosio e l’OH legato al carbonio numero 2 delβ-fruttosio.

La rimozione di una molecola di H2O fra il glucosio e il fruttosio forma una molecola di saccarosio. In questi diagrammi la molecola del fruttosio è stata ruotata di 180º e rovesciata.

Struttura della molecola del saccarosio

Il fruttosio si trova per lo più nei frutti ma anche nel miele, che è composto per il 38 per cento circa di fruttosio e per il 31 per cento di glucosio, più un altro 10 per cento di altri zuccheri fra cui il saccarosio. La parte restante è principalmente acqua. Il fruttosio è più dolce del saccarosio o del glucosio, cosicché il miele, grazie al suo contenuto di fruttosio, è più dolce dello zucchero. Lo sciroppo d’acero, molto usato negli Stati Uniti e in Canada, è composto approssimativamente per il 62 per cento di saccarosio, con solo l’1 per cento di fruttosio e l’1 per cento di glucosio. Il lattosio, chiamato anche zucchero del latte, è un disaccaride formato da un’unità di glucosio e un’altra di galattosio, un altro monosaccaride. Questo è un isomero del glucosio; l’unica differenza sta nel fatto che nel galattosio il

gruppo OH legato al carbonio nella posizione 4 è sopra l’anello e non sotto come nel glucosio.

β-galattosio

β-glucosio

Ilβ-galattosio, con una freccia che indica il gruppo OH legato al C in posizione 4 sopra l’anello, messo a confronto con ilβ-glucosio, dove il gruppo OH legato al C in posizione 4 è sotto l’anello. Queste due molecole, combinandosi, formano il lattosio.

Struttura della molecola di lattosio

Il galattosio, a sinistra, si unisce al glucosio, a destra, attraverso l’appaiamento dei due atomi C in posizione 1 (del galattosio) e in posizione 4 (del glucosio).

Di nuovo, il fatto di avere un gruppo OH sopra o sotto l’anello può sembrare una differenza molto piccola, ma non lo è per le persone che soffrono di intolleranza al lattosio. Per digerire il lattosio e altri disaccaridi o zuccheri

dalla molecola più grande, abbiamo bisogno di enzimi specifici che scompongano inizialmente queste molecole complesse in monosaccaridi. Nel caso del lattosio, l’enzima è chiamato lattasi ed è presente in alcuni adulti solo in piccole quantità. (I bambini producono in generale più lattasi degli adulti.) Una carenza di lattasi rende difficile la digestione del latte e dei latticini, causando i sintomi associati all’intolleranza del lattosio: rigonfiamento dell’addome, crampi e diarrea. L’intolleranza al lattosio è un carattere ereditario e può essere trattata facilmente con preparati dell’enzima lattasi vendibili senza ricetta medica. Adulti e bambini (ma non i neonati) di certi gruppi etnici, come alcune tribù africane, sono completamente privi dell’enzima lattasi. Per queste popolazioni il latte in polvere e altri prodotti del latte che fanno spesso parte di programmi di aiuti alimentari, sono indigeribili e persino dannosi. Il cervello di un mammifero normale sano usa come sorgente di energia soltanto glucosio. Le cellule cerebrali dipendono da un rifornimento costante attraverso la corrente sanguigna, poiché essenzialmente nel cervello non ci sono riserve. Se il livello del glucosio nel sangue scende sotto il 50 per cento rispetto al livello normale, si manifestano sintomi di disfunzione cerebrale. Al 25 per cento del livello normale, per esempio per un’overdose di insulina – l’ormone che controlla il livello del glucosio nel sangue –, può verificarsi il coma.

Sapore dolce Quel che rende così attraenti tutti questi zuccheri è il loro sapore dolce, che piace molto agli esseri umani. Il dolce è uno dei quattro sapori principali; gli altri tre sono l’acido, l’amaro e il salato. Il conseguimento della capacità di distinguere fra questi sapori fu un passo importante nell’evoluzione. Il dolce implica in generale il significato «buono da mangiare». Un sapore dolce indica che un frutto è maturo, mentre il sapore acidulo ci dice che contiene ancora grandi quantità di acido, e un frutto acerbo può causare dolori di stomaco. Un sapore amaro nelle piante rivela spesso la presenza di un tipo di composto noto come alcaloide. Gli alcaloidi sono spesso velenosi, a volte anche in quantità molto piccole, cosicché la capacità di scoprire persino

tracce di un alcaloide è un chiaro vantaggio. Qualcuno ha suggerito che l’estinzione dei dinosauri potrebbe essere stata causata dalla loro incapacità di scoprire gli alcaloidi velenosi presenti in alcune piante angiosperme evolutesi verso la fine del periodo Cretaceo, proprio l’epoca della loro estinzione, anche se non è questa la teoria più accreditata della loro scomparsa. Pare che gli esseri umani non abbiano una predilezione innata per l’amaro. In effetti essi preferiscono probabilmente proprio l’opposto. L’amaro provoca un aumento della secrezione di saliva. Questa è una reazione utile quando si ha in bocca qualcosa di velenoso, in quanto ci permette di sputarne la maggiore quantità possibile. Molte persone imparano però ad apprezzare, se non ad amare, il sapore amaro. La caffeina presente nel tè e nel caffè e la chinina nell’acqua tonica sono esempi di questo fenomeno, anche se molti di noi amano ancora zuccherare queste bevande. Termini come «dolceamaro» o «agrodolce» esprimono la nostra ambivalenza verso sapori come l’amaro o l’acido. Il nostro senso del gusto è localizzato nelle papille gustative, gruppi specializzati di cellule che si trovano principalmente sulla lingua. Non tutte le parti della lingua scoprono il sapore nello stesso modo o con uguale intensità. La punta anteriore della lingua è la sua parte più sensibile al dolce, mentre l’acido si percepisce più fortemente ai due lati, verso la sua parte posteriore. Potete verificarlo voi stessi toccando una soluzione zuccherina prima con i lati della lingua e poi con la punta. La punta della lingua trasmetterà la sensazione di dolce con un’intensità molto maggiore. Se fate lo stesso esperimento con del succo di limone, il risultato sarà ancora più chiaro. Il succo di limone sulla punta della lingua non sembra molto acido, mentre se mettete una fetta di limone appena tagliata a contatto con la parte laterale della lingua scoprirete facilmente dove si trova l’area più sensibile al sapore acido. Se continuate questo esperimento scoprirete che l’amaro si percepisce più intensamente al centro della lingua ma lontano dalla punta, e che la sensazione di salato è massima subito ai due lati della lingua. Il dolce è stato studiato molto più di tutti gli altri sapori, senza dubbio perché, come ai tempi della tratta degli schiavi, continua ad avere una grande importanza economica. Il rapporto fra struttura chimica e sapore dolce è un problema molto complesso. Un modello semplice, noto come modello A-H,B suggerisce che un sapore dolce dipenda dalla disposizione di un gruppo di atomi all’interno di una molecola. Questi atomi (A e B nel diagramma) hanno

una particolare geometria, permettendo a B di essere attratto verso l’idrogeno legato all’atomo A. Ciò conduce la molecola del sapore dolce a legarsi per breve tempo a una molecola proteica di un recettore gustativo, causando la produzione di un segnale (trasmesso attraverso i nervi) che informerà il cervello: «Questa è una sostanza dolce». A e B sono di solito atomi di ossigeno o di azoto, anche se a volte uno dei due potrebbe essere un atomo di zolfo.

Il modello A-H,B del sapore dolce

Ci sono molti composti dolci diversi dallo zucchero, non tutti buoni da mangiare. Il glicole etilenico, per esempio, è il principale componente dell’antigelo per automobili. Il sapore dolce di questo liquido per radiatori si deve alla solubilità e flessibilità della sua molecola, oltre che alla distanza esistente fra i suoi atomi di ossigeno (la quale è simile alla distanza fra gli atomi di ossigeno negli zuccheri). È però un liquido molto velenoso. Anche un cucchiaino può essere mortale per gli esseri umani o per gli animali domestici. La cosa più interessante, però, è che l’agente tossico non è il glicole etilenico, bensì la sostanza in cui il nostro corpo lo trasforma. L’ossidazione del glicole etilenico a opera degli enzimi del nostro corpo produce acido ossalico.

Glicole etilenico

Acido ossalico

L’acido ossalico è presente in natura in numerose piante, fra cui alcune che mangiamo, come i pomodori, gli spinaci e il rabarbaro. Noi consumiamo di solito questi cibi in quantità moderate e quindi i nostri reni possono far fronte alle tracce di acido ossalico provenienti da tali fonti. Se però inghiottiamo del glicole etilenico, la grande quantità di acido ossalico che i reni si trovano a dovere affrontare causa loro gravi danni e la morte. Se mangiamo nello stesso pasto un’insalata di spinaci e una torta al rabarbaro non ne riceviamo alcun danno, sempre che non siamo soggetti a calcoli renali, che tendono ad accumularsi nel corso di qualche anno. I calcoli renali sono composti principalmente di ossalato di calcio, il sale di calcio insolubile dell’acido ossalico. Le persone soggette a questi calcoli dovrebbero evitare i cibi ricchi di ossalati. Per gli altri, il consiglio migliore è la moderazione. Un composto che ha una struttura molto simile al glicole etilenico e che ha anch’esso un sapore dolce è il glicerolo, che però può essere consumato senza pericolo in dosi moderate. Esso è usato come additivo in molti cibi pronti a causa della sua viscosità e della sua elevata solubilità in acqua. L’espressione additivo per alimenti ha avuto in anni recenti una cattiva stampa; l’implicazione è che gli additivi alimentari siano essenzialmente non organici, non sani e non naturali. Il glicerolo è invece decisamente organico, non è tossico ed è presente naturalmente in prodotti come il vino.

Glicerolo

Quando si fa ruotare del vino in un bicchiere, le «linee»» che si formano sul vetro sono dovute alla presenza di glicerolo, che accresce la viscosità e la scorrevolezza tipiche delle buone annate.

I dolcificanti artificiali Ci sono numerose altre sostanze che hanno un sapore dolce pur non essendo zuccheri, e alcune di queste sono alla base dell’industria milionaria dei dolcificanti artificiali. Un dolcificante artificiale, oltre ad avere una struttura chimica che imiti sotto taluni aspetti la geometria degli zuccheri – cosa che gli permette di adattarsi e legarsi al recettore degli zuccheri – dev’essere solubile in acqua e non tossico, e, spesso, non dev’essere metabolizzato nel corpo umano. Queste sostanze sono di solito centinaia di volte più dolci dello zucchero. Il primo dei moderni dolcificanti artificiali a essere sviluppato fu la saccarina. Coloro che lavorano con questa polvere fine, se si toccano accidentalmente la bocca con le dita, sentono a volte un sapore dolce. La saccarina è così dolce che basta una quantità piccolissima a produrre la sensazione di dolce. Ciò fu evidentemente quel che accadde nel 1879, quando uno studente di chimica alla Johns Hopkins University di Baltimora notò un insolito sapore dolce nel pane che stava mangiando. Tornato in laboratorio ad assaggiare sistematicamente i composti che aveva usato negli esperimenti di quel giorno – un sistema rischioso ma pratico, usato a volte a quel tempo per imparare a conoscere meglio le proprietà delle nuove molecole –, scoprì che la saccarina era effettivamente molto dolce. La saccarina non ha alcun valore calorico, e non passò molto tempo prima che questa fortunata combinazione di sapore dolce e assenza di calorie venisse sfruttata commercialmente (ciò avvenne a partire dal 1885). Usata in origine in sostituzione dello zucchero nella dieta dei pazienti diabetici, fu rapidamente accettata come un sostituto dello zucchero dalla popolazione generale. Le preoccupazioni sulla sua possibile tossicità e sul problema del suo retrogusto metallico condussero allo sviluppo di altri dolcificanti artificiali, come il ciclammato e l’aspartame. Come si può vedere, le strutture di queste sostanze sono tutte assai diverse fra loro e molto differenti da quelle degli zuccheri, e tuttavia esse hanno gli atomi appropriati, insieme alla specifica posizione atomica, alla geometria e alla flessibilità necessarie per produrre la sensazione di dolce.

Saccarina

Ciclammato di sodio

Aspartame

Nessun dolcificante artificiale è del tutto esente da problemi. Alcuni dolcificanti si decompongono quando vengono riscaldati, cosicché possono essere usati solo in bevande e cibi freddi; altri non sono particolarmente solubili; altri ancora hanno, insieme al sapore dolce, un gusto collaterale percepibile. L’aspartame, pur essendo sintetico, è composto da due amminoacidi presenti in natura. Esso viene metabolizzato dall’organismo, ma, essendo oltre duecento volte più dolce del glucosio, ne occorre molto di meno per produrre una sensazione di dolce soddisfacente. Devono evitare di usare l’aspartame le persone affette dalla condizione ereditaria nota come fenilchetonuria (PKT): l’incapacità di metabolizzare l’amminoacido fenilalanina, che è uno dei prodotti della scomposizione di questo dolcificante. Un nuovo dolcificante che fu approvato nel 1998 dalla Food and Drug Administration degli Stati Uniti affronta il problema della produzione del sapore dolce in un modo diverso. Il sucralosio ha una struttura molto simile a quella del saccarosio, con l’eccezione di due fattori. L’unità di glucosio, nella parte sinistra del diagramma, è sostituita dal galattosio, la stessa unità presente nel lattosio. Tre atomi di cloro (Cl) sostituiscono tre dei gruppi OH, com’è indicato in figura: uno sull’unità di galattosio e gli altri due sull’unità di destra, il fruttosio. I tre atomi di cloro non incidono sulla sensazione di dolce prodotta da questo zucchero, ma impediscono al corpo di metabolizzarlo. Perciò il sucralosio è uno zucchero non calorico.

La struttura del sucralosio: sono indicati con frecce i tre atomi di cloro (Cl) che sostituiscono tre gruppi OH, uno nell’unità galattosio (a sinistra) e gli altri due nell’unità fruttosio (a destra).

Oggi si cercano dolcificanti naturali non zuccherini in fonti vegetali contenenti dolcificanti molto potenti, ossia composti che possano essere anche migliaia di volte più dolci del saccarosio. Da secoli popolazioni indigene conoscono piante dal sapore dolce; ne sono esempi: la pianta erbacea del Sudamerica Stevia rebaudiana; le radici della liquirizia, Glycyrrhiza glabra; la Lippia dulcis, una pianta messicana della famiglia della verbena; i rizomi della Selliguea feei, una felce della parte occidentale di Giava. I composti dolci ottenuti da fonti naturali hanno dimostrato potenzialità di applicazioni commerciali, ma rimangono ancora in gran parte da risolvere i problemi legati alle loro piccole concentrazioni, alla loro tossicità, alla bassa solubilità in acqua, al retrogusto inaccettabile, a stabilità e qualità variabile. Benché la saccarina sia in uso da più di cento anni, non è stata la prima sostanza usata come dolcificante artificiale. Questa distinzione appartiene con ogni probabilità all’acetato di piombo, Pb(C2H3O2)2, che veniva usato per addolcire il vino ai tempi dell’Impero romano. Questo fatto dovrebbe darci motivo di meditare, se rimpiangiamo i bei tempi andati in cui cibi e bevande non venivano contaminati con additivi. I romani conservavano inoltre vino e altre bevande in recipienti di piombo e usavano tubi di piombo per portare l’acqua nelle loro case. L’avvelenamento da piombo è un fenomeno cumulativo. Esso colpisce il sistema nervoso e l’apparato riproduttivo, oltre ad altri organi. I sintomi iniziali dell’avvelenamento da piombo sono vaghi ma comprendono sonno

agitato, perdita di appetito, irritazione, mal di testa, dolori di stomaco e anemia. Si sviluppano danni al cervello, che conducono a una grande instabilità mentale e alla paralisi. Alcuni storici hanno attribuito la caduta dell’Impero romano all’avvelenamento da piombo, poiché avrebbero manifestato questi sintomi molti fra i personaggi dotati di maggiore autorità, fra cui l’imperatore Nerone. Soltanto la classe dominante romana, quella dell’aristocrazia, che deteneva anche le maggiori ricchezze, riceveva l’acqua in casa grazie a condutture in piombo e usava vasi di piombo per la conservazione del vino. La gente comune doveva andare a prendere l’acqua alle fontane pubbliche e conservava il vino in altri recipienti. Se l’avvelenamento da piombo contribuì effettivamente alla caduta dell’Impero romano, questo sarebbe un altro esempio di una sostanza chimica che cambiò il corso della storia.

Lo zucchero – l’apprezzamento del suo sapore dolce – plasmò la storia umana. Furono i grandi profitti assicurati dall’immenso mercato dello zucchero che stava sviluppandosi in Europa a motivare lo schiavismo e il trasporto di schiavi africani nel Nuovo Mondo. Senza zucchero ci sarebbe stata una tratta degli schiavi molto minore; senza schiavi ci sarebbe stato un commercio dello zucchero molto più modesto. Lo zucchero diede inizio all’immenso sviluppo dello schiavismo, che fu ulteriormente alimentato dai profitti del commercio di questo dolcificante naturale. La ricchezza degli stati dell’Africa occidentale – i suoi uomini – fu trasferita nel Nuovo Mondo per produrre ricchezza per altri. Anche dopo l’abolizione della schiavitù, il desiderio di zucchero continuò a influire sugli spostamenti di esseri umani in tutto il mondo. Alla fine dell’Ottocento un gran numero di lavoranti a contratto provenienti dall’India si recò nelle isole Figi per lavorare nelle piantagioni di canna da zucchero. La composizione etnica di questo gruppo di isole del Pacifico cambiò di conseguenza in modo così radicale che i melanesiani nativi persero la maggioranza numerica. Anche la composizione razziale della popolazione di altri Paesi tropicali deve molto allo zucchero. Molti fra i progenitori dell’attuale gruppo etnico di maggioranza nelle Hawaii vi emigrarono dal Giappone per lavorarvi nelle piantagioni di canna da zucchero. Lo zucchero continua a plasmare la società umana. Esso è un’importante

risorsa commerciale; i capricci della meteorologia e le infestazioni di parassiti influiscono a volte pesantemente sull’economia dei Paesi produttori di zucchero e sui mercati azionari di tutto il mondo. Un aumento del prezzo dello zucchero propaga i suoi effetti come una successione di onde in tutta l’industria alimentare. Lo zucchero è stato usato come uno strumento politico; per decenni l’acquisto dello zucchero cubano da parte dell’URSS ha sostenuto l’economia della Cuba di Fidel Castro. Lo zucchero è presente in gran parte di ciò che beviamo e mangiamo. I nostri figli preferiscono i cibi dolci. Quando riceviamo delle persone, tendiamo a offrire dolci; ricevere a casa degli ospiti non significa più dividere il pane con loro. Dolci di vario genere sono associati alle maggiori feste e celebrazioni in culture di tutto il mondo. I livelli di consumo, molto maggiori che in generazioni precedenti, della molecola glucosio e dei suoi isomeri si riflettono in problemi di salute come l’obesità, il diabete, la carie. Nella nostra vita quotidiana noi continuiamo a essere plasmati dallo zucchero.

4 LA CELLULOSA

La produzione di zucchero promosse lo sviluppo della tratta degli schiavi nel doppio continente americano, ma lo zucchero non fu l’unica nuova merce a propiziare l’importazione di schiavi nel Nuovo Mondo. Anche la coltivazione di altre piante che fornivano prodotti per il mercato europeo dipendeva dal lavoro di schiavi. Una di queste coltivazioni fu il cotone. Il cotone greggio importato dall’Inghilterra poteva essere convertito in manufatti a buon mercato che venivano mandati in Africa per scambiarli con schiavi da imbarcare per le piantagioni del Nuovo Mondo e specialmente per gli stati del Sud negli Stati Uniti. I profitti ricavati dallo zucchero fornirono l’impulso iniziale per questo triangolo di scambi, e fornirono il capitale iniziale per la crescente industrializzazione britannica. Furono però il cotone e il commercio del cotone a dare il via alla rapida espansione economica in Gran Bretagna verso la fine del Settecento e all’inizio dell’Ottocento.

Il cotone e la Rivoluzione industriale Il frutto della pianta del cotone è una capsula di forma ovoidale contenente semi oleosi racchiusi all’interno di una massa di fibre di cotone. Sappiamo che piante di cotone appartenenti al genere Gossypium furono coltivate in India e in Pakistan, ma anche in Messico e in Perù, circa 5000 anni fa. La pianta rimase però sconosciuta in Europa fino al 300 a.C. circa, quando soldati di Alessandro Magno tornarono dall’India con tessuti di cotone. Mercanti arabi portarono piante di cotone in Spagna durante il Medioevo. La pianta di cotone è sensibile al gelo e ha bisogno di terreni umidi ma ben drenati e di lunghe estati calde, non delle condizioni che si trovano nelle regioni temperate dell’Europa. L’Inghilterra e altri Paesi del Nordeuropa

erano quindi costretti a ricorrere a importazioni di questa fibra. Il Lancashire, in Inghilterra, divenne il centro del grande complesso industriale che si sviluppò intorno alla manifattura del cotone. Il clima umido della regione aiutava le fibre del cotone a unirsi, condizione perfetta per la manifattura di questa fibra, comportando una minore probabilità di rottura dei fili durante i processi di filatura e tessitura. I cotonifici in climi più secchi dovevano sopportare costi di produzione maggiori a causa di questo fattore. Il Lancashire aveva anche terreni disponibili per la costruzione di opifici e per ospitare le migliaia di persone che dovevano lavorare nell’industria del cotone, abbondanza di acqua dolce per il candeggio, la tintura e la stampa, e dovizia di carbone, fattore che divenne molto importante con l’introduzione delle macchine a vapore. Nel 1760 l’Inghilterra importò più di 1100 tonnellate di cotone greggio. Meno di ottant’anni dopo i cotonifici del Paese stavano lavorando più di 150.000 tonnellate. Questo aumento ebbe un effetto enorme sull’industrializzazione. La domanda di filati di cotone a buon mercato condusse a innovazioni meccaniche, e infine tutte le fasi della lavorazione del cotone furono meccanizzate. Il Settecento vide lo sviluppo della sgranatrice meccanica per separare la fibra di cotone dai semi, di macchine per la cardatura per preparare la fibra grezza, di filatoi e filatoi multipli per filare la fibra e attorcere il filato, e di varie versioni di spolette meccaniche per la tessitura. Ben presto queste macchine, inizialmente fatte funzionare da esseri umani, furono azionate da animali o da ruote idrauliche. L’invenzione della macchina a vapore a opera di James Watt condusse alla graduale introduzione del vapore come principale sorgente di potenza meccanica. Le conseguenze sociali del commercio del cotone furono enormi. Grandi aree dei Midlands inglesi furono trasformate da distretti agricoli con numerosi piccoli centri di scambio in una regione di quasi trecento cittadine e paesi industriali. Le condizioni di vita e di lavoro erano terribili. In un sistema di fabbrica fondato su regole severe e su una disciplina molto rigida, alla mano d’opera venivano chieste moltissime ore di lavoro. Anche se non ai livelli della schiavitù esistente nelle piantagioni di cotone sull’altra riva dell’Atlantico, la lavorazione del cotone in Gran Bretagna apportò servitù, squallore e miseria alle molte migliaia di persone che lavoravano nei cotonifici, ambienti polverosi, rumorosi e pieni di pericoli. I salari venivano spesso pagati in merci per le quali venivano imposti prezzi troppo alti: i

lavoratori non avevano voce in capitolo. Gli alloggi erano in condizioni vergognose; intorno alle fabbriche le case d’abitazione erano riunite lungo vie strette, buie e mal drenate. I lavoratori delle fabbriche e le loro famiglie erano ammassati in locali freddi, umidi e sporchi, spesso due o tre famiglie in una casa, con un’altra famiglia sistemata in cantina. Meno di metà dei bambini nati in queste condizioni sopravviveva fino al quinto giorno. Alcune autorità consideravano questa situazione con preoccupazione, non per il tasso spaventosamente elevato della mortalità infantile, ma perché questi bambini morivano «prima di poter essere impiegati nel lavoro di fabbrica, o in qualsiasi altro tipo di lavoro». Quando i bambini raggiungevano un’età sufficiente per poter lavorare nei cotonifici, dove la loro piccola statura permetteva loro di insinuarsi sotto le macchine per riparare con le loro agili dita le rotture dei fili, venivano spesso percossi per mantenerli svegli per l’intera durata delle dodici-quattordici ore della giornata di lavoro. Dall’indignazione per il cattivo trattamento dei bambini e per altri abusi trasse origine un diffuso movimento umanitario che fece pressione a favore di leggi che regolamentassero le ore di lavoro, il lavoro infantile, la sicurezza e le condizioni sanitarie nelle fabbriche: leggi da cui si è sviluppata poi gran parte delle nostra attuale legislazione industriale. Le condizioni di fabbrica indussero molti lavoratori ad assumere un ruolo attivo nel movimento sindacale e in numerosi altri movimenti a favore di riforme sociali, politiche e scolastiche. Il cambiamento non si realizzò però facilmente. I proprietari delle fabbriche e i loro soci gestivano un enorme potere politico ed erano riluttanti ad accettare qualsiasi diminuzione dei loro immensi profitti in conseguenza dei costi del miglioramento delle condizioni di lavoro. Una nube di fumo nero che saliva dalle centinaia di cotonifici era un carattere permanente della città di Manchester, la quale cresceva e prosperava insieme all’industria del cotone. I profitti del cotone furono usati per industrializzare ulteriormente la regione. Furono costruiti canali e ferrovie per trasportare materie prime e carbone alle fabbriche e prodotti finiti al vicino porto di Liverpool. Crebbe la domanda di ingegneri, meccanici, costruttori, chimici e artigiani, ossia di tutte le persone che avevano le conoscenze tecniche richieste da una grande attività industriale con prodotti e servizi così svariati come quelli concernenti i coloranti per tessuti, la sbianca, la siderurgia, la metallurgia, la lavorazione del vetro, la cantieristica navale e la costruzione di ferrovie.

Nonostante le leggi che abolivano la tratta degli schiavi, promulgate in Inghilterra nel 1807, gli industriali non esitavano a importare cotone prodotto col lavoro servile in Sudamerica. Il cotone greggio prodotto in altri Paesi, come l’Egitto e l’India oltre che gli Stati Uniti, fu la massima merce d’importazione della Gran Bretagna negli anni fra il 1825 e il 1873, ma la lavorazione di questa fibra ebbe un declino quando vennero a mancare i rifornimenti durante la Prima guerra mondiale. L’industria inglese del cotone non sarebbe mai più tornata ai livelli precedenti perché i Paesi produttori di cotone, installando macchine più moderne e potendo usare mano d’opera locale, meno costosa, divennero importanti produttori – e considerevoli consumatori – di tessuti di cotone. Il commercio dello zucchero aveva fornito il capitale originario per la Rivoluzione industriale, ma gran parte della prosperità della Gran Bretagna dell’Ottocento si fondò sulla domanda di cotone. I tessuti di cotone erano economici e attraenti, ideali per gli indumenti e per l’arredamento. Il cotone poteva essere combinato senza problemi con altre fibre ed era facile da lavare e cucire. Esso sostituì rapidamente il lino, più costoso, come fibra vegetale preferita dalla gente comune. Il grandissimo aumento della domanda di cotone greggio in Europa, e specialmente in Inghilterra, condusse a una grande espansione dello schiavismo in America. La coltivazione del cotone richiedeva un impiego intensivo di mano d’opera. La meccanizzazione dell’agricoltura, gli insetticidi e gli erbicidi furono invenzioni molto posteriori, cosicché le piantagioni di cotone dovevano fondarsi esclusivamente sulla mano d’opera fornita dagli schiavi. Si stima che nel 1840 ci fosse negli Stati Uniti una popolazione di schiavi ammontante a un milione e mezzo di persone. A distanza di soli vent’anni, quando le esportazioni di cotone greggio vennero a coprire due terzi del valore totale delle esportazioni degli Stati Uniti, il numero degli schiavi in questo Paese era salito a quattro milioni.

La cellulosa, un polisaccaride strutturale Come altre fibre vegetali, il cotone consta per oltre il 90 per cento di cellulosa, la quale è un polimero del glucosio e uno fra i componenti

principali della parete delle cellule vegetali. Il termine polimero viene spesso associato a fibre sintetiche e a materie plastiche, ma ci sono anche molti polimeri esistenti in natura. Il termine «polimero» deriva da due termini greci, poly-, che significa «molti», e meros, che significa «parte» (o unità): un polimero è quindi formato da molte unità. I polimeri del glucosio, noti anche come polisaccaridi, possono essere classificati sulla base della funzione che svolgono in una cellula. I polisaccaridi strutturali, come la cellulosa, forniscono un mezzo di sostegno per l’organismo; i polisaccaridi di riserva permettono di immagazzinare glucosio fino al momento in cui lo si deve usare. Le unità dei polisaccaridi strutturali sono unità diβ-glucosio, quelle dei polisaccaridi di riserva sono unità diα-glucosio. Come abbiamo visto nel capitolo 3, la letteraβ indica che il gruppo OH legato al carbonio in posizione 1 si trova sopra l’anello di glucosio. Nella struttura dell’α-glucosio il gruppo OH legato al carbonio in posizione 1 si trova invece sotto l’anello di glucosio.

La struttura delβ-glucosio

La struttura dell’α-glucosio

La diversità fraα-glucosio eβ-glucosio può sembrare piccola, ma si devono a essa le enormi differenze di funzione e ruolo che si riscontrano fra i vari polisaccaridi derivati da ogni versione del glucosio: se l’OH legato al carbonio numero 1 è sopra l’anello si ha la funzione strutturale, se è sotto l’anello si ha la funzione di riserva. In chimica ricorre spesso che una diversità molto piccola nella struttura di una molecola possa avere conseguenze profonde per le proprietà del composto. I polimeriα eβ del glucosio lo dimostrano molto bene. Tanto nei polisaccaridi di sostegno quanto in quelli di riserva, le unità di glucosio sono unite l’una all’altra attraverso il carbonio numero 1 su una molecola di glucosio e il carbonio numero 4 sulla molecola di glucosio

adiacente. Quest’unione avviene attraverso la rimozione di una molecola d’acqua formata da un atomo di idrogeno (H) di una delle due molecole di glucosio e da un gruppo OH appartenente all’altra molecola di glucosio. Questo processo è noto come condensazione, cosicché questi polimeri sono noti come polimeri di condensazione.

Condensazione (perdita di una molecola d’acqua) fra due molecole diβ-glucosio. Ogni molecola può ripetere nuovamente questo processo all’estremo opposto.

Ogni estremo della molecola può unirsi a un altro estremo per condensazione, formando lunghe catene continue di glucosio, con i restanti gruppi OH distribuiti lateralmente all’esterno della catena.

L’eliminazione di una molecola d’acqua (H2O) fra il C in posizione 1 di unβ-glucosio e il C in posizione 4 del successivo forma una lunga catena polimerica di cellulosa. Il diagramma presenta cinque unità diβ-glucosio.

Struttura di una parte di una lunga catena di cellulosa. L’ossigeno (O) legato a ogni C numero 1, qui indicato con frecce, èβ, cioè si trova sopra l’anello alla sua sinistra, e conferisce quindi alle unità di glucosio una funzione strutturale.

Molti fra i caratteri che fanno del cotone un tessuto così desiderabile derivano dalla struttura unica della cellulosa. Lunghe catene di cellulosa si uniscono compattamente insieme formando la fibra rigida insolubile con cui sono costruite le pareti delle cellule vegetali. L’analisi ai raggi X e la microscopia

elettronica, tecniche usate per determinare la struttura fisica di sostanze, mostrano che le catene di cellulosa sono unite compattamente di lato l’una all’altra in fasci. La forma che una connessione di tipoβ conferisce alla struttura permette alle catene di cellulosa di unirsi abbastanza compattamente da formare questi fasci, che poi si attorcono l’uno intorno all’altro formando le fibre visibili a occhio nudo. All’esterno dei fasci si trovano i gruppi OH che non hanno preso parte alla formazione della lunga catena della cellulosa, e che possono attrarre molecole d’acqua. La cellulosa può quindi assorbire acqua, spiegando così l’elevata assorbenza del cotone e di altri prodotti fondati sulla cellulosa. L’affermazione che «il cotone è una fibra che respira» non ha alcun rapporto col passaggio dell’aria, bensì con l’assorbenza dell’acqua da parte del cotone. Quando la temperatura è elevata, il sudore del corpo viene assorbito dagli indumenti di cotone mentre evapora, rinfrescandoci. Gli indumenti di nailon o di poliestere non assorbono l’umidità, cosicché il sudore non evapora dal corpo, lasciandoci in uno sgradevole stato di umidità.

Campi di cellulosa: un campo di cotone. (Foto di Peter Le Couteur)

Un altro polisaccaride di sostegno è la chitina, una variante della cellulosa che si trova nella corazza di crostacei come granchi, gamberi e aragoste. La chitina, come la cellulosa, è unβ-polisaccaride. Essa differisce dalla cellulosa solo nel carbonio in posizione 2 su ogni unità diβ-glucosio, dove l’OH è sostituito da un gruppo ammidico (NHCOCH3). Così ogni unità di questo polimero strutturale è una molecola di glucosio in cui il gruppo NHCOCH3 sostituisce l’OH legato al carbonio in posizione 2. Il nome di questa molecola è N- acetilglucosammina. Tutto questo può non sembrare estremamente interessante, ma se soffrite di artrite o di altri dolori alle articolazioni forse ne conoscete già il nome. La N-acetilglucosammina e il suo derivato strettamente affine della glucosammina, entrambi prodotti a partire dalla corazza di crostacei, hanno fornito sollievo a molte vittime dell’artrite. Si ritiene che stimolino la sostituzione del materiale cartilagineo nelle articolazioni o lo integrino.

Una parte della struttura del polimero chitina, che si trova nel carapace dei crostacei. Nella posizione del C numero 2 il gruppo OH della cellulosa è stato sostituito da NHCOCH3.

Gli esseri umani e altri mammiferi non posseggono gli enzimi digestivi necessari per rompere il legameβ in questi polisaccaridi strutturali, cosicché non possiamo usarli come fonte di nutrimento, nonostante i bilioni e bilioni di unità glucosio disponibili sotto forma di cellulosa nel regno vegetale. Ci sono però batteri e protozoi che producono gli enzimi necessari a rompere il legameβ, e che sono quindi in grado di scomporre la cellulosa nelle molecole di glucosio che la compongono. L’apparato digerente di alcuni animali comprende aree di riserva temporanee in cui vivono questi microrganismi, i quali consentono ai loro ospiti di ricavare nutrimento dalla cellulosa. Per esempio, nei cavalli svolge questa funzione un intestino cieco: un sacco a fondo cieco in cui si connettono l’intestino tenue e il crasso. I ruminanti – il gruppo comprendente bovini e ovini – hanno uno stomaco concamerato diviso in quattro comparti, uno dei quali, il rumine, contiene i batteri simbionti. Tali animali, inoltre, rigurgitano periodicamente il bolo e lo rimasticano, in un altro adattamento dell’apparato digerente che ha l’effetto di migliorare l’accesso all’enzima capace di rompere il legameβ. Nel caso dei conigli e di alcuni altri roditori, i batteri necessari vivono nell’intestino crasso. Poiché l’intestino tenue è la parte in cui viene assorbita la maggior parte delle sostanze nutritizie e l’intestino crasso segue al tenue,

questi animali ottengono i prodotti della scomposizione del legameβ mangiando le loro feci. Quando le sostanze nutritizie passano per la seconda volta nel canale digerente, l’intestino tenue è ora in grado di assorbire le unità di glucosio separate dalla cellulosa durante il primo passaggio. Questo può sembrarci un modo estremamente sgradevole di affrontare il problema dell’orientamento di un gruppo OH, ma è chiaro che per questi roditori esso funziona in un modo soddisfacente. Alcuni insetti, fra cui le termiti, le formiche del genere Camponotus e altri insetti che scavano gallerie nel tronco di alberi, ospitano nel loro corpo microrganismi che permettono loro di usare la cellulosa come cibo, con conseguenze a volte disastrose per abitazioni ed edifici umani costruiti in legno. Anche se noi non possiamo metabolizzare la cellulosa, essa rimane molto importante nella nostra dieta. Le fibre vegetali, formate da cellulosa e altri materiali non digeribili, aiutano il movimento dei prodotti di rifiuto lungo il canale digerente.

I polisaccaridi di riserva Pur non possedendo enzimi capaci di rompere un legameβ, abbiamo un enzima digestivo che scompone un legameα. La configurazioneα si trova nei polisaccaridi di riserva amido e glicogeno. L’amido, che è una delle nostre principali fonti alimentari di glucosio, si trova in radici, tuberi e semi di molte piante. È formato da due polisaccaridi leggermente diversi, entrambi polimeri di unità diα-glucosio. Una frazione dell’amido compresa fra il 20 e il 30 per cento è composta da amilosio, una catena non ramificata formata da varie migliaia di unità di glucosio unite da un legameα fra il carbonio numero 4 su un glucosio e il carbonio numero 1 sul glucosio successivo. L’unica differenza fra l’amilosio e la cellulosa è che nell’amilosio i legami sono di tipoα e nella cellulosa sono di tipoβ. I ruoli svolti dai due polisaccaridi cellulosa e amilosio sono però estremamente diversi.

Una parte della catena dell’amilosio, formata attraverso la perdita di molecole d’acqua fra unità diα-glucosio. I legami sono di tipoα, poiché l’atomo O si trova sotto l’anello per C in posizione 1.

Il restante 70-80 per cento dell’amido è formato da amilopectina. Anch’essa consta di lunghe catene di unità diα-glucosio legate fra gli atomi di carbonio in posizione 1 e 4 di due unità successive, ma l’amilopectina è una molecola ramificata con legami trasversali fra il carbonio in posizione 1 di un’unità di glucosio e il carbonio in posizione 6 di un’altra unità (legamiα-1,6 glicosidici), legami che si presentano al ritmo di uno ogni 20-25 unità di glucosio. La presenza di un numero di unità di glucosio che può raggiungere il milione in catene interconnesse fa dell’amilopectina una delle molecole più grandi esistenti in natura.

Parte della struttura dell’amilopectina. La freccia mostra il legame trasversaleα-1,6 glicosidico responsabile della ramificazione dell’amilopectina.

Negli amidi, il legameα-glicosidico è responsabile di altre importanti proprietà oltre che della nostra capacità di digerirli. Le catene di amilosio e di amilopectina assumono la configurazione di un’elica anziché la struttura lineare molto compatta della cellulosa. Quando molecole di acqua hanno sufficiente energia, riescono a penetrare nelle spire elicoidali più aperte; perciò l’amido è solubile in acqua mentre la cellulosa non lo è. Come sanno tutti i cuochi, la solubilità in acqua dell’amido dipende fortemente dalla temperatura. Se si riscalda una sospensione d’amido e acqua, i granuli di amido assorbono sempre più acqua finché, a una certa temperatura, le molecole d’amido sono costrette a separarsi, formando una rete di lunghe molecole sparse nel liquido. Questo stato del miscuglio è noto come gel. La sospensione, dapprima torbida, diventa poi trasparente e il miscuglio comincia ad addensarsi. Perciò i cuochi, per addensare i sughi, usano fonti d’amido come farina, tapioca e amido di granturco. Negli animali il polisaccaride di riserva è il glicogeno, che viene prodotto principalmente nel fegato e nei muscoli scheletrici. Il glicogeno è una molecola molto simile all’amilopectina, ma mentre l’amilopectina presenta un legame trasversaleα-1,6 glicosidico ogni 20-25 unità di glucosio, il glicogeno presenta questi legamiα trasversali responsabili della ramificazione ogni 10 unità di glucosio. La molecola che ne risulta è quindi altamente ramificata, cosa che ha una conseguenza molto importante per gli animali. Una catena non ramificata ha solo due estremi, mentre una catena altamente ramificata, con lo stesso numero complessivo di unità di glucosio, ne ha un gran numero. Quando occorre energia con grande urgenza, molte molecole di

glucosio possono essere ricavate simultaneamente da molti di tali estremi. Le piante, diversamente dagli animali, non hanno bisogno di esplosioni improvvise di energia per sfuggire a predatori o per cacciare prede, cosicché per il loro ritmo metabolico inferiore sono sufficienti riserve come quelle offerte dall’amilopectina, meno ramificata del glicogeno, o dall’amilosio, che è addirittura privo di ramificazioni. La piccola differenza chimica, concernente solo il numero e non anche il tipo dei legami trasversali, è alla base di una delle differenze fondamentali fra piante e animali.

Amilosio

Amilopectina (nelle piante)

Glicogeno (negli animali)

I diversi tipi di ramificazione nell’amido (amilosio e amilopectina) messi a confronto con quello del glicogeno. Quanto maggiore è la ramificazione, tanto maggiore è il numero di estremi di catena disponibili per enzimi capaci di rompere i legami, e tanto più rapidamente può quindi essere metabolizzato il glucosio.

Cellulosa esplosiva Benché nel mondo esista una quantità grandissima di polisaccaridi di riserva, c’è una quantità molto maggiore del polisaccaride di sostegno cellulosa. Secondo certi autori, metà di tutto il carbonio organico è legato nella cellulosa. Ogni anno viene biosintetizzata e degradata una quantità di cellulosa stimata in 1014 chilogrammi (circa 100 bilioni di tonnellate). E

poiché la cellulosa è una risorsa non solo abbondante ma anche rinnovabile, la possibilità di usarla come materiale di partenza economico e facilmente disponibile per nuovi prodotti ha attratto da molto tempo l’attenzione di chimici e di imprenditori.

La struttura di una parte di una molecola di cellulosa. Le frecce mostrano dove la nitrazione può aver luogo sul gruppo OH legato agli atomi di carbonio nelle posizioni 2, 3 e 6 di ogni unità di glucosio.

Fra il 1830 e il 1840 si scoprì che la cellulosa si scioglieva in acido nitrico concentrato, e che questa soluzione, se versata in acqua, formava una polvere bianca altamente infiammabile ed esplosiva. La commercializzazione di questo prodotto dovette attendere fino al 1845, quando lo svizzero Friedrich Schönbein, di Basilea, fece una singolare scoperta. Schönbein stava sperimentando con miscugli di acido nitrico e acido solforico nella cucina di casa sua, contro la volontà della moglie che, forse comprensibilmente, gli aveva rigorosamente proibito l’uso della casa per quelle attività. Quel giorno la moglie era uscita, e Schönbein rovesciò accidentalmente un po’ di quel miscuglio acido. Ansioso di rimediare prontamente, afferrò la prima cosa che trovò a portata di mano, il grembiule di cotone della moglie. Dopo avere ripulito, appese il grembiule sopra la stufa per farlo asciugare più rapidamente. Ben presto, però, il grembiule esplose, con una detonazione estremamente forte e un grande lampo. Non sappiamo come abbia reagito la

moglie al suo ritorno a casa, quando scoprì che il marito stava continuando i suoi esperimenti in cucina col cotone e col miscuglio di acido nitrico. Quel che sappiamo è che Schönbein chiamò il suo materiale Schiessbaumwolle, o «cotone fulminante». Il cotone è per il 90 per cento cellulosa, e noi oggi sappiamo che il cotone fulminante era nitrocellulosa, il composto che si forma quando il gruppo nitro (NO2) sostituisce l’H del gruppo OH in un certo numero di posizioni sulla molecola di cellulosa. Non tutte queste posizioni sono necessariamente nitrate, ma quanta più nitrazione si è verificata sulla cellulosa, tanto più esplosivo risulta il cotone fulminante prodotto.

Una parte della struttura della nitrocellulosa o «cotone fulminante», in cui è illustrata la nitrazione: il gruppo -NO2 è sostituito a ogni -H in ogni possibile posizione di OH su ogni unità di glucosio della cellulosa.

Schönbein, riconoscendo le potenzialità di generare profitto dalla sua scoperta, fondò delle fabbriche per la produzione della nitrocellulosa, sperando che diventasse un’alternativa alla polvere da sparo. La nitrocellulosa può essere però un composto estremamente pericoloso, a meno che non venga tenuta asciutta e trattata con grande cura. A quel tempo non si aveva ancora nozione dell’effetto destabilizzante dell’acido nitrico residuo sul materiale, cosicché varie fabbriche furono distrutte accidentalmente da violente esplosioni, costringendo Schönbein ad abbandonare quell’attività. Solo verso il 1870, quando si trovarono metodi appropriati per ripulire il

cotone fulminante dell’acido nitrico in eccesso, il materiale poté essere reso abbastanza stabile da essere usato in esplosivi commerciali. In seguito, il controllo di questo processo di nitrazione condusse a diverse nitrocellulose, fra cui un cotone fulminante, ad alto contenuto di nitrato, e due materiali a basso contenuto di nitrato, collodio e celluloide. Il collodio è una nitrocellulosa mescolata con alcol e acqua e fu molto usato in fotografia. La celluloide, una nitrocellulosa mischiata con canfora, fu uno dei primi materiali plastici di grande successo e fu usata in origine come pellicola per i film. Un altro derivato della cellulosa, l’acetato di cellulosa, risultò essere meno infiammabile della nitrocellulosa e la sostituì rapidamente per molti usi. Le industrie della fotografia e del cinema, che oggi sono imprese commerciali enormi, devono i loro inizi alla struttura chimica della versatile molecola della cellulosa. La cellulosa è insolubile in quasi tutti i solventi ma si scioglie in una soluzione alcalina di un solvente organico, il disolfuro di carbonio, formando un derivato della cellulosa chiamato xantato di cellulosa. Questa sostanza è nella forma di una dispersione colloidale viscosa e ha ricevuto il nome commerciale di viscosa. Quando la viscosa viene estrusa attraverso piccoli fori e il filamento risultante viene trattato con acido, la cellulosa viene rigenerata nella forma di fili sottili che possono essere usati nella produzione di un tessuto noto commercialmente come rayon. Un processo simile in cui la viscosa viene estrusa attraverso una sottile fenditura produce fogli di cellofan. Rayon e cellofan sono considerati di solito tessuti sintetici, ma non sono in realtà materiali del tutto artificiali, essendo solo forme un po’ diverse derivate dalla cellulosa, che è un materiale esistente in grande abbondanza in natura.

Sia il polimeroα del glucosio (l’amido) sia il suo polimeroβ (cellulosa) sono componenti essenziali della nostra dieta e in quanto tali hanno avuto, e avranno sempre, una funzione indispensabile nella società umana. Sono però i ruoli non dietetici della cellulosa e dei suoi vari derivati ad avere costituito delle pietre miliari nella storia. La cellulosa, nella forma di cotone, fu responsabile di due fra gli eventi più influenti dell’Ottocento: la Rivoluzione industriale e la Guerra di secessione americana. Il cotone fu la star della Rivoluzione industriale, trasformando la faccia dell’Inghilterra attraverso lo spopolamento delle campagne, l’urbanizzazione, la rapida

industrializzazione, innovazione e invenzione, il cambiamento sociale e la diffusione di una maggiore prosperità. Al tempo stesso il cotone ricorda una delle massime crisi nella storia degli Stati Uniti: lo schiavismo fu il problema più importante nella Guerra di secessione che contrappose il Nord abolizionista e gli stati del Sud, il cui sistema economico si fondava sul cotone coltivato dagli schiavi. La nitrocellulosa (fulmicotone) fu uno dei primissimi esplosivi organici prodotti dall’uomo e la sua scoperta segnò l’inizio di varie industrie moderne fondate in origine su forme nitrate della cellulosa: esplosivi, fotografia e cinema. L’industria dei tessuti sintetici, con i suoi inizi a partire dal rayon – una diversa forma della cellulosa –, ha svolto un ruolo significativo nel plasmare l’economia del secolo scorso. Senza queste applicazioni della cellulosa il nostro mondo sarebbe molto diverso.

5 I NITRODERIVATI

Il grembiule deflagrante della moglie di Schönbein non fu il primo esempio di molecola esplosiva prodotta dall’uomo, né sarebbe stato l’ultimo. Quando una reazione chimica è molto rapida, può avere una potenza spaventosa. La cellulosa è solo una delle molte molecole che abbiamo modificato per usare a nostro vantaggio la sua capacità di produrre reazioni esplosive. Alcuni di questi composti hanno prodotto benefìci immensi; altri hanno causato distruzioni diffuse. Attraverso le loro proprietà esplosive, queste molecole hanno avuto un effetto considerevole sul nostro mondo. Benché le strutture delle molecole esplosive possano essere molto varie, per lo più contengono un gruppo nitrico. Questa piccola combinazione di atomi, uno di azoto e due di ossigeno, NO2, uniti nella posizione giusta, ha molto accresciuto le nostre capacità belliche, cambiato la sorte di molte nazioni e ci ha permesso letteralmente di muovere montagne.

La polvere da sparo: il primo esplosivo La polvere da sparo (nota anche come polvere pirica o polvere nera), il primo miscuglio esplosivo che sia mai stato inventato, fu usata già in tempi molto antichi in Cina, in Arabia e in India. Gli antichi testi cinesi la chiamano «fuoco chimico» o «medicina di fuoco». I suoi ingredienti non furono registrati fino all’inizio dell’anno 1000 d.C., e anche allora non furono specificate le esatte proporzioni del sale nitrato, dello zolfo e del carbonio. Il sale nitrato (chiamato salnitro o «neve cinese») è nitrato di potassio, con formula chimica KNO3. Il carbonio presente nella polvere da sparo era sotto forma di carbonella ed era proprio questo ingrediente a dare alla polvere il suo colore nero.

La polvere da sparo fu usata all’inizio in petardi e fuochi d’artificio, ma alla metà dell’XI secolo si cominciarono a lanciare con la polvere da sparo oggetti fiammeggianti usati come armi e noti come frecce di fuoco. Nel 1067 i cinesi misero la produzione di zolfo e di salnitro sotto il controllo del governo. Non abbiamo alcuna certezza circa la data in cui la polvere da sparo arrivò in Europa. Il frate francescano Ruggero Bacone, nato in Inghilterra, che studiò prima a Oxford e poi all’Università di Parigi, menzionò nei suoi scritti la polvere da sparo intorno al 1260, vari anni prima che Marco Polo tornasse a Venezia dalla Cina con varie narrazioni su questo esplosivo. Bacone era anche medico e sperimentatore e conosceva bene le scienze che noi oggi chiamiamo astronomia, chimica e fisica. Parlava bene l’arabo ed è probabile che abbia appreso l’esistenza della polvere da sparo da un popolo nomade, i saraceni, che facevano da mediatori fra l’Oriente e l’Occidente. Bacone dev’essere stato consapevole del potenziale di distruzione di questo esplosivo poiché ne celò la composizione in un anagramma: decifrato, esso parla di sette parti di salnitro, cinque di carbone e cinque di zolfo. Il suo enigma non fu risolto per 650 anni e fu finalmente svelato da un colonnello dell’esercito britannico. A quell’epoca la polvere da sparo era ovviamente già in uso da secoli. L’attuale polvere da sparo ha una composizione un po’ diversa, ma contiene una proporzione di salnitro maggiore di quella della formulazione di Bacone. La reazione chimica per l’esplosione della polvere da sparo può essere scritta così: 4KNO3(s) + 7C(s) + S(s)→ 3CO2(g) + 3CO(g) + 2N2(g) + K2CO3(s) + K2S(s) nitrato carbonio zolfo anidride di carbonica potassio

monossido carbonio

di azoto carbonato potassio

di solfuro potassio

di

Quest’equazione chimica ci dice i rapporti delle sostanze che reagiscono e i rapporti dei prodotti ottenuti. La notazione (s) significa che la sostanza è solida, mentre (g) significa che è un gas. Dall’equazione si può vedere che tutti i reagenti sono solidi ma che si formano otto molecole di gas: tre di anidride carbonica, tre di monossido di carbonio e due di azoto. Sono i gas caldissimi, in rapida espansione, prodotti dalla rapida combustione della

polvere da sparo, a imprimere il movimento a una palla di cannone o a un proiettile. Il carbonato di potassio e il solfuro di potassio – i due composti solidi che si formano – vengono dispersi sotto forma di piccole particelle, il caratteristico fumo denso della polvere da sparo che esplode. Le prime armi da fuoco, che si ritiene siano state costruite da qualche parte in Europa fra il 1300 e il 1325, erano tubi di ferro caricati con polvere da sparo, che veniva accesa inserendovi un filo metallico riscaldato. In coincidenza con lo sviluppo di armi più evolute (il moschetto, il fucile a pietra focaia, l’archibugio a ruota), divenne evidente il bisogno di diverse velocità di combustione della polvere da sparo. Le armi da fianco avevano bisogno di una polvere che bruciasse più rapidamente, i fucili di una polvere a combustione più lenta e cannoni e razzi di una combustione ancora più lenta. Si usava un miscuglio di alcol e acqua per produrre una polvere che si aggregasse e potesse essere macinata e setacciata per fornire una varietà di grana, da fine a media a più grossolana. Quanto più fine è la polvere tanto più veloce è la sua combustione, cosicché divenne possibile produrre polveri da sparo appropriate per le diverse applicazioni. L’acqua usata per la loro produzione veniva spesso fornita sotto forma di urina da parte degli operai della fabbrica; si riteneva che l’urina di un grande bevitore di vino creasse una polvere da sparo particolarmente potente. Ancora più apprezzata era l’urina di un prete, o meglio ancora di un vescovo, che si pensava fornisse un prodotto ancora superiore.

Chimica degli esplosivi La grande energia sprigionata dagli esplosivi è causata dalla produzione dei gas e dalla loro rapida espansione conseguenti al calore della reazione. I gas hanno un volume molto maggiore di quello di solidi o liquidi di massa simile. La potenza distruttiva dell’esplosione è dovuta all’onda d’urto causata dal rapidissimo aumento di volume determinato dalla generazione dei gas. L’onda d’urto generata dalla combustione di polvere da sparo percorre circa cento metri al secondo, ma per gli esplosivi di grande potenza (come il tritolo o la nitroglicerina) la velocità dell’onda d’urto può aumentare fino a seimila metri al secondo.

Tutte le reazioni esplosive sprigionano grandi quantità di calore. Si dice che esse sono altamente esotermiche. Tutto quel calore opera accrescendo considerevolmente il volume dei gas: quanto più elevata è la temperatura tanto maggiore è il volume dei gas. Il calore proviene dalla differenza di energia fra le molecole nei due membri dell’equazione della reazione esplosiva. Le molecole prodotte (nella parte destra dell’equazione) hanno, impegnata nei loro legami chimici, un’energia minore di quella delle molecole di partenza (nella parte sinistra). I composti che si formano sono più stabili. In reazioni esplosive di nitroderivati si forma la molecola, estremamente stabile, di azoto, N2. La stabilità della molecola di N2 è dovuta alla forza del triplo legame che tiene insieme due atomi di azoto. N≡N Struttura della molecola di azoto (N2)

Il fatto che questo triplo legame sia molto forte significa che per romperlo è richiesta una grande quantità di energia. Inversamente, quando si forma il triplo legame della molecola di N2, si libera una quantità di energia, che è esattamente ciò che si desidera in una reazione esplosiva. Una terza proprietà importante delle reazioni esplosive, oltre alla loro produzione di calore e di gas, è che devono essere estremamente rapide. Se la reazione esplosiva fosse lenta, il calore risultante si dissiperebbe e i gas si diffonderebbero nell’ambiente senza il violento aumento di pressione, l’onda d’urto dirompente e le temperature elevate caratteristiche di un’esplosione. L’ossigeno richiesto per una tale esplosione dev’essere fornito dalla molecola che esplode; non può provenire dall’aria perché l’ossigeno atmosferico non è disponibile con la rapidità richiesta. Così i nitroderivati, in cui azoto e ossigeno sono legati insieme, sono spesso esplosivi, mentre non lo sono altri composti contenenti entrambi i due elementi, ma non legati insieme. Possiamo vederlo usando come esempio degli isomeri (gli isomeri sono composti che hanno la stessa formula chimica ma strutture diverse). Il paranitrotoluene e l’acido para-amminobenzoico hanno entrambi sette atomi di carbonio, sette atomi di idrogeno, un atomo di azoto e due atomi di ossigeno, cosa che si traduce in una formula chimica bruta identica per i due composti C7H7NO2, ma questi atomi sono ordinati diversamente nelle due molecole.

p-nitrotoluene

acido p-amminobenzoico

Il para-nitrotoluene o p-nitrotoluene (para- significa che i gruppi CH3 e NO2 sono agli estremi opposti della molecola) può essere esplosivo, mentre l’acido p-amminobenzoico non lo è. In effetti, probabilmente ve lo siete applicato sulla pelle d’estate; infatti esso è il PABA (da P-AmminoBenzoic Acid), l’ingrediente attivo in molte lozioni protettive contro la radiazione solare. I composti come il PABA assorbono la luce ultravioletta alle lunghezze d’onda che sono risultate essere le più dannose per le cellule della pelle. L’assorbimento della luce ultravioletta a lunghezze d’onda particolari dipende dalla presenza nel composto di singoli e doppi legami alternati, forse anche con atomi di ossigeno e azoto. La variazione nel numero dei legami o degli atomi di questa configurazione modifica la lunghezza d’onda dell’assorbimento. Si possono usare come protezione contro la radiazione solare anche altri composti che assorbono alle lunghezze d’onda richieste, purché non vengano eliminati facilmente in acqua, non abbiano effetti tossici o allergici, odore o sapore sgradevole e non si decompongano al sole. L’esplosività di una molecola nitrata dipende dal numero di gruppi nitro in essa presenti. Il nitrotoluene ha solo un nitrogruppo. Un’ulteriore nitrazione può aggiungere altri due o tre gruppi nitrici, con formazione, rispettivamente, di dinitrotolueni e trinitrotolueni. Benché tanto il nitrotoluene quanto il dinitrotoluene possano esplodere, non sviluppano congiuntamente la stessa potenza della molecola di esplosivo ad alto potenziale del trinitrotoluene (TNT) o tritolo.

Toluene

Nitrotoluene

Dinitrotoluene

Trinitrotoluene (TNT)

I nitrogruppi sono indicati da frecce

Grandi progressi nel campo degli esplosivi si verificarono nell’Ottocento quando i chimici cominciarono a studiare gli effetti dell’acido nitrico su composti organici. Solo pochi anni dopo che lo svizzero Friedrich Schönbein ebbe distrutto con i suoi esperimenti il grembiule della moglie, il chimico torinese Ascanio Sobrero preparò un’altra nitromolecola altamente esplosiva. Egli fece sgocciolare del glicerolo, noto anche come glicerina e facilmente ottenibile da grasso animale, in una miscela raffreddata di acido solforico e acido nitrico, e versò il miscuglio risultante in acqua. Si separò allora uno strato oleoso di quella che è nota oggi come nitroglicerina. Usando un procedimento normale ai suoi tempi ma impensabile oggi, Sobrero assaggiò il nuovo composto e annotò che una traccia di esso portata a contatto della lingua ma non inghiottita causa un violento mal di testa con pulsazioni, accompagnato da una grande debolezza delle membra. Successive ricerche sui forti dolori di testa sofferti da lavoratori dell’industria degli esplosivi mostrarono che questi disturbi erano dovuti alla dilatazione dei vasi sanguigni causata dal contatto fisico con la nitroglicerina. Questa scoperta condusse alla prescrizione della nitroglicerina nel trattamento dell’angina pectoris.

Glicerolo (glicerina)

Nitroglicerina

Per chi soffre di angina pectoris, la dilatazione di vasi sanguigni in precedenza ristretti o parzialmente ostruiti permette il ripristino di un rifornimento adeguato di sangue al cuore e allevia quindi il dolore dell’angina. Noi oggi sappiamo che nel nostro corpo la nitroglicerina libera la semplice molecola dell’ossido di azoto (NO), che è responsabile dell’effetto di dilatazione. Le ricerche su questo aspetto dell’ossido di azoto hanno condotto a sviluppare anche il farmaco anti-impotenza Viagra, che dipende anch’esso dall’effetto vasodilatatore dell’ossido di azoto. Fra le altre funzioni fisiologiche dell’ossido di azoto sono compresi il mantenimento della pressione sanguigna, la funzione di molecola messaggera che trasporta segnali fra cellule, il consolidamento della memoria a lungo termine e un aiuto alla digestione. A partire da tali ricerche sono stati sviluppati farmaci per il trattamento dell’ipertensione nei neonati e per la terapia di persone colpite da forti scariche elettriche. Nel 1998 il premio Nobel per la medicina fu assegnato a Robert Furchgott, Louis Ignarro e Ferid Murad per la scoperta della funzione svolta nel corpo dall’ossido di azoto. Eppure, in uno dei molti casi curiosi della chimica, Alfred Nobel, che usò le immense ricchezze procurategli dalla nitroglicerina per fondare i premi che portano il suo nome, rifiutò personalmente il trattamento con nitroglicerina per combattere i dolori al petto conseguenti alla sua cardiopatia. Egli non credeva che funzionasse; pensava che la nitroglicerina causasse il mal di testa, ma non che potesse alleviare dolori conseguenti a disturbi cardiaci. La nitroglicerina è una molecola altamente instabile, che esplode quando viene riscaldata o colpita con un martello. La reazione esplosiva 4C3H5N3O9(l)→ 6N2(g) + 12CO2(g) + 10H2O(g) + O2(g) nitroglicerina

azoto

anidride carbonica

acqua

ossigeno

produce nubi di gas in rapida espansione e grandi quantità di calore. In contrasto con la polvere da sparo, che produce seimila atmosfere di pressione in millesimi di secondo, una quantità uguale di nitroglicerina produce 270.000 atmosfere di pressione in un tempo di milionesimi di secondo. La polvere da sparo è abbastanza sicura da usare, mentre la nitroglicerina è molto imprevedibile e può esplodere spontaneamente in conseguenza di un

urto o di riscaldamento. C’era bisogno di un modo sicuro e affidabile per maneggiarla e per farla esplodere o «detonare».

L’idea della dinamite di Nobel Alfred Bernard Nobel, nato nel 1833 a Stoccolma, ebbe l’idea di usare – invece di una miccia, che causava solo una combustione lenta della nitroglicerina – l’esplosione di una piccola quantità di polvere da sparo per causare l’esplosione di una massa di nitroglicerina molto maggiore. Fu una grande idea: essa funzionò, e il concetto è usato ancora oggi nelle molte esplosioni controllate che fanno parte della routine quotidiana nell’industria mineraria e nell’edilizia. Dopo avere risolto il problema di produrre un’esplosione desiderata, però, Nobel aveva ancora quello di evitare un’esplosione indesiderata. La famiglia di Nobel aveva una fabbrica che produceva e vendeva esplosivi; nel 1864 essa aveva cominciato a produrre nitroglicerina per applicazioni commerciali come lo scavo di tunnel e miniere. Nel settembre di quell’anno uno dei laboratori Nobel di Stoccolma fu distrutto da un’esplosione in cui perirono cinque persone, fra cui il fratello più giovane di Alfred Nobel, Emil. Anche se la causa dell’esplosione non fu mai accertata con sicurezza, le autorità di Stoccolma proibirono per sempre la produzione di nitroglicerina. Nobel, che non si lasciava spaventare tanto facilmente, costruì un nuovo laboratorio su pontoni ancorati sul lago di Mälaren, appena fuori Stoccolma. La domanda di nitroglicerina aumentò rapidamente man mano che diventavano noti i suoi vantaggi sulla polvere da sparo, che era molto meno potente. Nel 1868 Nobel aveva aperto stabilimenti in undici Paesi europei, e si era addirittura insediato negli Stati Uniti con una società a San Francisco. La nitroglicerina veniva spesso contaminata dall’acido usato nella sua produzione e tendeva lentamente a decomporsi. I gas prodotti da questa decomposizione facevano saltare i tappi dei recipienti di zinco in cui l’esplosivo veniva trasportato. Inoltre l’acido presente nella glicerina impura corrodeva lo zinco, cosicché i recipienti potevano perdere. Per isolare i recipienti e assorbire ogni perdita si cominciarono perciò a usare materiali

d’imballaggio come segatura, ma tali precauzioni non erano sufficienti e fecero poco per accrescere la sicurezza. Ignoranza e disinformazione condussero spesso a incidenti terribili. Gli errori nel trattamento del materiale furono abbastanza comuni. In un caso si usò addirittura olio di nitroglicerina come lubrificante sulle ruote di un carro che trasportava l’esplosivo, ovviamente con risultati disastrosi. Nel 1866 un carico di nitroglicerina esplose in un deposito della Wells Fargo, uccidendo quattordici persone. Nello stesso anno un piroscafo di 1700 tonnellate, lo European, saltò in aria mentre scaricava nitroglicerina sulla costa atlantica di Panama, causando la morte di 47 persone e più di un milione di dollari di danni. Sempre nel 1866 delle esplosioni rasero al suolo stabilimenti per la produzione di nitroglicerina in Germania e in Norvegia. Le autorità di tutto il mondo divennero sempre più preoccupate. Francia e Belgio bandirono la nitroglicerina, e decisioni simili furono proposte in altri Paesi, nonostante un’accresciuta richiesta mondiale di questo esplosivo incredibilmente potente. Nobel cominciò a cercare modi per stabilizzare la nitroglicerina senza perdere potenza. La solidificazione sembrava un metodo ovvio, cosicché egli fece esperimenti mescolando la nitroglicerina liquida, oleosa, con solidi neutri come segatura, cemento e carbone in polvere. Ci sono sempre state congetture sul problema se il prodotto che oggi conosciamo come «dinamite» sia stato il risultato di un’investigazione sistematica, come sostenne Nobel, o piuttosto di una scoperta fortuita. Anche ammesso che si sia trattato di una scoperta fortunata, Nobel fu abbastanza acuto da riconoscere che il Kieselguhr, un materiale naturale siliceo, che si sostituiva a volte alla segatura come materiale d’imballaggio, poteva assorbire la nitroglicerina liquida sfuggita dai recipienti restando però poroso. Il Kieselguhr, nome tedesco della cosiddetta farina fossile nota anche come diatomite, è una roccia porosa e farinosa formata dai resti dei gusci di diatomee e ha molti altri impieghi: essa viene usata come materiale filtrante in raffinerie di zucchero, come isolante e come polvere per lucidare i metalli. Ulteriori esperimenti mostrarono che, mescolando glicerina liquida con Kieselguhr nella proporzione di un terzo circa del suo peso, si otteneva una massa plastica con la consistenza di uno stucco. La farina fossile diluiva la nitroglicerina; la separazione delle particelle di nitroglicerina rallentava la rapidità della loro decomposizione. L’effetto esplosivo poteva ora essere controllato. Nobel chiamò il miscuglio di nitroglicerina e Kieselguhr «dinamite», con

riferimento alla parola dynamis (potenza). La dinamite poteva assumere qualsiasi forma si desiderasse darle, non si decomponeva con facilità e non esplodeva accidentalmente. Nel 1867 la Nobel & Company, come si chiamò ora l’azienda di famiglia, cominciò a inviare per nave in vari Paesi carichi di dinamite, brevettata di recente come «polvere di sicurezza di Nobel». Ben presto sorsero fabbriche di dinamite Nobel in tutto il mondo e la fortuna della famiglia fu assicurata. Che Alfred Nobel, produttore di esplosivi, fosse anche un pacifista può sembrare una contraddizione, ma in realtà tutta la sua vita fu piena di contraddizioni. Da bambino fu di salute cagionevole e non ci si attendeva che arrivasse all’età adulta, ma sopravvisse ai suoi genitori e ai suoi fratelli. Fu descritto in termini un po’ paradossali come schivo, estremamente posato, ossessionato dal suo lavoro, molto sospettoso, solitario e molto caritatevole. Egli era convinto che l’invenzione di un’arma veramente terribile potesse esercitare una dissuasione in grado di assicurare davvero una pace duratura nel mondo: una speranza che, a distanza di più di un secolo e con varie armi veramente terribili oggi disponibili, non è stata ancora realizzata. Nobel morì nel 1896, mentre lavorava da solo alla scrivania nella sua casa di Sanremo, in Liguria. Il suo grandissimo patrimonio fu destinato alla fondazione di premi annuali da assegnare agli autori di ricerche in chimica, fisica, medicina e letteratura, e a chi si fosse distinto con iniziative per favorire la pace nel mondo. Nel 1968, per onorare la memoria di Alfred Nobel, la Banca di Svezia istituì anche un premio per l’economia. Benché venga chiamato anch’esso premio Nobel, non fa parte della dotazione originaria.

La guerra e gli esplosivi L’invenzione di Nobel non poté essere usata come propellente per proiettili, poiché le armi da fuoco non sarebbero state in grado di resistere alla tremenda forza esplosiva della dinamite. I capi militari non avevano tuttavia ancora trovato un esplosivo adatto più potente della polvere pirica, un esplosivo che non producesse nubi di fumo nero, che fosse sicuro da maneggiare e che permettesse di caricare rapidamente le armi. Dall’inizio degli anni ’80 dell’Ottocento erano state usate come «polvere senza fumo» –

e sono ancor oggi alla base degli esplosivi per armi da fuoco – varie formulazioni della nitrocellulosa (cotone fulminante) o della nitrocellulosa mescolata con nitroglicerina. I cannoni e altri pezzi di artiglieria pesante non sono così limitati nella scelta delle cariche di lancio. Nella Prima guerra mondiale le munizioni contenevano principalmente acido picrico e trinitrotoluene. L’acido picrico, un solido di un colore giallo vivace sintetizzato per la prima volta nel 1771, fu usato in origine come colorante artificiale per la seta e per la lana. È un fenolo a tripla nitrazione, relativamente facile da produrre.

Fenolo

Trinitrofenolo o acido picrico

Nel 1871 si trovò che, usando un detonatore abbastanza potente, si poteva fare esplodere l’acido picrico. Esso fu usato per la prima volta in granate d’artiglieria dai francesi nel 1885, e poi dagli inglesi durante la Guerra angloboera del 1899-1902. L’acido picrico umido esplodeva però solo con difficoltà, cosicché in caso di pioggia o di tempo umido si verificavano parecchi errori di tiro. La sua acidità lo faceva inoltre reagire con metalli con formazione di «picrati», che erano sensibili agli urti. Questa sensibilità causava l’esplosione delle granate d’artiglieria al primo contatto, impedendo loro di forare spesse lastre corazzate. Chimicamente simile all’acido picrico, il trinitrotoluene, noto anche come tritolo o TNT (dalle iniziali di tri, nitro e toluene), era più adatto per le munizioni.

Toluene

Trinitrotoluene o TNT

Acido picrico

Non era acido, non risentiva dell’umidità e aveva un punto di fusione relativamente basso, cosicché poteva facilmente essere fuso e versato all’interno di bombe e granate. Detonando meno facilmente dell’acido picrico, poteva esercitare un impatto maggiore sul bersaglio e aveva quindi una migliore penetrazione nelle piastre corazzate. Il TNT ha un rapporto dell’ossigeno al carbonio minore di quello della nitroglicerina, cosicché il suo carbonio non si converte totalmente in anidride carbonica né il suo idrogeno in acqua. La reazione può essere rappresentata così: 2C7H5N3O6(s)→ 6CO2(g) + 5H2(g) + 3N2(g) + 8C(s) TNT

anidride carbonica

idrogeno

azoto

carbonio

Il carbonio prodotto in questa reazione causa la quantità molto maggiore di fumo che è associata alle esplosioni di TNT rispetto a quelle di nitroglicerina e di cotone fulminante. All’inizio della Prima guerra mondiale la Germania, usando munizioni basate sul TNT, poté godere di un deciso vantaggio sui francesi e gli inglesi, che stavano ancora usando acido picrico. Un programma intensivo per cominciare a produrre TNT, con l’aiuto di grandi quantità inviate dagli impianti di produzione negli Stati Uniti, permise alla Gran Bretagna di sviluppare rapidamente granate e bombe di qualità simile contenenti questa molecola fondamentale. Durante la Prima guerra mondiale divenne ancora più cruciale un’altra molecola, l’ammoniaca (NH3). Pur non essendo un nitroderivato, l’ammoniaca è il materiale di partenza per la produzione dell’acido nitrico,

HNO3, che è necessario per la produzione di esplosivi. L’acido nitrico è noto presumibilmente da moltissimo tempo. Lo conosceva forse già Giabir ibn Hayyan, il grande alchimista islamico morto intorno all’815, che doveva produrlo riscaldando salnitro (nitrato di potassio) insieme a solfato di ferro (chiamato allora vetriolo verde a causa dei suoi cristalli verdi). Il gas prodotto da questa reazione, il biossido di azoto (NO2), veniva fatto gorgogliare in acqua per formare una soluzione diluita di acido nitrico. I nitrati non si trovano comunemente in natura, essendo molto solubili in acqua e tendendo a essere dilavati, ma nei deserti estremamente aridi del Cile settentrionale negli ultimi due secoli sono stati sfruttati immensi depositi di nitrato di sodio (il cosiddetto nitro del Cile) come fonte di nitrato per la preparazione diretta di acido nitrico. Il nitrato di sodio viene riscaldato con acido solforico: l’acido nitrico che si produce viene separato facilmente grazie al suo punto di ebollizione più basso dell’acido solforico. Esso viene poi condensato e raccolto in recipienti di raffreddamento. NaNO3(s) + H2SO4(l)→ NaHSO4(s) + HNO3(g) nitrato di sodio

acido solforico

bisolfato di sodio

acido nitrico

Durante la Prima guerra mondiale le forniture di nitro del Cile alla Germania furono interrotte da un blocco navale britannico. I nitrati erano sostanze chimiche strategiche necessarie per la produzione di esplosivi, cosicché la Germania dovette cercarne un’altra fonte. Se i nitrati non sono particolarmente abbondanti in natura, esistono però in grandissima quantità i due elementi che li compongono: azoto e ossigeno. La nostra atmosfera è composta, approssimativamente, per il 20 per cento di gas ossigeno e per l’80 per cento di gas azoto. L’ossigeno (O2) è chimicamente reattivo, combinandosi facilmente con molti altri elementi, mentre la molecola di azoto (N2) è relativamente inerte. All’inizio del XX secolo si conoscevano metodi per «fissare» l’azoto – ossia per rimuoverlo dall’atmosfera attraverso la sua combinazione con altri elementi –, che però non erano molto avanzati. Da qualche tempo il grande chimico tedesco Fritz Haber lavorava a un

processo per combinare l’azoto dell’aria con gas idrogeno per formare ammoniaca. N2(g) + 3H2(g)→ 2NH3(g) azoto

idrogeno

ammoniaca

Haber riuscì a risolvere il problema di usare un gas inerte come l’azoto atmosferico operando in condizioni di reazione che fornivano la massima produzione di ammoniaca al minimo costo possibile: pressione elevata, temperature di 400-500 ºC e rimozione dell’ammoniaca non appena si formava. Gran parte della ricerca di Haber consistette nell’individuare un catalizzatore per accrescere la rapidità di questa reazione particolarmente lenta. L’intento dei suoi esperimenti era quello di riuscire a produrre l’ammoniaca necessaria per l’industria dei fertilizzanti. Due terzi delle richieste di fertilizzanti del mondo venivano soddisfatte a quel tempo dai depositi di nitro del Cile; quando questi depositi si esaurirono si impose la necessità di trovare una via di sintesi per la produzione di ammoniaca. Nel 1913 era stato creato in Germania il primo impianto al mondo per la produzione di ammoniaca sintetica, e quando poi il blocco della marina britannica impedì alla Germania di continuare a ricevere nitrato di sodio dal Cile, il processo Haber, nome col quale esso è noto ancor oggi, fu rapidamente sviluppato con la creazione di altri impianti per la sintesi di ammoniaca, con l’obiettivo ampliato di produrre non solo fertilizzanti ma anche munizioni ed esplosivi. L’ammoniaca prodotta con questo processo viene fatta reagire con ossigeno per ottenere biossido di azoto, il precursore dell’acido nitrico. Per la Germania, capace di creare in tal modo tutta l’ammoniaca che le serviva per produrre i suoi fertilizzanti e l’acido nitrico necessario per ottenere i nitroderivati esplosivi, il blocco navale britannico perdeva gran parte del suo significato. La fissazione dell’azoto era diventata un fattore vitale nella conduzione della guerra. Nel 1918 il premio Nobel per la chimica fu assegnato a Fritz Haber per il ruolo da lui svolto nella sintesi dell’ammoniaca, che condusse infine a una maggiore produzione di fertilizzanti e alla conseguente maggiore capacità dell’agricoltura di nutrire la popolazione mondiale. L’annuncio del conferimento del premio suscitò una tempesta di proteste a causa del ruolo

che Haber aveva svolto nel programma di guerra con i gas della Germania durante la Prima guerra mondiale.1 Nell’aprile 1915, nel corso della guerra di trincea, Haber aveva fatto aprire migliaia di bombole contenenti cloro, che avevano liberato una nube di gas velenoso su un fronte di quasi cinque chilometri nei pressi della città belga di Ypres. Cinquemila uomini erano morti e altri diecimila avevano sofferto danni devastanti ai polmoni a causa dell’esposizione al cloro. Sotto la direzione di Haber furono sperimentate e usate numerose altre sostanze, fra cui i gas iprite e fosgene. L’uso bellico dei gas non fu il fattore decisivo nell’esito della guerra, ma agli occhi dei colleghi di Haber la sua grande innovazione anteriore – così importante per l’agricoltura mondiale – non poteva far dimenticare il crimine spaventoso dell’esposizione di migliaia di persone ai gas velenosi. Molti scienziati ritennero perciò che il conferimento del premio Nobel a Haber in tali circostanze fosse un errore. Haber vedeva poca differenza fra la guerra convenzionale e la guerra con i gas e fu molto sconvolto da questa controversia. Parecchi anni dopo la fine della guerra, nel 1933, quando era direttore del prestigioso Kaiser Wilhelm Institut per la Chimica fisica, il governo nazista gli ordinò di licenziare tutti i suoi collaboratori ebrei. Con un atto di coraggio insolito per quei tempi, Haber si rifiutò, e nella sua lettera di dimissioni sostenne che «per più di quarant’anni ho scelto i miei collaboratori sulla base della loro intelligenza e del loro carattere e non sulla base delle loro nonne, e non sono disposto per il resto della mia vita a cambiare questo modo di pensare che mi ha sempre dato ottimi risultati». Oggi la produzione mondiale annua di ammoniaca, ancora col processo di Haber, è di circa 140 milioni di tonnellate, gran parte delle quali vengono usate per produrre nitrato di ammonio (NH4NO3), che è probabilmente il fertilizzante più importante del mondo. Il nitrato di ammonio viene usato anche come esplosivo da miniera, nella forma di un miscuglio di nitrato di ammonio al 95 per cento e di olio combustibile al 5 per cento. La reazione esplosiva 2NH4NO3(s)→ 2N2(g) + O2(g) + 4H2O(g) nitrato di ammonio

azoto

ossigeno

acqua

produce gas ossigeno, oltre ad azoto e vapore acqueo. Il gas ossigeno ossida l’olio combustibile presente nel miscuglio, accrescendo l’energia liberata dall’esplosione. Il nitrato di ammonio è considerato un esplosivo molto sicuro quando viene trattato in modo appropriato, ma è stato responsabile di un gran numero di disastri in conseguenza dell’adozione di procedimenti di sicurezza impropri o di attentati da parte di organizzazioni terroristiche. Nel 1947, nel porto di Texas City, in Texas, scoppiò un incendio nella stiva di una nave mentre vi venivano caricati sacchi di carta pieni del fertilizzante nitrato di ammonio. Nel tentativo di soffocare l’incendio, l’equipaggio chiuse i boccaporti: questa decisione ebbe l’effetto sfortunato di creare le condizioni di calore e compressione necessarie per fare esplodere il nitrato di ammonio. Nell’esplosione morirono più di cinquecento persone. Fra i disastri più recenti causati da bombe di nitrato di ammonio fate esplodere da terroristi ci sono gli attentati al World Trade Center di New York nel 1993 e quello all’edificio federale Alfred P. Murrah di Oklahoma City nel 1995. Uno fra gli esplosivi sviluppati negli ultimi tempi, il pentaeritritoltetranitrato o pentrite (abbreviato in PETN), è purtroppo anch’esso molto apprezzato dai terroristi per le stesse proprietà che lo hanno reso così utile a fini legittimi. Il PETN può essere mescolato con gomma per produrre un cosiddetto esplosivo plastico, che può essere compresso per ricevere qualsiasi forma. Il PETN può avere un nome chimico complicato, ma la sua struttura è abbastanza semplice. Essa è chimicamente simile a quella della nitroglicerina, ma ha cinque atomi di carbonio invece di tre e un nitrogruppo in più.

Nitroglicerina (a sinistra) e pentaeritritoltetranitrato (PETN) (a destra). I nitrogruppi sono evidenziati col neretto.

Il PETN – che esplode facilmente, è sensibile agli urti, è molto potente ed è quasi inodore, così che anche cani addestrati hanno difficoltà a scoprirlo – potrebbe essere diventato l’esplosivo preferito per attentati ad aerei. Divenne famoso come componente della bomba che annientò il volo Pan American 103 su Lockerbie, in Scozia, nel 1988. L’esplosivo acquistò ulteriore notorietà attraverso il caso dello «Shoebomber» del 2001, in cui un passeggero su un volo delle American Airlines in partenza da Parigi tentò di far esplodere il PETN nascosto nella suola delle sue scarpe da tennis. Il disastro fu scongiurato solo grazie alla presenza di spirito del personale e dei passeggeri.

Il ruolo delle nitromolecole esplosive non è storicamente limitato alle guerre e al terrorismo. Ci sono prove del fatto che la potenza esplosiva della miscela di salnitro, zolfo e polvere di carbone fu usata nelle miniere dell’Europa settentrionale già all’inizio del Seicento. Il tunnel di Malpas (1679) del Canal du Midi in Francia – il canale originario che collegò l’oceano Atlantico al mar Mediterraneo – fu solo il primo di molti grandi tunnel per canali scavati con l’aiuto della polvere da sparo. La costruzione, dal 1857 al 1871, della galleria ferroviaria del Fréjus (detta anche impropriamente del Moncenisio), attraverso le Alpi, fu l’esempio del massimo uso di molecole esplosive a quell’epoca, che trasformò i viaggi in Europa attraverso l’apertura del comodo passaggio fra la Francia e l’Italia. Il nuovo esplosivo nitroglicerina fu usato per la prima volta nella costruzione del tunnel ferroviario di Hoosac (1855-1866) a North Adams, nel Massachusetts. Importanti imprese di ingegneria sono state realizzate con l’aiuto della dinamite: il completamento nel 1855 della ferrovia Canadian Pacific, che permise di attraversare le Montagne Rocciose canadesi; il canale di Panama, lungo ottanta chilometri, che fu aperto nel 1914; l’eliminazione, nel 1958, della Riple Rock, che rappresentava un rischio per la navigazione, al largo della costa occidentale del Nordamerica: questa rimane, a tutt’oggi, la massima esplosione non nucleare di tutti i tempi. Nel 218 a.C. il generale cartaginese Annibale attraversò le Alpi col suo immenso esercito e i suoi quaranta elefanti per portare un attacco direttamente al cuore dell’Impero romano. Egli usò il metodo classico di costruzione di strade del tempo, che era però estremamente lento: i massi che

ostacolavano il passaggio venivano riscaldati con falò e poi bagnati con acqua fredda per romperli. Se Annibale avesse posseduto esplosivi, un rapido attraversamento delle Alpi avrebbe potuto permettergli una vittoria finale a Roma, e la sorte dell’intero mondo mediterraneo sarebbe stata del tutto diversa. Dalla sconfitta dei sovrani di Calicut a opera di Vasco da Gama alla conquista dell’Impero azteco da parte di Hernán Cortés e di un pugno di conquistatori spagnoli, alla nobile ma vana impresa celebrata da Tennyson della carica della Brigata di cavalleria leggera dell’esercito britannico contro le batterie da campo russe nella battaglia di Balaklava del 1854, le armi da fuoco hanno sempre avuto la meglio sugli archi e le frecce, le lance e le spade. L’imperialismo e il colonialismo – sistemi che hanno plasmato il nostro mondo – dipesero dalla potenza degli armamenti. In guerra e in pace, dalla distruzione alla costruzione, nel bene o nel male, le molecole esplosive hanno cambiato la civiltà.

6 SETA E NAILON

Le molecole esplosive possono sembrare molto lontane dalle immagini di lusso, raffinatezza, morbidezza e lucentezza evocate dalla parola seta. Gli esplosivi e la seta hanno però una connessione chimica, che ha condotto allo sviluppo di nuovi materiali, nuovi tessuti e, nel XX secolo, un’industria del tutto nuova. La seta è stata sempre apprezzata come tessuto dai ricchi, ed è considerata ancora insostituibile nonostante la copiosa scelta oggi disponibile di fibre tanto naturali quanto artificiali. Le proprietà che l’hanno resa da molto tempo così desiderabile – il suo contatto carezzevole, il suo calore quando fa freddo e la sua freschezza quando fa caldo, la sua mirabile lucentezza e il fatto che esalti così bene le tonalità dei coloranti – sono dovute alla sua struttura chimica. In definitiva, fu la struttura chimica di questa notevole sostanza ad aprire le vie commerciali fra l’Oriente e il resto del mondo conosciuto.

La diffusione della seta La storia della seta risale a più di 4500 anni fa. Narra la leggenda che intorno al 2640 a.C. la principessa Hsi-ling-shih, la principale concubina dell’imperatore cinese Huang-ti, trovò che dal bozzolo di un insetto che era caduto nel suo tè si poteva svolgere un delicato filo di seta. Indipendentemente dal fatto che questa storia sia vera o no, la produzione della seta ebbe origine in Cina con l’allevamento del baco da seta, la piccola larva grigia della falena Bombyx mori che si nutre solo delle foglie del gelso, Morus alba. Questa falena, comune in Cina, depone nel corso di cinque giorni circa 500 uova, dopo di che muore. Un grammo di queste minuscole uova produce

più di un migliaio di bachi, i quali mangiano complessivamente trentasei chilogrammi di foglie del gelso, producendo circa 200 grammi di seta greggia. All’inizio le uova devono essere tenute a 18 ºC, per salire poi gradualmente fino alla temperatura di schiusa di quasi 24 ºC. I bachi sono tenuti in contenitori puliti e ben ventilati, dove mangiano voracemente e compiono varie mute. Dopo un mese vengono trasferiti in appositi contenitori e telai dove cominciano a costruire i loro bozzoli, un processo che richiede vari giorni. Dalla loro mandibola viene estruso un singolo filo continuo di seta, insieme a una secrezione viscosa che tiene insieme i fili. Il baco muove costantemente la testa lungo una figura a otto, filando un denso bozzolo e trasformandosi gradualmente in una crisalide. Per recuperare la seta, i bozzoli vengono poi riscaldati per uccidere la crisalide al loro interno e quindi immersi in acqua bollente per sciogliere la secrezione viscosa che tiene insieme i fili. Il filo di seta pura viene poi svolto dal bozzolo e avvolto su aspi. La lunghezza di un filo di seta ricavata da un bozzolo può essere compresa fra 350 metri e più di 2750. L’allevamento dei bachi e l’uso della seta si diffusero rapidamente in Cina. All’inizio la seta fu riservata ai membri della famiglia imperiale e alla nobiltà. In seguito, pur rimanendo alti i prezzi, fu permesso anche a persone comuni di indossare indumenti di seta. Ben tessute, riccamente decorate e mirabilmente tinte, le stoffe di seta erano una merce molto apprezzata, erano anche oggetto di baratto e venivano usate inoltre come una forma di denaro: compensi e tasse venivano a volte pagati in seta. Per secoli, anche dopo l’apertura delle vie commerciali attraverso l’Asia centrale note collettivamente come la Via della Seta, i cinesi mantennero il segreto sui dettagli della produzione di questo prezioso tessuto. Il percorso della Via della Seta variò nel corso dei secoli, dipendendo per lo più dalle vicende della politica e dalla sicurezza delle regioni lungo il percorso. Nel periodo della sua massima lunghezza la Via della Seta si estese per quasi diecimila chilometri da Pechino (Beijing), nella Cina orientale, fino a Bisanzio (oggi Istanbul), nell’attuale Turchia, ad Antiochia e a Tiro, sul Mediterraneo, con arterie maggiori ramificate nell’India settentrionale. Alcune parti della Via della Seta risalgono a più di 4500 anni fa. Il commercio della seta si diffuse lentamente, ma nel I secolo a.C. ne arrivavano in Occidente carichi regolari. In Giappone la sericoltura ebbe inizio intorno al 200 d.C. e vi si sviluppò indipendentemente dal resto del

mondo. I persiani divennero rapidamente mediatori nel commercio della seta. I cinesi, per conservare il loro monopolio sulla produzione, tentarono di fare del contrabbando dalla Cina di bachi da seta, uova del bombice e semi del gelso un reato punibile con la morte. Secondo la leggenda, però, nel 552 due monaci della chiesa nestoriana riuscirono a tornare dalla Cina a Costantinopoli con canne svuotate, nel cui interno avevano nascosto uova del bombice e semi del gelso. In tal modo si dischiuse la possibilità di produrre la seta in Occidente. Se questa storia è vera, potrebbe essere il primo esempio registrato di spionaggio industriale. La sericoltura si diffuse in tutto il Mediterraneo e nel XIV secolo era già un’industria fiorente in Italia, specialmente nel nord, dove città come Venezia, Lucca e Firenze acquistarono fama per la bellezza dei loro broccati pesanti di seta e dei loro velluti di seta. Le esportazioni delle sete da queste aree all’Europa settentrionale sono considerate una delle basi finanziarie del movimento rinascimentale, che ebbe inizio in Italia intorno a questo periodo. I tessitori della seta che abbandonarono l’Italia a causa della sua instabilità politica aiutarono la Francia a diventare una potenza nell’industria della seta. Nel 1466 Luigi XI garantì esenzioni dalle tasse ai tessitori della seta nella città di Lione, decretò che si piantassero gelsi e ordinò la manifattura della seta per la corte reale. Per i cinque secoli seguenti la sericoltura europea sarebbe stata incentrata nella zona intorno a Lione. Macclesfield e Spittalfield, in Inghilterra, divennero centri importanti per la produzione di tessuti fini di seta quando vi arrivarono, verso la fine del Cinquecento, tessitori fiamminghi e francesi che avevano lasciato il continente per sfuggire alle persecuzioni religiose. Vari tentativi di sericoltura in Nordamerica non ebbero commercialmente successo. Vi si svilupparono però la filatura e la tessitura della seta, processi che potevano essere facilmente meccanizzati. All’inizio del XX secolo gli Stati Uniti erano uno dei massimi produttori di seta al mondo.

La chimica del lustro e della lucentezza La seta, come altre fibre animali fra cui la lana e il pelo, è una proteina. Le proteine sono formate da ventidueα-amminoacidi diversi. La struttura

chimica di unα-amminoacido ha un gruppo amminico (NH2) e un gruppo carbossile (COOH) disposti come in figura, col gruppo NH2 legato all’atomo del carbonioα, ossia al carbonio adiacente al gruppo COOH.

Struttura generalizzata di unα-amminoacido

Questa struttura è disegnata spesso più semplicemente nella sua versione condensata come

La versione condensata della struttura generalizzata degli amminoacidi

In queste strutture, R rappresenta per ogni amminoacido un diverso gruppo, o una diversa combinazione di atomi. Per R ci sono ventidue strutture diverse, ed è questo fatto a determinare i ventidue amminoacidi. Il gruppo R viene chiamato a volte il gruppo laterale o la catena laterale. La struttura di questo gruppo laterale è responsabile delle speciali proprietà della seta, e in effetti delle proprietà di qualsiasi proteina. Il gruppo laterale più piccolo, e l’unico gruppo laterale formato da un solo atomo, è l’atomo di idrogeno. Quando questo gruppo laterale R è formato da un atomo di idrogeno, H, il nome dell’amminoacido è glicina, e la struttura viene rappresentata nel modo seguente.

L’amminoacido glicina

Altri gruppi semplici sono CH3 e CH2OH, che danno, rispettivamente, gli amminoacidi alanina e serina.

Alanina

Serina

Questi tre amminoacidi hanno i gruppi laterali più piccoli fra tutti gli amminoacidi, e sono anche gli amminoacidi più comuni nella seta, costituendo insieme l’85 per cento circa della sua struttura complessiva. Il fatto che i gruppi laterali negli amminoacidi della seta siano fisicamente molto piccoli è un fattore importante nella morbidezza di questo tessuto. In confronto, altri amminoacidi hanno gruppi laterali più grandi, più complicati. Come la cellulosa, la seta è un polimero, una macromolecola composta da unità che si ripetono. Diversamente dalla cellulosa del cotone, in cui tutte le unità sono esattamente identiche, le unità che si ripetono nei polimeri proteici, gli amminoacidi, sono in qualche misura diverse. Le parti dell’amminoacido che forma una catena di polimeri sono tutte identiche. È il gruppo laterale su ciascun amminoacido che è diverso. Due amminoacidi si combinano eliminando una molecola d’acqua nel punto d’unione: l’acqua è formata da un atomo H ceduto dall’estremo amminico (NH2) di un amminoacido e da un gruppo OH ceduto dall’estremo carbossilico (COOH) dell’altro. La connessione risultante fra i due amminoacidi è nota come un gruppo ammidico. Il legame chimico effettivo

fra il carbonio di un amminoacido e l’azoto dell’altro amminoacido è noto come legame peptidico.

Ovviamente, a uno dei due estremi della nuova molecola c’è di nuovo un OH che può essere usato per formare un altro legame peptidico con un altro amminoacido, e all’altro estremo c’è di nuovo un NH2 (che può essere scritto anche H2N) che può formare un legame peptidico con un altro amminoacido ancora.

Il gruppo ammidico

è rappresentato di solito in un modo più conciso come

Se aggiungiamo altri due amminoacidi, abbiamo quattro amminoacidi uniti da legami ammidici (CO-NH):

primo amminoacido

secondo amminoacido

terzo amminoacido

quarto amminoacido

Essendoci quattro amminoacidi, ci sono quattro gruppi laterali, designati nella figura come R, R′, R″, R‴. Questi gruppi laterali potrebbero essere tutti uguali, o solo una parte, o potrebbero essere anche tutti diversi. Pur essendo formata da soli quattro amminoacidi, questa catena ammette un gran numero di combinazioni. R potrebbe essere uno qualsiasi di ventidue amminoacidi, e lo stesso vale per R′, R″ e R‴. Ciò significa che ci sono 224 ovvero 234.256 possibilità. Persino una proteina piccolissima come l’insulina, l’ormone secreto dal pancreas che regola il metabolismo del glucosio, contiene 51 amminoacidi, cosicché il numero delle combinazioni possibili per l’insulina sarebbe di 2251 (2,9×1068), ossia bilioni di bilioni di bilioni... Si stima che una percentuale degli amminoacidi della seta compresa fra l’80 e l’85 per cento sia una sequenza ripetuta di glicina-serina-glicinaalanina-glicina-alanina. Una catena del polimero della proteina della seta ha una disposizione a zigzag, con i gruppi laterali che si alternano ai due lati.

La catena proteica della seta ha un andamento a zigzag; i gruppi R si alternano ai due lati della catena.

Queste catene della molecola proteica sono parallele a catene adiacenti che corrono in direzioni opposte. Esse sono tenute insieme da attrazioni trasversali fra le molecole dei due filamenti, come mostrano le linee a trattini qui sotto.

Le molecole proteiche della seta sono tenute insieme da attrazioni fra le catene proteiche affiancate.

Si produce così una struttura a foglio pieghettato, dove i gruppi R lungo la catena proteica sono orientati alternativamente verso l’alto e verso il basso. La struttura a foglio plissé può essere rappresentata nel modo seguente:

La struttura a foglio pieghettato. Le linee unite più spesse rappresentano le catene proteiche degli amminoacidi. Qui con R sono denotati i gruppi che sono sopra il foglio, con R′ (là dove sono indicati) quelli che sono sotto il foglio. Le linee più sottili e quelle tratteggiate mostrano le forze di attrazione che tengono insieme le molecole proteiche.

La struttura flessibile risultante dalla plissettatura del foglio è resistente alla tensione e spiega molte delle proprietà fisiche della seta. Le catene proteiche sono strettamente unite; i piccoli gruppi R sulle superfici hanno grandezza relativamente simile, creando una superficie uniforme responsabile della sensazione di scorrevolezza della seta. Questa superficie uniforme, inoltre, riflette bene la luce, spiegando la caratteristica lucentezza della seta. Molte delle qualità altamente apprezzate della seta sono quindi dovute ai piccoli gruppi laterali nella sua struttura proteica. I conoscitori della seta apprezzano anche lo «sfavillio» del tessuto, il quale viene attribuito al fatto che non tutte le molecole della seta fanno parte di una struttura regolare a foglio pieghettato. Queste irregolarità creano interruzioni nella luce riflessa, producendo lampi di lucentezza. Spesso considerata insuperabile nella sua capacità di assorbire sia coloranti naturali sia coloranti artificiali, la seta è facile da tingere. Anche questa proprietà è dovuta alle parti della struttura della seta che non sono incluse nella sequenza regolarmente ripetuta di fogli plissettati. Fra il 15-20 per cento dei restanti amminoacidi della seta – quelli che non sono né glicina né alanina né serina – ce ne sono alcuni i cui gruppi laterali possono legarsi facilmente con le molecole di coloranti, producendo le sfumature di colore profonde, ricche e

persistenti per cui la seta è famosa. È questa doppia natura della seta – la struttura ripetitiva a foglio pieghettato con piccoli gruppi laterali, responsabile della resistenza, della lucentezza e della scorrevolezza, combinata con gli amminoacidi restanti, più variabili, che danno lo sfavillio e la facilità di assorbimento del colore – ad aver fatto di essa, da molti secoli, un tessuto così desiderabile.

La ricerca della seta sintetica Tutte le proprietà citate fanno della seta un tessuto difficile da imitare artificialmente. Poiché la seta è sempre stata costosa e la sua richiesta molto forte, a partire dalla fine dell’Ottocento non si lasciò nulla di intentato per riuscire a produrne una versione sintetica. La seta è una molecola molto semplice, una ripetizione di unità molto simili. È però un’impresa chimica molto complessa unire insieme queste unità nella combinazione di casuale e al tempo stesso non casuale che si trova nella seta naturale. I chimici moderni sono oggi in grado, a una scala molto piccola, di replicare il modello di un particolare filamento proteico, ma il processo è difficile e richiede molto tempo. Una proteina della seta prodotta in questo modo in laboratorio sarebbe molte volte più costosa della seta naturale. Poiché la complessità della struttura chimica della seta non fu compresa fino al XX secolo, i primi sforzi per crearne una versione sintetica furono guidati in gran parte da casi fortunati. Verso il 1880 un conte francese, Hilaire de Chardonnet, mentre coltivava il suo hobby preferito della fotografia, scoprì che una soluzione di collodio (il materiale di nitrocellulosa usato in fotografia per rivestire lastre di vetro, che venivano poi rese sensibili immergendole in un’apposita soluzione), versatasi accidentalmente, si era consolidata in una massa vischiosa, dalla quale egli riuscì poi a tirare lunghi fili simili a seta. Ciò ricordò a Chardonnet qualcosa che aveva visto vari anni prima: quando era studente aveva accompagnato il grande Louis Pasteur, suo professore, a Lione, a fare ricerche su una malattia del baco da seta che stava causando problemi gravissimi all’industria francese della seta. Pur non riuscendo a individuare la causa della malattia, Chardonnet aveva speso molto tempo a studiare il baco da seta e il modo in cui filava la fibra serica.

Avendo in mente quanto aveva appreso allora, tentò ora di estrudere la soluzione di collodio attraverso una serie di forellini, producendo in tal modo la prima ragionevole imitazione della fibra della seta. Le parole sintetico e artificiale sono spesso usate intercambiabilmente nel linguaggio quotidiano e sono date come sinonimi nella maggior parte dei dizionari, ma fra le due parole c’è un’importante distinzione chimica. Ai nostri fini, per sintetico si intende un composto che è prodotto dall’uomo per mezzo di reazioni chimiche. Il prodotto può esistere o non esistere in natura. Se esiste in natura, la versione sintetica sarà chimicamente identica a quella ottenuta dalla fonte naturale. Per esempio, l’acido ascorbico, la vitamina C, può essere sintetizzato in laboratorio o in fabbrica; la vitamina C sintetica ha esattamente la stessa struttura chimica della vitamina C esistente in natura. La parola artificiale si riferisce invece maggiormente alle proprietà di un composto. Un composto artificiale ha una struttura chimica diversa da quella di un altro composto, ma ha proprietà abbastanza simili da imitarne la funzione. Per esempio, un dolcificante artificiale non ha la stessa struttura dello zucchero, ma avrà in comune una proprietà importante: il sapore dolce. Alcuni composti artificiali sono spesso prodotti dall’uomo e quindi sintetici, ma non devono essere necessariamente sintetici. Alcuni dolcificanti artificiali si trovano in natura. Quella prodotta da Chardonnet era seta artificiale, non sintetica, anche se fu prodotta per sintesi. (Per le nostre definizioni, la seta sintetica sarebbe fatta dall’uomo ma chimicamente identica alla seta reale.) La seta di Chardonnet, come divenne nota, assomigliava alla seta in alcune delle sue proprietà ma non in tutte. Era morbida e lucida, ma purtroppo estremamente infiammabile: una proprietà non molto desiderabile per un tessuto. La seta di Chardonnet veniva filata da una soluzione di nitrocellulosa e, come abbiamo visto, le versioni nitrate della cellulosa sono infiammabili e addirittura esplosive, a seconda del grado di nitrazione della molecola.

Una porzione di una molecola di cellulosa. Le frecce sull’unità centrale di glucosio indicano i gruppi OH in cui potrebbe aver luogo la nitrazione su ogni unità di glucosio lungo la catena.

Chardonnet brevettò il suo processo nel 1885 e cominciò a produrre la sua seta nel 1891. La sua impresa fu però condannata al fallimento dall’infiammabilità del materiale. Si ricorda che, in un ballo, la cenere del sigaro di un gentiluomo cadde sull’abito di seta di Chardonnet della sua dama. L’abito scomparve in un lampo di luce e uno sbuffo di fumo; non si sa che cosa sia accaduto alla dama. Benché questo fatto e vari disastri alla fabbrica di Chardonnet abbiano infine condotto alla chiusura della sua attività, il conte non rinunciò all’idea di una seta artificiale. Qualche anno dopo, nel 1895, cominciò a usare un processo un po’ diverso, implicante un agente denitrante che produceva una seta artificiale molto più sicura – fondata sulla cellulosa anziché su una nitrocellulosa –, la quale non era più infiammabile del comune cotone. Un altro metodo, sviluppato in Inghilterra nel 1901 da Charles Cross e da Edward Bevan, produsse la viscosa, così chiamata a causa della sua elevata viscosità. Quando la cellulosa, solubilizzata nella forma di un liquido viscoso, veniva estrusa attraverso una filiera in un bagno acido, la cellulosa veniva rigenerata nella forma di un fine filamento chiamato seta viscosa. Questo processo fu usato sia dall’American Viscose Company, fondata nel 1910, sia dalla Du Pont Fibersilk Company, fondata nel 1921 (che in seguito avrebbe assunto la denominazione Du Pont Corporation). Intorno al 1938 si producevano annualmente circa 135 tonnellate di viscosa, soddisfacendo una domanda crescente del nuovo tessuto sintetico con la desiderata lucentezza

sericea tanto simile a quella della seta. Il processo della viscosa è in uso ancor oggi come mezzo principale per produrre quelle che oggi si chiamano rayon: sete artificiali, come la viscosa, i cui fili sono composti di cellulosa. Benché questa sia ancora lo stesso polimero delle unità diβ-glucosio, nel rayon la cellulosa è rigenerata sotto una leggera tensione, che produce una lieve differenza nella torcitura in fili di rayon, spiegandone la grande lucentezza. Il rayon, di un puro colore bianco, che ha ancora la medesima struttura chimica, può essere tinto in qualsiasi numero di colori e sfumature nello stesso modo del cotone. Presenta però un certo numero di svantaggi rispetto alla seta. Mentre la struttura a foglio pieghettato della seta (flessibile ma resistente alla trazione) le assicura un’indeformabilità ideale per le calze, la cellulosa del rayon assorbe acqua, cosa che la rende più cedevole. Questa non è una caratteristica desiderabile per un tessuto usato per le calze.

Il nailon: una nuova seta artificiale Occorreva dunque un tipo diverso di seta artificiale: un tessuto che avesse i pregi del rayon, ma senza i suoi difetti. Il nailon – che non si fonda sulla cellulosa – arrivò sulla scena nel 1938, creato da un chimico organico ingaggiato dalla Du Pont Fibersilk Company. Verso la fine degli anni ’20 del XX secolo la Du Pont aveva cominciato a interessarsi ai materiali plastici che stavano entrando sul mercato. La società offrì a Wallace Carothers, un chimico organico di trentun anni della Harvard University, la possibilità di compiere ricerche indipendenti alla Du Pont con un budget virtualmente illimitato. Carothers cominciò a lavorare al nuovo laboratorio della Du Pont dedicato alla ricerca fondamentale: un concetto di per sé piuttosto insolito, poiché l’industria chimica lasciava di norma tale ricerca alle università. Carothers decise di lavorare sui polimeri. A quel tempo la maggior parte dei chimici pensava che i polimeri fossero in realtà gruppi di molecole agglutinate insieme note come colloidi; di qui il nome di collodio per il derivato della cellulosa usato nella fotografia e nella seta di Chardonnet. Un’altra opinione riguardo alla struttura dei polimeri, di cui si fece paladino il chimico tedesco Hermann Staudinger, vedeva in questi materiali delle

molecole estremamente grandi. La molecola più grande sintetizzata fino a quel tempo – dal noto chimico degli zuccheri Emil Fischer – aveva un peso molecolare di 4200. Per confronto, una semplice molecola d’acqua ha un peso molecolare di 18, e una molecola di glucosio un peso molecolare di 180. Dopo meno di un anno di lavoro nel laboratorio della Du Pont, Carothers aveva creato una molecola di poliestere del peso molecolare di oltre 5000. Riuscì poi a raggiungere il valore di 12.000, portando altre prove a sostegno della teoria dei polimeri come molecole giganti, per la quale Staudinger avrebbe ricevuto il premio Nobel per la chimica nel 1953. Il primo polimero prodotto da Carothers diede l’impressione di poter avere qualche potenzialità commerciale, poiché i suoi lunghi fili luccicavano come seta ed essiccando non diventavano rigidi o fragili. Purtroppo, però, fondevano in acqua molto calda, si scioglievano nei comuni solventi per la pulizia, e si disintegravano dopo qualche settimana. Per quattro anni Carothers e i suoi collaboratori prepararono diversi tipi di polimeri e ne studiarono le proprietà prima di produrre infine il nailon, la fibra creata dall’uomo che si avvicina più di tutte le altre alle proprietà della seta e che merita di essere descritta come «seta artificiale». Il nailon è una poliammide: ciò significa che, come nel caso della seta, le sue unità polimeriche sono tenute insieme da legami ammidici. Mentre però la seta ha in ciascuno dei singoli amminoacidi che ne compongono la catena sia un estremo acido sia un estremo amminico, il nailon di Carothers è composto da due unità monomeriche diverse – una con due gruppi acidi e una con due gruppi amminici – che si alternano nella catena. L’acido adipico ha gruppi acidi carbossilici (COOH) a entrambe le estremità:

La struttura dell’acido adipico, con i due gruppi acidi agli estremi della molecola. Il gruppo acido –COOH, quando compare nella parte di sinistra della formula razionale, è scritto alla rovescia, come HOOC–.

o, scritto come una struttura condensata:

La struttura condensata della molecola dell’acido adipico

L’altra unità molecolare, l’1,6-diamminoesano, ha una struttura molto simile a quella dell’acido adipico, con la differenza che, invece dei gruppi acidi COOH, ha amminogruppi NH2. Ecco qui sotto la struttura e la sua versione condensata:

Struttura dell’1,6-diamminoesano

Struttura condensata dell’1,6-diamminoesano

Il legame ammidico nel nailon, come il legame ammidico nella seta, si forma fra gli estremi a contatto di due molecole, per eliminazione di una molecola d’acqua formata da un atomo di idrogeno (H) fornito da NH2 e dal gruppo OH fornito da COOH. Il legame ammidico che ne risulta, presentato come CO-NH- (o, nell’ordine inverso, come -NH-CO-), unisce le due diverse molecole. Nailon e seta sono chimicamente simili sotto questo aspetto: il fatto di avere entrambi lo stesso legame ammidico. Nella produzione del nailon, entrambi gli estremi amminici dell’1,6-diamminoesano reagiscono con gli estremi acidi di molecole diverse. Questo processo continua con le molecole che si alternano aggiungendo altri elementi a ciascun estremo di una catena di nailon in crescita. La versione del nailon di Carothers divenne nota come «nailon 66» perché ogni unità monomerica ha sei atomi di carbonio.

La struttura del nailon: vi si nota l’alternanza di molecole di acido adipico e di 1,6-diamminoesano.

Il nailon fu usato commercialmente per la prima volta nel 1938, nelle setole degli spazzolini da denti. Poi, nel 1939, furono prodotte per la prima volta calze da donna di nailon. Il nailon si rivelò il polimero ideale per le calze: aveva infatti molte delle proprietà ideali della seta; non cedeva o si stropicciava come il cotone e il rayon; e, cosa più importante, era molto meno caro della seta. Le calze di nailon ebbero un enorme successo commerciale. Nel 1940 furono prodotti e venduti circa 64 milioni di paia di calze. La risposta a questa creazione fu così straripante che la parola nailon divenne sinonimo di calze da donna. Grazie alla sua eccezionale resistenza, durata e leggerezza, il nailon trovò possibilità d’uso in molti altri settori: lenze e reti da pesca, incordatura per le racchette da tennis e da volano, suture chirurgiche e rivestimento per fili elettrici.

Dopo la Seconda guerra mondiale, quando il nailon ridivenne disponibile per le calze, le donne si precipitarono a comprarle, e a indossarle. (Per gentile concessione della Du Pont)

Durante la Seconda guerra mondiale la produzione principale del nailon della Du Pont passò dai filati sottili usati nella produzione delle calze da donna ai filati più grossi richiesti per i prodotti militari. Rinforzi in nailon per pneumatici, zanzariere, palloni meteorologici, funi e altri equipaggiamenti militari dominarono l’uso del nailon. In aviazione questo materiale si rivelò un eccellente sostituto della seta per i paracadute. Alla fine della guerra la produzione nelle fabbriche di nailon fu prontamente riconvertita a usi civili.

Negli anni ’50 del Novecento la versatilità del nailon divenne evidente nel diffondersi del suo uso nell’abbigliamento, negli indumenti da sci, nei tappeti, nell’arredamento, nelle vele e in molti altri prodotti. Si trovò che il nailon era anche un eccellente composto plastico e divenne la prima «plastica per ingegneria», una plastica abbastanza robusta da essere usata anche in sostituzione del metallo. Nel 1953 per questo solo uso furono prodotte 4500 tonnellate di nailon. Purtroppo Wallace Carothers non visse abbastanza per vedere il successo della sua scoperta. Vittima di una depressione che peggiorava all’avanzare dell’età, si suicidò nel 1937 col cianuro, senza rendersi conto che la molecola polimerica da lui sviluppata avrebbe svolto un ruolo così dominante nel mondo del futuro.2

La seta e il nailon condividono un’eredità simile, che va oltre la somiglianza della struttura chimica e le proprietà che li rendono adatti a essere usati nella produzione di calze da donna e di paracadute. Entrambi questi polimeri contribuirono – ognuno a modo suo – a determinare grandissimi cambiamenti nella prosperità economica del loro tempo. La domanda di seta non aprì solo vie commerciali in tutto il mondo e non condusse solo a nuovi accordi commerciali, ma promosse anche la crescita di città che dipendevano dalla produzione o dal commercio della seta e contribuì alla creazione di altre industrie, come la tintoria, la filatura e la tessitura, che si svilupparono di pari passo alla sericoltura. La seta apportò grandi ricchezze e grandi cambiamenti in molte parti del globo. E come la seta e la produzione della seta stimolarono per secoli le mode – negli indumenti, nell’arredamento e nell’arte – in Europa e in Asia, così anche l’introduzione del nailon e di una varietà di altri tessuti e materiali moderni ha avuto una grande influenza sul nostro mondo. Mentre un tempo furono piante e animali a fornire i materiali di partenza per i nostri indumenti, oggi le materie prime per molti tessuti provengono da prodotti secondari della raffinazione del petrolio. Il petrolio ha assunto, come merce, una posizione che un tempo appartenne alla seta. Come un tempo la domanda della seta, così oggi quella di petrolio ha condotto a nuovi accordi commerciali, ha aperto nuove vie commerciali, ha favorito la crescita di alcune città e la

fondazione di altre, ha creato nuove industrie e nuovi posti di lavoro, e ha portato grandi ricchezze e mutamenti in molte parti del globo.

7 IL FENOLO

Il primissimo polimero totalmente prodotto dall’uomo fu creato un quarto di secolo prima del nailon della Du Pont. Era un materiale con legami trasversali un po’ casuali, ottenuto a partire da un composto la cui struttura chimica era simile a quella di alcune delle molecole di spezie a cui abbiamo attribuito l’epoca delle grandi scoperte geografiche. Questo composto, il fenolo, diede origine a un’altra epoca, quella della plastica. I fenoli, connessi ad argomenti così svariati come attività chirurgiche, elefanti in pericolo di estinzione, la fotografia e le orchidee, hanno svolto un ruolo cardine in vari progressi che hanno cambiato il mondo.

Chirurgia sterile Nel 1860 era piuttosto rischioso essere ricoverati in un ospedale, specialmente se si doveva subire un intervento chirurgico. Gli ospedali erano bui, sudici e mal aerati. Ai nuovi pazienti venivano di solito assegnati letti nei quali non era stata neppure cambiata la biancheria dopo che il paziente precedente era tornato a casa, o forse era morto. In chirurgia le corsie emanavano un fetore spaventoso di cancrena e di sepsi. Ugualmente spaventoso era il tasso di mortalità causato dalle infezioni batteriche; almeno il 40 per cento dei pazienti che avevano subito amputazioni morivano della cosiddetta malattia ospedaliera. Negli ospedali militari questo tasso era vicino al 70 per cento. Benché alla fine del 1864 fossero stati introdotti degli anestetici, la maggior parte dei pazienti accettava un intervento chirurgico solo come ultima risorsa. Le ferite chirurgiche si infettavano sempre; perciò un chirurgo si assicurava che i punti con cui si suturava la ferita dell’operazione fossero

lasciati lunghi, così che il pus che vi si formava potesse uscirne. Quando ciò accadeva, la cosa veniva considerata un segno positivo, in quanto c’erano buone probabilità che l’infezione rimanesse localizzata e non invadesse il resto del corpo. Oggi ovviamente sappiamo perché le infezioni ospedaliere erano così diffuse e così letali. In realtà erano un gruppo di malattie causate da una varietà di batteri che si trasmettevano facilmente da un paziente all’altro, o anche da un medico a una serie di pazienti ospitati in condizioni poco igieniche. Di solito, quando la malattia ospedaliera raggiungeva una diffusione troppo elevata, un medico chiudeva il suo reparto chirurgico, trasferiva altrove i pazienti restanti e fumigava i locali con candele di zolfo, faceva intonacare le pareti e lavare i pavimenti. Per un po’ di tempo dopo avere adottato queste precauzioni le infezioni restavano sotto controllo, fino a quando una nuova situazione catastrofica non richiedeva ulteriore attenzione. Alcuni chirurghi insistevano nel voler mantenere una pulizia rigorosa, usando molta acqua bollita fatta raffreddare. Altri sostenevano la teoria del miasma, ossia la credenza che un gas velenoso generato da scarichi e fogne si diffondesse nell’aria e potesse raggiungere e infettare i pazienti. Questa teoria del miasma sembrava probabilmente molto ragionevole a quel tempo. Il fetore che saliva dai condotti delle acque di scarico e dalle fogne doveva essere altrettanto forte di quello della putrefazione della carne in cancrena nei reparti di chirurgia, cosa che spiega fra l’altro perché pazienti curati in casa si sottraessero più spesso all’infezione di quelli ricoverati in ospedale. Per contrastare i gas del miasma si prescrivevano vari rimedi, fra cui timolo, acido acetilsalicilico, gas anidride carbonica, liquori amari alle erbe, impiastri di carote crude, solfato di zinco e acido borico. Gli occasionali successi di ognuno di questi vari rimedi era fortuito e non poteva essere replicato a volontà. Era questo il mondo in cui praticò la chirurgia Joseph Lister. Nato nel 1827 in una famiglia quacchera dello Yorkshire, Lister completò i suoi studi di medicina all’University College a Londra e nel 1861 era chirurgo presso la Royal Infirmary di Glasgow e professore di chirurgia nell’università della stessa città. Anche se al tempo di Lister era stato aperto alla Royal Infirmary un nuovo blocco di chirurgia, dotato delle attrezzature più moderne, la malattia ospedaliera era un problema lì esattamente come altrove. Lister credeva che la causa dell’infezione non potesse essere un gas

velenoso, bensì qualcos’altro presente nell’aria, qualcosa di microscopico, di così piccolo da non potere essere visto dall’occhio umano. Leggendo una breve relazione pubblicata nel 1857 col titolo Mémoire sur la fermentation appelée lactique, in cui si sosteneva che la fermentazione è provocata da germi, e che qualcosa del genere potesse valere anche per le malattie, Lister ne riconobbe immediatamente l’applicabilità alle proprie idee. La memoria era opera di Louis Pasteur, professore di chimica a Lilla, nel nord-est della Francia, e maestro dello stesso Chardonnet, di cui ci siamo occupati parlando della seta. Pasteur aveva presentato i suoi esperimenti sull’inacidimento del vino e del latte a un convegno di scienziati tenutosi alla Sorbona, a Parigi, nel 1864. Egli riteneva che i germi – microrganismi invisibili all’occhio umano – fossero presenti dappertutto. I suoi esperimenti dimostrarono che potevano essere eliminati per mezzo della bollitura, cosa che condusse all’attuale «pastorizzazione» del latte e di altri cibi. Non potendo bollire pazienti e chirurghi, Lister dovette trovare qualche altra maniera per eliminare in modo innocuo i germi su tutte le superfici. Puntò sull’acido carbolico, un prodotto ottenuto da catrame di carbon fossile, che era stato usato nel trattamento di fognature urbane puzzolenti ed era già stato provato, anche se senza grande fortuna, come medicazione su ferite chirurgiche. Lister perseverò ed ebbe successo nel caso di un bambino di undici anni ricoverato alla Royal Infirmary con una frattura composta a una gamba: una lesione a quel tempo temutissima. Una frattura semplice poteva essere ridotta senza ricorrere a interventi chirurgici invasivi, ma una frattura composta, in cui gli estremi spezzati di ossa rotte avevano forato la pelle, aveva grandissime probabilità di infettarsi, nonostante l’abilità del chirurgo nella riduzione della frattura stessa. L’amputazione era purtroppo un esito comune, e non era affatto improbabile la morte per un’infezione persistente incontrollabile. Lister pulì con cura l’osso rotto del paziente e l’area circostante con una garza imbevuta di acido carbolico. Poi preparò una medicazione chirurgica consistente in strati di panni imbevuti in una soluzione carbolica e la coprì con una sottile lamina metallica incurvata intorno alla gamba per attenuare la possibile evaporazione dell’acido carbolico. La medicazione fu accuratamente fasciata. Ben presto si formò una crosta, la ferita guarì rapidamente e non si produsse alcuna infezione. Altri pazienti erano sopravvissuti a infezioni della malattia ospedaliera, ma

questo era un caso in cui l’infezione non era stata vinta, bensì prevenuta. Lister trattò altri casi di fratture composte nello stesso modo, ottenendo lo stesso esito positivo e convincendosi così dell’efficacia delle soluzioni carboliche. Nell’agosto 1867 cominciò a usare l’acido carbolico come agente antisettico in tutte le sue procedure chirurgiche, e non solo come medicazione dopo un intervento. Nel decennio successivo migliorò le sue tecniche di antisepsi convincendo gradualmente altri chirurghi, molti dei quali si rifiutavano ancora di credere nella teoria dei germi con l’argomentazione che «se non si possono vedere, vuol dire che non esistono». Il catrame di carbon fossile, da cui Lister otteneva le sue soluzioni di acido carbolico, era facilmente disponibile come prodotto di rifiuto dell’illuminazione con lampade a gas delle strade urbane e delle abitazioni durante l’Ottocento. La National Light and Heat Company aveva installato la prima illuminazione delle strade urbane a gas a Westminster, a Londra, nel 1814, e l’uso dell’illuminazione a gas si diffuse successivamente in altre città. Il gas illuminante veniva prodotto riscaldando il carbone ad alte temperature; era una miscela infiammabile, formata per il 50 per cento circa di idrogeno, per il 35 per cento di metano, e in percentuali molto minori di monossido di carbonio, etilene, acetilene e altri composti organici. Esso veniva convogliato per mezzo di condutture in abitazioni, fabbriche e lampioni stradali da officine locali di produzione. Al crescere della domanda di gas illuminante, si pose con sempre maggiore urgenza il problema di che cosa fare del catrame di carbon fossile, il residuo apparentemente privo di importanza del processo di gassificazione del carbone. Il catrame di carbon fossile era un liquido nero viscoso, dall’odore acre, che infine si sarebbe rivelato una fonte sorprendentemente prolifica di numerose importanti molecole aromatiche. Il processo di gassificazione del carbone e la produzione a esso associata di catrame di carbon fossile non declinarono fino a quando non furono scoperte, a partire dall’inizio del Novecento, immense riserve di gas naturale, formate principalmente da metano. L’acido carbolico greggio, come fu usato inizialmente da Lister, era una miscela distillata dal catrame di carbon fossile a temperature comprese fra 170 e 230 ºC. Era un materiale oleoso scuro e dall’odore molto forte che bruciava la pelle. Lister riuscì in seguito a ottenere il componente principale dell’acido carbolico, il fenolo, nella sua forma pura di cristalli bianchi. Il fenolo è una molecola aromatica semplice formata da un anello di

benzene a cui è unito un gruppo ossidrile (OH).

Fenolo

Esso è in qualche misura solubile in acqua ed è molto solubile in olio. Lister sfruttò queste caratteristiche sviluppando quello che divenne noto come un «impiastro di stucco carbolico», un miscuglio di fenolo, olio di semi di lino e gesso in polvere. La pasta risultante (distesa su un sottile foglio di stagno) veniva posta con l’impiastro in basso, a contatto con la ferita, sulla quale operava come una cicatrice, formando una barriera contro i batteri. Una soluzione di fenolo in acqua meno concentrata, formata di solito da una parte di fenolo su 20-40 parti d’acqua, veniva usata per lavare la pelle intorno a una ferita, gli strumenti chirurgici e le mani del chirurgo, e veniva anche irrorata su un’incisione durante un’operazione. Nonostante l’efficacia del suo trattamento con acido carbolico, dimostrata dal tasso di guarigione dei suoi pazienti, Lister non era convinto di avere raggiunto condizioni totalmente antisettiche durante le operazioni chirurgiche. Egli pensava che ogni particella di polvere nell’aria trasportasse germi, e in uno sforzo per impedire a questi germi di contaminare le operazioni chirurgiche, sviluppò una macchina che vaporizzava di continuo in aria una pioggerella fine di soluzione di acido carbolico, irrorando efficacemente l’intera area. I germi aerotrasportati sono in realtà un problema molto meno grave di quanto supponesse Lister. Il vero problema consisteva nei microrganismi trasportati sugli indumenti, i capelli, la pelle, nella bocca e nel naso dei chirurghi, degli altri medici e degli studenti di medicina che aiutavano nelle operazioni o si limitavano a osservare senza prendere alcuna precauzione di antisepsi. Il problema è risolto oggi dal moderno protocollo della sala operatoria, con mascherine sterili, camici lavati, berretti per i capelli, lenzuola pulite e guanti di latice. La macchina di Lister per vaporizzare la soluzione di acido carbolico

contribuì a impedire la contaminazione a opera di microrganismi, ma ebbe effetti negativi sui chirurghi e su altre persone in sala operatoria. Il fenolo è tossico e, anche in soluzioni diluite, causa decolorazione, lesioni e intorpidimento della pelle. L’inalazione della soluzione fenolica vaporizzata può far ammalare; alcuni chirurghi cominciarono a rifiutarsi di lavorare quando era in attività un vaporizzatore automatico. Nonostante questi aspetti negativi, le tecniche di chirurgia antisettica di Lister erano così efficaci e i risultati positivi così evidenti che nel 1878 erano in uso in tutto il mondo. Oggi il fenolo è usato raramente come antisettico; il suo forte effetto sulla pelle e la sua tossicità lo resero infine meno utile degli antisettici sviluppati successivamente.

Le molte sfaccettature dei fenoli Il nome fenolo non si applica solo alla molecola antisettica di Lister, bensì anche a un gruppo grandissimo di composti affini che hanno tutti un gruppo OH legato direttamente a un anello di benzene. Questa situazione può sembrare un po’ confusa, poiché ci sono centinaia di migliaia di fenoli, ma un solo «fenolo». Esistono fenoli prodotti dall’uomo, come il triclorofenolo e gli esilresorcinoli, dotati di proprietà antibatteriche, che vengono usati oggi come antisettici.

Triclorofenolo

Esilresorcinolo

L’acido picrico, usato in origine come colorante – specialmente per la seta – e in seguito in armamenti da parte dei britannici nella guerra anglo-boera e nelle prime fasi della Prima guerra mondiale, è un trinitrofenolo (un fenolo nitrato tre volte) ed è altamente esplosivo.

Trinitrofenolo (acido picrico)

In natura sono presenti molti fenoli diversi. Molecole molto piccanti – come la capsaicina, estratta dal peperoncino piccante, e lo zingerone, estratto dallo zenzero – possono essere classificate come fenoli, e appartengono a questa stessa famiglia anche alcune delle molecole più fragranti nelle spezie: l’eugenolo, estratto dai chiodi di garofano, e l’isoeugenolo, estratto dalla noce moscata.

La capsaicina (a sinistra) e lo zingerone (a destra). La parte fenolica comune alle due strutture è racchiusa all’interno di un cerchio.

È un fenolo anche la vanillina – l’ingrediente attivo in uno degli aromi più usati, la vaniglia –, che ha una struttura molto simile a quelle dell’eugenolo e dell’isoeugenolo.

Vanillina

Eugenolo

Isoeugenolo

La vanillina è presente nei frutti essiccati fermentati della Vanilla planifolia, un’orchidacea lianosa nativa delle Indie occidentali e dell’America centrale e oggi coltivata in gran parte del mondo. I suoi frutti, lunghi fino a una quindicina di centimetri e dello spessore di un dito, hanno la forma di bastoncini scuri e flessibili dal tipico profumo, e sono composti fino al 2 per cento in peso di vanillina. Quando si conserva del vino in botti di rovere, il legno libera molecole di vanillina, che contribuiscono al processo di invecchiamento del vino. Il cioccolato è un miscuglio di cacao e vanillina; creme pasticciere, gelati, sciroppi, torte e molti altri cibi dipendono in parte dalla vaniglia per il loro sapore. Anche la profumeria si serve della vaniglia per il suo aroma inebriante e caratteristico. Noi siamo solo all’inizio del processo di comprensione delle proprietà uniche di alcuni membri della famiglia dei fenoli naturali. Il tetraidrocannabinolo (THC), l’ingrediente attivo della marijuana, è un fenolo che si trova nella Cannabis sativa, la pianta della canapa indiana. Le piante della marijuana sono coltivate da secoli per le fibre molto robuste presenti nel fusto, con cui si possono produrre funi molto resistenti e tessuti grossolani, e anche per le proprietà inebrianti, sedative e allucinogene della molecola di THC, che si trova, in alcune varietà della Cannabis, in tutte le parti della pianta, concentrandosi però più spesso nei boccioli dei fiori femminili.

Tetraidrocannabinolo, l’ingrediente attivo della marijuana

Oggi in alcuni stati e Paesi si permette l’uso medicinale del tetraidrocannabinolo contenuto nella marijuana per combattere la nausea, il dolore e la perdita dell’appetito in pazienti che soffrono di cancro, AIDS e altre malattie. I fenoli naturali hanno spesso due o più gruppi OH legati all’anello di benzene. Il gossipolo è un composto tossico, classificato come un polifenolo perché ha sei gruppi OH su quattro diversi anelli di benzene.

La molecola di gossipolo. I sei gruppi fenolici (OH) sono indicati con frecce.

È stato dimostrato che il gossipolo, che è estratto dai semi della pianta del cotone, è efficace nel sopprimere la produzione di sperma nell’uomo, cosa

che dischiude una possibilità per un suo uso futuro come metodo per il controllo chimico delle nascite nel maschio umano. Le implicazioni sociali di un tale metodo anticoncezionale potrebbero essere importanti. La molecola che ha il nome complicato di epigallocatechin-3-gallato, che si trova nel tè verde, possiede un numero di gruppi fenolici ancora maggiore.

La molecola di epigallocatechin-3-gallato, presente nel tè verde, ha otto gruppi fenolici.

Recentemente le è stata attribuita un’azione protettiva contro vari tipi di cancro. Altri studi hanno dimostrato che certi composti polifenolici presenti nel vino rosso inibiscono la produzione di una sostanza che contribuisce all’indurimento delle arterie, spiegando forse perché in Paesi in cui si consuma molto vino rosso c’è un’incidenza minore di cardiopatie, nonostante una dieta ricca di burro, di formaggio e di altri cibi ricchi di grassi animali.

Il fenolo nelle plastiche Per quanto possano essere importanti i molti derivati diversi del fenolo, è stata questa molecola madre a determinare i massimi cambiamenti nel nostro mondo. Abbiamo già visto quanto sia stato utile e influente il fenolo nello

sviluppo della chirurgia antisettica; esso ha avuto però un ruolo molto diverso e forse ancora più importante nella crescita di un’industria del tutto nuova. Press’a poco nello stesso periodo in cui Lister sperimentava con l’acido carbolico, era in rapida crescita l’uso dell’avorio di vari animali nella produzione di oggetti così svariati come pettini e posaterie, bottoni e cofanetti, pezzi degli scacchi e tasti per pianoforte. L’uccisione di un numero sempre maggiore di elefanti per impadronirsi delle loro preziose zanne ebbe come conseguenza che l’avorio cominciò a scarseggiare e a diventare sempre più costoso. L’apprensione per il calo della popolazione degli elefanti fu particolarmente grande negli Stati Uniti, non per le ragioni conservazionistiche che noi accettiamo oggi, ma a causa della popolarità in rapida crescita del biliardo. Le palle da biliardo richiedevano un avorio di altissima qualità per poter rotolare in modo perfetto. Esse dovevano essere ricavate dal centro di una zanna priva di difetti, e solo una zanna su cinquanta è in grado di fornire la densità uniforme necessaria.

Si ovviò alla crescente scarsità di avorio di buona qualità con lo sviluppo di resine fenoliche (o fenoplasti) come la bachelite. (Foto gentilmente concessa da Michael Beugger)

Negli ultimi decenni dell’Ottocento, quando l’offerta di avorio cominciò a scemare, si fece strada l’idea di produrre un materiale artificiale per sostituirlo. Le prime palle da biliardo artificiali furono prodotte con miscele compresse di sostanze come polpa di legno, polvere di ossa e pasta solubile di cotone impregnata o rivestita di una resina dura. Il principale componente di queste resine era la cellulosa, spesso in una forma nitrata. Una versione posteriore e più raffinata usava un polimero basato sulla cellulosa, la celluloide. La durezza e densità della celluloide poteva essere controllata durante il processo di produzione. La celluloide fu il primo materiale termoplastico: ossia un materiale che poteva essere fuso e riplasmato molte volte in un processo che fu il precursore delle moderne macchine di stampaggio a iniezione: un metodo che permetteva di riprodurre ripetutamente oggetti con mano d’opera non qualificata e a costi modesti.

Un problema importante con i polimeri fondati sulla cellulosa è la loro infiammabilità e, specialmente quando è in gioco la nitrocellulosa, la loro tendenza a esplodere. Non c’è alcuna documentazione di palle da biliardo di celluloide che siano esplose, ma la celluloide fu un rischio potenziale per la sicurezza. Nel cinema le pellicole furono composte in origine da un polimero della celluloide fatto di nitrocellulosa, integrato con canfora per migliorarne la flessibilità. Dopo un incendio disastroso che nel 1897 causò la morte di 120 persone in un cinema a Parigi, le cabine di proiezione furono rivestite con stagno per impedire la diffusione dell’incendio se la pellicola avesse preso fuoco. Questa precauzione, tuttavia, non era di alcuna utilità per la sicurezza del proiezionista. Nel primo decennio del Novecento il giovane chimico belga Leo Baekeland, immigrato negli Stati Uniti, sviluppò la prima versione veramente sintetica del materiale che noi oggi chiamiamo plastica. Questa realizzazione fu rivoluzionaria, visto che le varietà di polimeri prodotte fino a quel momento erano state derivate tutte, almeno in parte, dal materiale cellulosa che è presente in natura. Con la sua invenzione, Baekeland diede inizio all’epoca della plastica. Chimico brillante e inventivo che aveva conseguito il dottorato a Gand a ventun anni, avrebbe potuto optare per la sicurezza della vita accademica. Scelse invece di emigrare nel Nuovo Mondo, dove credeva ci fossero maggiori opportunità di sviluppare e produrre nuove sostanze da lui inventate. Dapprima la sua scelta non parve molto felice perché, pur lavorando con diligenza per qualche anno su un certo numero di prodotti commerciali, nel 1893 era sull’orlo della bancarotta. Poi, mentre era alla disperata ricerca di capitali, si rivolse a George Eastman, il fondatore della società fotografica Eastman Kodak, offrendogli un nuovo tipo di carta fotografica da lui inventata. Questa carta era preparata con un’emulsione di cloruro d’argento che eliminava i passi di lavaggio e riscaldamento nello sviluppo delle immagini e migliorava la sensibilità alla luce in misura tale da permettere l’esposizione alla luce artificiale (l’illuminazione con gas illuminante dell’ultimo decennio dell’Ottocento). I fotografi dilettanti avrebbero potuto in tal modo sviluppare rapidamente e facilmente le loro fotografie a casa o mandare i materiali impressionati a uno dei nuovi laboratori che si stavano diffondendo nel Paese. Mentre saliva in treno per andare a incontrarsi con Eastman, Baekeland

decise di chiedergli per la sua nuova carta fotografica 50.000 dollari, visto che essa rappresentava un grande miglioramento rispetto alla celluloide – con i rischi d’incendio associati – che stava usando allora la società Eastman. Baekeland pensò fra sé e sé che, se fosse stato costretto a un compromesso, non avrebbe accettato meno di 25.000 dollari, che a quei tempi erano comunque una cifra ragionevolmente grande. Eastman fu però così impressionato dalla carta fotografica di Baekeland da offrirgli immediatamente la somma allora enorme di 750.000 dollari. Baekeland, sorpreso, accettò e usò quel denaro per costruirsi un moderno laboratorio vicino a casa. Risolto il problema finanziario, Baekeland rivolse la sua attenzione alla creazione di una versione sintetica della gommalacca, o lacca indiana, una sostanza resinosa che veniva usata da molti anni, ed è usata ancor oggi, come un conservante della lacca e del legno. La lacca indiana è ottenuta da un’escrezione delle ghiandole laccifere della femmina del Laccifer lacca, una cocciniglia dell’Asia sudorientale. Queste cocciniglie si attaccano agli alberi, ne succhiano la linfa e infine racchiudono i maschi e le larve all’interno di una sorta di grande manicotto di lacca secreto da loro che fissano all’albero. Dopo essersi riprodotti, questi individui muoiono, e i loro involucri vengono raccolti e fusi. Il liquido così ottenuto viene filtrato per eliminarne i corpi delle cocciniglie morte. Occorrono 33.000 femmine di queste cocciniglie della lacca per produrre, in un periodo di sei mesi, un singolo chilogrammo di lacca indiana. Finché questa veniva usata solo nella forma di un sottile rivestimento, il prezzo rimase abbordabile, ma col crescere del suo uso da parte dell’industria elettrica, che all’inizio del XX secolo stava rapidamente espandendosi, la domanda della lacca indiana andò alle stelle. Il costo di produzione di un isolante elettrico – fosse fatto anche solo di carta impregnata di lacca indiana – era alto, e Baekeland si rese conto che una lacca indiana artificiale sarebbe diventata una necessità per gli isolanti in questo mercato in espansione. Il primo approccio di Baekeland nel suo tentativo di produrre un surrogato della lacca indiana consistette nel far reagire il fenolo – la stessa molecola con cui Lister aveva trasformato con successo la chirurgia – con la formaldeide: un composto derivato dal metanolo (detto anche «spirito di legno»), molto usato a quel tempo come agente conservante dagli imbalsamatori di animali.

Fenolo

Formaldeide

Tentativi compiuti in precedenza di combinare questi composti avevano prodotto risultati scoraggianti. Reazioni rapide e non sufficientemente controllate avevano condotto a materiali insolubili e non fusibili che erano troppo fragili e troppo poco flessibili per essere utili. Baekeland riconobbe però che tali proprietà potevano essere proprio ciò che si richiedeva in una lacca indiana per isolatori elettrici, purché si fosse potuta controllare la reazione in modo da conferire al materiale una forma utilizzabile. Nel 1907, usando una reazione in cui riuscì a controllare sia la temperatura sia la pressione, Baekeland aveva prodotto un liquido che si induriva rapidamente trasformandosi in un solido trasparente, di colore ambrato, esattamente simile alla forma dello stampo o del recipiente in cui veniva versato. Egli chiamò questo materiale Bakelite (bachelite), e Bakelizer il dispositivo di cottura a pressione modificata usato per produrlo. Possiamo forse scusare l’autoincensamento implicito in questi nomi, se consideriamo che Baekeland aveva lavorato cinque anni sulla reazione per sintetizzare questa sostanza.

Formula schematica per la bachelite, che mostra i legami trasversali -CH2 fra le molecole di fenolo. Questi sono solo alcuni modi di legame possibili; nel materiale reale i collegamenti sono casuali.

Mentre la lacca indiana esposta al calore si deformava, la bachelite conservava la sua forma anche ad alte temperature. Una volta solidificatasi, non poteva più essere fusa e riplasmata. La bachelite era dunque un materiale termostabile: in altri termini, avrebbe conservato la sua forma per sempre, in contrasto con un materiale termoplastico come la celluloide. Questa termostabilità unica della resina fenolica è dovuta alla sua struttura chimica: la formaldeide presente nella bachelite può reagire in tre luoghi diversi sull’anello benzenico del fenolo, causando legami trasversali fra le catene di polimeri. La rigidità della bachelite è attribuita a questi stessi legami trasversali cortissimi fissati agli anelli di benzene, già rigidi e planari di per sé. Quando veniva usata per isolatori elettrici, la bachelite aveva prestazioni superiori a quelle di qualsiasi altro materiale. Era più resistente al calore della lacca indiana o di qualsiasi versione di carta impregnata di lacca indiana; era meno fragile degli isolatori di ceramica o di vetro, e aveva una resistenza elettrica migliore di quella della porcellana o della mica. La bachelite non reagiva al sole, all’acqua, all’aria salsa o all’ozono e non era attaccabile da acidi o da solventi. Non era facile che si incrinasse, si scheggiasse, scolorisse, bruciasse o fondesse. Successivamente, pur non essendo questo l’intento originario del suo

inventore, si trovò che la bachelite era il materiale ideale per le palle da biliardo. L’elasticità della bachelite era molto simile a quella dell’avorio, e le palle da biliardo di bachelite, quando si urtavano, facevano lo stesso gradevole rumore delle palle da biliardo d’avorio: un fattore importante che mancava nelle palle di celluloide. Nel 1912 quasi tutte le palle da biliardo non d’avorio erano fatte di bachelite. Seguirono poi numerose altre applicazioni, e nel giro di pochi anni la bachelite divenne onnipresente. Telefoni, bocce, agitatori per lavatrici, cannucce di pipa, mobili, parti di autovetture, penne stilografiche, piatti, bicchieri, apparecchi radio, macchine fotografiche, oggetti da cucina, manici di coltelli, spazzole e spazzolini, cassetti, arredi da bagno e persino opere d’arte e oggetti decorativi furono realizzati in bachelite. La bachelite divenne nota come il «materiale per mille usi», anche se oggi altri fenoplasti hanno soppiantato il materiale originario color marrone. I fenoplasti posteriori sono incolori e possono essere tinti facilmente.

Un fenolo per il sapore La creazione della bachelite non è il solo esempio di una molecola fenolica alla base dello sviluppo di una sostanza artificiale, con l’intento di sostituire un prodotto naturale per il quale la domanda ha superato l’offerta. La domanda di vanillina ha superato da molto tempo l’offerta del prodotto che può essere fornito dall’orchidacea Vanilla planifolia. Oggi perciò si produce la vanillina sintetica, la quale proviene da una fonte sorprendente: le liscivie provenienti dal trattamento con solfito della polpa di legno nella produzione della carta. Il liquido di rifiuto è composto principalmente da lignina, una sostanza che si trova soprattutto nelle e fra le pareti cellulari di numerosi vegetali terrestri. La lignina contribuisce alla rigidità delle piante e compone il 25 per cento circa del peso secco del legno. Non è un composto, bensì un polimero con legami trasversali variabili di diverse unità fenoliche. C’è una differenza nella composizione della lignina fra legno dolce e legno duro, come dimostrano i componenti della struttura delle rispettive lignine. Nella lignina, come nella bachelite, la rigidità del materiale – in questo caso il legno – dipende dal grado dei legami trasversali fra molecole

fenoliche. I fenoli a tripla sostituzione, che si trovano solo nei legni duri, permettono un maggior numero di legami trasversali e spiegano così perché i legni duri siano «più duri» dei legni dolci.

Componente della struttura del legno dolce e legno duro (fenolo a doppia sostituzione)

Componente della struttura del legno duro (fenolo a tripla sostituzione)

Una struttura rappresentativa della lignina che illustra alcuni dei legami trasversali fra questi moduli di costruzione è raffigurata qui sotto. Essa presenta chiare somiglianze con la bachelite di Baekeland.

Parte della struttura della lignina (a sinistra). Le linee tratteggiate indicano la connessione col resto della molecola. Anche la struttura della bachelite (a destra) ha legami incrociati fra unità fenoliche.

La parte circolata dall’ellisse nel disegno della lignina (qui sotto) evidenzia una parte della struttura che è molto simile alla molecola della vanillina.

Quando una molecola di lignina viene rotta in condizioni controllate, può prodursi della vanillina.

La parte circolata della struttura della molecola della lignina (a sinistra) è molto simile a quella della molecola della vanillina (a destra).

La vanillina sintetica non è solo un’imitazione chimica della cosa reale; essa è formata in effetti da molecole di vanillina pura tratte da una fonte naturale ed è chimicamente assolutamente identica alla vanillina ottenuta dai bastoncini di vaniglia. Il sapore di vaniglia ottenuto dal baccello di vaniglia intero contiene però tracce di altri composti che, insieme alla molecola di vanillina, danno il sapore completo della vera vaniglia. L’aroma della vaniglia artificiale contiene molecole di vanillina sintetica in una soluzione comprendente caramello come agente colorante. Per quanto possa sembrare strano, esiste una connessione chimica fra la vaniglia e la molecola di fenolo, scoperta come acido carbolico. Dalla decomposizione di materiali vegetali comprendenti, ovviamente, lignina di tessuti legnosi, oltre che cellulosa, un altro componente importante della vegetazione, a grandi pressioni e temperature moderate nel corso di periodi molto lunghi, si forma carbone. Nel corso del processo di riscaldamento del carbone per ricavarne l’importante gas di città per abitazioni e industrie, si ottiene un liquido viscoso nero dall’odore acre. Esso è catrame di carbon fossile, la fonte dell’acido carbolico di Lister. Il suo fenolo antisettico derivava in ultima analisi dalla lignina.

Il fenolo fu la sostanza che per prima permise l’avvento della chirurgia antisettica, rendendo possibile l’esecuzione di operazioni chirurgiche senza il rischio di infezioni pericolose per la sopravvivenza stessa del paziente. Il fenolo cambiò radicalmente le prospettive di sopravvivenza per migliaia di persone ferite in incidenti o in guerre. Senza il fenolo e gli altri antisettici che lo seguirono non sarebbero mai stati possibili gli straordinari risultati della chirurgia di oggi: la sostituzione dell’anca, la chirurgia a cuore aperto, i trapianti di organi, la neurochirurgia e le riparazioni di microchirurgia. Investendo nell’invenzione della carta fotografica di Baekeland, George Eastman poté offrire una pellicola migliore che, unitamente all’introduzione nel 1900 di una macchina fotografica molto economica – la Kodak Brownie, venduta a un dollaro –, trasformò la fotografia da attività permessa solo ai ricchi a hobby accessibile a tutti. L’investimento di Eastman finanziò lo sviluppo – col fenolo come molecola di partenza – del primo materiale veramente sintetico dell’epoca della plastica, la bachelite, usata per produrre gli isolatori necessari per l’uso onnipresente dell’energia elettrica, un fattore importante nel moderno mondo industriale. I fenoli di cui ci siamo occupati in questo capitolo hanno cambiato la nostra vita in molti modi, grandi (chirurgia antisettica, sviluppo della plastica, fenoli esplosivi) e piccoli (fattori sanitari, cibi speziati, tinture naturali, vaniglia accessibile). Disponendo di una tale incredibile varietà di strutture, è probabile che i fenoli continuino a plasmare la nostra storia.

8 L’ISOPRENE

Riuscite a immaginare come sarebbe il mondo senza i pneumatici per le automobili, gli autotreni e gli aerei? Senza guarnizioni e cinghie della ventola per i nostri motori, senza elastici per i nostri indumenti e senza suole impermeabili per le nostre scarpe? Dove saremmo senza oggetti così banali ma utili come gli elastici? La gomma e i prodotti di gomma sono così comuni che probabilmente non riflettiamo mai sulla loro natura e su come essi abbiano cambiato la nostra vita. Benché l’umanità ne conosca l’esistenza da secoli, solo negli ultimi centocinquant’anni la gomma è diventata un componente essenziale della civiltà. Le proprietà uniche della gomma derivano dalla sua struttura chimica, e la manipolazione chimica di questa struttura ha prodotto una molecola che ha condotto all’accumulo di immense fortune, alla perdita di vite umane e al cambiamento per sempre di certi Paesi.

Le origini della gomma Una qualche forma di gomma era nota da moltissimo tempo nella maggior parte dell’America centrale e meridionale. Il primo uso della gomma, a fini sia decorativi sia pratici, è spesso attribuito a tribù indie del bacino amazzonico. Palle di gomma, trovate in un sito archeologico nei pressi di Veracruz, in Messico, risalgono al periodo compreso fra il 1600 e il 1200 a.C. Nel suo secondo viaggio in America, nel 1495, Cristoforo Colombo vide indigeni sull’isola di Hispaniola giocare con palle pesanti, prodotte con una gomma vegetale, che facevano rimbalzi sorprendentemente alti. Colombo le giudicò migliori di quelle riempite d’aria in Spagna, riferendosi presumibilmente a vesciche di animali gonfiate, usate dagli spagnoli in giochi

con la palla. Colombo portò alcuni esemplari di questo nuovo materiale in Europa, così come fecero dopo di lui altri visitatori del Nuovo Mondo. I campioni di latice di gomma rimasero però principalmente una curiosità; essi diventavano viscosi ed emettevano un odore forte nelle giornate estive più calde, mentre diventavano duri e fragili nei freddi inverni europei. Un francese, di nome Charles-Marie de la Condamine – variamente caratterizzato come matematico, geografo e astronomo, oltre che viveur e avventuriero –, fu inviato dall’Accademia francese delle scienze a misurare un meridiano in Perù, per stabilire se la Terra fosse o no effettivamente appiattita ai poli. Dopo avere completato il suo lavoro per l’Accademia, La Condamine colse l’opportunità di esplorare le foreste sudamericane, tornando a Parigi nel 1735 con varie palle fatte della gomma coagulata dell’albero del caucciù, l’«albero che piange». Egli aveva osservato gli indios Omegus dell’Ecuador raccogliere il viscoso latice bianco del caucciù e poi riscaldarlo su un fuoco fumoso e modellarlo in una varietà di forme per farne contenitori, palle, cappelli e scarpe. Purtroppo i campioni di linfa greggia di La Condamine, che quando non venivano conservati attraverso la fumigagione rimanevano nella forma di latice, fermentarono durante la navigazione e quando arrivarono in Europa erano una massa maleodorante inutilizzabile. Il latice è un’emulsione colloidale, una sospensione di particelle di gomma naturale in acqua. Molti alberi e arbusti tropicali producono latice, compresa la Ficus elastica, che nella varietà da vaso è nota anche come «pianta della gomma». In alcune parti del Messico il latice viene ancora raccolto nel modo tradizionale da alberi di gomma selvatici, della specie Castilla elastica. Tutti i membri della famiglia delle euforbiacee, distribuiti in tutti i climi da caldi a temperati, producono latice, compresa la natalizia Euphorbia pulcherrima dai fiori rossi, le euforbie succulente simili a cactus delle regioni desertiche, le euforbie cespugliose, decidue e sempreverdi, e la «neve sulle montagne», un’euforbia nordamericana annuale dalla rapida crescita. Anche il Parthenium argentatum, o guayule, un suffrutice che cresce nel sud degli Stati Uniti e nel Messico settentrionale, produce molta gomma naturale. Un altro produttore di latice, pur non essendo né una pianta tropicale né un’euforbia, è l’umile tarassaco. Il singolo massimo produttore di gomma naturale al mondo è un albero originario della regione amazzonica del Brasile, la Hevea brasiliensis.

Cis e trans La gomma naturale è un polimero della molecola isoprene. L’isoprene, che ha solo cinque atomi di carbonio, è la più piccola delle unità che si ripetono in qualsiasi polimero naturale, cosa che fa della gomma il polimero naturale più semplice. I primi esperimenti chimici sulla struttura della gomma furono compiuti dal grande scienziato inglese Michael Faraday. Spesso considerato oggi un fisico più che un chimico, Faraday si definiva un «filosofo naturale» (al suo tempo i confini fra chimica e fisica erano meno netti di quanto non siano oggi). Pur venendo ricordato principalmente per le sue scoperte di fisica nei campi dell’elettricità, del magnetismo e dell’ottica, i suoi contributi al campo della chimica furono considerevoli e compresero la determinazione, nel 1826, della formula chimica della gomma come un multiplo di C5H8. Nel 1835 era stato dimostrato che l’isoprene poteva essere distillato dalla gomma, cosa che induceva a pensare che questo fosse un polimero formato per ripetizione di unità di isoprene (ovvero di unità C5H8). Quest’ipotesi fu confermata quando l’isoprene fu polimerizzato ottenendo una massa simile alla gomma. La struttura della molecola di isoprene è scritta di solito come

con due doppi legami su atomi di carbonio adiacenti. Ma attorno a ogni legame singolo fra due atomi di carbonio è sempre possibile una libera rotazione, come si vede qui sotto.

Così le due strutture, e tutte le altre possibili rotazioni intorno a questo legame singolo, sono ancora lo stesso composto. La gomma naturale si forma quando molecole di isoprene si uniscono l’una all’altra, estremo a estremo. Questa polimerizzazione nella gomma produce quelli che sono chiamati doppi legami cis. Un doppio legame fornisce rigidità a una molecola prevenendo la rotazione. Ne consegue che la struttura qui sotto a sinistra, nota come la forma cis, non è uguale alla forma a destra, nota come la forma trans.

Cis Trans

Nel caso della struttura cis, i due atomi di H (e anche i due gruppi CH3) sono entrambi dalla stessa parte del doppio legame, mentre nella struttura trans i due atomi di H (e anche i due gruppi CH3) sono dalle parti opposte del doppio legame. Questa differenza apparentemente piccola nel modo in cui vari gruppi e atomi sono disposti intorno al doppio legame ha conseguenze enormi per le proprietà dei diversi polimeri formati dalla molecola di isoprene. L’isoprene è solo uno dei molti composti organici con forme cis e trans; essi hanno spesso proprietà del tutto diverse.

Qui sotto vediamo quattro molecole di isoprene pronte a legarsi estremo a estremo – nel modo indicato dalle doppie frecce – per formare la molecola della gomma naturale.

Nel disegno seguente, le linee a trattini indicano dove la catena continua con la polimerizzazione di ulteriori molecole di isoprene.

Gomma naturale

Quando si combinano molecole di isoprene, si formano nuovi doppi legami; essi sono tutti cis rispetto alla catena del polimero; in altri termini, la catena continua degli atomi di carbonio che forma la molecola della gomma si trova dalla stessa parte di ogni doppio legame.

Gli atomi di carbonio della catena continua sono dalla stessa parte di questo doppio legame, cosicché questa è una struttura cis.

Questa disposizione cis è essenziale per l’elasticità della gomma. Ma la polimerizzazione naturale della molecola di isoprene non è sempre cis. Quando la disposizione intorno al doppio legame nel polimero è trans, si produce un altro polimero, con proprietà molto diverse da quelle della gomma. Se noi usiamo la stessa molecola di isoprene ma attorta nella posizione illustrata,

e poi aggiungiamo estremo a estremo quattro molecole come questa, unendole di nuovo come indicato dalle doppie frecce,

ne risulta il prodotto trans.

La catena continua di carbonio passa da un lato all’altro di questo doppio legame, cosicché questa è una struttura trans.

Questo polimero trans dell’isoprene si presenta naturalmente in due sostanze, la guttaperca e la balata. La guttaperca viene ottenuta dal latice di vari membri della famiglia delle sapotacee, e in particolare dall’albero del Palaquium, originario della penisola malese. L’80 per cento circa della guttaperca è costituito dal polimero trans dell’isoprene. La balata, composta dal latice simile della Mimusops globosa, nativa del Panama e delle parti settentrionali del Sudamerica, contiene l’identico polimero trans. Tanto la guttaperca quanto la balata possono essere fuse e plasmate, ma dopo essere rimaste per qualche tempo esposte all’aria diventano dure e di consistenza cornea. Poiché questo cambiamento non si verifica quando queste sostanze

vengono tenute sott’acqua, la guttaperca fu molto usata verso la fine dell’Ottocento e l’inizio del Novecento come rivestimento di cavi sottomarini. Fu usata anche in medicina e in odontoiatria, in stecche, cateteri e forcipi, come impiastro per eruzioni cutanee e come materiale per otturazioni per cavità in denti e gengive. Le proprietà peculiari della guttaperca e della balata sono probabilmente apprezzate soprattutto dai giocatori di golf. La palla da golf originaria era di legno, di solito d’olmo o di faggio. Nella prima parte del Settecento, però, gli scozzesi avevano inventato la feathery, una palla di pelle, piena di piume d’oca. Una palla di piume d’oca poteva percorrere una distanza doppia di una palla di legno, ma si inzuppava e forniva risultati mediocri su campi bagnati. Le palle di piuma d’oca avevano anche una tendenza a rompersi ed erano dieci volte più costose delle palle di legno. Nel 1848 fu introdotta la gutty. Fatta di guttaperca bollita in acqua, plasmata a mano (o in uno stampo di metallo) in forma di una sfera e poi fatta indurire, la gutty divenne rapidamente popolare. Aveva però anch’essa i suoi svantaggi. L’isomero trans dell’isoprene tende col tempo a indurirsi e a diventare fragile, cosicché la palla di guttaperca poteva rompersi in volo. Si cambiarono allora le regole del golf per permettere la prosecuzione della partita con sostituzione della palla andata in pezzi, introducendo una palla nuova là dov’era caduto il pezzo più grande. Si osservò che le palle consumate o intaccate andavano più lontano, cosicché le fabbriche cominciarono a modificare in tal senso la forma delle palle nuove, pervenendo infine alla forma attuale della palla da golf con fossette. Alla fine dell’Ottocento cominciò a invadere il golf anche l’isomero cis dell’isoprene, quando fu introdotta una palla con cuore di guttaperca avvolto da uno strato di gomma e copertura ancora di guttaperca. Nelle moderne palle da golf sono usati una varietà di materiali, ma molti continuano a includere gomma nella loro costruzione. Nelle coperture si può trovare ancor oggi l’isomero trans dell’isoprene, spesso di balata anziché di guttaperca.

Lo sviluppo della gomma Michael Faraday non fu l’unico a sperimentare con la gomma. Nel 1823 il

chimico di Glasgow Charles Macintosh usò nafta (un prodotto di scarto degli impianti locali di produzione di gas illuminante) come solvente per trasformare la gomma in un rivestimento flessibile per tessuti. I soprabiti impermeabili confezionati con tessuti che avevano subito tale trattamento divennero noti come macintosh, e in Gran Bretagna si chiamano ancor oggi così (o semplicemente mac) gli impermeabili. La scoperta di Macintosh condusse a un maggiore uso della gomma anche in motori, tubi flessibili, stivali e galosce, oltre che in cappelli e soprabiti. Un grande entusiasmo per la gomma si diffuse negli Stati Uniti all’inizio degli anni ’30 dell’Ottocento. Ma benché quei primi capi di vestiario trattati con la gomma presentassero una buona impermeabilità, la loro popolarità declinò rapidamente quando ci si rese conto che mal sopportavano le variazioni stagionali, indurendosi e diventando fragili d’inverno, e diventando per contro appiccicosi e sviluppando un odore alquanto sgradevole d’estate. Il grande entusiasmo per la gomma finì quasi subito dopo il suo inizio, tanto da dare l’impressione che essa fosse destinata a restare una curiosità, e che il suo unico uso pratico fosse quello di gomma per cancellare. La parola inglese rubber (gomma per cancellare, da to rub, «sfregare», «strofinare») era stata coniata nel 1770 dal chimico inglese Joseph Priestley, il quale aveva trovato che un pezzetto di caucciù cancellava lettere e segni tracciati con la matita più efficacemente della mollica di pane inumidita, in uso al suo tempo. Le gomme per cancellare furono commercializzate in Gran Bretagna col nome di India Rubbers, cosa che contribuì ancor più a diffondere la falsa credenza che la gomma venisse dall’India. Proprio mentre stava concludendosi il primo periodo di entusiasmo per la gomma, intorno al 1834, l’inventore e imprenditore americano Charles Goodyear cominciò una serie di esperimenti che introdussero un periodo molto più prolungato di grande interesse per la gomma a livello mondiale. Goodyear ebbe più successo come inventore che come imprenditore. Si trovò infatti a lottare con i debiti per tutta la vita, fece fallimento varie volte ed era solito riferirsi alle prigioni per debitori come ai suoi «hotel». Ebbe l’idea che mescolando una polvere con la gomma si potesse assorbire l’umidità in eccesso che rendeva la gomma così appiccicosa nelle giornate più calde. Seguendo questa linea di ragionamento, provò varie sostanze, ma senza trovare nulla che funzionasse. Ogni volta che gli sembrava di avere trovato la

soluzione giusta, l’estate dimostrava che era stato in errore; ogni volta che la temperatura aumentava, stivali e indumenti impregnati di gomma diventavano molli ed emanavano un odore sgradevole. I vicini si lagnavano per i forti odori che uscivano dal suo laboratorio e i suoi finanziatori si ritiravano, ma Goodyear non mollava. Una linea di sperimentazione parve infine offrire delle speranze. La gomma, trattata con acido nitrico, si trasformava in un materiale liscio, apparentemente secco, che Goodyear sperava restasse tale anche al cambiare della temperatura. I suoi nuovi finanziatori riuscirono a ottenere un contratto dal governo per sacchi postali gommati trattati con acido nitrico. Goodyear era davvero convinto che questa fosse finalmente la volta buona. Riposti i sacchi postali terminati in una stanza chiusa a chiave, Goodyear si concesse infine una gita domenicale con la famiglia. Tanto più amara fu la delusione al suo ritorno: anche i suoi nuovi sacchi postali si erano rammolliti e deformati sotto l’effetto del calore, un effetto che aveva già tristemente sperimentato in precedenza su molti altri prodotti. La grande scoperta di Goodyear si verificò nell’inverno del 1839, quando sperimentò come agente essiccante lo zolfo in polvere. Goodyear lasciò cadere accidentalmente qualche goccia di gomma mista a zolfo sulla superficie di una stufa calda. In qualche modo nella massa glutinosa annerita che si formò riconobbe delle nuove possibilità. Ora era certo che lo zolfo e il calore avessero trasformato la gomma in un modo potenzialmente utile, ma non sapeva ancora quanto zolfo o quanto calore occorressero. Usando la cucina di casa come laboratorio chimico, Goodyear continuò gli esperimenti. Campioni di gomma impregnati di zolfo furono compressi fra ferri caldissimi, arrostiti al forno, tostati sul fuoco, esposti al vapore su un bollitore e sepolti in sabbia riscaldata. Infine la sua perseveranza fu premiata. Dopo cinque anni si era finalmente imbattuto in un processo che forniva risultati uniformi: una gomma resistente, elastica, che rimaneva stabile ad alte e basse temperature. Ma dopo avere dimostrato le sue doti di inventore con la scoperta del processo per ottenere una gomma capace di alte prestazioni, Goodyear continuò a dimostrare la sua inettitudine come uomo d’affari. I diritti da lui guadagnati con i suoi molti brevetti della gomma furono minimi, mentre coloro a cui vendette i diritti seppero sfruttarli al meglio accumulando fortune. Pur avendo intentato almeno trentadue cause, portandole fino alla Corte Suprema e vincendole,

Goodyear continuò a subire violazioni dei suoi brevetti per tutta la vita. La cosa che gli interessava di più non era lo sfruttamento commerciale della gomma; egli era ancora affascinato dalle infinite possibilità che intravedeva in questa sostanza – banconote di gomma, gioielli, vele, vernici, ammortizzatori per automobili, navi, strumenti musicali, pavimenti, impermeabili, gommoni –, molte delle quali furono in seguito realizzate. Egli era altrettanto inetto con i brevetti esteri. Mandò un campione della sua nuova gomma in Gran Bretagna, senza rivelare, prudenzialmente, i dettagli del processo di vulcanizzazione, ma Thomas Hancock, un esperto di gomma inglese, notò tracce di polvere di zolfo su uno dei suoi campioni. Quando finalmente Goodyear chiese un brevetto per la Gran Bretagna, trovò che Hancock aveva chiesto un brevetto quasi identico solo qualche settimana prima. Goodyear, rifiutando l’offerta di una partecipazione al 50 per cento al brevetto di Hancock se avesse lasciato cadere la sua rivendicazione, gli fece causa e perse. Negli anni ’50 dell’Ottocento, all’Esposizione universale di Londra e in un’altra a Parigi, padiglioni costruiti completamente in gomma esposero il nuovo materiale. Quanto a Goodyear, non potendo pagare i suoi conti quando il suo brevetto francese e i diritti relativi furono annullati per un dettaglio tecnico, dovette trascorrere di nuovo un periodo di tempo nella prigione per debitori. Curiosamente, mentre era detenuto in un carcere francese, gli fu conferita la Croce francese della Legion d’onore. Presumibilmente l’imperatore Napoleone III, conferendo la medaglia a Goodyear, stava onorando l’inventore, non l’imprenditore.

Che cosa la fa allungare? Goodyear, che non era un chimico, non aveva idea del perché lo zolfo e il calore operassero così bene sulla gomma naturale. Non sapeva niente della struttura dell’isoprene, del fatto che la gomma naturale era il suo polimero e che, con lo zolfo, essa aveva conseguito la «reticolazione», ossia gli importantissimi legami trasversali fra le molecole di gomma. Quando si somministrava calore, gli atomi di zolfo formavano legami trasversali che tenevano in posizione le lunghe catene di molecole di gomma. Erano trascorsi più di settant’anni dalla scoperta fortuita di Goodyear – chiamata

vulcanizzazione dal nome del dio romano del fuoco, Vulcano – quando il chimico britannico Samuel Shrowder Pickles avanzò l’ipotesi che la gomma fosse un polimero lineare dell’isoprene e fu finalmente spiegato il processo di vulcanizzazione. Le proprietà elastiche della gomma sono una conseguenza diretta della sua struttura chimica. Le catene del polimero dell’isoprene, avvolte in spire in modo casuale, quando vengono distese si allungano e si allineano nella direzione della tensione. Una volta rimossa la forza di trazione, le molecole riformano le spire. Le lunghe catene flessibili della configurazione tutta cis della molecola di gomma naturale non sono abbastanza vicine fra loro da produrre moltissimi legami trasversali efficaci fra le catene, cosicché, quando la sostanza è in tensione, le molecole allineate possono scivolare l’una rispetto all’altra. Confrontiamo questa situazione con i zigzag altamente regolari dell’isomero tutto trans. Queste molecole possono combinarsi compattamente, formando efficaci legami trasversali che impediscono alle lunghe catene di scivolare l’una rispetto all’altra, cosicché esse non possono allungarsi. Questi isopreni trans, di guttaperca e di balata, sono masse dure, non flessibili, mentre la gomma, l’isoprene cis, è un elastomero flessibile.

La catena estesa dell’isomero cis della molecola della gomma non può disporsi molto vicina a un’altra molecola di gomma, cosicché si formano pochi legami trasversali. Quando la gomma viene stirata le molecole scivolano l’una sull’altra.

Le catene a zigzag dell’isomero trans possono disporsi a grande vicinanza l’una dall’altra, consentendo la formazione di parecchi legami trasversali fra molecole adiacenti. Ciò impedisce loro di scivolare; la guttaperca e la balata non si allungano.

Aggiungendo zolfo alla gomma naturale e riscaldandola, Goodyear creò legami trasversali fra atomi di zolfo; il riscaldamento era necessario alla formazione di questi nuovi legami. La creazione di un numero sufficiente di questi legami disolfuro (S-S) permette alle molecole di gomma di restare flessibili, ma impedisce loro di scivolare l’una sull’altra.

Molecole di gomma con legami trasversali disolfuro (S-S) che impediscono lo scivolamento dell’una rispetto all’altra.

Dopo la scoperta di Goodyear, la gomma vulcanizzata divenne uno dei materiali più importanti al mondo e un prodotto vitale in tempo di guerra. È sufficiente una percentuale del solo 0,3 per cento di zolfo per modificare l’ambito limitato di temperature dell’elasticità della gomma naturale, così che essa non diventi più molle e vischiosa quando fa caldo e fragile quando fa freddo. La gomma molle, usata per produrre elastici, contiene dall’1 al 3 per cento di zolfo; la gomma prodotta con una percentuale di zolfo compresa fra il 3 e il 10 per cento ha più legami trasversali, è meno flessibile ed è usata per i pneumatici delle autovetture. In presenza di un numero di legami ancora maggiore, la gomma diventa troppo rigida per essere usata in applicazioni in cui è richiesta la flessibilità, anche se l’ebanite – sviluppata dal fratello di

Goodyear, Nelson –, un materiale nero, durissimo, usato come isolante elettrico, è gomma vulcanizzata, contenente dal 23 al 35 per cento di zolfo.

La gomma influisce sulla storia Una volta riconosciute le possibilità della gomma vulcanizzata, la domanda di questo materiale cominciò a crescere rapidamente. Benché molti alberi tropicali forniscano prodotti di latice simili alla gomma, le foreste pluviali dell’Amazzonia avevano un monopolio sulle specie del genere Hevea. Nell’arco di pochissimi anni i cosiddetti baroni della gomma divennero estremamente ricchi sfruttando il lavoro di braccianti a contratto, principalmente nativi del bacino amazzonico. Il sistema di sfruttamento della mano d’opera messo in atto nelle piantagioni di gomma e fondato su una servitù da indebitamento dev’essere considerato molto vicino allo schiavismo. Una volta che un bracciante aveva firmato un contratto, riceveva dal proprio datore di lavoro un credito per l’acquisto di equipaggiamento e provviste. Da quel momento il debito dei braccianti era inevitabilmente destinato a crescere in quanto i salari non coprivano mai del tutto i costi. I forzati della gomma lavoravano dal sorgere del sole al tramonto incidendo la corteccia degli alberi della gomma, raccogliendo il latice, vulcanizzando su fuochi che emanavano un denso fumo il latice che andava coagulandosi, e trasportando poi le grandi masse solide di latice annerito fino ai corsi d’acqua per poi imbarcarle su navi. Nella stagione piovosa da dicembre a giugno, quando il latice non si solidificava, i lavoratori rimanevano nei loro squallidi accampamenti, guardati a vista da brutali sorveglianti che non esitavano a sparare su chi cercava di fuggire. Gli alberi della gomma erano meno dell’1 per cento degli alberi presenti nel bacino amazzonico. Gli alberi migliori fornivano poco meno di un chilo e mezzo di gomma all’anno. Un buon lavorante poteva produrre circa undici chili di gomma vulcanizzata al giorno. Tale gomma veniva trasportata a valle in canoa fino a stazioni commerciali, da dove raggiungeva poi la città di Manaus, sul Rio Negro, a una ventina di chilometri dalla sua confluenza col Rio delle Amazzoni e a quasi 1500 chilometri dall’oceano Atlantico. Manaus si sviluppò dalle sue modeste origini di piccola cittadina su un fiume

tropicale, diventando una fiorente città grazie alla produzione della gomma. Gli immensi profitti realizzati da un centinaio di imprenditori – principalmente europei – e la disparità fra il loro stile di vita lussuoso e le misere condizioni dei lavoratori della gomma a contratto, soffocati dai debiti, erano particolarmente vistosi. Residenze sfarzose, carrozze di lusso, ricchi negozi forniti di ogni sorta di merci esotiche, giardini ben curati e ogni altro segno di ricchezza e di prosperità caratterizzarono Manaus al culmine del monopolio amazzonico della gomma, fra il 1890 e il 1920. Un grande teatro dell’opera presentava periodicamente orchestre e cantanti d’opera europei e americani. Ci fu addirittura un tempo in cui Manaus ebbe la distinzione del massimo numero di acquisti di diamanti del mondo. Ma il grande boom della produzione della gomma non sarebbe durato per sempre. Già all’inizio del decennio 1870-1880 la Gran Bretagna cominciò a preoccuparsi per il nuovo uso di abbattere gli alberi della gomma nelle foreste tropicali, anziché limitarsi a raccoglierne il latice da incisioni praticate nella corteccia. Da ogni albero abbattuto si poteva infatti estrarre una quantità maggiore di latice, fino a una cinquantina di chilogrammi rispetto al chilo e mezzo di latice che si poteva estrarre annualmente da un albero, ma ci si privava di una fonte di risorse che avrebbe continuato a produrre. La Castilla – una specie produttrice di una qualità inferiore di gomma naturale, che veniva usata per produrre casalinghi e giocattoli – rischiò l’estinzione in conseguenza di quest’usanza di abbattere gli alberi. Nel 1876 l’inglese Henry Alexander Wickham lasciò l’Amazzonia con una nave presa a noleggio che trasportava settantamila semi di Hevea brasiliensis; questi si sarebbero in seguito rivelati la fonte più prolifica di latice di gomma. Le foreste amazzoniche possedevano diciassette specie diverse di alberi del genere Hevea, e non è chiaro se Wickham sapesse che i semi oleosi da lui raccolti appartenevano alla specie più promettente o se nella sua raccolta di semi abbia avuto una parte importante la fortuna. Non è chiaro neppure perché la nave da lui noleggiata non sia stata ispezionata da funzionari brasiliani; forse le autorità pensavano che l’albero della gomma non potesse crescere fuori del bacino amazzonico. Wickham prodigò la massima cura nella confezione e trasporto del carico, usando ogni diligenza per impedire che i suoi semi oleosi si irrancidissero o germinassero durante il viaggio. Una mattina del giugno 1876 arrivò di buon’ora a casa dell’eminente botanico Joseph Hooker, curatore dei Royal

Botanical Gardens a Kew, fuori Londra. Creata una serra, vi si piantarono i semi dell’albero della gomma. Qualche giorno dopo alcuni di questi semi cominciarono a germinare: erano i capostipiti di più di 1900 piantine di alberi della gomma che sarebbero state mandate in Asia: l’inizio di un’altra grande dinastia della gomma. Le prime piantine, racchiuse in serre in miniatura e curate con grande diligenza, furono inviate per mare a Colombo, nell’isola di Ceylon (oggi Sri Lanka). A quell’epoca si sapeva ben poco delle esigenze dell’albero della gomma, o di come le condizioni della sua crescita in Asia avrebbero inciso sulla produzione di latice. Ai Kew Gardens si iniziò un programma di studio scientifico intensivo di tutti gli aspetti della coltivazione della Hevea brasiliensis e si trovò che, contrariamente all’opinione corrente, gli alberi ben curati potevano essere incisi giornalmente per estrarne latice. Gli alberi coltivati cominciavano a produrre dopo quattro anni, mentre si era sempre supposto che l’età giusta per cominciare a sfruttare gli alberi della gomma selvatici fosse di circa venticinque anni. Le prime due piantagioni di alberi della gomma furono stabilite a Selangor, nell’attuale Malaysia occidentale. Nel 1896 arrivò per la prima volta a Londra la gomma malese, di colore ambrato. Gli olandesi crearono ben presto piantagioni a Giava e a Sumatra, e nel 1907 gli inglesi avevano circa dieci milioni di alberi della gomma, piantati in file ordinate, distribuiti su circa 120.000 ettari in Malaysia e a Ceylon. Furono importati migliaia di lavoratori immigrati, cinesi in Malaysia e Tamil a Ceylon, per disporre della mano d’opera necessaria per la coltivazione della gomma naturale. Risentì della domanda di gomma anche l’Africa, in particolare la regione centroafricana del Congo. Fra il 1880 e il 1890 il re Leopoldo II del Belgio, trovando che britannici, francesi, tedeschi, portoghesi e italiani si fossero già divisi gran parte dell’Africa occidentale, australe e orientale, colonizzò aree meno ambite dell’Africa centrale, dove per secoli la tratta degli schiavi aveva ridotto la popolazione indigena. Un effetto altrettanto devastante ebbe il commercio dell’avorio nell’Ottocento, che sconvolse modi di vita tradizionali. Uno fra i metodi più praticati dai commercianti d’avorio era quello di catturare persone del luogo, chiedere avorio per la loro liberazione e costringere interi villaggi a compiere pericolose spedizioni di caccia agli elefanti per salvare le loro famiglie. Quando l’avorio cominciò a scarseggiare e i prezzi della gomma cominciarono ad aumentare a livello mondiale, i

mercanti continuarono a catturare ostaggi, chiedendo però come riscatto, invece che avorio, gomma rossa estratta da liane selvatiche che crescevano nelle foreste del bacino del Congo. Leopoldo usò il commercio della gomma per finanziare l’organizzazione del primo governo coloniale formale nell’Africa centrale. Egli affittò immense estensioni di territorio ad aziende commerciali, come la AngloBelgian India Rubber Company e la Antwerp Company. Il profitto della gomma dipendeva dal volume di affari. La raccolta del latice divenne obbligatoria per gli abitanti del Congo, e furono usati i militari per convincerli ad abbandonare le proprie attività agricole di sostentamento e dedicarsi alla raccolta della gomma. Interi villaggi si nascondevano ai belgi per non essere ridotti in schiavitù. Divennero comuni punizioni barbare; si amputavano le mani col machete a chi non raccoglieva abbastanza gomma. Nonostante qualche protesta umanitaria contro il regime di Leopoldo, anche altre nazioni colonizzatrici permisero a società che avevano in appalto la raccolta della gomma di usare il lavoro forzato su grande scala.

La storia influisce sulla gomma Diversamente da altre molecole la gomma non solo cambiò la storia ma ne fu altrettanto modificata. Oggi la parola gomma si applica a una varietà di strutture di polimeri il cui sviluppo fu accelerato da eventi del XX secolo. L’offerta di gomma naturale prodotta dalle piantagioni superò rapidamente quella della gomma naturale proveniente dalle foreste pluviali dell’Amazzonia, e nel 1932 il 98 per cento della gomma proveniva da piantagioni nel Sud-est asiatico. La dipendenza da questa fonte asiatica creò gravi preoccupazioni negli Stati Uniti, in quanto – nonostante un programma di accumulo di scorte – il fabbisogno di gomma per lo sviluppo dell’industrializzazione e dei trasporti stava crescendo a un ritmo fortemente accelerato. Dopo l’ingresso degli Stati Uniti nella Seconda guerra mondiale, determinato dall’attacco dei giapponesi a Pearl Harbor nel dicembre 1941, il presidente Franklin Delano Roosevelt nominò una speciale commissione col compito di esaminare le soluzioni proposte per far fronte alla scarsità di gomma che andava profilandosi. La commissione concluse che, «se non ci

procureremo rapidamente l’accesso a una grande quantità di gomma, vedremo fallire sia il nostro sforzo bellico sia la nostra economia interna». Fu lasciata cadere l’idea di estrarre gomma naturale da una varietà di piante che crescevano in vari stati americani, dal Chrysothamnus della California al tarassaco del Minnesota. Anche se la Russia usò effettivamente il tarassaco come fonte di gomma di emergenza durante la guerra, la commissione di Roosevelt sostenne che la gomma fornita da tali fonti sarebbe stata poca e la qualità del latice contestabile. L’unica soluzione ragionevole, sostenne la commissione, sarebbe stata la produzione di gomma sintetica. I tentativi di produrre gomma sintetica per polimerizzazione dell’isoprene erano fino ad allora falliti. Il problema era rappresentato dai doppi legami cis della gomma. Nella gomma naturale, il processo di polimerizzazione è controllato da enzimi, i quali fanno sì che i doppi legami siano cis. Nessun controllo del genere era disponibile per il processo sintetico, cosicché si otteneva un prodotto in cui i doppi legami erano un miscuglio casuale delle due forme cis e trans. Un polimero dell’isoprene ugualmente variabile era già noto in natura: era il latice dell’albero sudamericano della sapodilla (Achras sapota). Il latice, noto in spagnolo (da una voca azteca) come chicle, veniva usato da molto tempo nella produzione di gomma da masticare. Pare che la masticazione di gomma sia un uso molto antico; pezzi di resine di alberi masticate sono state riportate in luce dagli archeologi insieme a manufatti preistorici. Gli antichi greci masticavano la resina del lentisco, una pianta arbustacea propria di varie località del Medio Oriente, della Turchia e della Grecia, dove essa viene masticata ancor oggi. Nel New England gli indiani locali masticavano la linfa indurita dell’abete rosso, abitudine che fu adottata anche dai coloni europei. La gomma dell’abete aveva un aroma caratteristico e molto forte. Spesso, però, conteneva impurità difficili da eliminare, cosicché fra i coloni divenne più popolare una gomma fatta di paraffina. Il latice di sapodilla (chicle), già masticato da almeno mille anni dalle popolazioni maya del Messico, del Guatemala e del Belize, fu introdotto negli Stati Uniti dal generale Antonio López de Santa Anna, il conquistatore di Alamo. In qualità di presidente del Messico, intorno al 1855 Santa Anna stipulò con gli Stati Uniti degli accordi territoriali nell’ambito dei quali il Messico cedeva tutti i territori a nord del Rio Grande. In conseguenza di ciò Santa Anna fu deposto ed esiliato. Egli sperò che la vendita del chicle – come

sostituto del latice di gomma – a società americane della gomma gli permettesse di arruolare una milizia e di poter recuperare grazie a essa la presidenza del Messico. Non fece però i conti con i doppi legami casuali cis e trans del chicle. Nonostante i numerosi sforzi compiuti da lui e dal suo socio, il fotografo e inventore Thomas Adams, la gomma chicle non poté essere vulcanizzata e trasformata in un sostituto accettabile della gomma, né poté essere mescolata in modo utile con la gomma. Sembrava che il chicle non potesse avere alcun valore commerciale, finché un giorno Adams, vedendo in negozio un bambino che comprava un penny di gomma di paraffina da masticare, ricordò che i nativi del Messico masticavano il chicle da tempo immemorabile. Pensò che questo poteva essere il modo migliore per utilizzare le scorte di chicle accumulate nel suo magazzino. Una gomma basata sul chicle, dolcificata con zucchero in polvere e variamente aromatizzata, divenne ben presto la base della crescente industria della gomma da masticare. Anche se veniva distribuita alle truppe durante la Seconda guerra mondiale per mantenere vigili gli uomini, difficilmente la gomma da masticare potrebbe essere considerata un materiale strategico in tempo di guerra. Le procedure sperimentali che cercavano di produrre gomma a partire dall’isoprene produssero solo polimeri simili al chicle, cosicché rimaneva ancora da sviluppare una gomma artificiale a partire da materiali diversi dall’isoprene. Per una curiosa ironia, la tecnologia per il processo che avrebbe reso possibile la produzione di una tale gomma venne dalla Germania. Durante la Prima guerra mondiale i rifornimenti di gomma naturale alla Germania dal Sud-est asiatico erano stati sottoposti a un blocco navale da parte degli alleati. In risposta, le grandi aziende chimiche della Germania avevano sviluppato una grande varietà di prodotti simili alla gomma, il migliore dei quali era la gomma di stirene e butadiene (nota oggi con la sigla inglese SBR, per styrene-butadiene rubber), che aveva proprietà molto simili a quelle della gomma naturale. Lo stirene fu isolato per la prima volta verso la fine del Settecento, dal balsamo dell’albero Liquidambar orientalis, originario della Turchia sudoccidentale. Si notò che dopo qualche mese lo stirene estratto diventava simile a una gelatina, indicando così che cominciava a polimerizzarsi.

Stirene

Polistirene

Questo polimero è noto oggi come polistirene (o polistirolo) ed è usato per la produzione di pellicole di plastica, materiali da imballaggio e tazzine per caffè di «Styrofoam». Lo stirene – preparato sinteticamente già nel 1866 – e il butadiene furono i materiali di partenza usati dalla società chimica tedesca IG Farben nella produzione della gomma artificiale. Il rapporto del butadiene (CH2=CHCH=CH2) allo stirene è di circa tre a uno nella SBR; benché il rapporto esatto e la struttura siano variabili, si pensa che i doppi legami siano cis o trans a caso.

Struttura parziale della gomma di stirene e butadiene (SBR), nota anche come government rubber styrene (GR-S) o Buna-S. La SBR può essere vulcanizzata con zolfo.

Nel 1929 la Standard Oil Company del New Jersey concluse con la IG Farben una partnership fondata sulla condivisione di processi per la produzione di petrolio sintetico. Nell’accordo si specificava fra l’altro che la Standard Oil avrebbe avuto accesso a certi brevetti della IG Farben, fra cui il processo SBR. La IG Farben non aveva però l’obbligo di rivelare i suoi dettagli tecnici, e nel 1938 fu informata dal governo nazista che avrebbe dovuto negare agli Stati Uniti qualsiasi informazione sulla tecnologia

avanzata della Germania nella produzione della gomma. La IG Farben fornì infine alla Standard Oil il brevetto della SBR, nella certezza che esso non contenesse dettagli tecnici sufficienti per permettere agli americani di usarlo per produrre la propria gomma. Questo giudizio si rivelò però erroneo. L’industria chimica degli Stati Uniti si mobilitò, e lo sviluppo del processo di produzione di una SBR procedette con grande rapidità. Se nel 1941 gli Stati Uniti produssero solo 8000 tonnellate di gomma sintetica, la produzione crebbe però di anno in anno fino a superare le 800.000 tonnellate nel 1945, una proporzione significativa del consumo totale di gomma del Paese. La produzione di quantità tanto grandi di gomma in un periodo così limitato è stata descritta come la seconda grande impresa di ingegneria (e di chimica) del XX secolo, dopo la costruzione della bomba atomica. Nei decenni seguenti furono create altre gomme sintetiche (neoprene, gomma butile e Buna-N). Il significato della parola gomma venne a includere polimeri fatti di materiali di partenza diversi dall’isoprene, ma con proprietà strettamente correlate a quelle della gomma naturale. Nel 1953 Karl Ziegler in Germania e Giulio Natta in Italia affinarono ulteriormente la produzione della gomma sintetica. Ziegler e Natta svilupparono indipendentemente sistemi che producevano o doppi legami cis o doppi legami trans, a seconda del particolare catalizzatore usato. Ora era possibile produrre sinteticamente gomma naturale. I cosiddetti catalizzatori di Ziegler-Natta, per i quali i due scopritori ricevettero il premio Nobel per la chimica nel 1963, rivoluzionarono l’industria chimica permettendo la sintesi di polimeri le cui proprietà potevano essere controllate esattamente. In questo modo poterono essere prodotti polimeri di gomma più flessibili, più resistenti, più durevoli, più rigidi, meno attaccabili da solventi o dalla luce ultravioletta e con maggiore resistenza alla rottura, al caldo e al freddo.

Il nostro mondo è stato plasmato dalla gomma. La raccolta della materia prima per la produzione di oggetti in gomma ebbe un effetto enorme sulla società e sull’ambiente. L’abbattimento degli alberi della gomma nel bacino amazzonico fu solo un episodio nello sfruttamento delle risorse delle foreste pluviali tropicali e nella distruzione di un ambiente unico. Il vergognoso trattamento inflitto alla popolazione indigena della regione non è cambiato; i cercatori di risorse naturali sfruttabili e gli agricoltori al livello di sussistenza

continuano a invadere le terre tradizionali dei discendenti delle popolazioni native che raccoglievano il latice per la produzione della gomma. La brutale colonizzazione del Congo belga ha lasciato un’eredità di instabilità, di violenza e di conflitti che è ancor oggi onnipresente nella regione. Le immigrazioni in massa di lavoratori nelle piantagioni di gomma asiatiche avvenute più di un secolo fa continuano a influire sugli aspetti etnici, culturali e politici della Malaysia e dello Sri Lanka. Il nostro mondo continua a essere plasmato dalla gomma. Senza la gomma non sarebbero stati possibili gli enormi cambiamenti determinati dalla meccanizzazione. Questa richiede infatti componenti di gomma essenziali – naturali o artificiali che siano – per le macchine: cinghie di trasmissione, guarnizioni, giunti, valvole, rondelle, pneumatici, dispositivi di tenuta e innumerevoli altri. Il trasporto meccanizzato – autovetture, autocarri, navi, treni, aerei – ha cambiato il modo in cui trasferiamo persone e merci. La meccanizzazione dell’industria ha cambiato i lavori che facciamo e il modo in cui li facciamo. La meccanizzazione dell’agricoltura ha permesso la crescita di città e ha trasformato la nostra società da rurale a urbana. La gomma ha svolto una parte essenziale in tutti questi eventi. La nostra esplorazione di mondi futuri potrebbe essere plasmata dalla gomma, in quanto questo materiale – che è parte essenziale delle stazioni spaziali, delle tute spaziali, dei razzi e degli shuttle – ci permette oggi di uscire dal nostro mondo. Ma, dimenticando di considerare proprietà della gomma note da molto tempo, abbiamo già compromesso un tentativo di esplorazione spaziale. Nonostante la raffinata conoscenza della tecnologia dei polimeri della NASA, la sensibilità della gomma al freddo – una caratteristica nota già a La Condamine, a Macintosh, a Goodyear – condannò in una gelida mattina del gennaio 1986 lo shuttle spaziale Challenger. La temperatura al momento del lancio era inferiore di poco più di due gradi centigradi rispetto alle condizioni più fredde verificatesi in lanci precedenti. Al giunto posteriore del motore a combustibile solido dello shuttle, la guarnizione circolare all’ombra, nella parte opposta al sole, doveva avere una temperatura di -2 ºC. A una temperatura così bassa doveva aver perso la sua normale flessibilità e, non tornando alla sua forma appropriata, condusse al cattivo funzionamento di un dispositivo a tenuta. La conseguente perdita di gas della combustione provocò un’esplosione che costò la vita ai sette astronauti del Challenger. Questo è un esempio molto recente di quello che potremmo chiamare il

fattore dei bottoni di Napoleone. Avere trascurato una proprietà molecolare nota causò un effetto tragico imperdonabile: e tutto per il cattivo funzionamento di una guarnizione circolare.

9 I COLORANTI

Noi usiamo i coloranti per tingere indumenti, mobili, accessori di ogni sorta, e persino per tingerci i capelli. Eppure, anche quando chiediamo una diversa sfumatura, una tonalità più brillante, una tinta più delicata, o un colore più scuro, raramente dedichiamo anche solo un fuggevole pensiero alla varietà dei composti che ci permettono di indulgere alla nostra passione per i colori. Colori e pigmenti sono costituiti da molecole naturali o artificiali le cui origini risalgono a migliaia di anni fa. La scoperta e lo sfruttamento dei coloranti ha condotto alla creazione e alla crescita delle massime società chimiche del mondo attuale. L’estrazione e preparazione dei coloranti, menzionate in testi cinesi già nel 3000 a.C., potrebbero essere state i più antichi tentativi umani di cimentarsi con la chimica. I coloranti più antichi erano ottenuti principalmente da piante: dalle radici, dalle foglie, dalla corteccia o dalle bacche. I procedimenti di estrazione erano ben stabiliti e spesso alquanto complicati. La maggior parte dei coloranti in tal modo ottenuti non aderivano permanentemente a fibre non lavorate; perciò i tessuti dovevano essere prima trattati con mordenti, composti che aiutavano a fissare il colore alla fibra. Benché gli antichi coloranti fossero molto ricercati e apprezzati, il loro uso comportava molti problemi. Spesso era difficile procurarseli, il loro assortimento era limitato e i colori non erano resistenti: esposti alla luce del sole sbiadivano rapidamente a tonalità smorte, opache. I coloranti più antichi erano raramente solidi, e i tessuti si stingevano a ogni lavaggio.

Colori primari Il blu, in particolare, era un colore molto ricercato. Rispetto alle tonalità di

rosso e di giallo, quelle di blu sono poco comuni nelle piante, ma c’era una pianta, l’indaco (Indigofera tinctoria), appartenente alla famiglia delle papilionacee (come i piselli e i fagioli), che era nota come una fonte importante del colore dallo stesso nome. Così battezzata dal famoso botanico svedese Karl von Linnée, l’Indigofera tinctoria è una pianta che può superare un metro e mezzo di altezza in climi sia tropicali sia subtropicali. L’indaco viene prodotto anche in regioni più temperate da un’altra pianta, il guado (Isatis tinctoria), una delle piante coloranti più antiche dell’Europa e dell’Asia. Si riteneva che Marco Polo, nei suoi viaggi compiuti settecento anni fa, avesse visto usare l’indaco nella valle dell’Indo. Di qui sarebbe derivato il nome con cui è nota questa pianta. L’indaco era però diffuso anche in molte altre parti del mondo, fra cui l’Asia sudorientale e l’Africa, molto prima del tempo di Marco Polo. Le foglie fresche delle piante produttrici di indaco non sono blu; tale colore appare però dopo la loro fermentazione in condizioni alcaline seguita da ossidazione. Questo processo fu scoperto da numerose culture in tutto il mondo, forse quando le foglie della pianta venivano accidentalmente irrorate da urina o coperte di ceneri, e poi lasciate a fermentare. In queste circostanze si sarebbero formate casualmente le condizioni per la produzione dell’intenso colore blu dell’indaco. Il composto precursore dell’indaco, che si trova in tutte le piante produttrici di indaco, è il glucoside indicano (una molecola contenente un’unità di glucosio). L’indicano è di per sé incolore, ma la fermentazione in condizioni alcaline ne stacca l’unità di glucosio, producendo la molecola di indossile. Questa reagisce con l’ossigeno dell’aria producendo l’indaco, di colore blu (o indigotina, come chiamano questa molecola i chimici).

Indicano (incolore)

Indossile (incolore)

Indaco o indigotina (blu)

L’indaco era una sostanza molto apprezzata, ma il più costoso degli antichi coloranti era una molecola molto simile, nota come porpora di Tiro. In alcune

culture l’uso di indumenti con decorazioni color porpora era limitato per legge al re o all’imperatore; di qui l’altro nome con cui è noto questo colorante – porpora reale – e l’espressione «nato per la porpora», che implica un’origine aristocratica. Ancora oggi la porpora è considerata un colore imperiale, un emblema della regalità. Menzionata in scritti risalenti al 1600 a.C. circa, la porpora di Tiro è un derivato «dibromo» dell’indaco; in altri termini è un dibromoindaco, una molecola di indaco contenente due atomi di bromo. La porpora di Tiro veniva ottenuta da un muco opaco secreto da varie specie di un mollusco o gasteropode marino, per lo più del genere Murex. Il composto secreto dal murice, come quello estratto dall’indaco, è legato a un’unità di glucosio. Il colore brillante della porpora di Tiro si sviluppa solo attraverso l’ossidazione del muco del murice all’aria.

Composto secreto dal murice (molecola di bromoindicano)

Porpora di Tiro (molecola di dibromoindaco)

Il bromo si trova raramente in piante o animali terrestri, ma poiché nell’acqua di mare ce n’è una certa quantità, come pure di cloro e di iodio, non è poi così sorprendente trovare del bromo in composti provenienti da animali marini. Quel che forse sorprende di più è la somiglianza di queste due molecole, date le loro fonti molto diverse: una pianta nel caso dell’indaco e un animale in quello della porpora di Tiro. La mitologia attribuisce la scoperta della porpora di Tiro all’eroe greco Eracle, che vide la bocca del suo cane diventare di un colore purpureo mentre l’animale masticava qualche mollusco. Si ritiene che la produzione del colorante abbia avuto inizio nella città portuale mediterranea di Tiro, nell’impero fenicio (oggi Libano). Si stima che per produrre un grammo di porpora di Tiro occorressero novemila esemplari del mollusco. Cumuli di conchiglie di Murex brandaris e di Purpura haemastoma si possono trovare ancora oggi sulle spiagge di Tiro e di Sidone (altra città fenicia impegnata nel

commercio di questo antico colore). I produttori della porpora aprivano la conchiglia di questi molluschi e, usando un bastoncino aguzzo, ne estraevano una piccola ghiandola simile a una vena. I tessuti da tingere venivano prima saturati con una soluzione trattata del liquido secreto da questa ghiandola, e poi esposti all’aria perché vi si sviluppasse il colore. All’inizio il colorante assumeva una pallida tonalità giallo-verde, che diventava poi blu e infine di un colore porpora molto intenso. La porpora di Tiro colorava le toghe dei senatori romani, le vesti dei faraoni egizi e gli abiti dei nobili e reali europei. Era così ricercata che, intorno al 400 d.C., le specie di molluschi che la producevano corsero un serio rischio di estinzione. L’indaco e la porpora di Tiro furono prodotti per secoli con questi metodi, che prevedevano un uso intensivo della mano d’opera. Solo alla fine del XIX secolo divenne possibile una forma sintetica di indaco. Nel 1865 il chimico tedesco Johann Friedrich Wilhelm Adolf von Baeyer cominciò a investigare la struttura dell’indaco. Nel 1880 aveva trovato un modo per produrlo in laboratorio da materiali di partenza facilmente ottenibili. Occorsero però altri diciassette anni prima che l’indaco sintetico, preparato per una via diversa e messo sul mercato dalla società chimica tedesca Badische Anilin und Soda Fabrik (BASF), diventasse commercialmente remunerativo.

La prima sintesi dell’indaco da parte di Baeyer richiese sette distinte reazioni chimiche.

Questo importante risultato determinò il declino della grande industria dell’indaco naturale, un mutamento che modificò il modo di vita delle migliaia di persone che derivavano i loro mezzi di sussistenza dalla coltivazione e dall’estrazione dell’indaco naturale. Oggi una produzione annuale di più di quattordicimila tonnellate fa dell’indaco sintetico uno fra i più importanti coloranti industriali. Benché l’indaco sintetico (come il

composto naturale) non sia, notoriamente, un colore ad alta solidità, è usato per lo più per tingere i blue jeans, campo in cui questa proprietà è considerata un pregio. Oggi milioni di paia di blue jeans sono confezionati con tessuto tinto con indaco deliberatamente sbiadito. Anche la porpora di Tiro, il derivato dibromo dell’indaco, fu prodotta sinteticamente con un processo simile alla sintesi dell’indaco, sebbene sia stata poi soppiantata da altri tipi di porpora. I coloranti sono composti organici colorati che vengono incorporati nelle fibre dei tessuti. La struttura molecolare di questi composti permette ai tessuti l’assorbimento di certe lunghezze d’onda della luce dello spettro visibile. Il colore che vediamo dipende dalle lunghezze d’onda della luce visibile riflesse, non da quelle assorbite. Se vengono assorbite tutte le lunghezze d’onda della luce visibile, nessuna parte della luce viene riflessa e il colore del tessuto tinto che vediamo è nero; se invece non viene assorbita alcuna lunghezza d’onda, tutta la luce viene riflessa e il colore che vediamo è bianco. Se vengono assorbite solo le lunghezze d’onda della luce rossa, la luce riflessa avrà il colore complementare del rosso, cioè il verde. La relazione fra la lunghezza d’onda assorbita da un tessuto e la struttura chimica della molecola di un colorante è molto simile a quella fra i raggi ultravioletti del sole assorbiti dalla pelle a la struttura chimica dei prodotti per la protezione della pelle stessa dalla luce solare, ossia dipende dalla presenza di doppi legami alternati a legami singoli. Ma, per ottenere che la lunghezza d’onda assorbita sia nella gamma della luce visibile anziché nell’ultravioletto, dev’esserci un numero maggiore di questi legami doppi e singoli alternati. Questa situazione è illustrata nella molecola delβ-carotene, qui sotto, che è responsabile del colore delle carote e delle zucche.

β-carotene (arancione)

Legami doppi e singoli alternati come quelli che si vedono nella struttura del carotene, si dicono coniugati. Ilβ-carotene ha undici di questi doppi legami coniugati. La coniugazione può venire estesa, con conseguente cambiamento della lunghezza d’onda della luce assorbita, quando fanno parte del sistema di legami che si alternano atomi come l’ossigeno, l’azoto, lo zolfo, il bromo o il cloro. La molecola di indicano, estratta dalle piante dell’indaco e del guado, ha una qualche coniugazione, ma non abbastanza da apparire colorata. La molecola di indaco ha però un numero doppio di singoli e doppi legami alternati rispetto all’indicano, e ha anche atomi di ossigeno come parte della combinazione della coniugazione. Essa ne ha quindi abbastanza per assorbire luce dallo spettro visibile, ed è per questo motivo che l’indaco ha un colore molto intenso.

Indicano (incolore)

Indaco (blu)

Oltre ai coloranti organici, fin dall’antichità si sono usati per creare colore anche minerali finemente macinati e altri composti inorganici. Ma benché anche il colore di questi pigmenti – che si trovano in dipinti preistorici in caverne, in decorazioni di tombe, in dipinti su tavola o su tela, e in affreschi – sia dovuto all’assorbimento di certe lunghezze d’onda della luce visibile, non ha niente a che fare con doppi legami coniugati. I due coloranti antichi più comuni che furono usati per ottenere tonalità di rosso hanno fonti molto diverse ma strutture chimiche sorprendentemente simili. Il primo proviene dalla radice della robbia (Rubia tinctorum). Questa pianta, appartenente alla famiglia delle rubiacee, contiene nella radice il colorante rosso alizarina. L’alizarina fu probabilmente usata per la prima volta in India, ma era nota anche in Persia e in Egitto molto tempo prima di essere usata dagli antichi greci e romani. È un colorante a mordente, ossia un colorante che ha bisogno di un’altra sostanza chimica – uno ione metallico –

per fissare il colore a un tessuto. Vari colori possono essere ottenuti dal primo trattando il tessuto con diverse soluzioni «mordenzanti» di sali metallici. Lo ione alluminio come mordenzante produce un colore rosa-rosso. Il magnesio come mordenzante dà un colore viola; il cromo un colore marrone-viola; e il calcio un porpora rossastro. Il colore rosso intenso che si ottiene quando il mordenzante contiene ioni sia di alluminio sia di calcio sarebbe stato prodotto in origine usando nel processo di tintura argilla (silicati di alluminio idrati) insieme a radice di robbia essiccata, pestata e ridotta in polvere. Questa fu probabilmente la combinazione colorante-mordenzante usata da Alessandro Magno nel 320 a.C., quando mise in atto un’astuzia per attirare il nemico in una battaglia che in altre condizioni esso avrebbe evitato. Alessandro aveva fatto tingere le uniformi dei suoi soldati con grandi macchie di un colorante rosso-sangue. L’esercito persiano, pensando di incontrare poca resistenza in una schiera già fiaccata da un numero consistente di feriti, venne facilmente sconfitto dal numero inferiore dei soldati di Alessandro, col contributo, se la storia è vera, dell’inganno reso possibile dalla molecola di alizarina. I coloranti sono associati da molto tempo a uniformi militari. Le giubbe blu fornite dalla Francia agli americani durante la Rivoluzione americana erano tinte con indaco. L’esercito francese usava un colorante di alizarina, noto come rosso di Turchia perché veniva estratto da una pianta coltivata da secoli nel Mediterraneo orientale, anche se probabilmente era originaria dell’India e si era diffusa gradualmente verso ovest passando per la Persia e per la Siria prima di raggiungere l’Anatolia. La robbia fu introdotta in Francia nel 1766, e alla fine del Settecento era diventata una delle fonti di ricchezza più importanti del Paese. Le sovvenzioni del governo all’industria potrebbero avere avuto inizio con l’industria dei coloranti: il re di Francia Luigi Filippo decretò che i soldati dell’esercito francese indossassero calzoni tinti col rosso di Turchia. Più di cento anni prima, Giacomo II d’Inghilterra aveva proibito l’esportazione di tessuti non tinti per proteggere i tintori inglesi. Il processo della tintura con coloranti naturali non produceva sempre risultati costanti e costava molto tempo e fatica. Il rosso di Turchia, però, una volta ottenuto, era un bel rosso vivace e di grande solidità. La chimica del processo non era ben compresa, e alcune delle operazioni che si compivano allora ci sembrano oggi un po’ bizzarre, e probabilmente non erano necessarie. Dei dieci passi singoli ricordati nei manuali dei tintori del tempo, molti sono ripetuti più di una volta. In varie fasi il tessuto o il filato viene

bollito in potassa e in soluzioni saponate, mordenzato con olio d’oliva, allume e un po’ di gesso; trattato con escrementi di pecora, con materiale conciante e con un sale di stagno, e sciacquato di notte nell’acqua del fiume, oltre a essere tinto con alizarina. Oggi conosciamo la struttura della molecola di alizarina, che è responsabile del rosso di Turchia e di altre tonalità ottenute dalla pianta della robbia. L’alizarina è un derivato dell’antrachinone, la sostanza madre di vari coloranti presenti in natura. Più di cinquanta composti basati sull’antrachinone sono stati trovati in insetti, piante, funghi e licheni. Come nel caso dell’indaco, anche l’antrachinone – capostipite di tutti quei coloranti – non è colorato, mentre i due gruppi OH sull’anello di destra dell’alizarina, combinati con i legami singoli e doppi alternati nel resto della molecola, forniscono abbastanza coniugazione per permettere all’alizarina di assorbire luce visibile.

Antrachinone (incolore)

Alizarina (rossa)

In questi composti i gruppi OH sono più importanti per la produzione di colore del numero degli anelli. Lo si vede altrettanto bene in composti derivati dal naftochinone, una molecola con due anelli contro i tre dell’antrachinone.

Naftochinone (incolore)

Juglone (noci) (marrone)

Lawsone (henna) (rossastroarancione)

La molecola di naftochinone è incolore; fra i derivati colorati del naftochinone ci sono lo juglone, contenuto nel mallo delle noci (Iuglans regia è il nome scientifico del noce), e il lawsone, il colorante contenuto nelle foglie della henna (Lawsonia inermis), usato per secoli nella tintura dei capelli, di tessuti, legni ecc. I naftochinoni colorati possono avere più di un gruppo OH, come dimostra l’echinocromo, un pigmento rosso che si trova in talune specie di ricci di mare.

Echinocromo (rosso)

Un altro derivato dell’antrachinone, chimicamente simile all’alizarina, è l’acido carminico, la principale molecola colorante della cocciniglia, l’altra fonte di colore rosso dell’antichità. Ottenuto dai corpi essiccati e ridotti in polvere delle femmine della specie di cocciniglie Dactylopius coccus, l’acido carminico contiene numerosi gruppi OH. Le cocciniglie o coccidi sono una famiglia di insetti emitteri, diffusi anche nel Nuovo Mondo. Col termine cocciniglia si indica anche il color carminio prodotto a partire da questi insetti.

Acido carminico (carminio, o rosso scarlatto)

Nel Nuovo Mondo, molto tempo prima dell’arrivo del conquistador Hernán Cortés nel 1519, il carminio derivato da un altro coccide era molto diffuso e apprezzato dagli aztechi. Cortés introdusse la cocciniglia americana in Europa, tenendone però segreta la fonte per proteggere il monopolio spagnolo su questo prezioso colorante. In seguito i soldati britannici sarebbero diventati famosi come «giubbe rosse» per le loro giubbe tinte con la cocciniglia. In Inghilterra si continuarono a produrre colori in questo tipico rosso carminio fino all’inizio del XX secolo. Forse anche qui abbiamo un altro esempio di sostegno governativo all’industria dei coloranti, poiché a quell’epoca le colonie britanniche nelle Indie occidentali erano i maggiori produttori di cocciniglia. Il carminio era un colorante piuttosto costoso. Occorrevano più di 15.000 femmine di cocciniglia per produrre un etto del colorante. I piccoli coccidi essiccati sembravano chicchi di grano; di qui il nome di «grano scarlatto» spesso applicato ai sacchi di questo materiale prima che venissero spediti in Spagna dalle piantagioni di cactus nelle regioni tropicali del Messico (dove cresceva la cocciniglia dei cactus, Coccus cacti), e dell’America centrale e meridionale, dove vivevano altre specie di cocciniglie. Oggi il massimo produttore di questo colorante è il Perù, che ne produce annualmente 400 tonnellate, l’85 per cento circa della produzione mondiale. Gli aztechi non furono l’unico popolo a usare insetti per estrarne coloranti. Gi antichi egizi tingevano gli abiti (e le loro donne si coloravano le labbra) col succo rosso estratto dal corpo di un’altra cocciniglia, il Coccus ilicis, che vive sulle querce come altre cocciniglie che fornirono il loro colorante al mondo greco-romano. Il pigmento rosso di queste cocciniglie è

principalmente acido chermesico, una molecola straordinariamente simile all’acido carminico delle cocciniglie americane. Diversamente dall’acido carminico, però, l’acido chermesico non ebbe mai un uso molto esteso.

Acido carminico (carminio)

Acido chermesico (rosso vivo)

Benché l’acido chermesico, la cocciniglia e la porpora di Tiro venissero estratti da animali, furono le piante a fornire la maggior parte dei coloranti ai tintori. I colori canonici erano il blu estratto dall’indaco e dal guado e il rosso ottenuto dalla robbia. Il terzo colore primario era una tonalità brillante gialloarancione estratta dalla pianta dello zafferano (Crocus sativus). Lo zafferano viene ottenuto dagli stigmi dei fiori, gli organi che catturano il polline destinato all’ovario. Lo zafferano era nativo del Mediterraneo orientale ed era usato dall’antica civiltà minoica di Creta già nel 1900 a.C. Si diffuse in tutto il Medio Oriente ed era usato in epoca romana come una spezia, una medicina e un profumo, oltre che come un colorante. La coltivazione dello zafferano in Europa, un tempo assai estesa, declinò durante la Rivoluzione industriale per due ragioni. Innanzitutto si dovevano raccogliere i fiori uno a uno e se ne dovevano staccare singolarmente i tre stigmi: un procedimento che costava molto lavoro, e a quel tempo gran parte dei braccianti si erano trasferiti in città per lavorare nelle fabbriche. La seconda ragione era chimica. Benché lo zafferano producesse un bel colore, molto luminoso, esso non era particolarmente solido, specialmente quando veniva applicato alla lana. Quando furono sviluppati i coloranti artificiali, l’industria dello zafferano, un tempo fiorente, ebbe le ore contate. Lo zafferano è coltivato ancora oggi in Spagna, dove ogni fiore viene ancora raccolto a mano nel modo tradizionale e all’ora dettata dalla tradizione, subito dopo il sorgere del sole. La maggior parte del raccolto è usata attualmente per insaporire e colorare i cibi in piatti tradizionali come la

paella spagnola, la bouillabaisse francese e il risotto alla milanese. A causa del modo in cui viene raccolto, lo zafferano è oggi la spezia più costosa che esista al mondo; si richiedono più di 45.000 stigmi per produrne solo un etto. La molecola responsabile del caratteristico colore giallo-arancione dello zafferano è nota come crocetina, e la sua struttura ricorda quella del colore arancione delβ-carotene; ognuna delle due molecole ha la stessa catena di sette doppi legami alternati, indicata qui sotto dalle parentesi graffe.

Crocetina: il colore dello zafferano

β-carotene: il colore delle carote

Benché l’arte della tintoria abbia avuto inizio senza dubbio come un’industria familiare e continui in qualche misura nello stesso modo ancor oggi, è però anche documentata come un’attività commerciale da migliaia di anni. Un papiro egizio del 236 a.C. contiene una descrizione dei tintori: «puzzolenti di pesce, con gli occhi stanchi e le mani che lavorano incessantemente». Le corporazioni dei tintori erano ben stabilite nel Medioevo, e quest’industria prosperò insieme a quella della lana dell’Europa settentrionale e a quella della produzione di seta in Italia e in Francia. L’indaco, coltivato col lavoro degli schiavi, fu un’importante merce d’esportazione in alcune parti del sud degli Stati Uniti. Quando il cotone divenne una merce importante in Inghilterra, anche l’arte dei tintori fu molto richiesta.

Coloranti sintetici A partire dagli ultimi decenni del Settecento furono creati coloranti sintetici che modificarono radicalmente l’attività tradizionale di questi artigiani. Il primo di questi coloranti artificiali fu l’acido picrico, la molecola a tripla nitrazione usata negli esplosivi della Prima guerra mondiale.

Acido picrico (trinitrofenolo)

Questo acido, appartenente alla categoria dei composti fenolici, fu sintetizzato per la prima volta nel 1771 e usato come colorante, sia per la lana sia per la seta, a partire dal 1788 circa. Pur producendo una tonalità gialla mirabilmente intensa, l’acido picrico, come molti altri composti nitrati, aveva un grave svantaggio nel suo potenziale esplosivo, una cosa di cui i tintori che usavano coloranti naturali gialli non avevano mai dovuto preoccuparsi. Altri due svantaggi erano che tendeva a stingersi alla luce e che non era facile produrlo. L’alizarina sintetica fu prodotta in grande quantità e buona qualità a partire dal 1868; l’indaco sintetico divenne disponibile nel 1880. Furono preparati anche altri coloranti artificiali del tutto nuovi; i coloranti che fornivano tonalità chiare e luminose erano persistenti e garantivano risultati costanti. Nel 1856 il diciottenne William Henry Perkin aveva sintetizzato un colorante artificiale che modificò radicalmente l’industria della tintoria. Perkin era uno studente del Royal College of Chemistry di Londra; suo padre era un costruttore che non vedeva prospettive finanziarie interessanti nella chimica, ma Perkin dimostrò che aveva torto. Durante le vacanze di Pasqua del 1856, Perkin decise di provare a sintetizzare il farmaco antimalarico chinina, usando un piccolo laboratorio che aveva attrezzato a casa sua. Il suo insegnante, un certo August Hofmann, professore tedesco di chimica al Royal College, era convinto che la chinina potesse essere sintetizzata a partire da materiali che si trovano nel catrame di carbon fossile, lo stesso residuo oleoso che, qualche anno prima, aveva fornito fenolo al chirurgo Joseph Lister. La struttura della chinina non era

nota, ma le sue proprietà antimalariche rendevano molto forte la domanda e scarsa la disponibilità. L’impero britannico e altre nazioni europee stavano espandendo le loro colonie in aree infestate dalla malaria in India, Africa e Sud-est asiatico. L’unica cura nota e preventiva contro la malattia era la chinina, ottenuta dalla corteccia sempre più scarsa dell’albero sudamericano della china (Cinchona). Una sintesi chimica della chinina sarebbe stata una grande impresa, ma nessuno degli esperimenti di Perkin ebbe successo. Uno dei suoi numerosi tentativi produsse però una sostanza nera che si sciolse in etanolo, fornendo una soluzione di un colore viola scuro. Quando Perkin lasciò cadere alcune strisce di seta in quel miscuglio, il tessuto si imbevve del colore. Perkin provò poi a lavare con acqua calda e sapone la seta tinta con quell’intruglio e trovò che il colore era solido. Espose i campioni alla luce e trovò che il colore non sbiadiva, ma rimaneva di una brillante tonalità compresa fra il lavanda e il viola. Consapevole del fatto che nell’industria dei coloranti il viola era un colore raro e costoso e che un colorante viola che non stingeva né sul cotone né sulla seta poteva essere un prodotto commercialmente importante, Perkin inviò un campione del tessuto tinto da lui a un’importante società industriale di coloranti in Scozia. Ne ricevette una risposta incoraggiante: «Se il suo procedimento non rende il prodotto troppo costoso, la sua è decisamente una delle scoperte più importanti che siano state fatte da moltissimi anni a questa parte». Questo era tutto l’incoraggiamento di cui Perkin aveva bisogno. Lasciò il Royal College of Chemistry e, con l’aiuto finanziario del padre, brevettò la sua scoperta, creò una fabbrica per produrre il suo colorante in quantità maggiori e a un costo ragionevole e investigò i problemi connessi alla tintura della lana e del cotone come pure della seta. Nel 1859 il color malva, come fu chiamato il viola di Perkin, aveva conquistato il mondo della moda e divenne il colore preferito dell’imperatrice di Francia Eugenia e della corte francese. La regina Vittoria indossò un abito color malva per le nozze della figlia e per inaugurare l’Esposizione internazionale di Londra del 1862. Grazie al favore reale della Gran Bretagna e della Francia, la popolarità del nuovo colore andò alle stelle; gli anni ’60 dell’Ottocento furono spesso chiamati il decennio del color malva. Questo fu usato in effetti anche sui francobolli inglesi fin verso la fine degli anni ’80. La scoperta di Perkin ebbe conseguenze di vasta portata. Essendo la prima

vera sintesi in molti passi di un composto organico, fu prontamente seguita da vari processi simili che condussero a molti coloranti diversi derivati dai residui di catrame di carbon fossile dell’industria del gas illuminante. Questi coloranti vengono spesso chiamati collettivamente coloranti di catrame di carbon fossile o coloranti di anilina. Alla fine dell’Ottocento i tintori avevano a disposizione un repertorio di circa duemila coloranti sintetici. L’industria chimica dei coloranti aveva efficacemente sostituito l’attività millenaria di estrarre coloranti da fonti naturali. Pur non riuscendo a fare denaro, come si era ripromesso, con la molecola della chinina, Perkin accumulò una grande fortuna con la mauveina – è questo il nome da lui dato alla molecola che produsse la bella tonalità viola del colore malva – e con le sue posteriori scoperte di altre molecole di coloranti. Egli fu il primo a dimostrare che lo studio della chimica poteva essere estremamente redditizio, contro la pessimistica opinione espressa in origine da suo padre. La scoperta di Perkin sottolineò anche l’importanza della chimica organica strutturale, la branca della chimica che determina esattamente in che modo sono connessi i vari atomi in una molecola. Era necessario conoscere le strutture chimiche dei nuovi coloranti, come pure le strutture dei vecchi coloranti naturali, come l’alizarina e l’indaco. L’esperimento originario di Perkin si era fondato su supposizioni chimiche scorrette. Al suo tempo era stato stabilito che la chinina aveva la formula chimica C20H24N2O2, ma si sapeva ben poco sulla struttura della sostanza. Perkin sapeva anche che un altro composto, l’alliltoluidina, aveva la formula chimica C10H13N, e gli sembrava possibile che, combinando due molecole di alliltoluidina in presenza di un agente ossidante come il dicromato di potassio che fornisse ossigeno extra, si formasse la chinina. 2C10H13N + 3O→ C20H24N2O2 + H2O alliltoluidina

ossigeno

chinina

acqua

Guardando le cose dall’angolo visuale delle formule chimiche, l’idea di Perkin poteva non sembrare irragionevole, ma oggi sappiamo che la reazione da lui auspicata non poteva realizzarsi. Se non si conoscono le esatte strutture chimiche dell’alliltoluidina e della chinina, non è possibile prevedere la serie di passi chimici necessari a trasformare una molecola in un’altra molecola.

Ecco perché la molecola creata da Perkin, la mauveina, era chimicamente molto diversa da quella che egli aveva cercato di sintetizzare, la chinina. La struttura molecolare della mauveina rimane a tutt’oggi un po’ misteriosa. I materiali di partenza di Perkin, isolati dal catrame di carbon fossile, non erano puri, e oggi si pensa che il colore malva da lui ottenuto sia stato in realtà la conseguenza di un miscuglio di composti strettamente affini. Si presume che la principale struttura responsabile del colore sia la seguente:

Parte della molecola della mauveina, che fornisce il principale contributo al color malva di Perkin.

La decisione di Perkin di produrre commercialmente il colorante malva fu senza dubbio un atto di fede. Perkin era giovane, uno studente di chimica alle prime armi con poca conoscenza dell’industria dei coloranti e assolutamente nessuna esperienza della produzione di sostanze chimiche su vasta scala. La sua sintesi, inoltre, aveva un basso rendimento, non più del 5 per cento della quantità teoricamente possibile; c’erano inoltre reali difficoltà a procurarsi un rifornimento costante della materia prima: il catrame di carbon fossile. Per un chimico più esperto queste difficoltà sarebbero state scoraggianti, e noi possiamo attribuire in parte il successo di Perkin al fatto che non si lasciò spaventare dalla sua mancanza di esperienza. Non disponendo di un processo di produzione paragonabile da usare come guida, Perkin dovette escogitare e provare nuove apparecchiature e procedure. Risolse problemi associati alla realizzazione della sua sintesi chimica a una scala maggiore: produsse grandi recipienti in vetro, poiché nel corso del processo di produzione l’acido

avrebbe attaccato recipienti di ferro; usò dispositivi di raffreddamento per impedire un riscaldamento eccessivo durante le reazioni chimiche; tenne sotto controllo rischi come esplosioni e liberazione di fumi tossici. Nel 1873 Perkin vendette la sua fabbrica dopo averla gestita per quindici anni. Era ormai ricco e avrebbe dedicato il resto della vita a studiare chimica nel suo laboratorio di casa.

L’eredità dei coloranti L’industria dei coloranti, che oggi produce soprattutto coloranti artificiali sintetizzati chimicamente, divenne la precorritrice di un’attività di chimica organica che avrebbe prodotto infine antibiotici, esplosivi, profumi, vernici, inchiostri, insetticidi e plastiche. La nuova industria della chimica organica non si sviluppò in Inghilterra – la patria del colore malva – o in Francia, dove i coloranti e la tintura avevano un’importanza cruciale da secoli. Fu invece la Germania a sviluppare un immenso impero di chimica organica, insieme alla tecnologia e alla scienza su cui esso si fondava. La Gran Bretagna aveva già una forte industria chimica, che forniva le materie prime necessarie per la sbianca, la stampa, la ceramica, la porcellana, la produzione del vetro, la conciatura, la fabbricazione della birra e la distillazione, ma questi composti erano per lo più inorganici: potassa, calce, sale, soda, acido, zolfo, gesso e argilla. Ci sono varie ragioni per cui furono la Germania e, in minor misura, la Svizzera a diventare protagoniste nella produzione di composti chimici organici di sintesi. Negli anni ’70 dell’Ottocento vari produttori inglesi e francesi di coloranti erano stati costretti a uscire di scena in conseguenza di una serie infinita di controversie concernenti brevetti su coloranti e procedimenti per la loro produzione. Il principale imprenditore britannico, Perkin, si era ritirato, e non era stato sostituito da alcun altro che avesse le conoscenze di chimica, le capacità produttive e il talento commerciale richiesti. Così la Gran Bretagna, forse non rendendosi contro di andare contro i propri interessi, cominciò a esportare le materie prime richieste dalla crescente industria dei coloranti sintetici. Essa aveva acquisito una supremazia industriale sulla base dell’importazione di materie prime e della

loro conversione in prodotti finiti per l’esportazione, cosicché la sua incapacità di riconoscere l’utilità del catrame di carbone e l’importanza dell’industria chimica di sintesi fu un grave errore che andò a beneficio della Germania. Un altro strumento importante che contribuì alla crescita dell’industria tedesca dei coloranti fu la collaborazione fra industria e università. Diversamente da altri Paesi in cui la ricerca chimica rimase una prerogativa delle università, gli accademici tedeschi tendevano a lavorare in stretta cooperazione con i chimici delle industrie. Questo modo di procedere fu vitale per il successo dell’industria chimica tedesca. Senza la conoscenza della struttura molecolare dei composti organici e senza una comprensione scientifica dei passi chimici nelle reazioni della sintesi organica, gli scienziati non avrebbero potuto sviluppare la complessa tecnologia che condusse infine ai moderni prodotti farmaceutici. L’industria chimica tedesca si sviluppò a partire da tre società. Nel 1861 fu fondata la prima, la Badische Anilin und Soda Fabrik (BASF), a Ludwigshafen, sul Reno. Pur essendo stata fondata in origine per produrre composti inorganici come la soda e la soda caustica, la BASF entrò ben presto nell’industria dei coloranti. Nel 1868 due accademici tedeschi, Carl Graebe e Carl Liebermann, annunciarono la prima alizarina sintetica. Il chimico capo della BASF, Heinrich Caro, prese contatto con i chimici dell’Università di Berlino e collaborò con loro per produrre una sintesi commercialmente valida dell’alizarina. All’inizio del XX secolo la BASF stava producendo circa duemila tonnellate di questo importante colorante e stava avviandosi a diventare una delle big five società di chimica che dominano oggi il mondo. La seconda grande società tedesca di chimica, la Hoechst, fu fondata un anno dopo la BASF. Creata in origine per produrre il rosso di anilina, un colorante rosso vivo noto anche come magenta o fucsina, brevettò poi la propria sintesi dell’alizarina, che si rivelò molto redditizia. Fu molto remunerativo sia per la BASF sia per la Hoechst anche l’indaco sintetico, il prodotto di anni di ricerche e di considerevoli investimenti finanziari. Anche la terza grande società tedesca di chimica entrò nel mercato dell’alizarina sintetica. Benché il nome della Bayer sia associato per lo più all’Aspirina, la società, fondata nel 1861, produsse all’inizio coloranti di anilina. L’Aspirina era stata sintetizzata nel 1853, ma solo intorno al 1900 i profitti dei coloranti sintetici, e specialmente dell’alizarina, permisero alla

società di aprire una sezione dedicata ai farmaci e di mettere sul mercato l’Aspirina. Fra il 1860 e il 1870 le tre società producevano solo una piccola percentuale dei coloranti di sintesi del mondo, ma nel 1881 la loro quota complessiva era salita al 50 per cento della produzione mondiale complessiva. Alla fine del secolo, nonostante un grandissimo aumento della produzione mondiale complessiva di coloranti sintetici, la Germania aveva conquistato quasi il 90 per cento del mercato mondiale. Al dominio della produzione dei coloranti si accompagnò una posizione di guida in chimica organica, oltre a un ruolo importante nello sviluppo dell’industria tedesca. Allo scoppio della Prima guerra mondiale il governo tedesco sollecitò le società di chimica a trasformarsi in efficienti produttrici di esplosivi, gas velenosi, farmaci, fertilizzanti e altri prodotti chimici necessari a sostenere lo sforzo bellico. Dopo la Prima guerra mondiale, l’economia della Germania e l’industria chimica tedesca si trovarono in gravi difficoltà. Nel 1925, nella speranza di migliorare le loro stagnanti condizioni di mercato, le più importanti società chimiche si unirono in un gigantesco conglomerato, la Interessengemeinschaft Farbenindustrie Aktiengesellschaft (Consorzio dell’Industria dei Coloranti S.p.a.). Interessengemeinschaft, tradotto letteralmente, significa, «comunione (o comunità) di interessi», e questo conglomerato era decisamente nell’interesse della comunità dell’industria chimica tedesca. Riorganizzata e rivitalizzata, la IG Farben, che era ora il massimo cartello chimico del mondo, investì i suoi considerevoli profitti e il suo potere economico nella ricerca, differenziò la sua attività in nuovi prodotti e sviluppò nuove tecnologie con l’intento di conseguire un futuro monopolio dell’industria chimica. All’inizio della Seconda guerra mondiale la IG Farben, che già stava dando un importante contributo al partito nazista, assunse un ruolo di grande rilievo nella macchina bellica di Adolf Hitler. Mentre l’esercito tedesco avanzava in Europa, la IG Farben assumeva il controllo degli impianti di chimica e dei centri di produzione nei Paesi occupati dai tedeschi. Un grande impianto per la produzione di petrolio e di gomma sintetici fu costruito nel campo di concentramento di Auschwitz, in Polonia. Gli internati del campo lavoravano nello stabilimento ed erano anche sottoposti a esperimenti con i nuovi farmaci.

Dopo la guerra nove dirigenti della IG Farben furono processati e giudicati colpevoli di saccheggi e crimini contro la proprietà in territori occupati. Quattro furono giudicati colpevoli di imposizione di lavoro forzato e di trattamento disumano di prigionieri di guerra e di civili. La crescita e l’influenza della IG Farben subirono una battuta d’arresto; il gigantesco gruppo chimico fu frazionato, cosicché la BASF, la Hoechst e la Bayer tornarono a riassumere un ruolo importante indipendente. Queste tre società hanno continuato a prosperare e a espandersi e oggi costituiscono una parte considerevole dell’industria della chimica organica, con interessi che vanno dalla plastica e dai tessili ai farmaci e al petrolio di sintesi.

Le molecole dei coloranti hanno cambiato la storia. Prodotte a partire dalle loro fonti naturali per migliaia di anni, crearono alcune fra le prime industrie dell’umanità. Al crescere della domanda di coloranti, crebbero anche le corporazioni e le fabbriche, le città e i commerci. L’apparizione dei coloranti sintetici trasformò però il mondo. Le fonti tradizionali per ottenere i coloranti naturali furono abbandonate. Meno di un secolo dopo la sintesi del colorante malva da parte di Perkin, conglomerati chimici giganteschi dominavano non solo il mercato dei coloranti, ma anche una fiorente industria della chimica organica. Questa fornì, a sua volta, il capitale finanziario e le conoscenze chimiche per l’enorme produzione attuale di antibiotici, analgesici e altri composti farmaceutici. La malva di Perkin fu solo uno dei coloranti sintetici coinvolti in questa notevole trasformazione, ma molti chimici la considerano la molecola che trasformò la chimica organica da un’impresa accademica a un’importante industria globale. Dalla malva al monopolio, il colorante scoperto da un giovane chimico in vacanza ebbe una grande influenza sul corso degli eventi mondiali.

10 FARMACI MIRACOLOSI

William Perkin non dovrebbe essere rimasto sorpreso nel vedere l’immensa attività industriale della produzione dei coloranti crescere dalla base della sua sintesi del color malva. Dopotutto, la sua fiducia nel successo del suo colorante era stata tanto grande da vincere lo scetticismo del padre e da riuscire a convincerlo a finanziarne la produzione, e i grandissimi successi poi ottenuti da lui e da altri confermarono la correttezza della sua previsione. Nemmeno lui avrebbe però potuto prevedere che dall’industria dei coloranti sarebbe derivato uno sviluppo ancora più importante: l’industria farmaceutica. Questo aspetto della chimica organica di sintesi avrebbe superato di gran lunga la produzione di coloranti, modificato la pratica della medicina e salvato inoltre milioni di vite umane. Nel 1856, l’anno in cui Perkin sintetizzò la molecola della mauveina, la speranza di vita media in Gran Bretagna era di circa quarantacinque anni. Questo numero non cambiò in modo sensibile nella parte restante dell’Ottocento. Nel 1900 la speranza di vita media negli Stati Uniti era aumentata a soli quarantasei anni per un maschio e quarantotto per una femmina. Un secolo dopo, di contro, queste cifre sono salite a settantadue anni per gli uomini e settantanove per le donne. Perché potesse verificarsi un aumento così vistoso della speranza di vita dopo molti secoli di valori assai inferiori doveva essere accaduto qualcosa di sorprendente. Uno dei fattori principali nella maggiore durata di vita fu l’introduzione, nel XX secolo, delle molecole della chimica medica, e in particolare delle sostanze miracolose note come antibiotici. Nel corso dell’ultimo secolo sono stati sintetizzati letteralmente migliaia di diversi composti farmaceutici, e centinaia di essi hanno cambiato la vita a molte persone. Noi considereremo qui la chimica e lo sviluppo di due soli tipi di farmaci: la molecola dell’analgesico Aspirina e due esempi di antibiotici. I

profitti dell’Aspirina convinsero le società di chimica che nei farmaci c’era un futuro; i primi «antibiotici» – i sulfamidici e le penicilline – vengono prescritti ancora oggi. Nel corso di migliaia di anni per sanare ferite, curare malattie e alleviare il dolore sono state usate erbe medicinali. Ogni società umana ha sviluppato rimedi tradizionali unici, vari fra i quali hanno fornito composti estremamente efficaci o sono stati chimicamente modificati per produrre medicine moderne. La chinina, prodotta a partire dalla corteccia dell’albero sudamericano Cinchona e usata in origine dagli indios del Perù per curare le febbri, è in uso ancora oggi come farmaco antimalarico. La digitale, contenente la digitalina, prescritta tuttora come cardiotonico, è stata molto usata nei secoli scorsi in Europa nel trattamento di disturbi cardiaci. Le proprietà analgesiche delle capsule di una papaveracea erano ben note dall’Europa all’Asia e la morfina estratta da questa fonte svolge ancora un ruolo importante nella lotta contro il dolore. Storicamente, però, si conobbero ben pochi rimedi efficaci nel trattamento di infezioni batteriche. Fino a poco tempo fa anche un piccolo taglio o scalfittura, se infetto, poteva essere una minaccia per la vita stessa. Il 50 per cento dei soldati feriti durante la Guerra di secessione morirono in conseguenza di infezioni batteriche. Grazie a procedimenti antisettici e a molecole come il fenolo, introdotto da Joseph Lister, questa percentuale era scesa a livelli decisamente inferiori durante la Prima guerra mondiale. Ma anche se gli antisettici erano utili per prevenire un’infezione chirurgica, potevano fare ben poco per bloccare un’infezione una volta che si fosse verificata. La grande influenza pandemica del 1918-1919 uccise più di venti milioni di persone in tutto il mondo, un tributo di vite umane molto maggiore di quello della Prima guerra mondiale. L’influenza in sé era di origine virale, ma la causa di morte era di solito un’infezione secondaria di polmonite batterica. Essere colpiti dal tetano, dalla tubercolosi, dal colera, dal tifo addominale, dalla lebbra, dalla gonorrea o da una qualsiasi di una schiera di altre malattie equivaleva spesso a una condanna a morte. Nel 1798 un medico inglese, Edward Jenner, dimostrò con successo nel caso del virus del vaiolo la possibilità di produrre artificialmente – attraverso infezioni attenuate – l’immunità a una malattia (anche se l’acquisizione dell’immunità in modi simili era già stata nota in passato in altri Paesi). A partire dagli ultimi decenni dell’Ottocento furono investigati anche metodi simili per fornire

l’immunità contro batteri, e gradualmente l’inoculazione divenne disponibile per un certo numero di malattie batteriche. Dopo il 1940 il terrore delle due malattie infantili scarlattina e difterite stava ormai svanendo nei Paesi in cui erano disponibili programmi di vaccinazione.

L’Aspirina All’inizio del XX secolo le industrie chimiche tedesca e svizzera stavano traendo grandi profitti dai loro investimenti nella produzione dei coloranti. Il loro successo, però, non era solo finanziario. Ai profitti della vendita dei coloranti si accompagnava una nuova ricchezza di conoscenza chimica, di esperienza di reazioni a grande scala e di tecniche di separazione e purificazione che erano vitali per potersi espandere nella nuova impresa chimica della produzione di farmaci. La Bayer, l’azienda tedesca che aveva iniziato la sua attività con la produzione di coloranti di anilina, fu una delle prime a riconoscere le potenzialità commerciali nella produzione chimica di farmaci, e in particolare dell’Aspirina, che è oggi il farmaco che è stato usato storicamente dal maggior numero di persone a livello mondiale. Nel 1893 il chimico Felix Hofmann, che lavorava per la Bayer, decise di investigare le proprietà di composti che avevano affinità con l’acido salicilico: questo veniva ottenuto dalla salicina, una molecola con proprietà analgesiche isolata in origine nel 1827 dalla corteccia del salice (Salix). Le proprietà terapeutiche del salice e di piante affini, come i pioppi, erano note da secoli. Il famoso medico dell’antica Grecia Ippocrate usava estratti di corteccia di salice per combattere la febbre e il dolore. Benché la molecola di salicina, che ha sapore amaro, comprenda nella sua struttura un anello di glucosio, la parte restante della molecola ha decisamente il sopravvento sul sapore dolce del glucosio.

La molecola della salicina

Come la molecola di indicano contenente glucosio che produce l’indaco, anche la salicina si spezza in due parti: glucosio e alcol salicilico, che può essere ossidato e formare acido salicilico. Tanto l’alcol salicilico quanto l’acido salicilico sono classificati come fenoli avendo un gruppo OH attaccato direttamente all’anello di benzene.

Alcol salicilico

Acido salicilico

Queste molecole sono simili per struttura anche all’isoeugenolo, all’eugenolo e allo zingerone, rispettivamente, dei chiodi di garofano, della noce moscata e dello zenzero. È probabile che, come queste molecole, anche la salicina svolga – a favore del salice – la funzione protettiva di un antiparassitario naturale. L’acido salicilico viene prodotto anche dai fiori dell’olmaria (Spiraea ulmaria), un’erba perenne nativa dell’Europa e dell’Asia occidentale che cresce in terreni umidi, nei boschi e sulle rive di corsi d’acqua. L’acido salicilico, che è la porzione attiva della molecola di salicina, non soltanto riduce la febbre e allevia il dolore, ma esplica anche un’azione antinfiammatoria. Esso è molto più potente della salicina, che si trova in natura, ma può essere molto irritante per la mucosa dello stomaco, cosa che ne riduce il valore medicinale. L’interesse di Hofmann per composti affini all’acido salicilico derivò dalla sua preoccupazione per le sofferenze del

padre, la cui artrite reumatoide riceveva ben poco sollievo dalla salicina. Hofmann fece assumere al padre un derivato dell’acido salicilico – l’acido acetilsalicilico, preparato per la prima volta quarant’anni prima da un altro chimico tedesco – con la speranza che le proprietà antinfiammatorie dell’acido salicilico si conservassero e che venissero attenuate le sue proprietà corrosive. Nell’acido acetilsalicilico, il gruppo acetile (CH3CO) sostituisce l’H del gruppo fenolico OH dell’acido salicilico. La molecola di fenolo è corrosiva; forse Hofmann pensava che, convertendo il gruppo OH legato all’anello aromatico in un gruppo acetile, se ne potessero mascherare le caratteristiche irritanti.

Acido salicilico

Acido acetilsalicilico. La freccia indica la posizione in cui il gruppo acetilico sostituisce l’H del gruppo fenolico.

L’esperimento di Hofmann diede buon esito: per suo padre e per la Bayer. La forma acetilata dell’acido salicilico risultò essere efficace e ben tollerata. Le sue potenti proprietà antinfiammatorie e analgesiche convinsero la Bayer a mettere sul mercato, nel 1899, piccole confezioni di «Aspirina» in polvere. Il nome Aspirina risulta dalla combinazione della a di acetile e della sillaba iniziale spir di Spiraea ulmaria, il nome dell’erba olmaria, più la desinenza ina. La Bayer divenne sinonimo di Aspirina, la quale ne segnò l’ingresso nel mondo della chimica farmaceutica. Al crescere della popolarità dell’Aspirina, le fonti naturali a partire dalle quali veniva prodotto l’acido salicilico – l’olmaria e i salici – non furono più sufficienti a soddisfare la domanda mondiale. Fu allora introdotto un nuovo metodo di sintesi usando la molecola di fenolo come materiale di partenza. Le vendite dell’Aspirina crescevano sempre più; durante la Prima guerra

mondiale la consociata americana della società Bayer originaria comprò tutto il fenolo possibile da fonti sia nazionali sia internazionali per garantire una fornitura per la produzione di Aspirina. I Paesi che rifornivano di fenolo la Bayer avevano così una minore capacità di produrre acido picrico (trinitrofenolo), un esplosivo che si preparava da questo stesso materiale di partenza (vedi il cap. 5). Possiamo solo fare ipotesi su quale effetto questo fatto possa avere avuto sul corso della Prima guerra mondiale, ma la produzione di Aspirina potrebbe avere ridotto il ricorso all’acido picrico per gli esplosivi, e avere quindi accelerato lo sviluppo degli esplosivi fondati sul TNT (trinitrotoluene o tritolo).

Fenolo

Acido salicilico

Trinitrofenolo (acido picrico)

Oggi l’acido acetilsalicilico è il farmaco più usato di tutti per il trattamento di malattie e di dolori. Esistono più di quattrocento preparati che lo contengono, e nei soli Stati Uniti se ne producono annualmente oltre diciotto milioni di chilogrammi. Oltre ad alleviare il dolore, ad abbassare la temperatura corporea e a ridurre l’infiammazione, esso ha anche la proprietà di rendere più fluido il sangue. Piccole dosi di acido acetilsalicilico vengono raccomandate come misura preventiva contro ictus e trombosi delle vene profonde: la condizione nota come «sindrome della classe economica» dei passeggeri delle linee aeree a lungo percorso.

La saga dei sulfamidici Press’a poco al tempo dell’esperimento di Hofmann con suo padre – un procedimento che oggi non sarebbe certo raccomandabile nella sperimentazione dei farmaci –, il medico tedesco Paul Ehrlich stava portando

avanti esperimenti propri. Egli era un personaggio veramente eccentrico, che si diceva fumasse venticinque sigari al giorno e spendesse molte ore in discussioni filosofiche nelle birrerie. Oltre all’eccentricità aveva però anche doti sicuramente positive, come una determinazione e un intuito non comuni, che gli fruttarono il Nobel per la medicina nel 1908. Pur non avendo una preparazione formale in chimica sperimentale o in batteriologia applicata, notò che vari coloranti derivati dal catrame di carbon fossile coloravano alcuni tessuti e alcuni microrganismi ma non altri. Ragionò che, se un microrganismo assorbiva un colorante mentre un altro non lo assorbiva, questa differenza avrebbe potuto permettere a un colorante tossico di uccidere un tessuto che lo assorbiva, senza danneggiare il tessuto che lo rifiutava. In tal caso si sarebbe potuto eliminare il microrganismo dannoso senza danneggiare l’ospite. Ehrlich battezzò la sua teoria l’approccio della «pallottola magica»: la pallottola magica era la molecola di colorante capace di colpire il tessuto che colorava. Ehrlich ebbe il primo successo con un colorante chiamato rosso Tripan I, che operava in un modo molto simile a quello da lui sperato contro i tripanosomi – protozoi parassiti – sui topi di laboratorio. Purtroppo non era però efficace contro il tipo di tripanosoma responsabile della malattia umana nota come malattia del sonno africana, che Ehrlich aveva sperato di poter guarire. Senza scoraggiarsi, Ehrlich continuò. Aveva mostrato che il suo metodo poteva funzionare, e sapeva che si doveva solo trovare una pallottola magica giusta per la malattia che si voleva guarire. Cominciò a studiare la sifilide, malattia causata da un batterio in forma di cavaturaccioli noto come spirocheta. Esistono molte teorie su come la sifilide giunse in Europa; secondo una delle più accreditate vi sarebbe giunta con i marinai di Colombo quando tornarono dal Nuovo Mondo. Ci sono però anche testimonianze su una forma di «lebbra» molto contagiosa, diffusa in Europa prima del tempo di Colombo, che si propagava per via venerea. Come la sifilide, anch’essa rispondeva a volte al trattamento col mercurio. Nessuna di tali osservazioni concorda con quanto sappiamo della lebbra, e non è escluso che si trattasse in effetti proprio di sifilide. Quando Ehrlich cominciò a cercare una pallottola magica contro questo batterio, la terapia col mercurio era praticata già da più di quattrocento anni. Ma il mercurio non poteva certo essere considerato una pallottola magica per

la sifilide, visto che spesso uccideva i malati. Le vittime morivano di infarto, di disidratazione e di soffocamento mentre venivano riscaldate in un forno respirando fumi di mercurio. Se un paziente sopravviveva alla sifilide, non poteva tuttavia evitare i sintomi tipici dell’avvelenamento da mercurio: perdita dei capelli e dei denti, un vaniloquio incontrollabile, anemia, depressione e insufficienza renale ed epatica. Nel 1909, dopo avere sperimentato 605 farmaci diversi, Ehrlich trovò finalmente un composto che era sia ragionevolmente efficace sia ragionevolmente innocuo. Il «numero 606», un composto aromatico contenente arsenico, si rivelò efficace contro la spirocheta della sifilide. La Hoechst – la società chimica produttrice di coloranti con cui Ehrlich collaborava – mise questo composto sul mercato nel 1910 col nome di Salvarsan. Rispetto alla tortura della terapia col mercurio, il nuovo trattamento segnò un grande passo avanti. Nonostante alcuni effetti collaterali tossici e il fatto che non sempre guariva i pazienti sifilitici anche dopo vari trattamenti, il Salvarsan ridusse di molto l’incidenza della malattia dovunque fu usato. Per la Hoechst si rivelò estremamente remunerativo, fornendo il capitale per poter avviare la produzione anche di altri farmaci. Dopo la realizzazione del Salvarsan, i chimici cercarono altre pallottole magiche, sperimentando gli effetti di decine di migliaia di composti sui microrganismi, apportando quindi qualche lieve cambiamento alla loro struttura e tornando a sperimentarli. Ma il successo tardava a venire. Sembrava che la promessa di quella che Ehrlich aveva chiamato «chemioterapia» fosse destinata a restare vana. All’inizio degli anni ’30 del XX secolo, però, un medico che lavorava col gruppo di ricercatori della IG Farben, Gerhard Dogmak, decise di usare un colorante noto come Prontosil rosso per curare sua figlia, gravemente malata a causa di un’infezione streptococcica contratta con una semplice puntura di spillo. Egli aveva sperimentato il Prontosil rosso al laboratorio IG Farben, e benché la sostanza non avesse manifestato alcuna attività contro batteri allevati in colture di laboratorio, inibì la crescita di streptococchi in topi di laboratorio. Decidendo senza dubbio che non aveva niente da perdere, Dogmak somministrò alla figlia una dose orale del colorante ancora sperimentale. La guarigione della figlia fu rapida e completa. Dapprima si suppose che le proprietà antibatteriche del Prontosil rosso dipendessero dall’azione esercitata dal colorante sulle cellule. I ricercatori si

resero però conto ben presto che gli effetti antibatterici non avevano alcun rapporto con l’azione del colorante. Nel corpo umano la molecola rossa del Prontosil si scompone producendo sulfanilammide, ed è a questa sostanza che si deve l’effetto antibiotico.

Prontosil rosso

Sulfanilammide

È questa, ovviamente, la ragione per cui il Prontosil rosso era rimasto inattivo in provetta (in vitro) ma non negli animali viventi (in vivo). La sulfanilammide risultò essere efficace contro molte malattie diverse dovute a infezioni streptococciche, fra cui polmonite, scarlattina e gonorrea. Avendo riconosciuto la sulfanilammide come agente antibatterico, i chimici cominciarono prontamente a sintetizzare composti simili, sperando che lievi modificazioni della struttura molecolare ne aumentassero l’efficacia e ne attenuassero gli effetti collaterali. La conoscenza che il Prontosil rosso non era la molecola attiva fu estremamente importante. Come si può vedere dalle strutture, il Prontosil rosso è una molecola più complicata della sulfanilammide ed è più difficile da sintetizzare e da modificare. Fra il 1935 e il 1946 furono prodotte più di 5000 variazioni della molecola della sulfanilammide. Molte di esse si rivelarono superiori alla sulfanilammide, i cui effetti collaterali possono comprendere risposte allergiche – eruzioni cutanee e febbre – e danni ai reni. Nella variazione della struttura della sulfanilammide si ottennero i risultati migliori quando uno degli atomi di idrogeno del residuo SO2NH2 fu sostituito con un altro gruppo.

Le molecole risultanti fanno parte tutte della famiglia dei farmaci antibiotici noti collettivamente come sulfamidici. Alcuni fra i molti esempi sono:

Sulfapiridina, usata contro la polmonite

Sulfatiazolo, usato contro le infezioni gastrointestinali

Sulfacetammide, usata contro le infezioni delle vie urinarie

I sulfamidici furono descritti ben presto come farmaci miracolosi. Benché una tale caratterizzazione possa sembrarci eccessiva oggi, esistendo attualmente numerosi trattamenti efficaci contro i batteri, i risultati ottenuti per mezzo di questi composti nei primi decenni del XX secolo apparvero straordinari. Per esempio, dopo l’introduzione delle sulfanilammidi il numero dei decessi da polmonite diminuì di venticinquemila all’anno nei soli Stati Uniti. Nella Prima guerra mondiale, fra il 1914 e il 1918, la morte da infezione di ferite era altrettanto probabile della morte provocata direttamente da ferite sui campi di battaglia europei. Il problema principale nelle trincee e in qualsiasi ospedale militare era una forma di cancrena nota come cancrena gassosa.

Causata da una specie molto virulenta dei batteri del genere Clostridium, lo stesso genere responsabile del botulismo – il letale avvelenamento alimentare –, la cancrena gassosa si sviluppava di solito in ferite profonde, tipiche delle lesioni da bombe e da granate di artiglieria, dove i tessuti venivano lacerati o schiacciati. In assenza di ossigeno, questi batteri si moltiplicano rapidamente. Le ferite essudano un pus scuro, maleodorante, e i gas prodotti dalle tossine batteriche gorgogliano alla superficie della pelle, causando un fetore caratteristico. Prima dello sviluppo degli antibiotici c’era un solo trattamento della cancrena gassosa: l’amputazione dell’arto sopra la parte infetta, nella speranza di asportare tutto il tessuto cancrenoso. Se non era possibile l’amputazione, la morte era inevitabile. Durante la Seconda guerra mondiale, grazie ad antibiotici come la sulfapiridina e il sulfatiazolo – entrambi efficaci contro la cancrena –, a migliaia di feriti furono risparmiate amputazioni sfiguranti, per non menzionare la morte. Oggi sappiamo che l’efficacia di questi composti contro l’infezione batterica ha attinenza con la grandezza e la forma della molecola di sulfanilammide che impedisce ai batteri di produrre una sostanza nutritiva essenziale: l’acido folico. Quest’acido, che fa parte delle vitamine B, è richiesto per la crescita delle cellule umane. Esso è presente in molti cibi, come gli ortaggi con foglie (è questo il significato della parola folico), il fegato, i cavolfiori, il lievito, il frumento e la carne bovina. Il nostro corpo non produce acido folico, cosicché è essenziale che lo assumiamo col cibo. Alcuni batteri, d’altra parte, non richiedono acido folico supplementare, essendo in grado di produrselo direttamente. La molecola di acido folico è abbastanza grande e ha un aspetto complicato:

L’acido folico, la cui porzione di mezzo evidenziata deriva dalla molecola di acido p-amminobenzoico.

Consideriamo solo la parte della sua struttura racchiusa all’interno del rettangolo tratteggiato qui sopra. Questa porzione di mezzo della molecola dell’acido folico deriva (nei batteri che producono il proprio acido folico) da una molecola più piccola, l’acido p-amminobenzoico. Questo è quindi una sostanza nutritiva essenziale per questi microrganismi. Le strutture chimiche dell’acido p-amminobenzoico e della sulfanilammide sono notevolmente simili per forma e grandezza, ed è proprio questa somiglianza a spiegare l’attività antimicrobica della sulfanilammide. La lunghezza di queste due molecole (indicata nella figura qui sotto dalle parentesi quadre), misurata dall’idrogeno del gruppo amminico NH2 all’ossigeno legato con doppio legame, differisce di meno del 3 per cento. Esse hanno inoltre quasi la stessa larghezza.

Sulfanilammide

Acido p-amminobenzoico

Gli enzimi batterici implicati nella sintesi dell’acido folico appaiono incapaci di distinguere fra le molecole dell’acido p-amminobenzoico di cui hanno bisogno e le molecole della sulfanilammide, che hanno un aspetto simile. I batteri tenteranno quindi, senza successo, di usare la sulfanilammide invece dell’acido p-amminobenzoico, e infine moriranno essendo incapaci di

produrre abbastanza acido folico, mentre noi, assumendo acido folico in quantità sufficiente dalla nostra dieta, non risentiamo negativamente dell’azione della sulfanilammide. Tecnicamente i sulfamidici, fondati sulla sulfanilammide, non sono veri antibiotici. Gli antibiotici sono definiti propriamente «sostanze di origine microbica capaci di impedire la crescita di altri organismi e di provocarne la morte». La sulfanilammide non deriva da cellule viventi. Essa è prodotta dall’uomo ed è propriamente classificata un antimetabolita, una sostanza chimica che inibisce la crescita di microrganismi. Oggi però c’è una tendenza a usare comunemente il termine antibiotico per tutte le sostanze, naturali o artificiali, che uccidono i batteri. Benché i sulfamidici non siano stati i primissimi antibiotici – quest’onore spetta al Salvarsan, la molecola di Ehrlich capace di combattere la sifilide –, essi furono il primo gruppo di composti usati diffusamente nella lotta contro le infezioni batteriche. Essi non solo salvarono la vita di centinaia di migliaia di soldati feriti e di persone malate di polmonite, ma ebbero inoltre il merito di determinare un calo sorprendente nei decessi di partorienti, grazie al fatto che anche gli streptococchi responsabili della febbre puerperale si rivelarono vulnerabili ai sulfamidici. Più recentemente, però, l’uso di sulfamidici è diminuito in tutto il mondo, per varie ragioni: preoccupazioni per possibili effetti a lungo termine, l’evoluzione di batteri resistenti alla sulfanilammide e lo sviluppo di antibiotici nuovi e più potenti.

Le penicilline I primissimi veri antibiotici, appartenenti alla famiglia delle penicilline, sono molto diffusi ancor oggi. Nel 1877 Louis Pasteur fu il primo a dimostrare che si poteva usare un microrganismo per ucciderne un altro. Egli mostrò che si poteva prevenire la crescita di un ceppo di antrace nell’urina aggiungendovi alcuni batteri comuni. Successivamente John Lister, dopo avere convinto il mondo della medicina del valore del fenolo come antisettico, investigò le proprietà delle muffe, e si ritiene che abbia guarito un paziente da un ascesso resistente a qualsiasi altra terapia con un impacco impregnato di un estratto della muffa Penicillium.

Nonostante questi risultati positivi, però, le ricerche sulle proprietà curative delle muffe furono sporadiche fino al 1928, quando il medico scozzese Alexander Fleming, che lavorava all’Istituto di Medicina dell’Università di Londra presso il St. Mary’s Hospital, scoprì che una muffa della famiglia del Penicillium aveva contaminato colture dei batteri stafilococchi che stava studiando. Egli notò che una colonia di stafilococchi stava diventando trasparente e si disintegrava (ossia stava subendo quella che è nota oggi come lisi). Diversamente da altri prima di lui, Fleming si incuriosì e tentò di chiarire con ulteriori esperimenti quanto stava accadendo. Suppose che un qualche composto prodotto dalla muffa fosse responsabile dell’effetto antibiotico sugli stafilococchi, e le sue verifiche lo confermarono. Un brodo filtrato, fatto di campioni di colture di quello che noi conosciamo oggi come Penicillium notatum, si dimostrò notevolmente efficace in test di laboratorio contro colture di stafilococchi in capsule di Petri. L’estratto di Penicillium rimaneva attivo contro le cellule batteriche anche dopo una diluizione di ottocento volte. Inoltre i topi a cui era stata iniettata la sostanza chiamata ora da Fleming penicillina non manifestarono alcun effetto tossico. Diversamente dal fenolo, la penicillina non era irritante e poteva essere applicata direttamente su tessuti infettati. Essa sembrava inoltre un inibitore della crescita batterica più potente del fenolo. Era attiva contro molte specie di batteri, compresi quelli che causavano la meningite, la gonorrea e infezioni come la faringite streptococcica. Anche se Fleming pubblicò i suoi risultati su una rivista di medicina, essi suscitarono poco interesse. Il suo brodo di penicillina era molto diluito e i suoi tentativi di isolare l’ingrediente attivo non ebbero successo; oggi noi sappiamo che la penicillina viene facilmente disattivata da molte comuni sostanze chimiche di laboratorio, oltre che da solventi e dal calore. La penicillina non subì alcuna sperimentazione clinica per più di un decennio, e in quel tempo i sulfamidici divennero l’arma principale contro le infezioni batteriche. Nel 1939 il successo dei sulfamidici incoraggiò un gruppo di chimici, microbiologi e medici dell’Università di Oxford a cominciare a lavorare su un metodo per produrre e isolare la penicillina. Il primo esperimento clinico con penicillina grezza fu compiuto nel 1941. Purtroppo il risultato richiama alla mente la vecchia battuta: «Il trattamento ha avuto successo, ma il paziente è morto». Il paziente – un poliziotto che soffriva di due gravi infezioni, una stafilococcica e una streptococcica –

ricevette un trattamento con penicillina iniettata in vena. Dopo ventiquattr’ore si notò un miglioramento; cinque giorni dopo il paziente era sfebbrato e la sua infezione stava guarendo. A quel punto era stata, però, usata tutta la penicillina disponibile: circa un cucchiaino da tè dell’estratto non raffinato. L’infezione era ancora virulenta. Essa si sviluppò ora senza che nulla potesse contrastarla, e il paziente morì. Anche un secondo esperimento si concluse con la morte del paziente. In occasione del terzo esperimento, però, era stata prodotta abbastanza penicillina da eliminare completamente un’infezione da streptococchi in un ragazzo di quindici anni. Dopo quel successo la penicillina fu usata per curare un avvelenamento streptococcico del sangue di un altro ragazzo, e il gruppo di Oxford si rese conto di disporre di un’arma efficace. La penicillina si dimostrò attiva contro una varietà di batteri, senza avere effetti indesiderati come la tossicità per i reni che era stata riferita nel caso delle sulfanilammidi. Studi posteriori indicarono che alcune penicilline inibivano la crescita degli streptococchi a una diluizione di uno a 50 milioni: una concentrazione sorprendentemente piccola. A quest’epoca la struttura chimica della penicillina non era ancora nota, e quindi non era possibile produrla sinteticamente. Essa doveva venire ancora estratta da muffe, e la sua produzione in grande quantità era una sfida per i microbiologi e per i batteriologi più che per i chimici. Il laboratorio del Dipartimento dell’Agricoltura degli Stati Uniti a Peoria, nell’Illinois, aveva esperienza nella coltura di microrganismi e divenne il centro di un intenso programma di ricerca. Nel luglio 1943 le società farmaceutiche americane stavano producendo 800 milioni di unità del nuovo antibiotico. Un anno dopo la produzione mensile raggiunse 130 miliardi di unità. È stato stimato che, durante la Seconda guerra mondiale, un migliaio di chimici in trentanove laboratori negli Stati Uniti e in Gran Bretagna lavorarono sui problemi connessi alla determinazione della struttura chimica e all’individuazione di un modo per sintetizzare la penicillina. Infine, nel 1946, la struttura chimica di questo antibiotico fu finalmente identificata, anche se non si riuscì poi a produrlo con successo per sintesi fino al 1957. La struttura della penicillina può non essere altrettanto grande o non sembrare altrettanto complicata di altre di cui ci siamo occupati finora, ma per i chimici è una molecola estremamente insolita, contenendo un anello a quattro atomi, noto in questo caso come anello delβ-lattame.

La struttura della molecola della penicillina G. La freccia indica l’anello tetratomico delβ-lattame.

In natura esistono molecole tetratomiche, ma non sono comuni. I chimici possono produrre anelli del genere, ma l’operazione può essere alquanto difficile. La ragione di questa difficoltà va vista nel fatto che in un anello formato da quattro atomi – di forma quadrata – gli angoli sono di 90 gradi, mentre di norma gli angoli di legame preferiti dagli atomi di carbonio e dagli atomi di azoto, a legame singolo, sono intorno a 109 gradi. Nel caso di un atomo di carbonio a doppio legame, l’angolo di legame preferito è di circa 120 gradi.

Gli atomi di carbonio e di azoto con legame singolo sono disposti nello spazio nelle tre dimensioni, mentre il carbonio unito con doppio legame a un atomo di ossigeno è nello stesso piano.

Nei composti organici un anello tetratomico non è piano; esso è leggermente deformato, ma neppure questo fatto può ridurre quella che i chimici chiamano la tensione dell’anello, un’instabilità risultante principalmente dal fatto che gli atomi sono costretti ad avere angoli di legame troppo diversi dall’angolo

di legame preferito. È però proprio questa instabilità degli anelli tetratomici a spiegare l’attività antibiotica delle molecole di penicillina. I batteri hanno una parete cellulare e producono un enzima che è essenziale per la formazione di tale parete. In presenza di quest’enzima l’anello delβ-lattame della molecola di penicillina si apre, attenuando la tensione dell’anello. Nel corso di questo processo un gruppo OH sull’enzima batterico viene acilato (lo stesso tipo di reazione che, come abbiamo già visto, convertì l’acido salicilico in Aspirina). In questa reazione di acilazione la molecola di penicillina si attacca, con l’anello aperto, all’enzima batterico. Si noti che l’anello pentatomico è ancora intatto, mentre l’anello tetratomico si è aperto.

La molecola di penicillina si attacca all’enzima batterico in questa reazione di acilazione.

Questa acilazione disattiva l’enzima per la formazione della parete cellulare. L’incapacità di costruire la parete cellulare impedisce la crescita di nuovi batteri in un organismo. Le cellule animali non hanno una parete cellulare, bensì una membrana cellulare, e quindi non posseggono lo stesso enzima per la formazione della parete cellulare di tali batteri. Noi non risentiamo perciò di alcun effetto della reazione di acilazione con la molecola di penicillina. L’instabilità dell’anello tetratomico diβ-lattame della molecola di penicillina è anche la ragione per cui le penicilline, diversamente dai sulfamidici, hanno bisogno di essere conservate a basse temperature. Una volta che l’anello si è aperto – un processo che è accelerato dal calore – la

molecola cessa di essere un antibiotico efficace. Pare che alcuni batteri abbiano scoperto il segreto dell’apertura dell’anello. Ceppi resistenti alla penicillina hanno sviluppato un altro enzima che apre l’anello diβ-lattame della penicillina prima che questa abbia la possibilità di disattivare l’enzima responsabile della formazione della parete cellulare. La struttura della molecola di penicillina illustrata nella figura seguente è quella della penicillina G, che fu prodotta per la prima volta da muffe nel 1940 ed è ancora molto usata. Molte altre molecole di penicillina sono state isolate da muffe, e varie sono state sintetizzate chimicamente a partire dalle versioni di questo antibiotico esistenti in natura. Le strutture delle diverse penicilline variano solo nella parte della molecola circolata nelle figure.

La penicillina G. La parte variabile della molecola è quella racchiusa nel cerchio.

L’ampicillina, una penicillina sintetica efficace contro i batteri resistenti alla penicillina G, è solo leggermente diversa. A essa è legato un gruppo extra NH2.

Ampicillina

Il gruppo laterale nell’amoxocillina, uno fra i farmaci più prescritti oggi negli Stati Uniti, è molto simile a quello dell’ampicillina, ma ha in più un OH. Il gruppo laterale può essere molto semplice, come nella penicillina O, o più complesso, come nella cloxacillina.

La struttura dei gruppi laterali, che sostituiscono la porzione circolata nella figura precedente, per l’amoxocillina (a sinistra), la penicillina O (in centro) e la cloxacillina (a destra).

Queste sono solo quattro della decina circa di penicilline diverse ancora in uso oggi. (E molte altre non sono oggi più in uso clinicamente.) Le modificazioni strutturali, nello stesso sito (circolato) sulla molecola, possono essere molto variabili, ma è sempre presente l’anello tetratomico delβlattame. È questa parte della struttura molecolare che potrebbe averti salvato la vita, se mai hai avuto bisogno di un antibiotico della famiglia delle penicilline.

Benché sia impossibile procurarsi statistiche esatte della mortalità in epoche passate, i demografi hanno stimato la durata di vita media in alcune società. Dal 3500 a.C. al 1750 d.C. circa, un periodo di oltre 5000 anni, la speranza di vita nelle società europee ha oscillato fra trenta e quarant’anni; nella Grecia classica salì per gli uomini fino a quarantun anni. Queste cifre sono simili a quelle dei Paesi sottosviluppati nel mondo attuale. Le tre ragioni principali di questi alti tassi di mortalità – disponibilità insufficiente di cibo, strutture e misure sanitarie inadeguate e malattie epidemiche – sono strettamente correlate. Una nutrizione insufficiente conduce a una maggiore vulnerabilità alle infezioni; un’igiene insufficiente conduce a condizioni che possono favorire l’insorgere di malattie. Nelle parti del mondo in possesso di un’agricoltura efficiente e di un buon sistema di trasporti è aumentata l’offerta di cibo. Al tempo stesso un’igiene personale molto migliorata e misure di sanità pubblica – distribuzione di acqua potabile, sistemi di trattamento delle acque nere, raccolta dei rifiuti e controllo dei parassiti, programmi di immunizzazioni e vaccinazioni su grande scala – hanno condotto a una diminuzione delle epidemie e a una popolazione più sana, in grado di resistere meglio alle malattie. Grazie a questi miglioramenti, i tassi di mortalità nel mondo sviluppato sono calati costantemente dagli anni ’60 dell’Ottocento in poi. Ma l’attacco decisivo a quei batteri che per numerose generazioni avevano causato grandi sofferenze e numerosi decessi fu portato dagli antibiotici. A partire dagli anni ’30 del Novecento l’effetto di queste molecole sul tasso di mortalità da malattie infettive è stato marcato. Dopo l’introduzione dei sulfamidici nel trattamento della polmonite, una complicazione comune del virus del morbillo, il tasso di mortalità da morbillo declinò rapidamente. Polmonite, tubercolosi, gastrite e difterite, che nel 1900 erano fra le principali cause di morte negli Stati Uniti, sono oggi scomparse dall’elenco. Dove si sono verificati casi isolati di malattie batteriche – peste bubbonica, colera, tifo e carbonchio –, gli antibiotici hanno bloccato quelle che avrebbero potuto altrimenti diventare gravi epidemie. Le azioni dei bioterroristi di oggi hanno concentrato le preoccupazioni del pubblico sulla possibilità di una grave epidemia batterica. Gli antibiotici di cui disponiamo attualmente dovrebbero di norma essere in grado di far fronte a un tale attacco.

Un’altra forma di bioterrorismo, la lotta dei batteri stessi nell’adattarsi al nostro uso crescente e persino abuso di antibiotici, è preoccupante. Ceppi di batteri comuni ma potenzialmente letali, resistenti agli antibiotici, stanno diventando sempre più diffusi. Man mano però che i biochimici approfondiscono la conoscenza del metabolismo dei batteri – e dell’uomo –, e del modo d’azione degli antibiotici del passato, dovrebbe diventare possibile la sintesi di nuovi antibiotici, in grado di attaccare reazioni batteriche specifiche. La comprensione delle strutture chimiche e del modo in cui reagiscono con le cellule vive è essenziale per mantenere un vantaggio nella perpetua lotta contro i batteri patogeni.

11 LA PILLOLA

Alla metà del XX secolo antibiotici e antisettici erano diventati di uso comune e avevano abbassato vistosamente i tassi di mortalità, specialmente fra le donne e i bambini. Le famiglie non avevano più bisogno di mettere al mondo una quantità di bambini per assicurarsi che qualcuno di loro arrivasse all’età adulta. Mentre diminuiva il timore di perdere figli a causa di malattie infettive, cominciò a farsi sentire la domanda di metodi per limitare le dimensioni delle famiglie prevenendo la concezione. Nel 1960 si scoprì una molecola anticoncezionale che avrebbe svolto un ruolo importante nel plasmare la società contemporanea. Ci riferiamo, ovviamente, al noretindrone, il primo contraccettivo orale, noto comunemente come «pillola». Questa molecola è stata esaltata – o criticata (a seconda del punto di vista) – per aver reso possibile la rivoluzione sessuale degli anni ’60 del XX secolo, il movimento di liberazione delle donne, l’avvento del femminismo, l’accresciuto accesso delle donne al mondo del lavoro e persino il crollo della famiglia. Nonostante le divergenze d’opinione sui benefìci o danni apportati da questa molecola, essa ha svolto un ruolo importante nei mutamenti enormi verificatisi nella società negli oltre quarant’anni trascorsi dopo la sua introduzione. Le lotte per l’accesso legale all’informazione e agli strumenti per il controllo delle nascite, combattute all’inizio del Novecento da riformatrici di valore come Margaret Sanger negli Stati Uniti e Marie Stopes in Gran Bretagna, ci sembrano oggi molto lontane. I giovani di oggi stentano spesso a credere che in molti Paesi, nei primi decenni del Novecento, si considerasse un crimine anche solo fornire informazioni sulla contraccezione. L’esigenza era però ben presente: gli alti tassi di mortalità dei neonati e delle partorienti in aree urbane povere erano spesso correlati a famiglie numerose. Le famiglie della classe media stavano già usando i metodi anticoncezionali allora

disponibili, e le donne della classe operaia avevano un bisogno disperato delle stesse informazioni e dell’accesso alla contraccezione. Le lettere scritte ai leader del movimento d’opinione per il controllo delle nascite dalle madri di famiglie numerose esprimevano la loro disperazione, quando dovevano affrontare un’altra gravidanza indesiderata. Fra il 1930 e il 1940 stava crescendo la pubblica accettazione del controllo delle nascite, espresso a volte con l’espressione più accettabile di pianificazione familiare; ambulatori e personale medico prescrivevano spesso mezzi anticoncezionali e, almeno in alcuni luoghi, si cominciavano a cambiare le leggi. Là dove le leggi restrittive restavano spesso sulla carta, i processi divennero meno comuni, specialmente se i problemi della contraccezione venivano trattati in modo discreto.

I primi tentativi di contraccezione orale Nel corso dei secoli e in ogni cultura, le donne hanno ingerito molte sostanze nella speranza di poter prevenire la concezione. Nessuna di tali sostanze avrebbe però potuto conseguire quell’obiettivo se non, forse, rendendo la donna così malata da non essere in grado di concepire. Alcuni di quei rimedi erano piuttosto semplici: un’infusione di prezzemolo e menta, di foglie o di corteccia di biancospino, di edera, di salice, di fiori di violacciocca gialla, di mirto o di pioppo. Qualcuno suggeriva anche intrugli contenenti uova di ragni o serpenti. Fra gli altri rimedi raccomandati c’erano anche frutti, fiori, fagioli, noccioli di albicocca e pozioni di erbe miste. A un certo punto ebbe grande rilievo nella contraccezione il mulo, presumibilmente per il fatto di essere un incrocio sterile tra una cavalla e un asino. Si assicurava che una donna sarebbe stata sicuramente sterile se avesse mangiato il rene o l’utero di un mulo femmina. Quanto alla sterilità maschile, il contributo dell’animale non era meno squisito: l’uomo doveva mangiare i testicoli cucinati di un mulo castrato. L’avvelenamento da mercurio avrebbe potuto essere un modo efficace per rendere sterile una donna che avesse inghiottito un rimedio cinese del VII secolo, a base di argento vivo (antica denominazione del mercurio) fritto in olio (sempre che non l’avesse uccisa prima). Soluzioni di diversi sali di rame venivano bevute come contraccettivi sia nell’antica Grecia sia in varie parti dell’Europa nell’Ottocento. Un bizzarro metodo

medievale chiedeva a una donna di sputare tre volte in bocca a una rana. E si sosteneva che sarebbe diventata sterile la donna, non la rana!

Gli steroidi Anche se alcune delle sostanze spalmate su varie parti del corpo per prevenire la gravidanza potrebbero avere avuto proprietà spermicide, l’avvento dei primi mezzi chimici veramente sicuri ed efficaci di controllo delle nascite coincise con l’introduzione di contraccettivi orali alla metà del XX secolo. Il noretindrone appartiene a un gruppo di composti noti come steroidi, un termine chimico che oggi si trova spesso associato a farmaci usati illegalmente da alcuni atleti per potenziare le loro prestazioni fisiche. Alcuni di tali farmaci sono decisamente steroidi, ma sono steroidi anche molti altri composti che non hanno niente a che fare con prestazioni atletiche; noi useremo il termine steroidi nel suo senso chimico più generale, con riferimento alla struttura chimica. In molte molecole mutamenti di struttura molto piccoli possono dar luogo a grandissimi cambiamenti nei loro effetti. Questo fatto si riscontra in modo più marcato nelle strutture degli ormoni sessuali: gli ormoni sessuali maschili (androgeni), gli ormoni sessuali femminili (estrogeni) e gli ormoni della gravidanza (progestine). Tutti i composti classificati come steroidi hanno la stessa configurazione molecolare di base, una serie di quattro anelli fusi nello stesso modo. Tre degli anelli hanno sei atomi di carbonio ciascuno, e il quarto ne ha cinque. Gli anelli vengono indicati con le lettere dell’alfabeto A, B, C e D: l’anello D è sempre formato da cinque atomi.

I quattro anelli base della struttura degli steroidi, designati con le prime quattro lettere dell’alfabeto.

Il colesterolo, il più diffuso fra tutti gli steroidi animali, si trova nella maggior parte dei tessuti animali, con livelli particolarmente elevati nei tuorli d’uovo e nei calcoli biliari umani. È una molecola che ha una reputazione immeritatamente cattiva. Noi abbiamo infatti un bisogno assoluto del colesterolo nel nostro organismo; esso svolge un ruolo vitale come molecola precorritrice di tutti gli altri nostri steroidi, compresi gli acidi biliari (composti che ci permettono di digerire grassi e oli) e gli ormoni sessuali. Quel che non ci serve è una quantità di colesterolo extra nella nostra dieta, in quanto noi ne sintetizziamo già abbastanza per nostro conto. La struttura molecolare del colesterolo mostra i quattro anelli base fusi insieme, più i gruppi laterali, fra cui vari gruppi metilici (CH3, scritto a volte H3C per integrarlo meglio nel disegno).

Il colesterolo, lo steroide animale più diffuso

Il testosterone, il principale ormone sessuale maschile, fu estratto per la prima

volta da testicoli di tori nel 1935, ma non fu il primo ormone sessuale maschile a essere isolato. Il primo fu l’androsterone, una variazione metabolizzata e meno potente del testosterone che viene escreta nell’urina. Come si può vedere dal confronto tra le due strutture, c’è pochissima differenza fra loro: l’androsterone è una versione ossidata, in cui un atomo di ossigeno a doppio legame ha sostituito l’OH del testosterone.

Testosterone

Androsterone

L’androsterone si differenzia dal testosterone in una sola posizione (indicata dalla freccia).

L’androsterone fu isolato per la prima volta nel 1931, quando ne furono ottenuti quindici milligrammi a partire da 15.000 litri di urina raccolti dalla polizia belga (che a quel tempo era composta presumibilmente da soli uomini). Il primo ormone sessuale a essere isolato in assoluto fu l’ormone sessuale estrone, ottenuto nel 1929 dall’urina di donne gravide. Come nel caso dell’androsterone e del testosterone, l’estrone è una variazione metabolizzata del principale ormone sessuale femminile, l’estradiolo. Un processo di ossidazione simile trasforma un OH dell’estradiolo in un ossigeno a doppio legame.

Estradiolo

Estrone

L’estrone si differenzia dall’estradiolo in una sola posizione (indicata dalla freccia).

Queste molecole sono presenti nel nostro corpo, come in quello di altri animali, in quantità molto piccole; per estrarre dodici soli milligrammi del primo estradiolo che fu isolato furono infatti usate ben quattro tonnellate di ovaie di scrofe. È interessante considerare quanto siano strutturalmente simili l’ormone maschile testosterone e l’ormone femminile estradiolo. Bastano pochi cambiamenti nella struttura molecolare a fare una differenza enorme.

Testosterone

Estradiolo

Se si hanno un CH3 in meno, un OH invece di un O a doppio legame e alcuni legami C=C in più, alla pubertà, invece di sviluppare caratteri sessuali maschili secondari (barba e pelo corporeo, voce profonda, muscoli più vigorosi), si svilupperanno mammelle, fianchi più larghi e l’inizio delle mestruazioni. Il testosterone è uno steroide anabolico: ciò significa che promuove lo sviluppo muscolare. I testosteroni artificiali – composti industriali capaci anch’essi di stimolare la crescita di tessuto muscolare – hanno struttura simile al testosterone naturale. Essi sono stati sviluppati per essere usati nel trattamento di ferite o malattie che causano un deterioramento debilitante dei muscoli. A dosi terapeutiche, questi farmaci aiutano la riabilitazione con un effetto mascolinizzante minimo, ma quando questi steroidi sintetici, come il Dianabol (metandrostenolone) e lo Stanozololo, vengono usati in quantità dieci o venti volte maggiori da atleti che vogliono aumentare la loro massa

muscolare, gli effetti collaterali possono essere devastanti.

Dianabol

Testosterone

Stanozololo

Gli steroidi anabolici sintetici Dianabol e Stanozololo confrontati con lo steroide naturale testosterone.

Un rischio accresciuto di cancro al fegato e di cardiopatie, una maggiore aggressività, gravi manifestazioni di acne, sterilità e rimpicciolimento dei testicoli sono solo alcuni dei pericoli conseguenti all’abuso di queste molecole. Può sembrare un po’ strano che uno steroide androgeno sintetico, che favorisce lo sviluppo di caratteri secondari maschili, possa causare una diminuzione della grandezza dei testicoli; ciò dipende dal fatto che, quando si somministrano al corpo dei testosteroni tratti da una fonte esterna, i testicoli – che non hanno più bisogno di funzionare – si atrofizzano. Il fatto che una molecola abbia una struttura simile al testosterone non significa necessariamente che funzioni come un ormone maschile. Il progesterone, che è il principale ormone della gravidanza, non solo ha una struttura più simile a quella del testosterone e dell’androsterone di quella dello Stanozololo, ma è più simile agli ormoni sessuali maschili anche degli estrogeni. Nel progesterone l’OH del testosterone è sostituito da un gruppo acetile CH3CO (circolato nel diagramma).

Progesterone

Questa è l’unica diversità nella struttura chimica fra progesterone e testosterone, ma produce una grande differenza nel funzionamento della molecola. Il progesterone segnala alla mucosa dell’utero di prepararsi per l’impianto di un uovo fecondato. Una donna gravida non concepisce di nuovo durante la sua gravidanza perché il continuo rifornimento di progesterone impedisce un’ulteriore ovulazione. Questa è la base biologica della contraccezione chimica: una fonte esterna di progesterone, o di una sostanza simile al progesterone, è in grado di sopprimere l’ovulazione. Nell’uso della molecola di progesterone come contraccettivo ci sono alcune gravi difficoltà. Il progesterone dev’essere iniettato; la sua efficacia, se viene assunto oralmente, risulta gravemente ridotta, presumibilmente perché reagisce con gli acidi gastrici o con altri composti chimici della digestione. Un altro problema (come abbiamo visto a proposito dell’estrazione di pochi milligrammi di estradiolo a partire da tonnellate di ovaie di scrofe) è che gli steroidi naturali sono presenti negli animali in quantità molto piccole. L’estrazione da tali fonti non è quindi assolutamente pratica. La soluzione di questi problemi sta nella sintesi di un progesterone artificiale che conservi la sua attività quando venga assunto oralmente. Perché una tale sintesi sia possibile a una grande scala, occorre un materiale di partenza in cui il sistema steroideo a quattro anelli, con i gruppi CH3 in posizioni fisse, sia già esistente. In altri termini, la sintesi di una molecola che imiti la funzione del progesterone richiede una fonte di grandi quantità di un

altro steroide la cui struttura possa essere modificata in laboratorio con le reazioni giuste.

Le sorprendenti avventure di Russell Marker Abbiamo formulato il problema chimico, ma dobbiamo ammettere che abbiamo potuto farlo solo grazie all’indubbio vantaggio del senno di poi. La sintesi della prima pillola per il controllo delle nascite fu infatti il risultato di un tentativo di risolvere un insieme di enigmi del tutto diversi. I chimici che vi lavorarono non avevano idea che la molecola infine prodotta da loro avrebbe promosso il cambiamento sociale, avrebbe dato alle donne il controllo della loro vita e avrebbe modificato i ruoli sessuali tradizionali. Russell Marker, il chimico americano le cui ricerche furono cruciali per lo sviluppo della pillola, non fece eccezione; l’obiettivo dei suoi esperimenti chimici non era quello di produrre una molecola contraccettiva, bensì di trovare una via accessibile per produrre un altro steroide: il cortisone. La vita di Marker fu un continuo conflitto con la tradizione e l’autorità, condizione forse appropriata visto che con la tradizione e l’autorità avrebbe dovuto lottare strenuamente anche la più importante fra le molecole da lui identificate. Marker studiò alle scuole superiori e poi al college contro i desideri di suo padre, che era un mezzadro, e nel 1923 si laureò in chimica all’Università del Maryland. Pur affermando che stava continuando la sua istruzione per poter «lasciare il lavoro dei campi», anche l’interesse di Marker per la chimica e le sue indubbie capacità in questo campo devono essere stati fattori importanti nella sua decisione di proseguire gli studi per prendere il dottorato. Dopo avere completato e già pubblicato la tesi di dottorato nel Journal of the American Chemical Society, Marker si sentì dire che per conseguire il dottorato gli mancava ancora un altro corso, quello di chimica fisica. Marker ritenne che questo fosse uno spreco di tempo prezioso, che avrebbe potuto impiegare più proficuamente in laboratorio. Nonostante i ripetuti ammonimenti dei suoi professori, secondo i quali non c’erano prospettive di una carriera di ricerca in chimica senza il dottorato, Marker lasciò l’università. Tre anni dopo fu assunto nel corpo insegnante del prestigioso

Rockefeller Institute a Manhattan: le sue capacità avevano chiaramente superato l’handicap di non avere terminato il dottorato. Al Rockefeller Institute Marker si interessò agli steroidi; in particolare si impegnò a sviluppare un metodo per produrne quantità abbastanza grandi da permettere ai chimici di dedicarsi liberamente alle loro sperimentazioni. L’obiettivo era quello di provare il maggior numero possibile di modificazioni della struttura dei vari gruppi laterali sui quattro anelli di carbonio degli steroidi. A quest’epoca, il costo del progesterone isolato dall’urina delle giumente gravide – più di mille dollari al grammo – era superiore alle possibilità dei chimici. Le piccole quantità di progesterone estratte da questa fonte erano usate principalmente dai ricchi proprietari di cavalli da corsa per evitare aborti nei loro preziosi animali da riproduzione. Marker sapeva che composti contenenti steroidi esistevano in varie piante, fra cui la digitale, il mughetto, la salsapariglia e l’oleandro. Anche se fino allora non era stato possibile isolare esattamente il sistema dei quattro anelli degli steroidi, questi composti erano molto più abbondanti nelle piante che negli animali. Per Marker questa era chiaramente la via da seguire, ma ancora una volta si trovò in contrasto con la tradizione e l’autorità. La tradizione, al Rockefeller Institute, era che la chimica delle piante apparteneva al dipartimento di farmacologia, non a quello di Marker. L’autorità, nella persona del presidente dell’Istituto, proibì a Marker di lavorare sugli steroidi delle piante. Marker abbandonò allora il Rockefeller Institute. Accettò una fellowship al Pennsylvania State College, dove continuò a lavorare sugli steroidi, collaborando infine con la casa farmaceutica Parke-Davis. Fu a partire dal mondo vegetale che Marker avrebbe infine prodotto le grandi quantità di steroidi di cui aveva bisogno per le sue ricerche. Cominciò con le radici della salsapariglia (che si usavano per conferire aroma a bevande gassate); esse contenevano notoriamente composti detti saponine, così chiamati per la loro capacità di produrre soluzioni saponose o schiuma in acqua. Le saponine sono molecole complesse, anche se molto più piccole di molecole di polimeri come la cellulosa o la lignina. La sarsasaponina – la saponina derivata dalla pianta della salsapariglia – è formata da tre unità di zuccheri legati a un sistema steroideo ad anelli, che a sua volta è unito in D ad altri due anelli.

La struttura della sarsasaponina, la molecola di saponina estratta dalla pianta della salsapariglia.

Era noto che la rimozione dei tre zuccheri – due unità di glucosio e uno zucchero diverso chiamato ramnosio – è una cosa semplice. In presenza di un acido le unità di zuccheri si staccano dal sistema steroideo nel punto indicato dalla freccia nella figura qui sopra. sarsasaponina

reazioni con acido o con enzimi

sarsasapogenina + 2 glucosio + ramnosio

Era la porzione restante della molecola, una sapogenina, a presentare problemi. Per ottenere il sistema steroideo ad anelli dalla sarsasapogenina, era necessario staccarne il raggruppamento laterale circolato nel diagramma raffigurato nella pagina seguente. Secondo il sapere chimico dominante del tempo, una cosa del genere non si poteva fare, almeno non senza distruggere altre parti della struttura steroide.

La sarsasapogenina, la sapogenina derivata dalla pianta della salsapariglia.

Marker era invece sicuro che la cosa fosse possibile, e aveva ragione lui. Il processo da lui sviluppato produceva il sistema steroideo di base formato da quattro anelli, dal quale, con pochi altri passi, si otteneva il progesterone sintetico puro, chimicamente identico a quello prodotto nel corpo femminile. E una volta eliminato il gruppo laterale, diventava possibile la sintesi di molti altri composti steroidi. Questo procedimento – la rimozione del raggruppamento laterale della sapogenina dal sistema steroideo – è usato ancora oggi nell’industria multimiliardaria degli ormoni sintetici. Esso è noto come la «degradazione di Marker». Il compito successivo affrontato da Marker fu quello di trovare una pianta che contenesse il materiale di partenza in quantità maggiore rispetto alla salsapariglia. Gli steroidi sapogenine, derivati separando le unità di zuccheri dalle saponine di partenza, si possono trovare in innumerevoli piante diverse dalla salsapariglia, fra cui il Trillium, la Yucca, la digitale, l’agave e l’asparago. La ricerca di Marker, effettuata su centinaia di piante tropicali e subtropicali, lo condusse infine a una specie di Dioscorea, un igname selvatico che si trova sulle montagne della provincia messicana di Veracruz. A questo punto si era già nel 1942 e gli Stati Uniti erano impegnati nella Seconda guerra mondiale. Le autorità messicane non concedevano permessi di raccogliere piante, e a Marker fu consigliato di non avventurarsi nell’area per raccogliere igname. Consigli del genere non avevano mai fermato Marker prima e non lo dissuasero adesso. Viaggiando con autobus locali, arrivò infine nell’area dove gli avevano detto che cresceva la pianta. Ivi raccolse due sacchetti dei rizomi tuberiformi neri, lunghi una trentina di centimetri, di

cabeza de negro (testa di negro), come veniva chiamato localmente l’igname. Tornato in Pennsylvania, estrasse dai rizomi una sapogenina molto simile alla sarsasapogenina derivata dalla salsapariglia. L’unica differenza era un legame doppio in più (indicato nella figura dalla freccia) trovato nella diosgenina, la sapogenina estratta dall’igname selvatico.

Diosgenina

Sarsasapogenina

La diosgenina, tratta dall’igname messicano, differisce dalla sapogenina ottenuta dalla salsapariglia, la sarsasapogenina, solo per avere un legame doppio in più (indicato dalla freccia).

La degradazione di Marker rimosse il gruppo laterale indesiderato, e ulteriori reazioni chimiche produssero una buona quantità di progesterone. Marker si convinse che il modo per ottenere quantità accettabili di ormoni steroidi a un costo ragionevole fosse quello di fondare un laboratorio in Messico e usare la fonte abbondante costituita dall’igname messicano. Se però questa soluzione parve pratica e ragionevole a Marker, non era vista nello stesso modo dalle principali case farmaceutiche che egli tentò di interessare al suo progetto. Ancora una volta tradizione e autorità gli sbarrarono la strada. Le case farmaceutiche gli dissero che il Messico non aveva una storia nella realizzazione di sintesi chimiche così complesse. Non riuscendo a procurarsi il sostegno finanziario di cui aveva bisogno dalle case farmaceutiche, Marker decise di affrontare la produzione dell’ormone con le sue sole forze. Si dimise dal Pennsylvania State College e si trasferì infine a Città del Messico, dove nel 1944, in società con altri, fondò la Syntex (per Synthesis e Mexico), la società farmaceutica che sarebbe diventata uno dei principali produttori mondiali di steroidi.

Ma la relazione di Marker con la Syntex non sarebbe durata a lungo. Controversie su pagamenti, profitti e brevetti condussero alle sue dimissioni. Un’altra società da lui fondata, la Botanica-Mex, fu comprata infine da società farmaceutiche europee. A quest’epoca Marker aveva scoperto altre specie di Dioscorea, ancora più ricche della molecola di diosgenina contenente steroidi. Il costo del progesterone sintetico diminuiva costantemente. Questi ignami, usati un tempo dagli agricoltori locali solo per avvelenare i pesci – che venivano storditi dal veleno rimanendo però commestibili –, sono oggi coltivati in Messico come piante di valore commerciale.

Russell Marker, il cui sviluppo del procedimento noto come «degradazione di Marker» permise ai chimici di accedere alle abbondanti molecole steroidi vegetali. (Foto gentilmente concessa dalla Pennsylvania State University)

Marker era sempre stato riluttante a brevettare i suoi procedimenti, pensando che le sue scoperte dovessero essere accessibili a chiunque. Nel 1949 fu però così disgustato e deluso dai suoi colleghi chimici e dalla motivazione del profitto – che vedeva ora dominante nella ricerca chimica – che distrusse tutti i suoi appunti di laboratorio e le descrizioni dei suoi esperimenti, in un tentativo di uscire totalmente dal campo della chimica. Nonostante questi suoi sforzi, però, le reazioni chimiche di cui Marker fu un iniziatore sono oggi riconosciute come le ricerche che resero possibile la pillola del controllo delle nascite.

La sintesi di altri steroidi Nel 1949 un giovane austriaco immigrato negli Stati Uniti entrò a far parte del settore ricerche della Syntex a Città del Messico. Carl Djerassi aveva appena conseguito il dottorato all’Università del Wisconsin, doveva aveva compiuto ricerche sulla conversione chimica del testosterone in estradiolo. La Syntex voleva trovare un modo per convertire il progesterone, ora relativamente abbondante, ottenuto dagli ignami selvatici, nella molecola di cortisone. Il cortisone è uno di almeno ventotto diversi ormoni isolati dalla corteccia surrenale (la parte esterna delle ghiandole surrenali, adiacenti ai reni). È un potente agente antinfiammatorio, particolarmente efficace nel trattamento dell’artrite reumatoide. Come altri steroidi, è presente in piccole quantità nei tessuti animali. Pur potendo essere sintetizzato in laboratorio, i metodi di produzione erano molto costosi. La sintesi richiedeva trentadue passi, e il suo materiale di partenza, l’acido desossicolico, doveva essere isolato dalla bile dei bovini, che non era affatto abbondante. Usando la degradazione di Marker, Djerassi mostrò che si poteva produrre il cortisone a un costo molto inferiore, partendo da una fonte vegetale come la diosgenina. Uno degli ostacoli principali nella produzione del cortisone consiste nell’unire l’ossigeno con doppio legame al carbonio numero 11 sull’anello C, una posizione che non è sostituita negli acidi biliari o negli ormoni sessuali.

Cortisone. Il C=O nella posizione numero 11 è indicato da una freccia.

Un nuovo metodo per unire l’ossigeno in questa posizione fu scoperto in seguito usando la muffa Rhizopus nigricans. L’effetto di questa combinazione di funghi e chimica fu quello di produrre cortisone dal progesterone in un totale di soli otto passi: uno microbiologico e sette chimici.

Progesterone

Cortisone

Dopo questo successo nella produzione del cortisone, Djerassi sintetizzò sia l’estrone sia l’estradiolo dalla diosgenina, dando alla Syntex una posizione di preminenza come principale produttore di ormoni e di steroidi. Il suo progetto seguente fu quello di produrre una progestina artificiale, un composto che avesse proprietà simili a quelle del progesterone, ma che potesse essere assunto per via orale. L’intento non era quello di creare una pillola contraccettiva. Il progesterone, ora disponibile a un costo ragionevole – meno di un dollaro al grammo –, veniva usato nel trattamento di donne con

una storia di aborti. Esso doveva essere iniettato e in dosi abbastanza grandi. La lettura della letteratura scientifica indusse in Djerassi il sospetto che la sostituzione, sull’anello D, di un gruppo con un triplo legame carboniocarbonio (≡) potesse permettere alla molecola di conservare la sua efficacia quando veniva inghiottita. Un’altra relazione aveva menzionato che la rimozione di un gruppo CH3 – il carbonio designato col numero 19 – sembrava aumentare la potenza in altre molecole simili al progesterone. La molecola prodotta da Djerassi e dal suo gruppo e brevettata nel novembre 1951 era otto volte più potente del progesterone e poteva essere assunta oralmente. Si chiamava noretindrone: il nor indicava la mancanza di un gruppo CH3.

Progesterone Noretindrone

La struttura del progesterone naturale paragonato alla progestina artificiale noretindrone.

I critici della pillola per il controllo delle nascite hanno sottolineato che essa fu sviluppata da uomini per farla prendere a donne. In effetti i chimici coinvolti nella sintesi della molecola che sarebbe diventata la pillola erano uomini, ma, come avrebbe detto vari anni dopo Djerassi, che oggi viene indicato a volte come il «padre della pillola»: «Mai, nemmeno nei nostri sogni più sfrenati, immaginammo che questa sostanza sarebbe infine diventata l’ingrediente attivo di quasi metà dei contraccettivi orali usati nel mondo». Il noretindrone era inteso come un trattamento ormonale a sostegno della gravidanza o per alleviare le irregolarità mestruali, specialmente in caso di perdite di sangue consistenti. Poi, all’inizio degli anni ’50 del XX secolo, due donne si impegnarono a cambiare il ruolo di questa molecola da quello di trattamento limitato della sterilità a fattore quotidiano nella vita di

innumerevoli milioni di donne.

Le madri della pillola Margaret Sanger, la fondatrice dell’International Planned Parenthood, la società internazionale per la pianificazione delle nascite, fu incarcerata nel 1917 per avere somministrato anticoncezionali in una clinica di Brooklyn a donne immigrate. Per tutta la vita aveva sostenuto con passione il diritto delle donne di controllare il proprio corpo e la propria fertilità. Katherine McCormick fu una delle prime donne a conseguire una laurea in biologia al Massachusetts Institute of Technology. Dopo la morte del marito si ritrovò immensamente ricca. Conosceva Margaret Sanger da più di trent’anni e l’aveva addirittura aiutata a diffondere illegalmente diaframmi anticoncezionali negli Stati Uniti, fornendole anche un sostegno finanziario per la causa del controllo delle nascite. Entrambe le donne erano ultrasettantenni quando si recarono a Shrewsbury, nel Massachusetts, per incontrarvi Gregory Pincus, uno specialista della fecondità femminile che era anche uno dei fondatori di una piccola organizzazione non a scopo di lucro chiamata Worcester Foundation for Experimental Biology. La Sanger sollecitò il dottor Pincus a produrre un «contraccettivo perfetto», sicuro, economico, affidabile, che potesse «essere inghiottito come un’Aspirina». La McCormick appoggiò la richiesta dell’amica con un aiuto finanziario, e nel corso dei quindici anni seguenti mise più di tre milioni di dollari a disposizione della causa. Pincus e colleghi alla Worcester Foundation verificarono prima di tutto che il progesterone inibisse l’ovulazione. Essi compirono le loro ricerche su conigli; Pincus si rese conto che risultati simili erano già disponibili per gli esseri umani solo quando conobbe un altro ricercatore sulla riproduzione, il dottor John Rock, della Harvard University. Rock era un ginecologo che lavorava per risolvere problemi di fertilità nelle sue pazienti. La sua ragione per usare il progesterone nel trattamento della sterilità si fondava sull’ipotesi che, bloccando per qualche mese la fertilità attraverso l’inibizione dell’ovulazione, una volta che si fossero interrotte le iniezioni di progesterone si determinasse un «effetto di rimbalzo».

Nel 1952 lo stato del Massachusetts aveva alcune delle leggi più restrittive sul controllo delle nascite negli Stati Uniti. Non era illegale usare il controllo delle nascite, ma esporre in vetrina, vendere, prescrivere e fornire anticoncezionali e persino informazioni sui metodi per il controllo delle nascite era un crimine grave. Questa legge non fu abrogata fino al marzo 1972. Date queste restrizioni legali, Rock era comprensibilmente cauto nello spiegare il suo trattamento con iniezioni di progesterone. Poiché il procedimento era ancora sperimentale, era necessario il consenso delle sue pazienti, le quali dovevano essere informate. Perciò la soppressione dell’ovulazione veniva sì spiegata, ma si sottolineava che si trattava di un effetto collaterale temporaneo in vista del fine reale di accrescere la fertilità. Né Rock né Pincus pensavano che si potessero usare iniezioni di dosi di progesterone abbastanza grandi come contraccettivo a lungo termine. Pincus cominciò a rivolgersi a case farmaceutiche per accertare se qualcuno dei progesteroni artificiali fino allora sviluppati potesse essere più utile in piccole dosi e anche più efficace per via orale. La risposta fu che c’erano due progestinici sintetici che rispondevano alle sue richieste. La casa farmaceutica G.D. Searle, con sede a Chicago, aveva brevettato una molecola molto simile a quella sintetizzata da Djerassi alla Syntex. Il suo noretinodrel differiva dal noretindrone solo nella posizione di un doppio legame. Si suppone che la molecola efficace sia il noretindrone; gli acidi gastrici probabilmente spostano la posizione del doppio legame del noretinodrel a quella del suo isomero strutturale noretindrone, che ha la stessa forma ma disposizione diversa.

Noretinodrel

Noretindrone

Le frecce indicano la posizione del doppio legame, l’unica differenza fra il noretinodrel della Searle e il noretindrone della Syntex.

Fu concesso un brevetto per ciascun composto. Non fu mai esaminata la questione legale se una molecola trasformata nell’altra dal corpo di una paziente costituisse o no una violazione della legge sui brevetti. Alla Worcester Foundation Pincus sperimentò con entrambe le molecole per accertare se fossero efficaci nel sopprimere l’ovulazione nei conigli. L’unico effetto collaterale fu che non nacquero più coniglietti. Rock iniziò allora una cauta sperimentazione sulle sue pazienti del noretinodrel, che aveva ora ricevuto il nome di Enovid. Mantenne la finzione che l’oggetto delle sue ricerche fossero la sterilità e l’irregolarità mestruale, finzione che presentava tuttavia qualche aspetto di verità. Aveva ancora pazienti che si rivolgevano a lui per questi problemi, e continuava a fare gli stessi esperimenti di prima: bloccare l’ovulazione per qualche mese per sfruttare poi l’aumento di fertilità che sembrava presentarsi, almeno in qualche donna, dopo questo trattamento. Stava però usando progestine artificiali, somministrate oralmente e a dosi più basse del progesterone sintetico. L’effetto di rimbalzo non sembrava diverso. Un controllo accurato delle sue pazienti evidenziò che l’Enovid aveva un’efficacia del 100 per cento nel prevenire l’ovulazione. Quel che occorreva ora erano esperimenti sul campo, che ebbero luogo nel Portorico. In anni recenti alcuni critici hanno denunciato l’«esperimento del Portorico» per il suo presunto sfruttamento di donne povere, ignoranti e non informate. Ma il Portorico era ben più avanti del Massachusetts in termini di informazione sul controllo delle nascite. Pur avendo una popolazione in massima parte cattolica, nel 1937 – trentacinque anni prima del Massachusetts – il Portorico aveva modificato le sue leggi in modo tale che la distribuzione di mezzi per il controllo delle nascite non venisse più considerata illegale. Vi esistevano cliniche per la pianificazione familiare, note come cliniche «pre-maternità», e i docenti delle facoltà di medicina del Portorico, come pure i funzionari e i paramedici della sanità pubblica, sostenevano l’idea della sperimentazione sul campo di un contraccettivo orale. Le donne scelte per questa sperimentazione venivano selezionate con cura e controllate di continuo in modo meticoloso. Potevano essere povere e ignoranti, ma erano anche pragmatiche e pratiche. Forse non capivano le complessità del ciclo ormonale femminile, ma capivano i pericoli connessi al fatto di avere più figli. Per una donna di trentasei anni madre di tredici figli,

che sbarcava il lunario abitando in una baracca di due stanze e praticando un’agricoltura di sussistenza, i possibili effetti collaterali di una pillola anticoncezionale dovevano sembrare molto più innocui di un’altra gravidanza indesiderata. Non c’era sicuramente scarsità di volontarie nel Portorico nel 1956, come non ce ne sarebbe stata per altre sperimentazioni compiute a Haiti e a Città del Messico. Più di duemila donne parteciparono agli esperimenti che si svolsero in questi tre Paesi. Fra di esse il tasso delle gravidanze indesiderate fu dell’1 per cento circa, rispetto a un tasso compreso fra il 30 e il 40 per cento riscontrato in altre forme di contraccezione. La sperimentazione clinica della contraccezione orale ebbe successo; il concetto, proposto da due donne più anziane che avevano visto gran parte dei disagi e delle sofferenze di una fertilità incontrollata, era realizzabile. Per una curiosa ironia, se questi esperimenti avessero avuto luogo nel Massachusetts, sarebbe stato illegale anche informare le pazienti sulle finalità dei test. Nel 1957 il farmaco Enovid ricevette una limitata approvazione da parte della Food and Drug Administration, come trattamento delle irregolarità nelle mestruazioni. Le forze della tradizione e dell’autorità prevalevano ancora; anche se si conoscevano bene le proprietà contraccettive della pillola, si credeva che difficilmente le donne avrebbero preso una pillola anticoncezionale al giorno, e che il costo relativamente elevato (pari a circa 10 dollari al mese) avrebbe esercitato una dissuasione efficace. Eppure, due anni dopo l’approvazione della FDA mezzo milione di donne prendevano l’Enovid per le loro «irregolarità mestruali». La G.D. Searle chiese infine l’approvazione dell’Enovid come contraccettivo orale, e la ottenne formalmente nel maggio 1960. Nel 1965 quasi quattro milioni di donne americane prendevano la pillola e vent’anni dopo si stimò che ben ottanta milioni di donne in tutto il mondo si affidassero alla molecola resa possibile dagli esperimenti di Marker con un igname messicano. La dose di dieci milligrammi usata nelle sperimentazioni sul campo (un altro punto delle critiche attuali agli esperimenti compiuti nel Portorico) fu ridotta ben presto a cinque milligrammi, e successivamente anche a due milligrammi e anche meno. Si trovò che combinando la progestina sintetica con una piccola percentuale di estrogeno se ne diminuivano gli effetti collaterali (acquisto di peso, nausea, emorragie e oscillazioni dell’umore).

Nel 1965 la molecola della Syntex, il noretindrone, attraverso le sue licenziatarie Parke-Davis e Ortho, una divisione della Johnson & Johnson, deteneva la quota maggiore del mercato dei contraccettivi. Perché non fu sviluppata una pillola maschile per il controllo delle nascite? Tanto Margaret Sanger – la cui madre morì di consunzione a cinquant’anni, dopo avere avuto undici figli e numerosi aborti – quanto Katherine McCormick svolsero ruoli cruciali nello sviluppo della pillola. Entrambe pensavano che dovesse essere la donna a esercitare il controllo sulla contraccezione. È dubbio se sarebbero state disposte a sostenere la ricerca per una pillola maschile. Se i primi pionieri dei contraccettivi orali avessero sintetizzato una molecola da far prendere agli uomini, forse oggi non mancherebbero critiche sul fatto che «furono i chimici maschi a sviluppare un metodo che permetteva all’uomo di esercitare il controllo sulla contraccezione». La difficoltà nel caso della contraccezione orale per gli uomini risiede nella biologia. Il noretindrone (e le altre progestine artificiali) imitano soltanto quel che il progesterone dice al corpo di fare: ossia smettere di ovulare. Ma gli uomini non hanno un ciclo ormonale. Impedire, su una base temporale, la produzione quotidiana di milioni di spermatozoi è molto più difficile che impedire lo sviluppo di un uovo una volta al mese. Tuttavia diverse molecole vengono attualmente investigate in vista dello sviluppo di possibili pillole maschili per il controllo delle nascite, in risposta al bisogno percepito di condividere in modo più equo la responsabilità della contraccezione fra i due sessi. Un approccio non ormonale implica la molecola gossipolo, il polifenolo tossico estratto dall’olio dei semi del cotone che abbiamo menzionato nel capitolo 7.

Gossipolo

Fra il 1970 e il 1980 esperimenti compiuti in Cina mostrarono che il gossipolo è efficace nel sopprimere la produzione di sperma, ma non mancavano problemi, come l’incertezza sulla reversibilità del processo e il fatto che la diminuzione dei livelli di potassio conduceva a irregolarità nel ritmo cardiaco. Esperimenti recenti compiuti sia in Cina sia in Brasile, usando dosi minori di gossipolo (da 10 a 12,5 mg al giorno), hanno indicato che questi effetti collaterali possono essere controllati. Per questa molecola è prevista una sperimentazione allargata.

Qualunque sviluppo possa verificarsi in futuro con l’introduzione di metodi nuovi e più efficaci di controllo delle nascite, pare improbabile che un’altra molecola contraccettiva possa cambiare la società nella stessa misura in cui l’ha cambiata la pillola. Questa molecola non ha guadagnato un’accettazione universale; problemi di moralità, di valori della famiglia, di effetti a lungo termine e altre preoccupazioni correlate sono ancora oggetto di discussione. Possono esserci però ben pochi dubbi sul fatto che il mutamento più importante determinato dalla pillola – il controllo della propria fertilità esercitato dalla donna – condusse a una rivoluzione sociale. Negli ultimi quarant’anni, in Paesi in cui il noretindrone e molecole simili divennero ampiamente disponibili, il tasso delle nascite è calato, e le donne hanno potuto conseguire maggiori livelli di istruzione, e sono entrate a far parte della forza lavoro in numero molto maggiore di quanto non fosse mai

accaduto in passato: in politica, nelle aziende e nel commercio, la presenza delle donne non è più un’eccezione. Il noretindrone era qualcosa di più di un farmaco per il controllo della fertilità. La sua introduzione segnò l’inizio di una consapevolezza, non solo della fertilità e della contraccezione, ma anche di aperture e di opportunità, permettendo alle donne di parlare di argomenti che erano stati tabù per secoli, come cancro alla mammella, violenza familiare, incesto, e di fare qualcosa in proposito. I cambiamenti di atteggiamento verificatisi in soli quarant’anni sono stupefacenti. Potendo scegliere liberamente se avere o no figli e famiglia, oggi le donne governano nazioni, pilotano caccia da combattimento, eseguono interventi chirurgici sul cuore, corrono maratone, diventano astronauti, dirigono aziende e compiono navigazioni intorno al mondo con imbarcazioni a vela.

12 LE MOLECOLE DELLA STREGONERIA

Dalla metà del Trecento fin verso la fine del Settecento, un gruppo di molecole contribuì alla sventura di centinaia di migliaia di persone. Non si potrà mai sapere esattamente quante persone, in quasi tutti i Paesi d’Europa, furono bruciate sul rogo, impiccate o torturate per stregoneria in tali secoli. Le stime oscillano fra quarantamila e milioni. Benché fra le persone accusate di stregoneria ci fossero anche uomini, bambini, aristocratici, contadini e membri del clero, il dito accusatore era puntato per lo più verso le donne, spesso povere e vecchie. Sono state proposte molte ragioni per spiegare come mai le donne siano state le vittime principali delle ondate di isteria e di delirio che per centinaia di anni minacciarono intere popolazioni. Noi ipotizziamo che certe molecole, pur non potendo essere considerate responsabili in modo esclusivo di secoli di discriminazione, possano avere svolto un ruolo sostanziale in questa persecuzione delle donne. La credenza nella stregoneria e nella magia è sempre esistita nella società umana, da molto tempo prima che cominciasse la caccia alle streghe alla fine del Medioevo. Statuine paleolitiche in pietra di figure femminili sarebbero state venerate per le loro proprietà magiche di propiziare la fecondità. Leggende di tutte le civiltà antiche contengono molti elementi soprannaturali: divinità che assumono forma umana, mostri, dee che lanciano incantesimi, maghi, spettri, folletti, fantasmi, creature spaventose che erano per metà animali e per metà esseri umani, spiriti, e dèi che vivevano in cielo, nelle foreste, nei laghi, in mare e sottoterra. Non fece certo eccezione l’Europa precristiana, un mondo pieno di magie e di credenze superstiziose. Quando il cristianesimo si diffuse in Europa, furono incorporati nei rituali e nelle celebrazioni della Chiesa molti antichi simboli e feste pagani. Oggi noi celebriamo come Halloween la grande festa celtica dei morti che segnava l’inizio dell’inverno il 31 ottobre, anche se la festa di Ognissanti, il 1º

novembre, fu il tentativo della Chiesa di sviare l’attenzione dalle feste pagane. La vigilia di Natale era in origine la festa romana dei Saturnali. L’albero di Natale e molti altri simboli (l’agrifoglio, l’edera, le candele), che noi oggi associamo a questa festività, hanno un’origine pagana.

Fatica e sofferenze Prima del 1350 la stregoneria era considerata un modo illecito per cercare di controllare la natura nel proprio interesse. Erano comuni formule magiche, che si pensava potessero proteggere raccolti o persone, incantesimi per influire sul corso degli eventi o per procurarsi vantaggi, e l’invocazione degli spiriti. Nella maggior parte dell’Europa la stregoneria era una parte accettata della vita, e la magia era considerata un crimine solo se ne derivava un danno per qualcuno. Le vittime di malefici, realizzati invocando poteri occulti, potevano citare in giudizio una strega, ma se non riuscivano a dimostrare la fondatezza delle loro accuse erano passibili a loro volta di condanna e al pagamento delle spese giudiziarie. Con questo metodo si scoraggiavano le accuse infondate. Raramente le streghe venivano condannate a morte. La stregoneria non era né una religione organizzata né un’opposizione organizzata alla religione. Non era nemmeno organizzata. Era solo parte del folklore. Attorno alla metà del Trecento si fece strada però un nuovo atteggiamento verso la stregoneria. Il cristianesimo non si opponeva alla magia, purché fosse approvata dalla Chiesa e nota come un’azione miracolosa. La magia esercitata fuori della Chiesa era invece considerata opera di Satana. Le streghe erano in combutta col diavolo. L’Inquisizione, un tribunale della Chiesa cattolica romana istituito intorno al 1233 per occuparsi degli eretici – principalmente nel Sud della Francia –, ampliò il proprio mandato per occuparsi della stregoneria. Qualche autore ha suggerito che, una volta virtualmente eliminati gli eretici, l’Inquisizione, avendo bisogno di nuove vittime, abbia rivolto la sua attenzione alla stregoneria. Il numero delle potenziali streghe in tutt’Europa era grande, ed era quindi considerevole la potenziale fonte di reddito per gli inquisitori, che dividevano con le autorità locali le proprietà e le risorse confiscate ai condannati. Ben presto si

accusarono le streghe non di compiere azioni illecite bensì di avere contratto un patto col demonio. Questo crimine era considerato così orrendo che, alla metà del Quattrocento, ai processi per stregoneria non si applicavano più le leggi ordinarie. Una semplice accusa veniva considerata una prova. La tortura non era solo permessa, ma praticata normalmente; una confessione fatta senza tortura era considerata inattendibile: un’opinione che oggi ci sembra piuttosto strana. Le azioni attribuite alle streghe – rituali orgiastici, rapporti sessuali con demoni, volo su manici di scopa, assassinio di neonati, la pratica di mangiare bambini – erano per lo più inimmaginabili, ciononostante tutti erano assolutamente convinti che fossero reali; il 90 per cento delle persone accusate di stregoneria erano donne, e i loro accusatori potevano essere tanto donne quanto uomini. Oggi si discute ancora se quella cosiddetta caccia alle streghe rivelasse una sottostante paranoia contro le donne e la sessualità femminile. Quando si verificava un disastro naturale – un’inondazione, un periodo di siccità, un cattivo raccolto – c’erano sempre persone pronte a testimoniare che una qualche povera donna o, più probabilmente, più donne erano state viste folleggiare insieme a demoni al sabba (un raduno di streghe) o a volare sulle campagne avendo al loro fianco un demone familiare (uno spirito malevolo in forma animale, come un gatto). Questa ossessione colpì similmente Paesi cattolici e protestanti. Al culmine della paranoia della caccia alle streghe, dal 1500 circa al 1650, in qualche villaggio svizzero non rimasero quasi più donne vive. In certe regioni della Germania c’erano piccoli villaggi in cui l’intera popolazione fu bruciata sul rogo. In Inghilterra e in Olanda la caccia alle streghe non assunse mai le dimensioni comuni in altre parti d’Europa. La legge inglese non ammetteva la tortura, anche se le donne sospettate di stregoneria erano sottoposte alla prova dell’acqua. Una vera strega, legata e gettata in uno stagno, galleggiava, cosicché poteva essere recuperata e punita in modo appropriato, con l’impiccagione. Se invece l’accusata affondava e affogava, era considerata innocente dell’accusa di stregoneria: un conforto per la famiglia, che però era di scarsa utilità per la vittima stessa. Il terrore della caccia alle streghe si attenuò solo lentamente, ma, dato il gran numero delle persone coinvolte, ne fu minacciato il benessere economico. Col declino del feudalesimo e l’albeggiare dell’Illuminismo,

quando si fecero sentire con maggior forza le voci di uomini e donne coraggiosi che rischiavano la forca e il rogo per opporsi alla follia, il delirio che per secoli aveva flagellato l’Europa cominciò gradualmente a sopirsi. In Olanda l’ultima esecuzione di una strega ebbe luogo nel 1610 e in Inghilterra nel 1685. Le ultime streghe giustiziate in Scandinavia – ottantacinque vecchie bruciate sul rogo nel 1699 – furono condannate esclusivamente prestando fede alle dichiarazioni di bambini piccoli che sostenevano di essere stati portati in volo dalle streghe al sabba.

Questa piastrella olandese (dell’inizio del Settecento) proveniente da Delft illustra un momento di un processo alle streghe. La donna a destra, di cui sono visibili solo le gambe fuori dell’acqua, sta affondando e sarà proclamata innocente. A sinistra si può invece vedere la mano di Satana che regge l’altra donna con la parte superiore del corpo fuor d’acqua. Dimostrata così la sua colpevolezza, la donna potrà ora essere bruciata viva sul rogo. (Per gentile concessione della Horvath Collection, Vancouver)

Nel Settecento ebbero termine ufficialmente le condanne a morte per

stregoneria: per la Scozia nel 1727, per la Francia nel 1745, per la Germania nel 1775, per la Svizzera nel 1782 e per la Polonia nel 1793. Ma benché la Chiesa e lo Stato non condannassero più a morte le streghe, l’opinione pubblica era meno pronta ad abbandonare i timori e l’avversione per la stregoneria concepiti durante secoli di persecuzioni. Nelle comunità rurali più isolate dominavano ancora vecchie credenze, e più di una donna sospettata di stregoneria andò incontro a una sorte molto sgradevole, anche se non ufficiale. L’uso e la prescrizione di erbe medicinali devono essere stati allora – come lo sono ancora oggi – un’attività non priva di rischi. Le varie parti di una pianta contengono livelli diversi di composti efficaci; piante raccolte in vari luoghi possono avere un’efficacia terapeutica differente; e nelle diverse stagioni può variare la quantità di una pianta necessaria per preparare una dose appropriata. Molte piante contenute in un elisir possono produrre scarsi benefìci, mentre altre possono contenere princìpi attivi che possono essere da estremamente efficaci a mortalmente velenosi. Le molecole contenute in tali piante potevano accrescere la reputazione di un erborista come mago, mentre proprio il successo di tali molecole poteva prospettarsi come un mortale pericolo per le sue colleghe. Proprio le donne più brave nella terapia con le erbe potevano essere infatti le prime a essere bollate come streghe.

Erbe curative, erbe dannose L’acido salicilico tratto dai salici e dalla olmaria (Filipendula ulmaria), bella pianta delle rosacee comune nei luoghi umidi di gran parte d’Europa, era noto già vari secoli prima che la Bayer commercializzasse l’Aspirina nel 1889 (vedi il cap. 10). La radice dell’appio, il sedano selvatico, era prescritta per prevenire crampi muscolari; si credeva che il prezzemolo potesse procurare l’aborto; e si usava l’edera per alleviare i sintomi dell’asma. La digitale, estratta dalla Digitalis purpurea, contiene molecole che, come si sa da molto tempo, hanno un effetto potente sul cuore: i glucosidi cardiocinetici. Queste molecole riducono la frequenza del polso, regolarizzano il ritmo cardiaco e rafforzano il battito del cuore: una combinazione potente in mani inesperte. (Anche questi glucosidi sono saponine, molto simili a quelle che si trovano

nelle piante di salsapariglia e nell’igname selvatico messicano, da cui fu sintetizzato il noretindrone della pillola per il controllo delle nascite; vedi il cap. 11.) Un esempio di un glucoside cardiocinetico è la molecola digossina, uno dei farmaci più prescritti negli Stati Uniti e buon esempio di un prodotto farmaceutico fondato sulla medicina popolare. Nel 1795 un medico britannico di nome William Withering, dopo avere sentito parlare delle virtù curative della pianta, usò estratti di digitale purpurea per trattare l’insufficienza cardiaca congestizia. Passò però ben più di un secolo prima che i chimici fossero in grado di isolare le molecole responsabili.

La struttura della molecola di digossina. Le tre unità di zuccheri sono diverse da quelle contenute nella salsapariglia o nelle piante di igname messicano. La molecola di digitossina è priva del gruppo OH indicato dalla freccia sul sistema steroideo ad anelli.

Nell’estratto della digitale purpurea ci sono altre molecole molto simili alla digossina; per esempio, la molecola di digitossina, che si differenzia solo per la mancanza del gruppo OH indicato dalla freccia nel disegno della struttura qui sopra. Molecole simili di glucosidi cardiocinetici si trovano in altre piante, appartenenti di solito alle famiglie delle liliacee e delle ranuncolacee, ma la digitale purpurea è ancora oggi la fonte principale del farmaco. Gli

erboristi avevano ben poca difficoltà a trovare piante cardiotoniche nei loro giardini e nei prati locali. Nell’antichità egizi e romani usavano un estratto della gigliacea scilla marittima o cipolla marittima, affine al giacinto, come cardiotonico e, in dosi maggiori, come veleno per topi. Oggi sappiamo che la scilla marittima contiene anche una molecola diversa di glucoside cardiocinetico. Queste molecole hanno tutte una medesima struttura, che è perciò probabilmente responsabile dell’effetto cardiocinetico. Tutte hanno un anello lattonico pentatomico legato all’estremo del sistema steroideo e un gruppo OH extra compreso fra gli anelli C e D del sistema steroideo, come si vede qui sotto:

La parte della molecola di digossina non comprendente le tre unità di zuccheri, nella quale sono indicati con frecce l’OH che influisce sull’attività cardiaca e l’anello lattonico. Questo anello lattonico si trova anche nella molecola di acido ascorbico (vitamina C).

Molecole capaci di influire sulla funzione cardiaca non si trovano solo nelle piante. Composti tossici simili per struttura ai glucosidi cardiocinetici si trovano negli animali. Queste molecole non contengono zuccheri, né vengono usate come cardiostimolanti; sono piuttosto veleni convulsivanti e di scarso valore medico. Essi si trovano in certe specie di anfibi; estratti da rane e rospi sono stati usati come veleni per frecce in molte parti del mondo. Cosa interessante, il rospo è, dopo il gatto, l’animale che il folklore associa più comunemente alle streghe come uno spirito familiare. Si diceva che molte pozioni preparate dalle cosiddette streghe contenessero parti di rospi. La molecola bufotossina è il componente attivo del veleno del rospo comune europeo, il Bufo vulgaris, ed è una delle molecole più tossiche che si

conoscano. La sua struttura presenta nel sistema steroideo ad anelli una somiglianza sorprendente con la molecola della digitossina, con lo stesso OH extra compreso fra l’anello C e l’anello D e con un anello lattonico a sei atomi anziché a cinque.

La bufotossina del rospo comune è strutturalmente simile alla digitossina della digitale purpurea, intorno alla porzione steroidea della molecola.

La bufotossina è però un veleno per il cuore più che un cardiotonico. Fra i glucosidi cardiocinetici della digitale e i veleni del rospo, le presunte streghe dovevano avere accesso a un potente arsenale di composti tossici. Oltre alla loro predilezione per i rospi, le streghe, secondo uno dei miti più diffusi, avevano la capacità di volare, spesso su manici di scopa, come quando si recavano al sabba, un convegno di mezzanotte, presumibilmente una parodia orgiastica della messa cristiana. Molte donne accusate di stregoneria confessarono, sotto tortura, di essersi recate in volo a tali sabba. La cosa non può sorprenderci più di tanto: anche noi faremmo probabilmente una tale confessione se fossimo sottoposti alle stesse orrende sofferenze perpetrate nella ricerca della verità. La cosa sorprendente è che varie donne accusate di stregoneria confessarono prima della tortura di essersi recate a un sabba volando a cavalcioni di un manico di scopa. Poiché una tale confessione non sarebbe probabilmente servita loro a sottrarsi alla tortura, può darsi che fossero davvero convinte di avere volato su un manico di scopa e di essersi concesse ogni sorta di perversione sessuale. Potrebbe esserci un’ottima spiegazione chimica della loro convinzione: un gruppo di composti noti come alcaloidi.

Gli alcaloidi sono composti vegetali che hanno uno o più atomi di azoto, di solito come parte di un anello di atomi di carbonio. Ci siamo già imbattuti in alcune molecole di alcaloidi: la piperina nel pepe, la capsaicina nel peperoncino rosso piccante, l’indaco, la penicillina e l’acido folico. Si può affermare che, come gruppo, gli alcaloidi abbiano avuto sul corso della storia umana un effetto maggiore di quello di qualsiasi altra famiglia di composti chimici. Negli esseri umani sono spesso fisiologicamente attivi degli alcaloidi, che di solito influiscono sul sistema nervoso centrale, e sono in generale altamente tossici. Alcuni di questi composti naturali sono stati usati come medicine per migliaia di anni. I derivati prodotti a partire da tali alcaloidi formano la base di vari nostri moderni prodotti farmaceutici, come l’analgesico codeina, l’anestetico locale benzocaina e l’agente antimalarico clorochina. Abbiamo già menzionato il ruolo che certe sostanze chimiche svolgono nella protezione delle piante. Le piante non possono sottrarsi ai pericoli con la fuga, così come non possono nascondersi all’arrivo di un predatore; e anche mezzi fisici di protezione, come le spine, non sempre dissuadono gli erbivori decisi a cibarsene. Le sostanze chimiche sono una forma di protezione passiva ma molto efficace nei confronti non solo di animali, ma anche di funghi, batteri e virus. Gli alcaloidi sono fungicidi, insetticidi e antiparassitari naturali. È stato stimato che ognuno di noi ingerisce, in media, un grammo circa di antiparassitari naturali al giorno, traendoli dalle piante e dai prodotti vegetali compresi nella nostra dieta. La stima dei residui di antiparassitari sintetici che assumiamo ogni giorno col cibo è di contro di soli 0,15 milligrammi: circa 10.000 volte meno della dose naturale! Gli effetti fisiologici di alcaloidi presi in piccole quantità sono spesso ben accetti agli esseri umani. Molti di essi sono usati in medicina da secoli. L’acrecaidina, un alcaloide che si trova nelle noci di betel, prodotte dalla palma Areca catechu, ha una lunga storia come stimolante in Africa e in Oriente. Le noci di betel schiacciate vengono avvolte nelle foglie della palma e masticate. Coloro che usano il betel sono facilmente riconoscibili dai caratteristici denti anneriti e dall’abitudine di sputare copiosi getti di saliva di colore rosso scuro. L’efedrina, tratta dall’Ephedra sinica, nota anche come pianta ma huang, è stata usata nella medicina cinese tradizionale per migliaia di anni e oggi è usata in Occidente come decongestionante e broncodilatatore.

I membri della famiglia della vitamina B, come la tiamina (B1), la riboflavina (B2) e la niacina (B4), sono classificati tutti come alcaloidi. La reserpina, usata nel trattamento dell’ipertensione e come tranquillante, viene isolata dalla pianta indiana Rauwolfia serpentina. La sola tossicità è stata sufficiente ad assicurare la fama ad alcuni alcaloidi. Il componente velenoso della pianta della cicuta maggiore (Conium maculatum), responsabile della morte di Socrate, avvenuta nel 399 a.C., è l’alcaloide coniina. Socrate, giudicato colpevole di irreligione e di corruzione dei giovani ateniesi, fu condannato a morire bevendo una pozione preparata con frutti e semi di cicuta maggiore. La coniina è uno fra gli alcaloidi dalla struttura più semplice, ma come veleno può essere altrettanto letale di strutture alcaloidi più complicate, come quella della stricnina, estratta dai semi dell’albero asiatico Strychnos nux-vomica.

Le strutture della coniina (a sinistra) e della stricnina (a destra).

Nei loro «unguenti per volare» – preparati che avrebbero dovuto facilitare il volo – le streghe includevano spesso estratti di mandragora, di belladonna e di giusquiamo. Tutte queste piante appartengono alla famiglia delle solanacee. La Mandragora officinarum, con la sua radice ramificata che secondo alcuni assomiglierebbe alla figura umana, è nativa della regione mediterranea. Essa è stata usata fin dall’antichità per restituire vigore sessuale e anche come sonnifero. Intorno a questa pianta ci sono molte curiose leggende. Si diceva che quando veniva estratta dal suolo emettesse grida. Chiunque si trovasse nelle vicinanze era in pericolo sia per l’odore associato alla pianta sia per il suo grido sinistro. La diffusione di questa credenza è

attestata anche dalla tragedia di Shakespeare Romeo e Giulietta, là dove Giulietta dice: «in mezzo a sozzi odori e a strilli come quelli della mandragora strappata dalla terra, che fanno diventar pazzi i mortali che li odono».3 Correva voce che la pianta della mandragora crescesse sotto una forca, scaturendo alla vita dal seme perduto dai condannati che vi venivano impiccati. La seconda pianta usata negli unguenti per volare era la belladonna (Atropa belladonna). Il nome verrebbe dall’uso, comune fra le donne in Italia, di versarsi negli occhi gocce di succo ottenuto schiacciandone le bacche nere. Si pensava che la dilatazione delle pupille che ne risultava accrescesse la loro bellezza: di qui il nome italiano di belladonna. Quantità maggiori di questo alcaloide assunto per vie interne avrebbero indotto un sonno simile alla morte. È probabile che anche questa diceria fosse ben nota e che proprio questa fosse la pozione bevuta da Giulietta. Shakespeare scrisse (in Romeo e Giulietta): «subito ti correrà per tutte le vene un fluido freddo che addormenterà in te la vita, poiché il polso non conserverà più il suo movimento regolare, ma cesserà di battere»; ma infine «sotto questa temporanea sembianza di morte tu resterai per quarantadue ore, e quindi ti desterai come da un placido sonno».4 Il terzo membro di questa famiglia, il giusquiamo, era probabilmente lo Hyosciamus niger, anche se non fu forse l’unica specie di questo genere a essere usata nelle pozioni di streghe. Il giusquiamo ha una lunga storia come sonnifero, analgesico (specialmente contro il mal di denti), anestetico e forse anche come veleno. Pare che anche le proprietà del giusquiamo siano state ben note: ancora una volta Shakespeare stava solo rispecchiando le conoscenze comuni del suo tempo quando il fantasma del padre di Amleto gli dice che «tuo zio s’insinuò, col sugo del maledetto tasso in una fiala (with juice of cursed hebona in a vial), e nelle conche de’ miei orecchi versò quella lebbrosa distillazione».5 La parola hebona è stata riferita sia agli alberi del tasso e dell’ebano sia anche al giusquiamo, ma da un punto di vista chimico noi pensiamo che il giusquiamo sia la possibilità più plausibile. La mandragora, la belladonna e il giusquiamo contengono tutti un certo numero di alcaloidi molto simili. I due principali – la iosciammina e la ioscina – si trovano in tutt’e tre le piante in proporzioni variabili. Una forma di iosciammina è nota come atropina ed è usata ancora oggi, in soluzioni

molto diluite, per dilatare la pupilla in esami oftalmici. Grandi concentrazioni di atropina producono visione confusa, agitazione e persino delirio. Uno dei primi sintomi dell’avvelenamento da atropina è l’inibizione delle secrezioni di alcune ghiandole. Si utilizza questa sua proprietà, per esempio, nei casi in cui una secrezione eccessiva di saliva o di muco potrebbe interferire con l’esecuzione di interventi chirurgici. Quanto alla ioscina, nota anche come scopolammina, si è fatta una reputazione probabilmente immeritata di siero della verità.

Atropina derivata dalla iosciammina

Scopolammina (ioscina)

La scopolammina, combinata con la morfina, è l’anestetico noto come «sonno crepuscolare», mentre non è noto se sotto il suo effetto si dica la verità o semplicemente si cianci a vanvera. Tuttavia gli autori di romanzi gialli hanno sempre amato l’idea che la scopolammina sia una sorta di siero della verità, ed essa continuerà probabilmente a essere citata come tale. La scopolammina, come l’atropina, inibisce la secrezione di talune ghiandole e può produrre euforia. In piccole quantità combatte il mal d’auto o il mal di mare. I cosmonauti russi la usano per combattere i sintomi della sindrome da movimento nello spazio. Per quanto strano possa sembrare, il composto velenoso atropina funge da antidoto per vari composti ancora più tossici. Gas nervini come il sarin – liberato da terroristi nella metropolitana di Tokyo nell’aprile del 1995 – e insetticidi fosforganici, come il parathion, operano prevenendo la normale rimozione di una molecola messaggera che trasmette un segnale attraverso una giunzione nervosa (sinapsi). Quando questa molecola messaggera non viene rimossa, le terminazioni nervose sono continuamente stimolate, cosa che conduce a convulsioni e, se sono interessati il cuore o i polmoni, alla morte. L’atropina blocca la produzione di questa molecola messaggera,

cosicché, se viene fornita nella dose giusta, è un rimedio efficace contro il sarin o contro il parathion. Quel che sappiamo sui due alcaloidi atropina e scopolammina, e che sapevano ovviamente le streghe di tutt’Europa, è che nessuno dei due è particolarmente solubile in acqua. Esse sapevano inoltre con ogni probabilità che l’assunzione orale di questi composti poteva condurre alla morte più che alle sensazioni di euforia e di ebbrezza desiderate. Perciò estratti di mandragora, di belladonna e di giusquiamo venivano sciolti in grassi o in oli e poi applicati sulla pelle. L’assorbimento attraverso la pelle è oggi un metodo normale di assunzione di certi farmaci. Il cerotto di nicotina per chi cerca di smettere di fumare, alcuni rimedi contro la sindrome da movimento e talune terapie di sostituzione ormonale usano questa via. Come mostra la documentazione sugli unguenti per volare delle streghe, questa tecnica era nota già vari secoli fa. Oggi sappiamo che l’assorbimento più efficiente si verifica là dove la pelle è più sottile e i vasi sanguigni sono subito sotto la superficie; perciò per assicurare un rapido assorbimento di medicinali si usano suppositori vaginali e rettali (candelette vaginali e supposte). Le streghe devono essere state al corrente anche di questo aspetto anatomico; troviamo scritto, infatti, che gli unguenti per volare venivano spalmati su tutto il corpo o sfregati sotto le ascelle o, come si aggiunge con un certo ritegno, «in altri luoghi pelosi». Alcune relazioni dicono che le streghe applicavano il grasso sul lungo manico di una scopa e, sedendo a cavalcioni su di essa, sfregavano il miscuglio contenente atropina e scopolammina sulle mucose genitali. Le connotazioni sessuali di questi documenti sono evidenti, così come le incisioni più antiche di streghe nude o parzialmente vestite montate a cavallo di manici di scopa, che si applicano unguenti e ballano intorno a calderoni. La spiegazione chimica, ovviamente, è che le presunte streghe non andavano affatto al sabba e tanto meno volando su manici di scope. I voli erano solo illusioni create dagli alcaloidi allucinogeni. Le moderne spiegazioni sugli stati allucinatori indotti dalla scopolammina e dall’atropina sono notevolmente simili alle avventure di mezzanotte delle streghe: la sensazione di volare o di cadere, la visione deformata, l’euforia, l’isteria, una sensazione di uscire dal corpo, di un turbinio nella realtà circostante, e incontri con bestie. La fase finale del processo è un sonno profondo, quasi simile al coma.

Non è difficile immaginare come, in un’epoca impregnata di magia e di superstizione, chi usava unguenti «per il volo» potesse credere davvero di avere volato nel buio notturno e di avere preso parte a danze sfrenate e a crapule ancora più smodate. Le allucinazioni da atropina e scopolammina sono state descritte come particolarmente vivide. Una strega non aveva ragione di credere che gli effetti del suo unguento fossero solo nella sua mente. Non è difficile neppure immaginare in che modo la conoscenza di questo mirabile segreto venisse trasmessa, ed esso dev’essere stato considerato un segreto meraviglioso. A quel tempo la vita per la maggior parte delle donne era dura. Il lavoro non finiva mai, malattia e povertà erano sempre presenti, e che una donna potesse esercitare un controllo sul proprio destino era una cosa inaudita. Qualche ora di libertà, il volo notturno verso un raduno di tregenda dove si potevano esprimere le proprie fantasie sessuali, e poi il risveglio nel proprio letto devono essere stati una grande tentazione. Purtroppo, però, la fuga temporanea dalla realtà creata dalle molecole di atropina e di scopolammina si rivelò spesso fatale, quando furono bruciate sul rogo donne accusate di stregoneria che confessavano di avere compiuto tali imprese notturne solo immaginate. Insieme alla mandragora, alla belladonna e al giusquiamo, altre piante furono incluse negli unguenti per volare: nelle narrazioni storiche sono elencate la digitale purpurea, il prezzemolo, l’aconito, la cicuta e lo stramonio. Ci sono alcaloidi tossici nell’aconito e nella cicuta, glucosidi tossici nella digitale purpurea, miristicina allucinogena nel prezzemolo e atropina e scopolammina nello stramonio. Lo stramonio (Datura stramonium) appartiene a un genere di cui fanno parte una quindicina di specie, fra cui la D. suaveolens e la D. arborea. Oggi diffusamente distribuite nelle parti più calde del mondo, le specie di Datura fornirono alcaloidi alle streghe in Europa, nonché per riti di iniziazione e per altre occasioni cerimoniali in Asia e nelle Americhe. Il folklore associato all’uso della Datura in questi Paesi rivela allucinazioni implicanti animali: un aspetto molto comune dei voli delle streghe. In talune parti dell’Asia e dell’Africa i semi di Datura vengono inclusi in miscugli da fumare. L’assunzione nel circolo sanguigno attraverso i polmoni è un metodo molto rapido per sentire l’effetto di un alcaloide, come scoprirono in seguito i fumatori di tabacco europei nel Cinquecento. Casi di avvelenamento da atropina sono riferiti tuttora, dato che c’è ancora chi cerca di scoprire sensazioni nuove usando

fiori, foglie o semi di Datura. Un certo numero di piante della famiglia della belladonna furono introdotte in Europa dal Nuovo Mondo subito dopo i viaggi di Colombo. Alcune contenenti alcaloidi – il tabacco (Nicotiana) e i peperoni (Capsicum) – furono accettate subito, mentre non fu così, sorprendentemente, per altri membri della famiglia – come i pomodori e le patate – che all’inizio furono considerati con grande sospetto. Altri alcaloidi chimicamente simili all’atropina si trovano nelle foglie di varie specie di Erythroxylon, native di varie parti del Sudamerica, a cui appartiene l’albero della coca (E. coca). Questo non appartiene alla famiglia delle solanacee: un caso insolito, dato che sostanze chimiche affini si trovano di solito in specie imparentate fra loro. Storicamente le piante furono però classificate sulla base di criteri morfologici. Le revisioni delle classificazioni oggi in corso prendono però in considerazione i componenti chimici e le prove del DNA.

Cocaina Atropina

Il principale alcaloide nell’albero della coca è la cocaina. Le foglie di coca sono state usate come stimolante per centinaia di anni negli altipiani del Perù, dell’Ecuador e della Bolivia. Esse vengono mescolate con una pasta di calce e cenere in un bolo che, tenuto poi fra la gengiva e la guancia, libera lentamente gli alcaloidi, che aiutano a combattere la fatica, la fame e la sete. Si è stimato che la quantità di cocaina assunta in questo modo sia meno di mezzo grammo al giorno, una quantità che non causa dipendenza. Tale metodo tradizionale di usare l’alcaloide coca è simile al nostro uso dell’alcaloide caffeina nel caffè e nel tè. Ben diversa è la situazione di chi consuma la cocaina estratta e purificata.

La cocaina, isolata fra il 1880 e il 1890, fu considerata un farmaco miracoloso. Essa aveva proprietà anestetiche locali sorprendentemente efficaci. Il padre della psicoanalisi Sigmund Freud la considerò una panacea medica e la prescrisse per le sue proprietà stimolanti.6 La usò inoltre come terapia contro la dipendenza da morfina. Ben presto divenne chiaro però che anche la cocaina causava una dipendenza non minore di quella di qualsiasi altra sostanza nota. Essa produce un’euforia rapida ed estrema, seguita da una depressione ugualmente estrema, che lascia nel tossicomane il desiderio fortissimo di un altro stato di euforia. Sono ben note le conseguenze disastrose dell’abuso di cocaina sulla salute e sulla società umana. La struttura della cocaina è comunque alla base di varie molecole estremamente utili, sviluppate come anestetici topici e locali. La benzocaina, la novocaina e la lidocaina sono composti che imitano l’azione analgesica della cocaina bloccando la trasmissione degli impulsi nervosi, senza però stimolare il sistema nervoso o modificare il ritmo cardiaco. Molti di noi hanno sperimentato con gratitudine l’effetto ottundente di questi composti, sulla poltrona del dentista o nel pronto soccorso di un ospedale.

Gli alcaloidi della segale cornuta Un altro gruppo di alcaloidi dalla struttura del tutto diversa fu probabilmente responsabile, anche se in modo indiretto, di condanne al rogo di migliaia di streghe in Europa. Questi composti non furono però usati in unguenti allucinogeni. Gli effetti di alcune molecole di alcaloidi appartenenti a questo gruppo possono essere così devastanti che intere comunità, afflitte da orrende sofferenze, supposero che la catastrofe fosse la conseguenza di un maleficio lanciato da streghe locali. Questo gruppo di alcaloidi si trova nel fungo Claviceps purpurea (noto anche col nome francese di ergot), che infetta molti cereali ma specialmente la segale. L’ergotismo, o avvelenamento da segale cornuta (il nome deriva dagli sclerozi in forma di piccole corna sviluppati dal fungo), è stato fino a pochissimo tempo fa il massimo killer microbico dopo batteri e virus. Uno degli alcaloidi di questo gruppo, l’ergotammina, causa la costrizione dei vasi sanguigni; un altro, l’ergonovina, induce aborti spontanei negli umani e nei bovini; altri ancora causano disturbi neurologici. I sintomi

dell’ergotismo variano a seconda della quantità dei vari alcaloidi presenti, ma possono comprendere convulsioni, diarrea, letargo, comportamenti maniacali, allucinazioni, vomito, spasmi muscolari, formicolio sulla pelle, intorpidimento delle mani e dei piedi, e una sensazione di bruciore che diventa estremamente dolorosa quando si instaura una cancrena da ristagno della circolazione. Nel Medioevo questa malattia era nota con molti nomi: fuoco sacro, fuoco di sant’Antonio, fuoco occulto e ballo di san Vito. Il ricorrere della parola fuoco si riferisce al terribile bruciore e alle estremità annerite a causa del progresso della cancrena. Spesso i malati perdevano le mani, i piedi o i genitali. A sant’Antonio si attribuivano speciali poteri contro il fuoco, l’infezione e l’epilessia, cosa che faceva di lui il santo ideale a cui appellarsi per avere sollievo dai sintomi dell’ergotismo. Quanto all’espressione «ballo di san Vito» si riferiva agli spasmi muscolari e alle convulsioni dovuti agli effetti neurologici di alcuni degli alcaloidi della segale cornuta. Non è difficile immaginare una situazione in cui un gran numero di abitanti di un villaggio o di una cittadina era colpito dall’ergotismo. Un periodo particolarmente piovoso subito prima di un raccolto poteva favorire la crescita del fungo sulla segale; se poi questa veniva immagazzinata in modo negligente, in condizioni di umidità, la crescita del fungo ne veniva ulteriormente facilitata. Per causare l’avvelenamento da ergotismo, poi, basta solo una presenza percentualmente molto piccola del fungo nella farina. E quando un numero sempre maggiore di abitanti manifestavano i temuti sintomi, la gente cominciava a domandarsi perché proprio la sua comunità fosse stata scelta per essere colpita da quel disastro, tanto più quando cittadine vicine ne erano state risparmiate. Poteva allora sembrare del tutto plausibile che il proprio villaggio fosse stato oggetto di un maleficio. Come in molti disastri naturali, la colpa veniva spesso attribuita a una vecchia innocente, una donna che da tempo non poteva più avere figli e che non poteva contare sul sostegno di familiari. Spesso tali donne vivevano ai margini della comunità, procurandosi i loro modesti mezzi di sostentamento grazie alla conoscenza delle erbe, e non avevano nemmeno il poco denaro sufficiente per comprare farina dal mugnaio in città. Questo livello di povertà poteva salvarle dall’ergotismo ma, curiosamente, essendo fra i pochi risparmiati dai veleni della segale cornuta, erano ancora più esposte all’accusa di stregoneria.

L’ergotismo è noto da moltissimo tempo. La sua causa si trova accennata già intorno al 600 a.C., quando gli assiri notarono «un’escrescenza nociva nella spiga». Intorno al 400 a.C. in Persia fu annotato che gli alcaloidi causati da queste «erbe nocive» possono causare aborti nei bovini domestici. In Europa, pare che nel Medioevo ci si fosse dimenticati che la causa della malattia potesse essere la presenza di quel fungo o muffa sulla spiga dei cereali, sempre che lo si fosse saputo. Negli inverni umidi e nelle condizioni di immagazzinamento non appropriate, la muffa e il fungo prosperavano. Di fronte allo spettro della fame, si preferiva usare il cereale infetto piuttosto che gettarlo via. La prima diffusione documentata dell’ergotismo in Europa risale all’857 d.C., sulla riva tedesca del Reno. Relazioni documentate di quarantamila decessi in Francia nel 994 sono messe oggi in relazione all’ergotismo, così come quelle di altre dodicimila vittime nel 1129. Manifestazioni periodiche della malattia si ripresentarono in tutti i secoli e continuarono fino al XX secolo. Nel 1926-1927 furono affette da ergotismo più di undicimila persone, in un’area della Russia vicino agli Urali. Duecento casi furono riferiti in Inghilterra nel 1927. In Provenza, nel 1951, quattro persone morirono di ergotismo e altre centinaia si ammalarono dopo che della segale infetta era stata macinata e la farina venduta a un fornaio, nonostante che l’agricoltore, il mugnaio e il fornaio fossero presumibilmente consapevoli del problema. Ci sono almeno quattro occasioni in cui gli alcaloidi della segale cornuta avrebbero svolto un ruolo importante nella storia. Durante una campagna in Gallia, nel I secolo a.C., un’epidemia di ergotismo fra le legioni di Cesare causò grandi sofferenze, riducendo l’efficienza del suo esercito e forse limitando le sue ambizioni di ampliare l’Impero romano. Nell’estate del 1722 i cosacchi di Pietro il Grande si accamparono ad Astrakhan, alla foce del Volga sul mar Caspio. Tanto i soldati quanto i loro cavalli mangiarono segale contaminata. L’epidemia di ergotismo che ne risultò avrebbe ucciso ventimila soldati e indebolito a tal punto l’esercito russo che Pietro il Grande dovette rinunciare alla progettata campagna contro i turchi. L’obiettivo della Russia di procurarsi un porto meridionale sul mar Nero fu frustrato dagli alcaloidi della segale cornuta. In Francia, nel luglio del 1789, migliaia di contadini insorsero contro i ricchi proprietari terrieri. Ci sono prove che quest’episodio, chiamato La Grande Peur (la grande paura), sia stato qualcosa di più di una semplice

turbolenza civile associata alla Rivoluzione francese. I documenti storici attribuiscono la furia distruttiva a un accesso di follia della popolazione contadina, e citano come possibile causa della «farina cattiva». La primavera e l’estate del 1789, nella Francia settentrionale, erano state anormalmente umide e calde, condizioni perfette per la crescita del fungo della segale cornuta. L’ergotismo, molto più diffuso fra i poveri, che mangiavano per necessità il pane ammuffito, fu un fattore chiave nella Rivoluzione francese? Un’epidemia di ergotismo scoppiò anche nell’Armata di Russia di Napoleone, mentre percorreva le pianure russe nell’autunno del 1812. Come si può quindi escludere che gli alcaloidi della segale cornuta, insieme ai bottoni di stagno dell’uniforme dei soldati di Napoleone, condividano una qualche responsabilità per il crollo della Grande Armata in ritirata da Mosca? Vari esperti hanno concluso che un avvelenamento provocato dagli alcaloidi della segale cornuta potrebbe essere stato in definitiva all’origine delle accuse di stregoneria contro circa 250 persone (per lo più donne), formulate nel 1692 a Salem, nel Massachusetts. I dati raccolti sembrano in effetti indicare un coinvolgimento degli alcaloidi della segale cornuta. In quell’area, verso la fine del Seicento, si coltivava segale; la documentazione dell’epoca parla di un tempo piuttosto caldo e piovoso durante la primavera e l’estate del 1691; e il villaggio di Salem si trovava proprio in prossimità di prati paludosi. Tutti questi fatti inducono a considerare plausibile l’infestazione dei cereali usati per produrre la farina della comunità da parte del fungo della segale cornuta. I sintomi presentati dalle vittime sono conformi a quelli dell’ergotismo, e in particolare dell’ergotismo convulsivo: diarrea, vomito, convulsioni, allucinazioni, balbettamenti, bizzarre convulsioni degli arti, sensazioni di tintinnii e acuti disturbi sensoriali. Pare probabile che, almeno all’inizio, l’ergotismo possa essere stato la causa della caccia alle streghe di Salem; quasi tutte le trenta persone che sostennero di essere state vittime di stregonerie erano ragazze o giovani donne, ed è noto che i giovani sono più sensibili agli effetti degli alcaloidi della segale cornuta. Tuttavia gli eventi posteriori, compresi i processi alle presunte streghe e un numero crescente di accuse, spesso a persone estranee alla comunità, fanno pensare a un fenomeno di isteria o anche solo di malevolenza. I sintomi dell’avvelenamento da segale cornuta non si possono attivare o disattivare a proprio piacimento. Il fenomeno comune in tribunale – delle

vittime che avevano un attacco di convulsioni quando si trovavano di fronte alla persona accusata di stregoneria – non si concilia con l’ergotismo. Le presunte vittime, senza dubbio desiderose di attenzione e consapevoli del potere che stavano esercitando, denunciavano sia vicine che conoscevano bene sia persone di cui avevano a malapena sentito parlare. Le sofferenze delle vere vittime della caccia alle streghe di Salem – le diciannove donne impiccate (e una lapidata), quelle torturate e imprigionate, le famiglie distrutte – possono essere ricondotte agli alcaloidi della segale cornuta, ma la responsabilità ultima va ricondotta alla fragilità umana. Come la cocaina, anche gli alcaloidi della segale cornuta, pur essendo tossici e pericolosi, hanno una lunga storia di applicazioni terapeutiche, e alcuni loro derivati hanno ancora oggi un ruolo in medicina. Per secoli, erboristi, levatrici e medici ne hanno usato estratti per accelerare il parto o produrre aborti. Oggi tali alcaloidi o loro modificazioni chimiche vengono usati come vasocostrittori per emicranie, per trattare le emorragie post partum e per stimolare le contrazioni uterine nel parto. Gli alcaloidi della Claviceps purpurea, responsabili dell’ergotismo, hanno tutti in comune un’unica particolarità chimica: sono derivati di una molecola nota come acido lisergico. Il gruppo OH dell’acido lisergico (indicato nella figura seguente con una freccia) è sostituito in tali alcaloidi da un gruppo laterale maggiore, come si vede nella molecola di ergotammina (usata per trattare emicranie gravi) e nelle molecole di ergovina (usata nel trattamento di emorragie post partum). In queste due molecole la porzione dell’acido lisergico è circolata.

Acido lisergico

Ergotammina

Ergovina

Nel 1938, dopo avere già preparato vari derivati di sintesi dell’acido lisergico, alcuni dei quali si erano rivelati utili, il chimico Albert Hofmann, che lavorava nei laboratori di ricerca della società farmaceutica svizzera Sandoz, a Basilea, preparò un altro derivato. Era il venticinquesimo da lui prodotto, cosicché lo chiamò dietilammide dell’acido lisergico LSD-25, oggi noto ovviamente solo come LSD. Nelle proprietà di questa nuova sostanza non fu notato niente di eccezionale.

La dietilammide dell’acido lisergico (LSD-25), o LSD, come divenne nota. È circolata la parte dell’acido lisergico.

Solo nel 1943, quando sintetizzò di nuovo questo derivato, Hofmann sperimentò inavvertitamente il primo di quelli che sarebbero divenuti noti, negli anni ’60 del XX secolo, come «viaggi acidi». L’LSD non viene assorbita attraverso la pelle, cosicché Hofmann trasferì probabilmente dell’LSD dalle dita alla bocca. Anche una minima traccia di questa sostanza può produrre quella che egli descrisse come un’esperienza di «un flusso ininterrotto di immagini fantastiche, forme straordinarie con un intenso gioco caleidoscopico di colori». Hofmann decise allora di assumere deliberatamente dell’LSD, per verificare il suo assunto che fosse stato tale composto a produrre le sue allucinazioni. Il dosaggio medico per i derivati dell’acido lisergico come

l’ergotammina era di almeno qualche milligrammo. Pensando senza dubbio di dover essere prudente, ne assunse solo un quarto di milligrammo, una quantità che risultò poi essere almeno cinque volte maggiore di quella necessaria per produrre gli effetti allucinogeni oggi ben noti. L’LSD, come allucinogeno, è diecimila volte più potente della mescalina, che si trova in natura nella cactacea peyotl (o peyote), la quale cresce in Texas e nel Messico settentrionale ed è stata usata per secoli dagli americani nativi nelle loro cerimonie religiose. Sentendosi rapidamente sempre più stordito, Hofmann chiese al suo assistente di accompagnarlo mentre tornava a casa in bicicletta per le strade di Basilea. Nelle ore successive egli visse tutta la gamma di esperienze che in seguito i consumatori di LSD avrebbero conosciuto come un cattivo viaggio. Oltre ad avere allucinazioni visive divenne paranoide, alternò sensazioni di intensa agitazione e di paralisi, parlò in modo incoerente, temette di soffocare, ebbe la sensazione di essere uscito dal corpo e percepì dei suoni visivamente. A un certo punto prese addirittura in considerazione la possibilità di avere subito danni permanenti al cervello. Gradualmente i suoi sintomi si attenuarono, anche se i suoi disturbi visivi persistettero per qualche tempo. Hofmann si svegliò la mattina dopo sentendosi del tutto normale, con un ricordo completo di quanto era accaduto, ma apparentemente senza effetti collaterali. Nel 1947 la Sandoz cominciò a commercializzare l’LSD come uno strumento di psicoterapia, in particolare per il trattamento della schizofrenia alcolica. Negli anni ’60 l’LSD divenne una droga popolare per giovani di tutto il mondo. Essa fu promossa da Timothy Leary – psicologo che per qualche tempo fu membro dello Harvard University Center for Research in Personality – come la religione del XX secolo e il modo per conseguire un appagamento spirituale e creativo. In migliaia seguirono il suo consiglio «accendi, sintonìzzati, ritìrati». La fuga dalla vita quotidiana del XX secolo indotta da questo alcaloide era così diversa da ciò che era stato sperimentato dalle donne accusate di stregoneria qualche centinaio di anni prima? Anche se erano trascorsi secoli, le esperienze psichedeliche non erano sempre positive. Per i figli dei fiori degli anni ’60 del Novecento, l’assunzione dell’alcaloide derivato LSD poteva condurre a flashback, a psicosi permanenti e in casi estremi al suicidio; per le streghe europee l’assorbimento degli alcaloidi atropina e scopolammina dai loro unguenti per volare poteva

condurre al rogo.

Non furono certo l’atropina e gli alcaloidi della segale cornuta a causare la stregoneria. I loro effetti furono però interpretati come una prova contro un gran numero di donne innocenti, che erano di solito le più povere e le più vulnerabili della società. Gli accusatori fondavano sulla chimica gran parte delle loro accuse contro le streghe: «Dev’essere una strega: dice di saper volare», o «Dev’essere una strega: l’intero villaggio è sotto l’effetto di un maleficio». Gli atteggiamenti che avevano permesso quattro secoli di persecuzione delle donne come streghe non cambiarono subito dopo la fine dei roghi. Questi alcaloidi diedero effettivamente un contributo a un’eredità percepita di pregiudizi contro le donne? A un atteggiamento che potrebbe persistere ancora oggi nella nostra società? Nell’Europa medievale le stesse donne che furono perseguitate tennero in vita l’importante conoscenza delle piante medicinali, così come fecero le popolazioni native in altre parti del mondo. Senza queste tradizioni erboristiche non avremmo mai potuto produrre la nostra attuale varietà di prodotti farmaceutici. Oggi, però, pur non giustiziando più coloro che usano potenti rimedi forniti dal mondo vegetale, eliminiamo direttamente le piante. La continua perdita delle foreste pluviali tropicali del mondo, attualmente stimata a quasi due milioni di ettari all’anno, può privarci della scoperta di altri alcaloidi che potrebbero essere ancora più efficaci di quelli attualmente noti nel trattamento di una varietà di condizioni e di malattie. Noi potremmo non sapere mai che nelle piante tropicali ogni giorno più vicine all’estinzione ci sono molecole con proprietà antitumorali, molecole attive contro l’HIV, o dotate di proprietà terapeutiche miracolose contro la schizofrenia, la malattia di Alzheimer o quella di Parkinson. Da un punto di vista molecolare, il folklore del passato potrebbe essere una chiave per la nostra sopravvivenza in futuro.

13 MORFINA, NICOTINA E CAFFEINA

Data la tendenza umana a desiderare le cose che ci fanno sentire bene, non sorprende che tre diverse molecole di alcaloidi – la morfina, tratta dal papavero da oppio, la nicotina contenuta nel tabacco, e la caffeina presente nel tè, nel caffè e nella coca – siano ricercate e apprezzate da millenni. Ma per ogni beneficio che queste molecole hanno portato all’umanità, hanno anche creato dei pericoli. Nonostante la dipendenza che esse producono, o forse proprio a causa di essa, hanno influito in molti modi su diverse società. E tutt’e tre si sono incontrate inaspettatamente in un’unica congiuntura storica.

Le guerre dell’oppio Pur essendo oggi associato principalmente al Triangolo d’oro – le regioni di confine fra la Birmania, il Laos e la Tailandia –, il papavero da oppio (Papaver somniferum) è nativo del Levante mediterraneo. È presumibile che i prodotti del papavero da oppio siano stati raccolti e apprezzati fin dalla Preistoria. Ci sono indizi del fatto che più di cinquemila anni fa le proprietà dell’oppio erano note nella regione del delta dell’Eufrate, che è generalmente ritenuta il luogo della più antica civiltà umana riconoscibile. Indicazioni archeologiche del fatto che l’oppio era usato almeno tremila anni fa sono venute in luce a Cipro. L’oppio figura negli elenchi delle piante e dei rimedi di greci, fenici, minoici, egizi, babilonesi e altri popoli dell’antichità. Presumibilmente intorno al 330 a.C. Alessandro Magno portò l’oppio in Persia e in India, da dove la sua coltivazione si diffuse lentamente verso est, fino a raggiungere la Cina attorno al VII secolo. Per secoli il papavero da oppio rimase un’erba medica, i cui princìpi attivi

venivano assunti o come un’infusione amara o nella forma di una pallina arrotolata. Nel Settecento e soprattutto nell’Ottocento, in Europa e negli Stati Uniti, artisti, scrittori e poeti usarono l’oppio per raggiungere uno stato mentale simile al sogno, che si pensava migliorasse la creatività. Essendo meno costoso dell’alcol, fu usato anche dai poveri per procurarsi stati d’ebbrezza a buon mercato. Durante quegli anni la sua capacità di creare dipendenza, se fu riconosciuta, raramente creò preoccupazione. Il suo uso era così generalizzato che persino a neonati e a bambini che mettevano i primi denti venivano somministrati preparati con oppio che venivano pubblicizzati come sciroppi calmanti e cordiali, e che contenevano fino al 10 per cento di morfina. Il laudano, una soluzione di oppio in alcol spesso raccomandata alle donne, era di uso molto comune ed era disponibile senza ricetta in tutte le farmacie. Esso rimase una forma socialmente accettabile di oppio finché non fu proibito all’inizio del XX secolo. In Cina l’oppio era un’erba medica apprezzata da molti secoli, ma l’introduzione del tabacco, una pianta contenente un nuovo alcaloide, la nicotina, modificò il ruolo dell’oppio nella società cinese. Il fumo rimase sconosciuto in Europa fino a quando Cristoforo Colombo, alla fine del suo secondo viaggio, nel 1496, portò del tabacco dal Nuovo Mondo, dove l’aveva visto usare. Il tabacco si diffuse rapidamente, nonostante le pene severe per il suo possesso o la sua importazione promulgate in molti Paesi dell’Asia e del Medio Oriente. In Cina, alla metà del Seicento, l’ultimo imperatore della dinastia Ming proibì di fumare il tabacco. Forse i cinesi, come riferiscono alcune fonti, cominciarono a fumare l’oppio in conseguenza della proibizione del tabacco. Altri storici pensano che siano stati invece i portoghesi presenti in piccole stazioni commerciali a Formosa (oggi Taiwan) e ad Amoy, nel mar Cinese orientale, a familiarizzare i mercanti cinesi con l’idea di mescolare l’oppio col tabacco. L’effetto di alcaloidi come la morfina e la nicotina, assorbiti direttamente nel circolo sanguigno attraverso il fumo inalato nei polmoni, è straordinariamente rapido e intenso. L’oppio, assunto in questo modo, crea rapidamente una condizione di dipendenza. All’inizio del Settecento, l’oppio veniva fumato diffusamente in tutta la Cina. Nel 1729 un editto imperiale proibì l’importazione e la vendita dell’oppio in Cina, ma probabilmente era troppo tardi. A quell’epoca esistevano già una cultura del fumo dell’oppio e una vasta rete di distribuzione e commercializzazione di tale sostanza.

È qui che entra nella storia il nostro terzo alcaloide, la caffeina. I mercanti europei avevano trovato fino allora ben poca soddisfazione a commerciare con la Cina. C’erano poche merci che i cinesi fossero disposti a comprare dall’Occidente, e meno di tutto i manufatti che volevano vendere loro gli olandesi, i britannici, i francesi e altri commercianti europei. Le esportazioni cinesi erano invece molto richieste in Europa, specialmente il tè. Probabilmente la caffeina, la molecola alcaloide presente nel tè che causava solo una lieve dipendenza, alimentò l’insaziabile appetito dell’Occidente per le foglie essiccate di una pianta che era stata coltivata in Cina fin dall’antichità. I cinesi erano disponibili a vendere il loro tè, ma volevano essere pagati in monete d’argento o in lingotti d’oro. Per i britannici, comprare il tè con del prezioso argento non era esattamente l’idea che avevano del commercio. Divenne subito chiaro che c’era una merce, per quanto illegale, che i cinesi volevano ma non avevano. Così i britannici entrarono nel commercio dell’oppio. L’oppio, prodotto nel Bengala e in altre parti dell’India britannica da agenti della Compagnia delle Indie orientali britannica, veniva venduto a mercanti indipendenti, che lo rivendevano poi a importatori cinesi, spesso sotto la protezione di funzionari cinesi conniventi. Nel 1839 il governo cinese tentò di bloccare questo commercio illegale ma fiorente. A Canton (l’attuale Guangzhu), esso confiscò e distrusse un rifornimento annuale di oppio situato in magazzini e su navi britanniche all’àncora nel porto, in attesa di sbarcarlo. Solo vari giorni dopo, un gruppo di marinai britannici ubriachi fu accusato di avere ucciso un coltivatore locale, fornendo così ai britannici una giustificazione per dichiarare guerra alla Cina. La vittoria dei britannici in quella che è conosciuta oggi come la Prima guerra dell’oppio (1839-1842) cambiò la bilancia commerciale fra le due nazioni. La Cina dovette pagare riparazioni di guerra molto pesanti, dovette aprire cinque porti cinesi al commercio con i britannici e dovette cedere Hong Kong, che divenne una colonia britannica della corona. Quasi vent’anni dopo, un’altra sconfitta cinese, nella Seconda guerra dell’oppio, alla quale parteciparono oltre ai britannici anche i francesi, strappò alla Cina altre concessioni. Altri porti furono aperti al commercio con l’estero, cittadini europei si videro riconosciuto il diritto di residenza e di viaggio, ai missionari cristiani fu concessa la libertà di muoversi nel Paese, e infine si legalizzò il commercio dell’oppio. All’oppio, al tabacco e al tè si

dovette la rottura di secoli di isolamento della Cina. Questa entrò in un periodo di sollevazioni e di cambiamento, che culminò nella Rivoluzione del 1911.

Nelle braccia di Morfeo L’oppio – un latice appiccicoso estratto per incisione dalla capsula del papavero e poi fatto essiccare – contiene ventiquattro alcaloidi diversi. Il più abbondante, la morfina, costituisce il 10 per cento circa dell’oppio grezzo. La morfina pura fu isolata per la prima volta dal latice del papavero nel 1803, da un farmacista tedesco, Friedrich Serturner. Egli chiamò il composto da lui isolato morfina, da Morfeo, il dio romano del sonno. La morfina è un narcotico: una molecola che ottunde i sensi (cancellando in tal modo il dolore) e induce il sonno. Intense ricerche chimiche seguirono alla scoperta di Serturner, ma la struttura chimica della morfina non fu determinata fino al 1925. Questo ritardo di ben 122 anni non dovrebbe essere considerato improduttivo: al contrario, i chimici organici considerano spesso l’effettiva decifrazione della struttura della morfina come altrettanto benefica per l’umanità del ben noto effetto anestetico di questa molecola. I metodi classici di determinazione della struttura, nuovi procedimenti di laboratorio, una comprensione della natura tridimensionale dei composti del carbonio e nuove tecniche di sintesi furono solo alcune delle conquiste che si accompagnarono alla soluzione di questo lungo rompicapo chimico. Grazie al lavoro fatto sulla composizione della morfina sono state dedotte le strutture di altri composti importanti.

La struttura della morfina. Le linee più scure dei legami in forma di cuneo indicano direzioni esterne al piano del foglio.

Oggi la morfina e composti affini sono ancora fra gli anestetici più efficaci che si conoscano. Purtroppo l’effetto anestetico o analgesico sembra essere correlato alla dipendenza. La codeina, un composto simile che si trova nell’oppio in quantità molto minori (dallo 0,3 al 2 per cento), causa una dipendenza molto minore, ma è anche un analgesico meno potente. La differenza di struttura è molto piccola; la codeina ha un gruppo CH3O che sostituisce l’OH nella posizione indicata dalla freccia nella figura.

Codeina Morfina

La struttura della codeina. La freccia indica l’unica differenza esistente fra codeina e morfina.

Molto tempo prima che si conoscesse la struttura completa della morfina,

furono fatti tentativi di modificarla chimicamente nella speranza di produrre un composto che fosse un anestetico migliore senza creare dipendenza. Nel 1898, nel laboratorio della Bayer, l’azienda produttrice di coloranti nella quale, cinque anni prima, Felix Hofmann aveva curato il padre con acido acetilsalicilico, i chimici sottoposero la morfina alla stessa reazione di acetilazione che aveva convertito l’acido salicilico in Aspirina. Il loro ragionamento era logico. L’Aspirina si era rivelata un analgesico eccellente, e molto meno tossico dell’acido salicilico.

Morfina

Diacetilmorfina (eroina)

Il derivato diacetilico della morfina. Le frecce indicano i punti in cui il gruppo acetile CH3CO ha sostituito l’H nei due ossidrili OH della morfina, producendo l’eroina.

Il prodotto della sostituzione degli H dei due gruppi OH della morfina con gruppi CH3CO si rivelò però del tutto diverso. A prima vista i risultati parvero promettenti. La diacetilmorfina era un narcotico ancora più potente della morfina, così efficace da poter essere somministrata anche a dosi estremamente basse. La sua efficacia mascherava però un problema importante, che risulta subito chiaro non appena si conosce il nome con cui la diacetilmorfina viene designata più comunemente. Messa in origine sul mercato col nome di eroina, è una delle droghe che danno maggiore dipendenza. Gli effetti fisiologici della morfina e dell’eroina sono gli stessi; nel cervello i gruppi diacetile dell’eroina vengono riconvertiti negli originali gruppi OH della morfina. La molecola dell’eroina viene però trasportata più facilmente della morfina attraverso la barriera ematoencefalica, producendo

l’euforia rapida e intensa che è oggetto di un forte desiderio in coloro che ne sono diventati dipendenti. L’eroina della Bayer, ritenuta all’inizio esente dai comuni effetti collaterali della morfina (come la nausea e la costipazione) – si supponeva non creasse neppure dipendenza –, fu messa sul mercato come un sedativo della tosse e un rimedio contro il mal di testa, l’asma, l’enfisema e persino la tubercolosi. Quando però divennero chiari gli effetti collaterali di quella che veniva giudicata una «super Aspirina», la Bayer smise tacitamente di pubblicizzarla. Quando, nel 1917, i brevetti originali per l’acido acetilsalicilico scaddero e altre società cominciarono a produrre Aspirina, la Bayer le perseguì in tribunale per violazione del copyright sul nome. Non sorprende che non abbia invece mai perseguito in tribunale le aziende che usarono il nome commerciale «eroina» della diacetilmorfina. Oggi la maggior parte dei Paesi proibiscono l’importazione, la produzione o il possesso di eroina. Tutto questo non è servito però a bloccarne il commercio illegale. I laboratori creati per produrre eroina a partire da morfina hanno il problema importante di come liberarsi dell’acido acetico, che è uno dei prodotti secondari della reazione di acetilazione. L’acido acetico ha un odore molto caratteristico, quello dell’aceto, che è una soluzione al 4 per cento di quest’acido. Spesso quest’odore segnala alle autorità l’esistenza di un produttore illegale di eroina. Specialmente i cani poliziotti addestrati possono scoprire deboli tracce di odore di aceto, molto inferiori al livello della sensibilità olfattiva umana. La ricerca sul perché la morfina e alcaloidi simili siano analgesici così efficaci suggerisce che la morfina non interferisca con i segnali nervosi inviati al cervello. Essa modificherebbe, invece, selettivamente il modo in cui il cervello riceve tali messaggi, ossia il modo in cui il cervello percepisce il dolore segnalato. La molecola di morfina sembra essere in grado di occupare e bloccare un recettore del dolore nel cervello: una teoria correlata all’idea che solo una determinata forma di struttura chimica possa andare a occupare un recettore del dolore. La morfina imita l’azione delle endorfine, composti presenti in bassissime concentrazioni nel cervello, le quali servono ad attenuare il dolore e aumentano la loro concentrazione in tempi di stress. Le endorfine sono polipeptidi, composti formati da vari amminoacidi legati l’uno all’altro a formare una catena. Nello stesso modo sono formati i peptidi responsabili

della struttura di proteine come la seta (vedi il cap. 6). Mentre, però, una molecola di seta ha centinaia o addirittura migliaia di amminoacidi, le endorfine ne hanno solo alcuni. Due endorfine che sono state isolate sono risultate essere pentapeptidi, ossia contengono cinque amminoacidi. Queste due endorfine e la morfina hanno un carattere strutturale in comune: contengono tutte un’unitàβ-feniletilammina, la stessa costruzione chimica ritenuta responsabile di influire sul cervello nell’LSD, nella mescalina e in alcune altre molecole allucinogene.

L’unità diβ-feniletilammina

Benché le molecole pentapeptidiche delle endorfine siano sotto altri aspetti del tutto diverse dalla molecola di morfina, si ritiene che questa somiglianza strutturale spieghi il sito di legame comune nel cervello.

Struttura della molecola di morfina, in cui si osserva l’unità diβ-feniletilammina.

La morfina e i suoi analoghi differiscono, però, da altri allucinogeni per avere anche effetti narcotici nella loro attività biologica: soppressione del dolore, induzione del sonno e creazione di dipendenza. Si ritiene che questi diversi aspetti siano dovuti a una serie di combinazioni che si trova nella loro struttura chimica, nell’ordine ( vedi alla pagina seguente in alto): 1) un anello fenilico o aromatico; 2) un atomo di carbonio quaternario, ossia un atomo di C legato direttamente ad altri quattro atomi di carbonio; 3) un gruppo CH2CH2 legato a (4) un atomo di N terziario (un atomo di azoto legato direttamente ad altri tre atomi di carbonio).

(1) (2) (3) (4)

(1) L’anello di benzene, (2) l’atomo di carbonio quaternario (in neretto), (3) i due

gruppi CH2, con gli atomi di carbonio in neretto, e (4) l’atomo di azoto terziario (in neretto).

Questo insieme di requisiti combinati – noto come la regola della morfina – si presenta così:

I componenti essenziali della regola della morfina

Nei diagrammi della morfina si può vedere che sono presenti tutt’e quattro i requisiti, così come sono presenti nella codeina e nell’eroina.

La struttura della morfina: vi si osserva come essa si conformi con la regola della morfina per l’attività biologica.

La scoperta che questa parte della molecola potrebbe spiegare l’attività narcotica è uno dei tanti esempi di rivelazioni fortunate in chimica. Alcuni

ricercatori, iniettando un composto artificiale, la meperidina, in ratti di laboratorio, notarono che essa faceva tener loro la coda in un certo modo: un effetto che avevano notato in precedenza nella morfina.

Meperidina

La molecola di meperidina non era particolarmente simile alla molecola di morfina. Quel che meperidina e morfina avevano in comune erano: 1) un anello fenilico o aromatico legato a 2) un carbonio quaternario, seguito da 3) il gruppo CH2-CH2 e poi 4) un azoto terziario; in altri termini la stessa disposizione che sarebbe divenuta nota come la regola della morfina.

Evidenziazione della regola della morfina per la meperidina, o struttura del Demerol.

La sperimentazione della meperidina rivelò che aveva proprietà analgesiche. Nota solitamente col nome commerciale di Demerol, è spesso usata invece

della morfina, in quanto, pur essendo meno efficace, è improbabile che causi nausea. Anch’essa, tuttavia, produce dipendenza. Un altro analgesico sintetico e molto potente, il metadone, deprime come l’eroina e la morfina il sistema nervoso, ma non produce la sonnolenza o l’euforia associate agli oppiacei. La struttura del metadone non corrisponde completamente ai requisiti della regola della morfina. C’è un gruppo CH3 legato al secondo atomo di carbonio del gruppo CH2-CH2 della morfina. Questo piccolissimo cambiamento nella struttura è presumibilmente responsabile della differenza nell’attività biologica.

La struttura del metadone. La freccia indica la posizione del gruppo CH3, l’unico discostamento dalla regola della morfina, sufficiente però a modificarne l’effetto fisiologico.

Anche il metadone, però, produce dipendenza. La dipendenza dall’eroina può essere trasformata in dipendenza dal metadone, ma si sta ancora discutendo sul problema se questo sia un metodo ragionevole per affrontare i problemi associati alla dipendenza dall’eroina.

Fumo da bere La nicotina, il secondo alcaloide associato alle guerre dell’oppio, era sconosciuta in Europa quando Cristoforo Colombo sbarcò nel Nuovo Mondo. Qui egli vide uomini e donne che «bevevano» o inalavano il fumo di rotoli di

foglie accesi infilati nelle narici. Fra gli indios del Sudamerica, del Messico e dei Caraibi era diffusa l’abitudine di fumare e masticare foglie di piante di tabacco, specie del genere Nicotiana, o di fiutarne le foglie ridotte in polvere. L’uso del tabacco era principalmente cerimoniale; si diceva che il suo fumo, aspirato da pipe o da foglie arrotolate, o inalato direttamente da foglie sparse su braci ardenti, causasse nei partecipanti stati di trance o allucinazioni. Ciò comporterebbe che il loro tabacco avesse concentrazioni di ingredienti attivi significativamente maggiori di quelle che si trovano nella specie Nicotiana tabacum, che fu introdotta in Europa e nel resto del mondo. Il tabacco su cui Colombo annotò le sue osservazioni era probabilmente la Nicotiana rustica, il tabacco della civiltà maya, una specie notoriamente più forte.

Questa calcografia (1593 ca.) è l’incisione in rame più antica che attesti il fumo in Sudamerica. A questa festa degli indiani tupí, in Brasile, viene fumata una pianta infilata all’estremità di un lungo tubo. (Per gentile concessione della John G. Lord Collection)

L’uso del tabacco si diffuse rapidamente in tutt’Europa, e ben presto si cominciò a coltivarne la pianta. Jean Nicot, l’ambasciatore francese in Portogallo il cui nome è commemorato nel nome botanico della pianta e nel nome dell’alcaloide, era un entusiasta del tabacco, come lo furono anche altre figure importanti del Cinquecento: Sir Walter Raleigh in Inghilterra e Caterina de’ Medici, regina di Francia. Il fumo del tabacco non incontrò, invece, un’approvazione universale. Vari editti papali ne proibirono l’uso in chiesa, e si dice che il re Giacomo I d’Inghilterra abbia scritto un opuscolo, pubblicato nel 1604, in cui si stigmatizzava quell’«uso ripugnante all’occhio, odioso al naso, dannoso al cervello e pericoloso per i polmoni».

Nel 1634 il fumo fu messo fuori legge in Russia. Le pene per la violazione di questa legge erano estremamente dure: taglio delle labbra, fustigazione, castrazione o esilio. La proibizione fu revocata una cinquantina di anni dopo, quando lo zar Pietro il Grande, che era un fumatore, promosse l’uso del tabacco. I navigatori spagnoli e portoghesi, che già avevano diffuso in tutto il mondo il peperoncino rosso piccante, contenente l’alcaloide capsaicina, introdussero ora in ogni porto da loro visitato il tabacco e l’alcaloide nicotina. Nel Seicento il fumo del tabacco si era ormai diffuso in tutto l’Oriente, e pene draconiane, fra cui la tortura, non riuscirono a frenarne la popolarità. Anche se vari Paesi, fra cui la Turchia, l’India e la Persia prescrissero a volte la terapia suprema per la dipendenza dal tabacco – la pena di morte –, il fumo è oggi altrettanto diffuso in quei luoghi quanto in ogni altro. Fin dall’inizio la quantità di tabacco coltivata in Europa non riuscì a far fronte alla domanda. Le colonie spagnole e inglesi nel Nuovo Mondo cominciarono ben presto a coltivare tabacco per l’esportazione. La coltivazione del tabacco richiedeva molta mano d’opera; si dovevano eliminare le erbe infestanti, cimare le piante di tabacco all’altezza giusta, sfoltire i polloni, combattere i parassiti, e raccogliere a mano le foglie e prepararle all’essiccazione. In conseguenza di questo lavoro intensivo fatto nelle piantagioni principalmente da schiavi, la nicotina va ad aggiungersi al glucosio, alla cellulosa e all’indaco: le molecole estratte da fonti naturali, nel Nuovo Mondo, col lavoro degli schiavi. Nel tabacco sono presenti almeno dieci alcaloidi, il principale dei quali è la nicotina. Il contenuto di nicotina delle foglie del tabacco varia dal 2 all’8 per cento, a seconda del metodo di coltura, del clima, del suolo e del processo usato nella lavorazione delle foglie. La nicotina, in dosi molto piccole, è uno stimolante del sistema nervoso centrale e del cuore, ma alla fine, o con dosi maggiori, esercita un’azione depressiva. Questo apparente paradosso è spiegato dalla capacità della nicotina di imitare il ruolo di un neurotrasmettitore.

La struttura della nicotina

La molecola della nicotina forma un ponte nelle giunzioni fra cellule nervose, che all’inizio accentua la trasmissione di un impulso neurologico. Questa connessione non viene però facilmente eliminata fra un impulso e l’altro, cosicché infine il sito di trasmissione viene a trovarsi ostruito. L’effetto di stimolazione della nicotina va perduto e l’attività muscolare, e particolarmente il cuore, ne vengono rallentati. Così la circolazione sanguigna rallenta e l’ossigeno viene fornito al corpo e al cervello a un ritmo inferiore, cosa che dà origine a un effetto generale sedativo. Ciò spiega la frase spesso ripetuta da fumatori di avere bisogno di una sigaretta per calmarsi i nervi, ma in effetti la nicotina è controproducente in situazioni in cui si richiede una mente vigile. Inoltre i fumatori inveterati sono più esposti a infezioni come la cancrena, che prosperano in condizioni di scarsità d’ossigeno dovute a cattiva circolazione. In dosi maggiori la nicotina è un veleno mortale. L’assorbimento di una dose anche di soli 50 milligrammi può uccidere un adulto in pochi minuti. La sua tossicità non dipende però solo dalla quantità, ma anche dal modo in cui entra nel corpo. La nicotina è circa mille volte più potente quand’è assorbita attraverso la pelle che non quando viene assunta oralmente. È presumibile che essa venga scomposta in qualche misura dagli acidi gastrici. Nel fumo, gran parte del contenuto in alcaloidi del tabacco viene ossidato dalla temperatura elevata della combustione, che li trasforma in prodotti meno tossici. Ciò non significa che il fumo del tabacco sia innocuo, ma solo che, se non si verificasse quest’ossidazione della maggior parte della nicotina e degli altri alcaloidi del tabacco, il fumo sarebbe mortale anche fumando solo poche sigarette. Ciononostante, la nicotina che rimane nel fumo di tabacco è particolarmente rischiosa, passando direttamente dai polmoni nel circolo

sanguigno. La nicotina è un potente insetticida naturale. Molti milioni di chilogrammi di essa furono prodotti per essere usati come insetticidi negli anni ’40 e ’50 del Novecento, prima che venissero sviluppati gli insetticidi sintetici. Eppure l’acido nicotinico e la piridossina, che hanno strutture simili alla nicotina, non sono veleni. Essi sono in realtà due sostanze benefiche, due vitamine B, sostanze nutrienti essenziali per la nostra salute e per la nostra sopravvivenza. Ancora una volta un mutamento relativamente piccolo nella struttura chimica determina una differenza enorme nelle proprietà.

Nicotina

Acido nicotinico (niacina)

Piridossina (vitamina B6)

Negli esseri umani una carenza di acido nicotinico (o niacina) nella dieta causa la pellagra, malattia caratterizzata da un insieme di tre sintomi: dermatite, diarrea e demenza. Questa malattia fu particolarmente diffusa in regioni in cui la dieta era composta principalmente di granturco, e in origine si pensò che fosse una malattia infettiva, forse una forma di lebbra. Molte delle sue vittime furono ricoverate in ospedali psichiatrici, fino a quando non se ne identificò la causa nella mancanza di niacina. La pellagra fu comune, all’inizio del XX secolo, nel sud degli Stati Uniti, ma gli sforzi di Joseph Goldberger, medico del Public Health Service degli Stati Uniti, convinsero infine la comunità medica che si trattava in realtà di una malattia carenziale. Il nome di acido nicotinico fu cambiato in niacina quando i panificatori vollero evitare che il loro pane bianco arricchito di questa vitamina avesse un nome che suonasse simile a quello della nicotina.

La struttura stimolante della caffeina

Anche la caffeina, il terzo alcaloide connesso con le guerre dell’oppio, è una sostanza psicoattiva, ma è liberamente disponibile quasi ovunque nel mondo e non è regolamentata, tanto che si producono e si pubblicizzano liberamente bevande arricchite di caffeina. Qui sotto sono illustrate le strutture della caffeina e degli alcaloidi strettamente affini, teofillina e teobromina.

Caffeina

Teofillina

Teobromina

La teofillina, che si trova nel tè, e la teobromina, che si trova nel cacao, differiscono dalla caffeina solo nel numero di gruppi CH3 attaccati agli anelli della struttura: la caffeina ne ha tre, mentre la teofillina e la teobromina ne hanno due ciascuna, ma in posizioni leggermente diverse. Questa piccolissima differenza nella struttura molecolare spiega i diversi effetti fisiologici di queste molecole. La caffeina si trova naturalmente nei semi del caffè, nelle foglie del tè e, in misura minore, nei semi del cacao, nelle noci di cola e in altre piante principalmente del Sudamerica, come le foglie del mate, i semi di guarana e la corteccia di yoco. La caffeina è un potente stimolante del sistema nervoso centrale e una delle sostanze psicoattive più studiate del mondo. La più recente fra le numerose teorie che sono state avanzate nel corso degli anni, per spiegarne gli effetti sulla fisiologia umana, dice che la caffeina blocca l’effetto dell’adenosina nel cervello e in altre parti del corpo. L’adenosina è un neuromodulatore, una molecola che riduce il ritmo delle scariche nervose spontanee e quindi rallenta la liberazione di altri neurotrasmettitori; perciò può indurre sonno. Non si può dire che la caffeina tenga svegli, anche se si può avere la sensazione che sia così; il suo effetto è in realtà quello di ostacolare il ruolo normale dell’adenosina nel procurarci il sonno. Quando la caffeina occupa i recettori dell’adenosina in altre parti del corpo, sperimentiamo un’eccitazione da caffeina: il ritmo cardiaco si accelera, alcuni

vasi sanguigni si stringono mentre altri si dilatano, e certi muscoli si contraggono più facilmente. La caffeina è usata in medicina per alleviare e prevenire l’asma, per trattare il mal di testa, per aumentare la pressione sanguigna, come diuretico e per una quantità di altre condizioni. È spesso presente sia in prodotti da banco sia in medicinali vendibili solo con ricetta medica. Numerosi studi hanno cercato possibili effetti collaterali negativi della caffeina, compreso il suo rapporto con varie forme di cancro, cardiopatie, osteoporosi, ulcere, epatopatie, sindrome premestruale, disfunzioni renali, motilità dello sperma, fertilità, sviluppo fetale, iperattività, prestazioni atletiche e disfunzioni mentali. Finora non ci sono prove chiare del fatto che qualcuna di queste malattie possa essere connessa con un consumo di quantità moderate di caffeina. Ma la caffeina è tossica; si stima che una dose letale, assunta oralmente, per un adulto di corporatura media, sia intorno a dieci grammi. Poiché il contenuto di caffeina per una tazza di caffè varia fra 80 e 180 milligrammi, a seconda del metodo di preparazione, per riceverne una dose letale se ne dovrebbero bere da 55 a 125 tazzine di caffè una di seguito all’altra. È chiaro che l’avvelenamento da caffè con questo metodo è molto improbabile se non assolutamente impossibile. In peso secco, le foglie di tè hanno il doppio di caffeina rispetto ai semi di caffè, ma poiché per ogni tazza di tè si usa meno tè e col metodo normale di preparazione del tè se ne estrae meno caffeina, una tazza di tè finisce col contenere una quantità di caffeina pari a metà di quella presente in una tazzina di caffè. Il tè contiene anche piccole quantità di teofillina, una molecola che ha un effetto simile a quello della caffeina. La teofillina è molto usata oggi nel trattamento dell’asma. Essa è un broncodilatatore, o un rilassante del tessuto bronchiale, migliore della caffeina, mentre ha un effetto minore sul sistema nervoso centrale. I semi di cacao, fonte del cacao e del cioccolato, contengono dall’1 al 2 per cento di teobromina. Questo alcaloide stimola il sistema nervoso centrale ancora meno della teofillina, ma poiché la quantità di teobromina nei prodotti del cacao è sette o otto volte maggiore della concentrazione di caffeina, l’effetto è ancora evidente. Come la morfina e la nicotina, la caffeina (come pure la teofillina e la teobromina) producono dipendenza; fra i sintomi da astinenza ci sono mal di testa, senso di stanchezza, sonnolenza e persino – quando l’assunzione di caffeina è stata

eccessiva – nausea e vomito. La buona notizia è che ci si può liberare completamente dalla dipendenza dalla caffeina piuttosto rapidamente, una settimana al massimo, anche se ben pochi di noi hanno l’intenzione di liberarsi dalla dipendenza preferita da tutto il mondo. Piante contenenti caffeina erano note probabilmente all’uomo preistorico. Esse erano usate quasi certamente nell’antichità, ma non possiamo sapere se sia stato conosciuto per primo il tè, il cacao o il caffè. Secondo la leggenda, Shen Nung, il mitico primo imperatore della Cina, avrebbe introdotto l’uso di far bollire l’acqua per la sua corte, come precauzione contro le malattie. Un giorno notò che alcune foglie di un cespuglio vicino erano cadute nell’acqua bollente preparata dai suoi servi. L’infusione che ne risultò sarebbe stata la prima dei trilioni di tazze di tè che sono state assaporate nei cinquemila anni trascorsi da allora. Benché talune leggende riferiscano l’uso di bere il tè anche a epoche anteriori, la letteratura cinese non menziona questa pianta, o la sua capacità «di far pensare meglio», fino al II secolo a.C. Altre storie tradizionali cinesi indicano che il tè potrebbe essere stato introdotto dall’India settentrionale o dal Sud-est asiatico. Quale che sia stata la sua origine, il tè è parte integrante della vita in Cina da molti secoli. In molti Paesi asiatici, fra cui particolarmente il Giappone, il tè divenne parte importante della cultura nazionale. I portoghesi, che avevano una stazione commerciale a Macao, furono i primi europei a stabilire un commercio limitato con la Cina, e a prendere l’abitudine di bere il tè. Furono però gli olandesi a portare la prima balla di tè in Europa all’inizio del Seicento. Il tè fu inizialmente molto caro, e quindi accessibile solo ai ricchi. All’aumentare delle importazioni e al graduale diminuire delle tasse doganali, i prezzi lentamente calarono. All’inizio del Settecento il tè stava cominciando a sostituire la birra come bevanda nazionale inglese e fu così fissata la scena per il ruolo che il tè (con la sua caffeina) avrebbe svolto nelle guerre dell’oppio e nell’apertura dei commerci con la Cina. Spesso si pensa che il tè abbia dato un contributo importante alla Rivoluzione americana, anche se in verità il suo ruolo fu più simbolico che reale. Nel 1763 i britannici erano riusciti a espellere i francesi dal Nordamerica e stavano negoziando trattati con i nativi, controllando l’espansione degli insediamenti e regolamentando i commerci. L’insoddisfazione dei coloni per il controllo del Parlamento britannico su

quelle che essi consideravano questioni locali minacciava di trasformarsi da irritazione in ribellione. Particolarmente esasperante era l’alto livello della tassazione sia sul commercio interno sia su quello con l’estero. Anche se fu abrogato lo Stamp Act del 1764-1765, che prelevava denaro richiedendo marche da bollo per quasi tutti i tipi di documenti, e se furono eliminate le tasse doganali su zucchero, carta, vernici e vetro, il tè era ancora soggetto a una pesante tassa doganale. Il 16 dicembre del 1776 un carico di tè fu affondato nel porto di Boston da un gruppo di cittadini esasperati. La protesta era in realtà contro la «tassazione senza rappresentanza» più che sul tè, ma il Boston Tea Party, come fu chiamato ironicamente l’evento, viene considerato a volte l’inizio della Rivoluzione americana. Le scoperte archeologiche indicano che il frutto del cacao fu la prima fonte di caffeina nel Nuovo Mondo. Esso fu usato in Messico già intorno al 1500 a.C., e anche le posteriori civiltà maya e tolteca coltivarono questa fonte mesoamericana dell’alcaloide. Colombo, al ritorno in Spagna dal suo quarto viaggio nel Nuovo Mondo nel 1502, fece dono di frutti del cacao al re di Spagna Ferdinando. Ma solo nel 1528, quando Hernán Cortés bevve l’amara bevanda degli aztechi alla corte di Montezuma II, gli europei riconobbero l’effetto stimolante degli alcaloidi. Cortés si riferì al cacao usando la descrizione degli aztechi «bevanda degli dèi»: da questa derivò poi il nome dell’alcaloide predominante, la teobromina, contenuta nei semi del grosso frutto, lungo una trentina di centimetri, dell’albero tropicale Theobroma cacao. Il nome theobroma nasce infatti dall’unione dei due vocaboli greci theos (dio) e broma (cibo).

Frutti di cacao, prodotti dall’albero tropicale Theobroma cacao. (Foto di Peter Le Couteur)

Nella parte restante del Cinquecento, la cioccolata, come venne chiamata, rimase una bevanda riservata ai ricchi e agli aristocratici spagnoli, diffondendosi poi in Italia, Francia, Olanda e infine al resto d’Europa. Perciò la caffeina contenuta nel cacao, pur essendovi presente in piccole concentrazioni, arrivò in Europa prima della caffeina del tè o del caffè. Il cioccolato contiene un altro composto interessante, l’anandammide, che è risultato legarsi allo stesso recettore cerebrale utilizzato dal composto fenolico tetraidrocannabinolo (THC), l’ingrediente attivo nella marijuana, anche se i due composti hanno struttura del tutto diversa. Se l’anandammide è responsabile della buona sensazione che molte persone sostengono di ricevere dal cioccolato, potremmo porci una domanda provocatoria: che cos’è che vogliamo mettere fuori legge, la molecola del THC o la sua capacità di alterare il nostro umore? Se diamo la seconda risposta, non dovremmo mettere fuori legge anche il cioccolato?

L’anandammide, tratta dal cioccolato, a sinistra, e il tetraidrocannabinolo (THC), tratto dalla marijuana, a destra, sono strutturalmente diversi.

La caffeina fu introdotta in Europa attraverso il cioccolato. Un infuso più concentrato dell’alcaloide sotto forma di caffè vi arrivò almeno un secolo dopo, ma a quell’epoca il caffè era in uso nel Medio Oriente da centinaia di anni. La documentazione più antica del caffè come bevanda ci è stata lasciata dal medico arabo del X secolo Rhazi. Il caffè era, però, senza dubbio già noto molto tempo prima, come suggerisce il mito etiopico del pastore Kaldi. Le capre di Kaldi, brucando foglie e bacche di un albero che egli non aveva mai notato prima, divennero vivaci e cominciarono a danzare sulle zampe posteriori. Kaldi decise di assaggiare le bacche, di un colore rosso vivo, e come le sue capre trovò che avevano un effetto stimolante. Ne portò un campione a un santone islamico locale, il quale, disapprovandone l’uso, le gettò sul fuoco. Dalle fiamme si sprigionò allora un mirabile aroma. I frutti arrostiti furono recuperati dalle ceneri e usati per produrre la prima tazza di caffè. Benché questa sia una bella storia, non ci sono prove che si debba veramente alle capre di Kaldi la scoperta della caffeina prodotta dall’albero del caffè (Coffea arabica); il caffè potrebbe avere avuto origine altrove sugli altipiani etiopici ed essersi diffuso nel Nordafrica e in Arabia. La caffeina nella forma di caffè non fu sempre accettata, e a volte fu addirittura proibita; tuttavia, alla fine del Quattrocento i pellegrini musulmani l’avevano portata in tutte le parti del mondo islamico. In modo simile ebbe luogo l’introduzione del caffè in Europa nel Seicento. L’attrattiva della caffeina ebbe infine la meglio sui timori iniziali delle autorità della Chiesa e dei governi, come pure dei medici. Venduto nelle strade italiane, consumato in locali creati appositamente a Venezia e a Vienna, a Parigi e ad Amsterdam, in Germania e in Scandinavia, il caffè

portò una maggiore sobrietà nella popolazione europea. In una certa misura sostituì il vino nell’Europa meridionale e la birra nel Nord. I lavoratori non bevvero più birra alla prima colazione. Nel 1700 a Londra c’erano più di duemila caffè; frequentati esclusivamente da uomini, molti furono associati a una specifica religione, professione o lavoro. Naviganti e mercanti si riunivano nel caffè di Edward Lloyd per scorrere gli elenchi delle spedizioni marittime, un’attività che condusse infine alla sottoscrizione di viaggi mercantili e alla fondazione della famosa società di assicurazioni dei Lloyd di Londra. Si ipotizza che varie banche, quotidiani e riviste abbiano iniziato la loro esistenza nei caffè londinesi. La coltivazione del caffè svolse un ruolo molto importante nello sviluppo di talune regioni del Nuovo Mondo, specialmente del Brasile e di vari Paesi dell’America centrale. I primi alberi di caffè furono coltivati a Haiti nel 1734. Cinquant’anni dopo, metà del caffè del mondo proveniva da questa fonte. Le condizioni politiche ed economiche della società attuale di Haiti vengono spesso attribuite alla lunga e cruenta sollevazione cominciata nel 1791 come una rivolta contro le spaventose condizioni imposte al lavoro degli schiavi nelle piantagioni di caffè e zucchero. Quando la produzione di caffè declinò nelle Indie occidentali, le piantagioni in altri Paesi – Brasile, Colombia, gli stati dell’America centrale, India, Ceylon, Giava e Sumatra – si affrettarono a offrire i loro prodotti sul mercato mondiale in rapida crescita. In Brasile, in particolare, la coltivazione del caffè venne a dominare l’agricoltura e il commercio. Immense aree che erano già state dedicate alla coltivazione dello zucchero passarono alla coltivazione di alberi del caffè, in attesa dei grandi profitti che ci si attendeva di conseguire da questo prodotto. In Brasile l’abolizione della schiavitù fu ritardata dal potere politico dei coltivatori di caffè, che avevano bisogno di mano d’opera a buon mercato. L’importazione di nuovi schiavi in Brasile non fu proibita fino al 1850. Dal 1871 tutti i bambini nati schiavi furono considerati legalmente liberi, assicurando così l’abolizione finale, anche se graduale, della schiavitù nel Paese. Nel 1888, con un ritardo di vari anni su altre nazioni occidentali, la schiavitù in Brasile fu finalmente messa del tutto fuori legge. La coltivazione del caffè alimentò la crescita economica del Brasile, quando furono costruite ferrovie dalle regioni che coltivavano caffè ai porti principali. Quando fu abolito il lavoro degli schiavi, arrivarono migliaia di nuovi immigranti per lavorare nelle piantagioni di caffè, principalmente

italiani poveri, che modificarono la faccia etnica e culturale del Paese. La coltivazione del caffè ha modificato radicalmente l’ambiente del Brasile. Immense estensioni di terra sono state disboscate, foreste naturali sono state abbattute o incendiate, e molti animali nativi sono stati eliminati a vantaggio delle vaste piantagioni di caffè che ricoprono il Paese. Coltivato come una monocoltura, l’albero del caffè esaurisce rapidamente la fertilità del suolo, richiedendo nuova terra man mano che la vecchia diventa meno produttiva. Le foreste pluviali tropicali possono richiedere secoli per rigenerarsi; senza un’opportuna copertura vegetale, l’erosione può eliminare il poco suolo presente, vanificando qualsiasi speranza di rinnovamento della foresta. Quando si fa un affidamento eccessivo su un’unica pianta si finisce in generale col trascurare le produzioni più tradizionali, con la conseguenza di renderle ancora più vulnerabili ai capricci dei mercati mondiali. Una monocoltura è inoltre esposta a essere devastata da parassiti, come la ruggine delle foglie del caffè, che può distruggere una piantagione nel giro di giorni. Un tipo di sfruttamento delle persone e dell’ambiente simile a quello che causò disastri in Brasile si verificò nella maggior parte dei Paesi coltivatori di caffè dell’America centrale. A cominciare dagli ultimi decenni dell’Ottocento, le popolazioni indigene maya del Guatemala, El Salvador, Nicaragua e Messico furono espropriate sistematicamente dei loro territori collinari, che offrivano condizioni perfette per la coltivazione degli arbusti del caffè. La mano d’opera fu fornita in modo coatto dalla popolazione india; uomini, donne e bambini lavoravano per lunghe ore per una miseria e, come lavoratori forzati, avevano ben pochi diritti. L’élite – i proprietari delle piantagioni di caffè – controllava la ricchezza dello stato e dirigeva la politica del governo in modo da tutelare i propri profitti, alimentando decenni di risentimento per la disuguaglianza sociale. La storia dei disordini politici e delle rivoluzioni violente in questi Paesi discende in parte dal desiderio della gente per il caffè.

Il papavero da oppio, che fu da sempre un’erba medica importante nel Mediterraneo orientale, si diffuse poi in tutt’Europa e nell’Asia. Oggi i profitti derivanti dal commercio illegale dell’oppio continuano a finanziare il crimine organizzato e il terrorismo internazionale. Gli alcaloidi di questo papavero hanno distrutto, direttamente o indirettamente, la salute e la felicità

di milioni di persone, ma al tempo stesso molti altri milioni hanno beneficiato della giudiziosa applicazione medica delle loro sorprendenti proprietà analgesiche. Come l’oppio è stato alternativamente approvato e proibito, così è stato anche per la nicotina. Un tempo si ritenne che il tabacco avesse effetti positivi per la salute, e fu usato come cura per numerose malattie, ma in altri tempi e in altri luoghi l’uso del tabacco fu messo fuori legge, come una pratica pericolosa e depravata. Nella prima metà del Novecento l’uso del tabacco fu più che tollerato: esso fu addirittura favorito in molte società. Il fumo fu considerato un simbolo della donna emancipata e dell’uomo raffinato. All’inizio del XXI secolo è invalsa la tendenza opposta, e in molti luoghi la nicotina è trattata in modo più simile agli alcaloidi dell’oppio: ossia è controllata, tassata, vietata e messa al bando. Di contro la caffeina – anche se un tempo soggetta a editti e ingiunzioni religiose – è oggi di nuovo liberamente disponibile. Non ci sono leggi o regolamenti che impediscano a bambini o ad adolescenti di consumare questo alcaloide. In effetti, in molte culture i genitori permettono normalmente ai figli bevande contenenti caffeina. Oggi i governi limitano l’uso dell’oppio a fini medici ben regolamentati, ma traggono grandi benefìci fiscali dalla vendita di caffeina e nicotina; ciò fa considerare improbabile che possano rinunciare a fonti di entrate così redditizie e sicure, e che possano quindi bandire l’uno o l’altro di questi due alcaloidi. È stato il desiderio umano di queste tre molecole – morfina, nicotina e caffeina – a dare inizio agli eventi che, verso la metà dell’Ottocento, condussero alle guerre dell’oppio. Oggi i risultati di questi conflitti vengono visti come l’inizio della trasformazione di un sistema sociale che è stato alla base della vita cinese per secoli. Il ruolo svolto da questi composti nella storia è stato però ancora maggiore. Coltivati in Paesi lontani dalle loro terre d’origine, oppio, tabacco, tè e caffè hanno avuto effetti molto vistosi sulle popolazioni locali e sulle persone che hanno coltivato tali piante. In molti casi l’ecologia di questi Paesi mutò radicalmente, quando si distrusse la flora nativa per fare largo a ettari di papaveri, a campi di tabacco e a colline verdeggianti coperte di piante di tè o di arbusti di caffè. Le molecole di alcaloidi prodotte da queste piante hanno stimolato il commercio, generato fortune, alimentato guerre, sostenuto governi, finanziato colpi di stato e ridotto in schiavitù milioni di persone: il tutto a causa del nostro eterno

desiderio di una rapida ebbrezza chimica.

14 L’ACIDO OLEICO

La condizione primaria per il commercio, spiegata in termini chimici, è che «molecole altamente desiderate siano distribuite nel mondo in modo non uniforme». Molti dei composti chimici che abbiamo fin qui considerato – quelli presenti nelle spezie, nel tè, nel caffè, nell’oppio, nel tabacco, nella gomma e nei coloranti – corrispondono a questa definizione, e lo stesso vale per l’acido oleico, molecola presente in abbondanza nell’olio spremuto dal piccolo frutto verde dell’olivo. L’olio d’oliva, una merce pregiata da migliaia di anni, è stato definito il sangue vitale delle società sviluppatesi attorno al Mediterraneo. Anche se molte civiltà si svilupparono e declinarono in tale regione, l’olivo e il suo olio dorato furono sempre alla base della loro prosperità e al cuore della loro cultura.

L’olivo fra leggenda e realtà Sull’olivo e sulla sua origine ci sono miti e leggende. L’olivo e i suoi generosi raccolti sarebbero stati fatti conoscere all’umanità dalla dea dell’antico Egitto Iside. La mitologia romana attribuisce a Ercole l’introduzione dell’olivo dal Nordafrica; la dea romana Minerva avrebbe insegnato l’arte della coltivazione dell’olivo e dell’estrazione del suo olio. Secondo un’altra leggenda l’olivo risalirebbe al primo uomo; il primo olivo sarebbe cresciuto sulla tomba di Adamo. Gli antichi greci narrarono di una gara fra il dio del mare Posidone e la dea della pace e della sapienza Atena. La vittoria sarebbe stata assegnata a chi avesse prodotto il dono più utile per la città recentemente costruita nella regione greca dell’Attica. Posidone colpì una roccia col suo tridente e ne scaturì una sorgente. L’acqua cominciò a fluire, e dalla sorgente apparve il

cavallo, simbolo di forza e potenza e aiuto prezioso in guerra. Quando venne il turno di Atena, la dea conficcò nel terreno la lancia, che trasformò in un olivo, simbolo di pace e fonte di cibo e di combustibile. Il dono di Atena fu considerato il più grande, e la nuova città fu chiamata in suo onore Atene. L’olivo è tuttora considerato un dono divino. Un olivo cresce ancora sull’Acropoli di Atene.

L’olivo cresce ancor oggi sull’Acropoli di Atene. (Fotografia di Peter Le Couteur)

L’origine geografica dell’olivo è controversa. Resti fossili di quello che si ritiene sia un progenitore dell’olivo moderno sono stati trovati sia in Italia sia in Grecia. La prima coltivazione dell’olivo viene attribuita di solito a Paesi intorno al Mediterraneo orientale: a varie regioni negli attuali stati della Turchia, della Grecia, della Siria, dell’Iran e dell’Iraq. L’olivo domestico, Olea europaea, l’unica specie del genere Olea sfruttata per il suo frutto, è coltivata da almeno cinquemila anni, ma forse anche da settemila.

Dalle rive orientali del Mediterraneo, la coltivazione dell’olivo si diffuse in Palestina e in Egitto. Alcuni esperti credono che la coltivazione abbia avuto inizio a Creta, da dove, intorno al 2000 a.C., un’industria fiorente esportava l’olio in Grecia, in Nordafrica e in Asia Minore. Al crescere delle loro colonie, i greci introdussero l’olivo in Italia, in Francia, in Spagna e in Tunisia. All’espandersi dell’Impero romano, anche la coltivazione dell’olivo si diffuse nell’intero bacino mediterraneo. Per secoli l’olio d’oliva fu la merce più importante per la regione. Oltre che per la sua funzione ovvia di fornire calorie preziose alla dieta, l’olio d’oliva fu usato in molti altri aspetti della vita quotidiana dei popoli mediterranei. Lampade che usavano come combustibile l’olio d’oliva illuminavano le case di sera. L’olio era usato anche a fini cosmetici; tanto i greci quanto i romani lo usavano per frizionarsi la pelle dopo un bagno. Gli atleti consideravano i massaggi con olio d’oliva essenziali per mantenere sciolti i muscoli. I lottatori aggiungevano sabbia o polvere al loro olio, per impedire la presa ai loro avversari. I rituali dopo le gare comportavano il bagno e altri massaggi con olio d’oliva, per lenire e guarire abrasioni. Le donne usavano olio d’oliva per mantenere giovane la pelle e lucidi i capelli. Si pensava che l’olio aiutasse a prevenire la calvizie e a promuovere la forza. I composti responsabili del profumo e dell’aroma nelle piante sono molto spesso solubili in olio, cosicché alloro, sesamo, rosa, finocchio, menta, ginepro, salvia e altre foglie e fiori venivano messi in infusione in olio d’oliva, producendo miscugli esotici profumati di grande pregio. In Grecia i medici prescrivevano olio d’oliva o alcuni di tali miscugli per numerosi disturbi e malattie, fra cui nausea, colera, ulcere e insonnia. Numerosi riferimenti all’olio d’oliva, assunto per bocca o applicato esternamente, appaiono in antichi testi egizi di medicina. Dell’olivo si usavano persino le foglie per attenuare la febbre e fornire sollievo contro la malaria. Oggi sappiamo che contengono acido salicilico, la stessa molecola, presente nel salice e nell’olmaria, da cui nel 1893 Felix Hofmann sviluppò l’Aspirina. L’importanza dell’olio d’oliva per i popoli del Mediterraneo si riflette nei loro scritti e addirittura nelle loro leggi. Il poeta greco Omero lo chiamò «oro liquido». Il filosofo greco Democrito pensava che una dieta a base di miele e olio d’oliva potesse permettere a un uomo di vivere cento anni, un’età estremamente avanzata in un’epoca in cui la speranza di vita oscillava intorno a quarant’anni. Nel VI secolo a.C. il legislatore ateniese Solone – che

promulgò fra l’altro un codice di leggi umano, istituì tribunali popolari e il diritto di assemblea, e fondò un senato – introdusse leggi per la protezione dell’olivo. Da un oliveto si potevano rimuovere ogni anno solo due olivi. La violazione di questa legge comportava sanzioni gravi, fra cui la pena di morte. Nella Bibbia ci sono più di cento riferimenti alle olive e all’olio di oliva. Per esempio: dopo il diluvio la colomba, uscita dall’arca, porta a Noè un ramoscello d’olivo; Mosè riceve l’istruzione di preparare un unguento di spezie e olio d’oliva; il buon samaritano versa vino e olio sulle ferite della vittima dei predoni; e le vergini sagge tengono le lampade piene d’olio d’oliva. A Gerusalemme c’è il Monte degli Olivi. Il re degli ebrei Davide nominò delle guardie per proteggere i suoi oliveti e i suoi magazzini. L’enciclopedista romano Plinio il Vecchio, nel I secolo a.C., nella Naturalis historia (XV, 1-8) scrisse che l’Italia aveva il migliore olio d’oliva del Mediterraneo. Virgilio elogiò l’olivo: E tu però, se saggio sei, provvedi, che ne’ tuoi campi numeroso alligni questo caro alla pace arbor fecondo.7 Sulla base di tutte queste informazioni sulle funzioni svolte dall’olivo nella religione, nella mitologia e nella poesia, oltre che nella vita quotidiana, non sorprende che esso sia diventato un simbolo importante per molte culture. Nell’antica Grecia, presumibilmente per il fatto che un’abbondanza d’olio d’oliva per cibo e per lampade implicava una prosperità che mancava negli anni di guerra, l’olivo divenne sinonimo di tempo di pace. Noi parliamo ancora di porgere un ramoscello d’olivo quando intendiamo fare un tentativo di pacificazione. L’olivo fu considerato anche un simbolo di vittoria, e i vincitori dei giochi olimpici ricevevano un serto di foglie d’olivo oltre a un premio in olio. Gli oliveti erano spesso considerati un obiettivo da colpire durante la guerra, poiché la loro distruzione non solo eliminava un’importante fonte di cibo del nemico, ma gli infliggeva anche un colpo psicologico devastante. L’albero dell’olivo rappresentava anche saggezza e rinnovamento; dagli olivi che sembravano distrutti dal fuoco spuntavano spesso nuovi germogli e l’albero tornava poi a dar frutto.

Infine, l’olivo rappresentava la forza (un tronco d’olivo era il bastone di Ercole) e il sacrificio (la croce su cui fu inchiodato Cristo sarebbe stata di olivo). In varie epoche e in varie culture l’olio ha simboleggiato potere e ricchezza, verginità e fertilità. L’olio d’oliva è stato usato per secoli per ungere re, imperatori e vescovi, nella loro incoronazione od ordinazione. Saul, il primo re d’Israele, fu consacrato da Samuele che gli versò un vasetto d’olio sul capo. Centinaia d’anni dopo, dal lato opposto del Mediterraneo, il re dei franchi Clodoveo I fu unto con olio d’oliva alla sua incoronazione. Altri trentaquattro re di Francia furono successivamente unti con olio tratto dalla stessa boccetta in forma di pera, fino alla sua distruzione durante la Rivoluzione francese. L’olivo è un albero molto resistente. Esso ha bisogno, per dare un raccolto abbondante, di un clima con un breve inverno freddo, senza gelate primaverili che uccidano i fiori. Una lunga estate molto calda e un autunno mite permettono alle olive di maturare. Il Mediterraneo rinfresca le sue coste africane e riscalda le sue rive settentrionali, rendendo la regione idealmente adatta alla coltivazione dell’olivo. L’olivo non cresce nell’interno, lontano dall’effetto mitigante di un grande mare. Gli olivi possono sopravvivere anche in presenza di una piovosità molto scarsa. Le loro lunghe radici a fittone penetrano in profondità per trovare l’acqua, e le foglie sono strette e coriacee con una superficie inferiore opaca e argentea: adattamenti che impediscono la perdita d’acqua per evaporazione. L’olivo può sopravvivere a lunghi periodi di siccità e può crescere su suoli rocciosi e su terrazzature pietrose. Un gelo estremo e tempeste invernali possono strappargli rami e spezzare tronchi, ma anche un olivo apparentemente distrutto dal freddo la primavera seguente si rigenera ed emette nuovi polloni verdi. Non sorprende che coloro che si trovarono a dipendere dall’olivo per migliaia di anni siano giunti a venerarlo.

La chimica dell’olio d’oliva Vari tipi di olio sono stati forniti da molte piante: noci e mandorli, mais, sesamo, lino, girasole, palme da cocco, soia e arachidi, per nominarne solo alcune. Gli oli – e i grassi, i loro parenti molto stretti, estratti di solito da fonti

animali – sono apprezzati da molto tempo come cibo, come combustibile per illuminazione e come cosmetici e medicinali. Nessun altro olio o grasso è però diventato così tanto parte della cultura e dell’economia, così strettamente connesso al cuore e alla mente della gente, o così importante per la crescita della civiltà occidentale come l’olio estratto dal frutto dell’olivo. La differenza chimica fra l’olio d’oliva e qualsiasi altro olio o grasso è molto piccola. Ancora una volta, però, una differenza molto piccola può spiegare gran parte del corso della storia umana. Noi non riteniamo troppo arbitraria l’affermazione che senza l’acido oleico – così chiamato dall’olivo e dalla molecola che differenzia l’olio d’oliva da altri oli o grassi – lo sviluppo della civiltà e della democrazia occidentali avrebbe potuto seguire una via del tutto diversa. Grassi e oli sono noti come trigliceridi. Questi composti sono formati da una molecola di glicerolo (detto anche glicerina) e da tre molecole di acidi grassi.

La molecola di glicerolo

Gli acidi grassi sono lunghe catene di atomi di carbonio con un gruppo acido, COOH (o HOOC) a un estremo:

Molecola di un acido grasso con dodici atomi di carbonio. Il gruppo acido, a sinistra, è circolato.

Pur essendo molecole semplici, gli acidi grassi hanno vari atomi di carbonio, cosicché è spesso più facile rappresentarli nella forma a zigzag, dove ogni intersezione a ciascun estremo di un segmento rappresenta un atomo di carbonio e dove la maggior parte degli atomi di idrogeno non viene affatto raffigurata.

Questo acido grasso ha ancora dodici atomi di carbonio.

Quando vengono eliminate tre molecole d’acqua (H2O) fra l’H appartenente a ciascuno dei tre gruppi OH sul glicerolo e l’OH appartenente al gruppo acido HOOC di tre diverse molecole di acidi grassi, si forma una molecola di trigliceride. Questo processo di condensazione – l’unione di molecole attraverso la perdita di H2O – è simile alla formazione di polisaccaridi (di cui ci siamo occupati nel capitolo 4).

Glicerolo e tre acidi grassi si combinano, formando un trigliceride

La molecola di trigliceride illustrata qui sopra ha tre molecole di acidi grassi uguali. Ma può anche accadere che siano uguali fra loro solo due delle molecole degli acidi grassi. Oppure possono essere diverse tutt’e tre. Grassi e oli hanno la stessa porzione di glicerolo; sono gli acidi grassi che variano. Nell’esempio precedente abbiamo presentato un cosiddetto acido grasso saturo. In questo caso saturo significa saturato con idrogeno; alla porzione di acido grasso della molecola non si può più aggiungere idrogeno, poiché non

ci sono doppi legami carbonio-carbonio che possano spezzarsi per permettere di attaccarvi altri atomi di carbonio. Se in un acido grasso sono presenti legami del genere, esso si chiama insaturo. Fra gli acidi grassi saturi più comuni ci sono:

Acido laurico (o dodecanoico), a 12 atomi di carbonio

Acido miristico (o tetradecanoico), a 14 atomi di carbonio

Acido palmitico (o esadecanoico), a 16 atomi di carbonio

Acido stearico (o octadecanoico), a 18 atomi di carbonio

Dai loro nomi non è difficile congetturare che la fonte principale dell’acido stearico è il sego dei bovini e che l’acido palmitico è un componente dell’olio di palma. Quasi tutti gli acidi grassi hanno un numero pari di atomi di carbonio. Gli esempi presentati qui sopra sono fra gli acidi grassi più comuni, pur esistendone anche altri. Il burro contiene acido butirrico (dal latino butyrum, per «burro»), con quattro soli atomi di carbonio, e acido caproico – presente anche in burro e grasso estratti dal latte di capra –, che ne contiene sei. Gli acidi grassi insaturi contengono almeno un doppio legame carboniocarbonio. Se c’è uno solo di tali doppi legami, l’acido viene chiamato monoinsaturo; se tali legami sono più d’uno, l’acido è polinsaturo. Il trigliceride presentato nella figura seguente è formato da due acidi grassi monoinsaturi e da un acido grasso saturo. I doppi legami sono nella disposizione cis, poiché gli atomi di carbonio della lunga catena si trovano dalla stessa parte del doppio legame.

Trigliceride formato da due acidi grassi monoinsaturi e da uno saturo

A questo punto nella catena si forma una piega, cosicché tali trigliceridi non possono disporsi in modo altrettanto compatto quanto i trigliceridi composti da acidi grassi saturi (qui sotto).

Trigliceride formato da tre acidi grassi saturi

Quanto maggiore è il numero dei doppi legami in un acido grasso, tanto più esso è piegato e tanto meno compatta è la configurazione. Una configurazione meno efficiente richiede meno energia per superare le attrazioni che tengono insieme le molecole, le quali possono perciò venire separate a temperature inferiori. A temperatura ambiente, i trigliceridi con una proporzione maggiore di acidi grassi insaturi tendono a essere liquidi, piuttosto che solidi. Possiamo chiamarli oli; essi sono per lo più di origine vegetale. Gli acidi grassi saturi, che possono disporsi compattamente, richiedono più energia per separare le singole molecole cosicché fondono a temperature superiori. I trigliceridi tratti da fonti animali, con una

proporzione maggiore di grassi saturi rispetto agli oli, sono solidi a temperatura ambiente. Noi li chiamiamo grassi. Alcuni fra gli acidi grassi insaturi più comuni sono:

Acido palmitoleico, a 16 atomi di carbonio, monoinsaturo

Acido oleico, a 18 atomi di carbonio, monoinsaturo

Acido linoleico, a 18 atomi di carbonio, polinsaturo

Acido linolenico, a 18 atomi di carbonio, polinsaturo

L’acido oleico monoinsaturo, a diciotto atomi di carbonio, è il principale acido grasso dell’olio d’oliva. Benché l’acido oleico si trovi anche in altri oli e in molti grassi, l’olio d’oliva ne è la fonte più importante. Esso contiene una proporzione maggiore di acido grasso monoinsaturo di qualsiasi altro olio. La percentuale dell’acido oleico nell’olio d’oliva varia dal 55 all’85 per cento circa, a seconda della varietà e delle condizioni di crescita (le aree più fresche producono un contenuto di acido oleico maggiore rispetto a quelle più calde). Oggi ci sono prove convincenti del fatto che una dieta con una proporzione

elevata di grasso saturo può contribuire allo sviluppo di cardiopatie. L’incidenza delle malattie cardiocircolatorie è minore nella regione mediterranea, dove si consuma una grande quantità di olio d’oliva, e di acido oleico. È noto che i grassi saturi aumentano le concentrazioni di colesterolo nel siero, mentre i grassi e gli oli polinsaturi le abbassano. Gli acidi grassi monoinsaturi, come l’acido oleico, hanno un effetto neutro sul livello del colesterolo nel siero (ossia sul livello del colesterolo nel sangue). La relazione fra malattie cardiocircolatorie e acidi grassi implica anche un altro fattore: il rapporto delle lipoproteine ad alta densità (note come HDL) alle lipoproteine a bassa densità (note come LDL). Una lipoproteina è un accumulo di colesterolo, proteine e trigliceridi insolubile in acqua. Le lipoproteine ad alta densità – spesso chiamate le lipoproteine «buone» (o colesterolo «buono») – trasportano al fegato il colesterolo accumulato in quantità eccessiva nelle cellule, perché provveda a eliminarlo. Questo meccanismo impedisce al colesterolo in eccesso di depositarsi sulle pareti delle arterie. Quanto alle lipoproteine «cattive» (o colesterolo «cattivo»), le LDL, trasportano il colesterolo dal fegato o dall’intestino tenue a cellule di nuova formazione o a cellule in crescita. Benché questa sia una funzione necessaria, un eccesso di colesterolo nel circolo sanguigno forma infine depositi di placca sulle pareti delle arterie, determinandone una restrizione del lume. Se le arterie coronarie che trasportano il sangue al muscolo cardiaco si intasano, il diminuito flusso sanguigno che ne risulta può causare dolori al torace e attacchi cardiaci. È il rapporto dell’HDL all’LDL, oltre al livello totale del colesterolo, a determinare il rischio di malattie cardiocircolatorie. Benché i trigliceridi polinsaturi abbiano l’effetto positivo di ridurre i livelli di colesterolo nel siero, essi abbassano anche il rapporto HDL:LDL, un effetto negativo. I trigliceridi monoinsaturi, come l’olio d’oliva, pur non riducendo i livelli di colesterolo nel sangue, aumentano il rapporto HDL:LDL, ossia il rapporto delle lipoproteine buone alle lipoproteine cattive. Fra gli acidi grassi saturi, gli acidi palmitico (C16) e laurico (C12) aumentano considerevolmente i livelli delle LDL. I cosiddetti oli tropicali – di cocco, di palma e di semi di palma –, che hanno proporzioni elevate di questi acidi grassi, sono particolarmente sospetti in relazione alle malattie cardiache, in quanto aumentano sia il colesterolo del siero sia il livello delle LDL.

Benché le proprietà benefiche dell’olio d’oliva fossero apprezzate dalle antiche società mediterranee, e si ritenesse che fornissero un contributo alla longevità, non c’era alcuna conoscenza della chimica celata dietro queste credenze. In effetti, in tempi in cui il principale problema dietetico era semplicemente quello di procurarsi abbastanza calorie, i livelli di colesterolo nel sangue e i rapporti HDL:LDL sarebbero stati irrilevanti. Per secoli, per la grande maggioranza della popolazione dell’Europa settentrionale, dove la principale fonte di trigliceridi nella dieta era il grasso animale e la speranza di vita era di meno di quarant’anni, l’indurimento delle arterie non costituiva certo un problema. Solo al crescere della speranza di vita e del consumo di acidi grassi saturi, associati alla prosperità economica, le cardiopatie coronariche sono entrate a far parte delle principali cause di morte. C’è anche un altro aspetto della chimica dell’olio d’oliva che spiega la sua importanza per il mondo antico. All’aumentare del numero dei doppi legami carbonio-carbonio in un acido grasso, aumenta anche la tendenza dell’olio a ossidarsi, a diventare rancido. La proporzione degli acidi grassi polinsaturi nell’olio d’oliva è molto minore che negli altri oli, di solito meno del 10 per cento, cosicché l’olio d’oliva ha una durata sullo scaffale più lunga di quella di quasi tutti gli altri oli. Esso contiene inoltre piccole quantità di polifenoli e di vitamine E e K, molecole antiossidanti che svolgono un ruolo critico come conservanti naturali. Il tradizionale metodo di estrazione dell’olio con torchiatura a freddo delle olive aiuta a conservare queste molecole antiossidanti, che possono essere distrutte da temperature elevate. Oggi un metodo per migliorare la stabilità e accrescere la vita degli oli sullo scaffale è l’eliminazione di qualche doppio legame per idrogenazione, processo consistente nell’aggiungere atomi di idrogeno ai doppi legami di acidi grassi insaturi. Ne risulta anche un trigliceride più solido; questo è il metodo usato per convertire oli in sostituti del burro come la margarina. Il processo di idrogenazione modifica però anche i restanti doppi legami, dalla configurazione cis alla configurazione trans, nella quale gli atomi di carbonio della catena vengono a trovarsi distribuiti a entrambi i lati del doppio legame.

Il doppio legame cis

Il doppio legame trans

È noto che gli acidi grassi trans accrescono i livelli delle LDL, ma non quanto i grassi acidi saturi.

Il commercio dell’olio d’oliva I conservanti naturali presenti come ossidanti nelle olive devono essere stati di fondamentale importanza per i commercianti d’olio dell’antica Grecia. Questa civiltà fu un’associazione alquanto indipendente di città-stato, con una lingua comune, una cultura comune e una comune base economica agricola, fondata sul frumento, l’orzo, la vite, i fichi e le olive. Per secoli e secoli i Paesi mediterranei furono molto più ricchi di alberi di quanto non siano oggi; il suolo era più fertile e dalle sorgenti era disponibile molta più acqua. Al crescere della popolazione, le coltivazioni si diffusero dalle piccole valli originarie su per i fianchi delle montagne costiere. Con la sua capacità di crescere su suoli scoscesi e pietrosi, e di resistere alla siccità, l’olivo divenne una risorsa sempre più importante. Il suo olio era ancora più apprezzato come merce da esportazione, perché nel VI secolo a.C., unitamente alla legge rigorosa contro l’abbattimento incontrollato degli olivi, il legislatore ateniese Solone stabilì che l’olio d’oliva fosse l’unico prodotto agricolo esportabile. Di conseguenza si abbatterono le foreste costiere e si piantarono altri olivi. Là dove un tempo si coltivava il frumento, ora prosperavano gli oliveti. Il valore economico dell’olio d’oliva divenne presto evidente. Le cittàstato divennero centri di commercio. Grandi navi, a vela o a remi e costruite per trasportare centinaia di anfore d’olio, portarono il loro prezioso carico nell’intero Mediterraneo, tornando in patria cariche di metalli, spezie, tessuti e altre merci provenienti da porti lontani. Al commercio seguì la colonizzazione, e alla fine del VI secolo a.C. il mondo ellenico si era diffuso

ben oltre l’Egeo: in Italia, Sicilia, Francia e nelle Baleari a occidente, intorno al mar Nero a oriente, e persino sulle coste mediterranee dell’Africa. Ma il metodo usato da Solone per sviluppare la produzione dell’olio d’oliva ebbe conseguenze ambientali che sono ancora evidenti nella Grecia attuale. Con i boschi abbattuti e i cereali non più coltivati si erano perduti i sistemi radicali fibrosi che avevano attratto l’acqua dalla subsuperficie ed erano serviti a mantenere compatta la terra circostante. La lunga radice dell’olivo attingeva acqua da strati profondi, sotto la superficie, e non aveva alcun effetto legante sul suolo superficiale. Gradualmente le sorgenti si inaridirono, il suolo fu dilavato e la terra erosa. I campi su cui un tempo si erano coltivati cereali e i pendii su cui erano cresciute le viti non erano più in grado di sostenere tali piante. Il bestiame divenne scarso. La Grecia affogava nell’olio di oliva, ma un numero sempre maggiore di altre merci dovevano essere importate: un fattore importante nel governo di un grande impero. Molte ragioni sono state addotte per spiegare il declino della Grecia classica: le controversie interne fra città- stato sempre in conflitto fra loro, decenni di guerra, mancanza di una leadership effettiva, il crollo delle tradizioni religiose, attacchi dall’esterno. Potremmo forse aggiungerne un’altra: la perdita di preziosa terra agricola a vantaggio delle richieste del commercio dell’olio d’oliva.

Sapone di olio d’oliva L’olio d’oliva può essere stato un fattore causale nell’ascesa e nel crollo della Grecia classica, ma intorno all’VIII secolo d.C. l’introduzione di un prodotto a base d’olio d’oliva, il sapone, potrebbe avere avuto conseguenze ancora più importanti per la società europea. Oggi il sapone è così comune che noi non ci rendiamo più conto di quale ruolo significativo abbia svolto nella civiltà umana. Cercate di immaginare, per un momento, come sarebbe la nostra vita senza sapone, o senza detersivi, shampoo e simili. Noi diamo per scontata la capacità detergente del sapone, eppure senza il sapone le attuali megacittà sarebbero impossibili. La sporcizia e la malattia metterebbero a rischio la vita umana, o la renderebbero addirittura impossibile in condizioni di affollamento. La sporcizia e lo squallore delle città medievali, che avevano

popolazioni molto minori di quelle delle grandi città di oggi, non possono essere imputate interamente alla mancanza di sapone, ma in assenza di questo composto essenziale il mantenimento della pulizia sarebbe stato estremamente difficile. Per secoli il genere umano si è servito del potere detergente di alcune piante contenenti saponine – glucosidi (composti contenenti zucchero) come quelli da cui Russell Marker estrasse le sapogenine che divennero la base delle pillole per il controllo delle nascite – e glucosidi cardiocinetici, come la digossina e altre molecole usate dagli erboristi e dalle presunte streghe.

La sarsasaponina, la saponina tratta dalla pianta di salsapariglia.

Nomi di piante come la saponaria (Saponaria officinalis), l’albero del sapone (Sapindus saponaria), e particolarmente il suo frutto, detto in inglese soapberry, la pianta californiana Chlorogalum pomeridianum, della famiglia delle liliacee, detta in inglese soap plant, l’albero cileno Quillaja saponaria, varie erbe europee del genere Gypsophila, le cui radici erano usate come sapone (di qui il nome di soaproot), ci forniscono informazioni sull’uso che veniva fatto di diverse piante contenenti saponina. Fra queste piante ci sono vari membri delle famiglie delle liliacee, delle felci, delle rutacee, dei generi Sapindus, Lychnis e Yucca. Estratti di saponina ricavati da alcune di queste piante sono usati ancor oggi per lavare tessuti delicati o come shampoo per capelli; essi formano una schiuma molto fine e hanno un effetto detergente assai delicato.

Il processo di saponificazione fu con ogni probabilità una scoperta accidentale. Persone che cucinavano su fuochi di legna potrebbero avere notato che grassi e oli che sgocciolavano dai cibi sulle ceneri producevano una sostanza che in acqua formava una schiuma. Esse non dovettero impiegare molto tempo per accorgersi che questa sostanza era un agente detergente molto efficace e che poteva essere prodotta di proposito usando grassi o oli e cenere di legna. Scoperte simili furono fatte senza dubbio in molte parti del mondo, essendoci prove della produzione di sapone da parte di molte civiltà. Cilindri di argilla contenenti un tipo di sapone e le istruzioni per produrlo sono stati trovati in siti d’epoca babilonese, risalenti a quasi cinquemila anni fa. Documenti egizi risalenti al 1500 a.C. mostrano che questo popolo produceva saponi fatti di grassi e di cenere di legna, e nel corso dei secoli ci sono riferimenti all’uso del sapone nelle industrie dei tessili e della tintoria. Sappiamo che il popolo dei galli usò un sapone fatto di grasso di capra e di potassa per rendersi i capelli luccicanti, o per conferire loro una tonalità rossastra. Questo sapone veniva usato anche come una pomata per rendersi rigidi i capelli: un antenato del gel. La scoperta della produzione del sapone, e del suo uso per farsi il bagno e per lavare i tessuti è stata attribuita anche ai celti. Una leggenda romana attribuisce la scoperta del sapone a donne romane che lavavano la biancheria sulle rive del Tevere, a valle del tempio sul monte Sapo. I grassi di animali sacrificati al tempio si combinavano con le ceneri dei fuochi sacrificali. Quando pioveva, questi rifiuti scorrevano giù per la collina ed entravano nel Tevere nella forma di un liquido saponoso, che poteva essere usato dalle lavandaie di Roma. Il termine chimico per designare la reazione che si verifica quando trigliceridi di grassi e di oli reagiscono con alcali, forniti dalle ceneri, è saponificazione: questa parola è derivata dal monte Sapo, così come la parola per designare il sapone in un gran numero di lingue.8 Benché il sapone sia stato prodotto già in epoca romana, era usato principalmente per lavare indumenti. Come gli antichi greci, i romani curavano l’igiene personale per lo più sfregandosi il corpo con un miscuglio d’olio d’oliva e sabbia, che poi veniva eliminata con un raschiatoio fatto specificamente per quest’uso e noto come strigilo. Con questo metodo venivano eliminati il grasso, la sporcizia e la pelle morta. Il sapone venne

usato gradualmente per la pulizia personale negli ultimi secoli dell’epoca romana. Il sapone e la saponificazione sarebbero stati associati ai bagni pubblici, e si sarebbero diffusi nelle città sparse per tutto l’impero. Al declinare di Roma, pare che anche la saponificazione e l’uso del sapone siano scemati nell’Europa occidentale, sebbene il sapone abbia continuato a essere prodotto e usato nell’Impero bizantino e nel mondo arabo. In Spagna e in Francia, durante l’VIII secolo, ci fu una ripresa dell’arte della saponificazione usando olio d’oliva. Il sapone risultante, chiamato «castiglia», dal nome di una regione della Spagna, era di altissima qualità, puro, bianco e splendente. Esso veniva esportato in altre parti d’Europa, e nel Duecento la Spagna e la Francia meridionale erano già famose per questo genere di lusso.9 I saponi dell’Europa settentrionale si basavano invece su grasso animale o su oli di pesci; erano di qualità scadente ed erano usati principalmente per lavare i tessuti. La reazione chimica per la produzione del sapone – la saponificazione – scompone un trigliceride negli acidi grassi che lo compongono e nel glicerolo, attraverso l’uso di una base, o alcale, come l’idrossido di potassio (KOH) o l’idrossido di sodio (NaOH).

La reazione di saponificazione di una molecola di trigliceride dell’acido oleico, la quale dà origine al glicerolo e a tre molecole di sapone.

I saponi di potassio sono molli; quelli fatti di sodio sono duri. In origine la maggior parte dei saponi erano saponi di potassio, in quanto la fonte più facilmente disponibile di alcali era la cenere di legna ottenuta dalla combustione di legno e torba. La potassa (dal tedesco Pottasche, la cenere di vegetali cotti in una pentola di terracotta) è carbonato di potassio (K2CO3) e forma in acqua una soluzione leggermente alcalina. Dov’era disponibile cenere di soda (carbonato di sodio, Na2CO3), si producevano saponi duri. Un’importante fonte di reddito in alcune regioni costiere, fra cui in particolare la Scozia e l’Irlanda, era la raccolta di fucacee e di altri tipi di alghe, che venivano bruciate per produrre cenere di soda. Anche la cenere di soda sciolta in acqua produce una soluzione alcalina. In Europa l’uso del bagno declinò insieme all’Impero romano, anche se i bagni pubblici continuarono a esistere e furono usati in molte città fin verso la fine del Medioevo. Negli anni della peste, a cominciare dal Trecento, le autorità municipali presero la decisione di chiudere i bagni pubblici, temendo

che potessero favorire la diffusione della Morte Nera. Nel Cinquecento i bagni non solo non erano più di moda, ma erano considerati addirittura pericolosi o peccaminosi. Coloro che potevano permetterselo, coprivano i cattivi odori del corpo con generose applicazioni di essenze e profumi. Ben poche case avevano il bagno. La norma era fare il bagno una volta l’anno; le persone dovevano emanare effluvi disgustosi. Nel corso di questi secoli c’era però ancora richiesta di sapone. I ricchi si facevano lavare indumenti e biancheria. Si usava il sapone per lavare pentole e tegami, piatti e posate, pavimenti e banconi di negozi. Ci si lavavano col sapone le mani, e forse anche il viso. Quel che si disapprovava era lavare l’intero corpo, specialmente fare il bagno nudi. In Inghilterra la produzione commerciale di sapone cominciò nel Trecento. Come nella maggior parte dell’Europa settentrionale, il sapone era fatto principalmente di grasso bovino o sego, il cui contenuto in acidi grassi è costituito per il 48 per cento circa di acido oleico. Il grasso umano ne contiene il 46 per cento circa; i due grassi bovino e umano sono quelli che contengono le percentuali più elevate di acido oleico nel mondo animale. Per confronto, gli acidi grassi contenuti nel burro sono composti di acido oleico per il 27 per cento circa, mentre nel grasso di balena la percentuale è del 35 per cento. Nel 1628, quando salì al trono d’Inghilterra Carlo I, la produzione di sapone era un’industria importante. Alla disperata ricerca di una fonte di entrate, di fronte al rifiuto del Parlamento di approvare le sue richieste di aumento delle tasse, Carlo vendette diritti di monopolio per la produzione del sapone. I produttori di sapone esclusi, esasperati per la perdita dei loro mezzi di sussistenza, diedero il loro sostegno al Parlamento. È stato detto perciò che il sapone fu una delle cause della Guerra civile inglese del 1642-1652, dell’esecuzione di Carlo I e dell’instaurazione dell’unica repubblica mai esistita nella storia d’Inghilterra. Questa tesi sembra un po’ forzata, essendo difficile pensare che il sostegno dei produttori di sapone possa essere stato un fattore determinante; cause più probabili sono le divergenze sulla politica fiscale, sulla religione e sulla politica estera, e i disaccordi fra il re e il Parlamento. In ogni caso, il rovesciamento del re fu di scarso vantaggio ai produttori di sapone, poiché il regime puritano che gli successe considerò saponi e servizi da toeletta cose frivole, e il capo dei puritani, il Lord Protettore dell’Inghilterra Oliver Cromwell, impose tasse pesanti sul sapone. Al sapone si può tuttavia riconoscere il merito della riduzione della

mortalità infantile in Inghilterra, che divenne evidente negli ultimi decenni dell’Ottocento. A partire dall’inizio della Rivoluzione industriale, verso la fine del Settecento, ci furono grandi migrazioni dalle campagne nelle città, alla ricerca di posti di lavoro in fabbrica. A questa rapida crescita della popolazione urbana seguì un peggioramento sempre più accentuato delle condizioni degli alloggi. Nelle comunità rurali la produzione del sapone era soprattutto un’attività domestica; scarti di sego e di altri grassi messi da parte durante la macellazione di animali domestici, cucinati insieme alle ceneri della sera prima producevano un sapone grossolano ma a buon mercato. Gli abitanti delle città non avevano fonti di grasso paragonabili. Il sego dei bovini doveva essere comprato ed era un cibo troppo prezioso per essere usato per produrre sapone. Anche le ceneri di legna erano meno accessibili. Il combustibile dei poveri delle città era il carbone, e le piccole quantità di cenere di carbone disponibili non erano una buona fonte dell’alcale necessario per saponificare il grasso. Ma quand’anche fossero stati disponibili gli ingredienti, le abitazioni di molti operai di fabbrica avevano, nella migliore delle ipotesi, solo cucine rudimentali e poco spazio, e insufficienti recipienti per la produzione del sapone. Il sapone non veniva quindi più prodotto in casa. Esso doveva essere comprato, e in generale non era alla portata degli operai. Le condizioni igieniche, che già all’inizio non erano molto confortevoli, peggiorarono ancora di più e la mancanza di pulizia contribuì a un alto tasso di mortalità fra i bambini. Alla fine del Settecento, però, il chimico francese Nicolas Leblanc scoprì un metodo efficiente per produrre cenere di soda dal sale comune. Il costo ridotto di quest’alcale, una disponibilità accresciuta di grasso, e infine, nel 1853, l’abolizione di tutte le tasse sul sapone ne abbassarono il prezzo tanto da renderne possibile un uso popolare. Il declino della mortalità infantile a cominciare da quest’epoca è stato attribuito al potere detergente semplice ma efficace del sapone e dell’acqua. Le molecole di sapone puliscono perché hanno una «testa» idrofila carica, solubile in acqua, mentre la «coda», idrofobica, non è solubile in acqua ma si scioglie in sostanze come l’unto, l’olio e il grasso. La struttura della molecola di sapone è

Una molecola di stearato di sodio: una molecola di sapone prodotto con sego di bovini.

e può essere rappresentata anche così:

Il diagramma seguente mostra molte di queste molecole che penetrano con la coda idrofobica in una masserella d’unto e formano un aggregato noto come micella. In una micella, le teste, idrofile, orientate verso l’esterno, in virtù della loro carica negativa si respingono reciprocamente, determinando la dispersione nell’acqua delle molecole di sapone, che portano via con sé le particelle d’unto.

Una micella di sapone in acqua. Gli estremi carichi delle molecole di sapone rimangono nell’acqua, mentre gli estremi della catena di carbone rimangono racchiusi nell’unto.

Benché il sapone sia stato inventato ormai da migliaia di anni, e venga prodotto commercialmente da secoli, i princìpi chimici della sua formazione sono noti solo da un tempo relativamente breve. Il sapone poteva essere

prodotto a partire da quella che poteva sembrare una grande varietà di sostanze diverse – olio d’oliva, sego, olio di palma, olio di balena, grasso di maiale – e poiché le strutture chimiche di questi prodotti non furono note fino all’inizio dell’Ottocento, non ci si rese conto dell’essenziale somiglianza delle strutture di questi trigliceridi. La chimica del sapone poté essere apprezzata solo nell’Ottocento inoltrato. A quell’epoca i cambiamenti sociali negli atteggiamenti verso il bagno, il graduale miglioramento delle condizioni economiche della classe operaia e la comprensione del rapporto fra malattia e scarsa igiene fecero del sapone un elemento essenziale della vita quotidiana. Saponi fini da bagno, prodotti con grassi e oli diversi, vennero a sfidare il predominio, stabilito da molto tempo, dei saponi tipo castiglia e marsiglia, fatti d’olio d’oliva. Ma erano stati proprio questi saponi – e quindi l’olio d’oliva – a garantire un qualche livello di igiene personale per quasi un millennio.

Oggi l’olio d’oliva è universalmente apprezzato per i suoi effetti positivi sulla salute del cuore e per il sapore delizioso che dà ai cibi. È ben noto il ruolo positivo che esso ha svolto nel mantenere in vita la tradizione della saponificazione, e quindi della lotta contro la sporcizia e la malattia nel Medioevo. Ma la ricchezza che la produzione e il commercio dell’olio d’oliva apportarono all’antica Grecia consentirono in definitiva anche lo sviluppo di molti fra gli ideali di quella cultura che noi apprezziamo ancor oggi. Le radici dell’attuale civiltà occidentale si trovano in idee promosse nella cultura politica della Grecia classica: concetti di democrazia e di autogoverno, di filosofia e di logica, e gli inizi dell’argomentazione razionale, delle investigazioni scientifiche e matematiche, dell’educazione e delle arti. La ricchezza della società greca permise la partecipazione di migliaia di cittadini al processo di ricerca, a discussioni rigorose e alle scelte politiche. Più che in qualsiasi altra società antica, gli uomini furono coinvolti nelle decisioni che incidevano sulla loro vita (donne e schiavi non erano considerati cittadini con pieni diritti). Il commercio dell’olio d’oliva influì in misura importante sulla prosperità della società greca; istruzione e impegno civico ne furono una conseguenza. I valori gloriosi della Grecia – oggi considerati alla base delle attuali società democratiche – non sarebbero stati possibili senza i trigliceridi dell’acido oleico.

15 IL SALE

La storia del comune sale da cucina – il cloruro di sodio, di formula chimica NaCl – ha un corso parallelo a quello della storia della civiltà umana. Il sale è così apprezzato, così necessario e così importante da avere sempre svolto un ruolo di primo piano non solo nel commercio globale, ma anche in sanzioni economiche e in monopoli, in guerre, nella crescita di città, in sistemi di controllo sociale e politico, in progressi industriali e nella migrazione di popolazioni. Oggi è una sorta di enigma. Esso è assolutamente essenziale alla vita – senza di esso moriremmo – ma al tempo stesso ci viene detto di limitarne l’assunzione, in quanto potrebbe ucciderci. Oggi costa pochissimo; noi ne produciamo e usiamo quantità enormi. Eppure, per quasi tutta la durata della storia documentata e probabilmente anche per secoli prima che venisse registrato alcun evento storico, era una merce preziosa e spesso molto costosa. Una persona media all’inizio dell’Ottocento avrebbe avuto molta difficoltà a credere che noi oggi spargiamo normalmente grandi quantità di sale sulle strade per eliminare il ghiaccio o prevenirne la formazione. Anche il prezzo di molte altre molecole è calato considerevolmente grazie agli sforzi dei chimici, o perché oggi siamo in grado di sintetizzare i vari composti in laboratori e fabbriche (acido ascorbico, gomma, indaco, penicillina), o perché abbiamo la capacità di produrne sostituti artificiali, composti le cui proprietà sono così simili al prodotto naturale (tessuti, plastiche, colori di anilina) da togliergli importanza. Oggi ci affidiamo a sostanze chimiche nuove per la conservazione dei cibi (refrigeranti), cosicché le molecole di spezie non riescono più a mantenere i prezzi elevati che avevano un tempo. Altri composti chimici – antiparassitari e fertilizzanti – hanno contribuito alla crescita dei raccolti, e quindi alla disponibilità di molecole come il glucosio, la cellulosa, la nicotina, la caffeina e l’acido oleico. Fra tutti i composti, però, il sale è quello che ha avuto probabilmente

il massimo aumento nella produzione associato alla più forte diminuzione del prezzo.

La produzione del sale Nell’intero corso della storia gli esseri umani hanno raccolto o prodotto sale. Furono usati nell’antichità, e sono in uso ancor oggi, tre metodi principali per la produzione del sale: l’evaporazione dell’acqua di mare, la bollitura di soluzioni saline tratte da sorgenti salse e l’estrazione da giacimenti di salgemma. L’evaporazione a opera del sole di acqua di mare era (ed è ancora) il metodo più comune nelle regioni costiere tropicali. Il processo è lento ma economico. In origine l’acqua di mare veniva gettata su carboni ardenti e il sale veniva recuperato sotto forma di una crosta, quando il fuoco era spento. Quantità maggiori potevano essere raccolte da avvallamenti rocciosi costieri. Non dovette occorrere molta immaginazione per rendersi conto che laghi artificiali poco profondi, costruiti in aree in cui si poteva usare l’alta marea per riempirli quando era necessario, potevano fornire quantità di sale molto maggiori. Il sale marino grezzo è di qualità molto inferiore rispetto al sale delle sorgenti o al salgemma. Benché l’acqua di mare abbia un contenuto del 3,5 per cento di sali in soluzione, solo due terzi di questi sono cloruro di sodio; il resto è un miscuglio di cloruro di magnesio (MgCl2) e di cloruro di calcio (CaCl2). Poiché questi due cloruri sono entrambi più solubili e meno abbondanti del cloruro di sodio, l’NaCl cristallizza per primo dalla soluzione, cosicché è possibile eliminare la maggior parte dell’MgCl2 e del CaCl2 facendoli scorrere via insieme alla soluzione residua. Ne rimane però abbastanza per dare al sale marino un sapore più forte, che è attribuibile a queste impurità. Tanto il cloruro di magnesio quanto quello di calcio sono deliquescenti, ossia assorbono acqua dall’aria e, quando ciò accade, il sale contenente questi altri cloruri si raggruma e diventa più difficile da spargere con la saliera. L’evaporazione dell’acqua di mare era particolarmente efficace in climi molto caldi e asciutti, ma anche le sorgenti salate, fonti sotterranee di soluzioni saline altamente concentrate – a volte anche dieci volte più

concentrate dell’acqua di mare – erano una fonte eccellente di sale in qualsiasi clima, purché ci fosse legna a sufficienza per fare evaporare per bollitura l’acqua contenuta nelle soluzioni saline. La richiesta di legna per la produzione del sale contribuì a deforestare parti d’Europa. Il sale delle sorgenti salate, non contaminato da cloruro di magnesio e da cloruro di calcio, che ne diminuivano l’efficacia nella conservazione di cibi, era più desiderabile del sale marino, ma anche più costoso. In molte parti del mondo esistono depositi di salgemma o alite: il nome dell’NaCl trovato nel suolo come minerale. L’alite (o halite) è formata dai residui essiccati di antichi oceani o mari e viene estratta da secoli, specialmente là dove questi depositi sono vicini alla superficie della terra. Il sale era però così prezioso che, quando le popolazioni dell’Età della Pietra in Europa cominciarono a estrarre il sale, si crearono pozzi profondi, chilometri di gallerie e grandi caverne. Intorno a queste miniere sorsero insediamenti, e la continua estrazione del sale condusse alla fondazione di cittadine e città, che divennero ricche grazie a questa attività. La produzione o estrazione del sale fu importante in molti luoghi d’Europa per tutto il Medioevo; il sale era così apprezzato da essere noto come «oro bianco». Venezia, che fu per secoli il centro del commercio delle spezie, aveva iniziato la sua esistenza nella forma di una comunità che otteneva le sue entrate principali dall’estrazione di sale dall’acqua delle lagune salmastre della zona. Nomi di fiumi, di cittadine e di città europee – Salisburgo, Halle, Hallstatt, Hallen, La Salle, Moselle – ne ricordano i legami con l’estrazione o la produzione di sale (dalla parola greca hals e da quella latina sal). Il nome turco per sale, tuz, ricorre nella cittadina di Tuzla, in una regione produttrice di sale della Bosnia-Herzegovina, oltre che in comunità costiere turche con nomi simili. Oggi, attraverso il turismo, il sale è ancora una fonte di ricchezza per alcune di tali antiche cittadine produttrici di sale. A Salisburgo, in Austria, le miniere di sale sono ancora una fra le principali attrazioni turistiche, così come a Wieliczka, nei pressi di Cracovia, in Polonia, dove, in grandi caverne svuotate in conseguenza dell’estrazione di sale, sono state realizzate una sala da ballo, una cappella con un altare, statue religiose scolpite nel sale; e oggi un lago sotterraneo vi incanta migliaia di visitatori. Il più grande salar (salina) del mondo è quello di Uyuni in Bolivia, dove i turisti possono alloggiare in un vicino albergo fatto interamente di sale.

L’albergo fatto di sale nei pressi del Salar de Uyuni, in Bolivia. (Fotografia di Peter Le Couteur)

Il commercio del sale Che il sale sia stato una merce di grande importanza commerciale fin dai tempi più antichi lo confermano documenti delle civiltà più remote. Gli antichi egizi commerciavano sale, un ingrediente essenziale nel processo di mummificazione. Lo storico greco Erodoto riferì di avere visitato una miniera di sale nel deserto libico nel 425 a.C. Sale proveniente dalla grande pianura

salata a Danakil, in Etiopia, veniva venduto ai romani e agli arabi ed esportato fino in India. I romani crearono grandi saline a Ostia, che si trovava allora sulla foce del Tevere, e intorno al 600 a.C. costruirono una strada, la via Salaria, per trasportare il sale dalla costa fino a Roma. Questa antica strada, nella Roma di oggi, si chiama ancora via Salaria. Per rifornire di combustibile le saline di Ostia, furono abbattute le foreste, e la successiva erosione del suolo determinò il trasporto di quantità crescenti di sedimento nel Tevere, le quali provocarono l’espansione del delta alla sua foce. Vari secoli dopo, Ostia non si trovava più sulla costa, e le saline dovettero essere trasferite sulla nuova linea di costa. Questo è stato additato come uno dei primi esempi dell’impatto dell’attività industriale umana sull’ambiente. Il sale fu la base di uno dei massimi triangoli commerciali del mondo, come pure della diffusione dell’Islam sulla costa occidentale dell’Africa. Il deserto estremamente arido e inospitale del Sahara fu per secoli una barriera fra i Paesi dell’Africa settentrionale affacciati sul Mediterraneo e il resto del continente a sud. Benché nel deserto ci fossero depositi di sale immensi, a sud del Sahara c’era una grande richiesta di sale. Nell’VIII secolo mercanti berberi provenienti dal Nordafrica cominciarono a commerciare cereali e frutta secca, tessuti e utensileria, scambiandoli con lastre di alite estratte dai grandi depositi di sale nel Sahara (negli attuali stati del Mali e della Mauritania). In questi siti il sale era così abbondante che intorno alle miniere crebbero intere città, come Teghaza, costruite con blocchi di sale. Le carovane berbere, spesso comprendenti migliaia di cammelli, ora caricati di lastre di sale, proseguivano il loro cammino attraverso il deserto fino a Timbuctù, che era in origine un piccolo accampamento al margine meridionale del Sahara, su un affluente del fiume Niger. Nel Trecento Timbuctù era diventata un’importante stazione commerciale, dove si scambiava oro proveniente dall’Africa occidentale per il sale del Sahara. Essa divenne anche un centro per l’espansione dell’Islam, che fu portato in questa regione dai commercianti berberi. Al culmine del suo potere – che coincise con gran parte del Cinquecento – Timbuctù vantava un’importante università coranica, grandi moschee e minareti, e impressionanti palazzi reali. Le carovane che partivano da Timbuctù alla volta della costa mediterranea del Marocco trasportavano oro, e a volte anche schiavi e avorio, destinati in gran parte all’Europa. Nel corso dei secoli molte tonnellate d’oro arrivarono in Europa seguendo la via commerciale sahariana

dell’oro e del sale. Il sale del Sahara prese anche la via dell’Europa, quando la richiesta di sale cominciò a salirvi. C’era il problema di conservare il più rapidamente possibile il pesce appena pescato, e se in mare era difficile affumicarlo ed essiccarlo senza perdite di tempo, c’era sempre la possibilità di metterlo subito sotto sale. Il Baltico e il mare del Nord erano ricchissimi di aringhe, merluzzi ed eglefini, e a partire dal Trecento milioni di tonnellate di questi pesci, salati in mare o in porti vicini, venivano venduti in tutt’Europa. Nel Trecento e nel Quattrocento la Lega anseatica, un’organizzazione delle città della Germania settentrionale, controllava il commercio del pesce salato (e di quasi tutto il resto) nei Paesi rivieraschi del Baltico. Il commercio del mare del Nord faceva centro sull’Olanda e sulla costa orientale dell’Inghilterra. Da quando il sale divenne disponibile per conservare il pescato, i pescherecci poterono estendere il raggio delle loro uscite. Alla fine del Quattrocento, i pescherecci che partivano dall’Inghilterra, dalla Francia, dall’Olanda, dalla regione basca della Spagna, dal Portogallo e da altri Paesi europei si spingevano regolarmente fino ai Grandi Banchi al largo di Terranova. Per quattro secoli le flotte di pescherecci saccheggiarono i grandi banchi di merluzzo di questa regione dell’Atlantico settentrionale, pulendo e salando il pesce man mano che veniva pescato, e tornando in porto con milioni di tonnellate di quella che sembrava una merce inesauribile. Purtroppo non è così: nell’ultimo decennio del Novecento il merluzzo dei Grandi Banchi è stato ridotto sull’orlo dell’estinzione. Oggi una moratoria sulla pesca del merluzzo, introdotta nel 1992 dal Canada, viene osservata da molte delle nazioni tradizionalmente dedite alla pesca, ma non da tutte. Essendoci una richiesta così forte di sale, non sorprende che esso sia stato considerato a volte una preda di guerra, più che un bene commerciale. Nell’antichità taluni insediamenti intorno al mar Morto furono conquistati specificamente per le loro preziose riserve di sale. Nel Medioevo i veneziani fecero guerra a comunità costiere vicine che minacciavano il loro importantissimo monopolio del sale. La conquista dei depositi di sale del nemico fu considerata per molto tempo una sana tattica bellica. Durante la Rivoluzione americana, l’embargo imposto dai britannici alle importazioni nell’ex colonia, dall’Europa e dalle Indie occidentali, determinò una scarsità di sale. I britannici distrussero le saline lungo la costa del New Jersey per mantenere la situazione di difficoltà che colpiva i coloni, in conseguenza

degli alti prezzi imposti per il sale importato. La conquista di Saltville, in Virginia, nel 1864, da parte di forze dell’Unione durante la Guerra di secessione fu vista come un passo vitale per colpire il morale dei civili e per sconfiggere l’esercito dei confederati. Qualcuno ha suggerito anche che la mancanza di sale nella dieta potrebbe avere ostacolato la guarigione delle ferite dei combattenti nella campagna di Russia di Napoleone, ed essere stata quindi responsabile della morte di migliaia di soldati francesi durante la tragica ritirata da Mosca del 1812. In circostanze del genere, una responsabilità non minore potrebbe essere attribuita anche alla mancanza di acido ascorbico (e alla conseguente diffusione dello scorbuto), cosicché questi due composti potrebbero accompagnarsi allo stagno e ai derivati dell’acido lisergico nell’elenco delle sostanze che fecero naufragare i sogni di Napoleone in Russia.

La struttura del sale L’alite, con una solubilità di circa 36 grammi ogni 100 grammi di acqua fredda, è molto più solubile in acqua di altri minerali. Poiché si pensa che la vita si sia sviluppata negli oceani, e poiché il sale è essenziale per la vita, senza questa solubilità del sale la vita come la conosciamo non esisterebbe. Nel 1887, il chimico svedese Svante August Arrhenius propose per la prima volta l’idea di ioni di carica opposta come spiegazione della struttura e delle proprietà dei sali e delle loro soluzioni. Da più di un secolo gli scienziati erano disorientati da una particolare proprietà delle soluzioni saline: la loro capacità di condurre correnti elettriche. L’acqua piovana non presenta alcuna conduttività elettrica, e tuttavia le soluzioni del sale da cucina e di altri sali sono eccellenti conduttori. La teoria di Arrhenius spiegò questa conduttività; i suoi esperimenti mostrarono che, quanto più sale si scioglie in una soluzione, tanto maggiore è la concentrazione degli ioni carichi, la cui presenza è necessaria per trasportare la corrente elettrica. Il concetto di ioni, proposto da Arrhenius, spiegava anche perché gli acidi, nonostante strutture apparentemente diverse, avessero proprietà simili. In acqua tutti gli acidi producono ioni idrogeno (H+), che sono responsabili del sapore acido e della reattività chimica delle soluzioni acide. Benché le idee di

Arrhenius non fossero accettate da molti chimici conservatori del tempo, egli manifestò un grado lodevole di perseveranza e di diplomazia, facendo una decisa campagna a favore della correttezza del modello ionico. I suoi critici si lasciarono infine convincere, e Arrhenius ricevette il premio Nobel per la chimica nel 1903, per la sua teoria della dissociazione elettrolitica. A quell’epoca c’erano ormai una teoria e prove pratiche circa il modo in cui si formano gli ioni. Nel 1897 il fisico britannico Joseph John Thomson aveva dimostrato che tutti gli atomi contengono elettroni, le particelle fondamentali di elettricità, di carica negativa, che erano state proposte per la prima volta nel 1833 da Michael Faraday. Così, se un atomo perdeva un elettrone o più elettroni, diventava uno ione di carica positiva; se un altro atomo acquistava uno o più elettroni, diventava uno ione di carica negativa. Il cloruro di sodio allo stato solido è composto da una disposizione ordinata di due ioni diversi – ioni sodio, di carica positiva, e ioni cloruro, di carica negativa – tenuti insieme da grandi forze di attrazione fra le cariche negative e positive.

La struttura tridimensionale del cloruro di sodio allo stato solido. Le linee che uniscono gli ioni non esistono in realtà: esse sono incluse qui per mostrare la disposizione cubica degli ioni.

Le molecole d’acqua, pur non essendo formate da ioni, sono parzialmente cariche. Un lato della molecola (quello dell’idrogeno) è leggermente positivo e l’altro lato (quello dell’ossigeno) è leggermente negativo. È questo fatto a permettere al cloruro di sodio di sciogliersi in acqua. Benché l’attrazione fra uno ione sodio positivo e l’estremo negativo delle molecole d’acqua (e

l’attrazione fra uno ione cloruro negativo e l’estremo positivo delle molecole d’acqua) sia simile alla forza d’attrazione fra ioni Na+ e ioni Cl–, quel che spiega in definitiva la solubilità del sale è la tendenza di questi ioni a disperdersi in modo casuale. I sali ionici non si sciolgono oltre una certa misura in acqua, perché le forze di attrazione fra gli ioni sono maggiori delle attrazioni fra acqua e ioni. Rappresentando la molecola d’acqua nel modo seguente:

con d– gqe ixdiga m’etuseno pasViame xehauico demma nomegoma e d+ che indica l’estremo parziale positivo, possiamo mostrare gli ioni cloruro, di carica negativa, in una soluzione acquosa, come circondati dall’estremo leggermente positivo delle molecole d’acqua:

e lo ione sodio, di carica positiva, come circondato nella soluzione acquosa dall’estremo leggermente negativo delle molecole d’acqua:

È questa solubilità del cloruro di sodio a fare del sale – con la sua capacità di attrarre le molecole d’acqua – un conservante così efficace. Il sale conserva la carne e il pesce sottraendo acqua ai loro tessuti; in condizioni di livelli d’acqua molto ridotti e di un elevato contenuto di sale, i batteri che causano il deterioramento non possono sopravvivere. In passato il sale veniva usato molto di più in questo modo, per conservare i cibi, che non per insaporirli. In regioni in cui il sale della dieta era fornito principalmente dalla carne, una quantità aggiuntiva di sale per la conservazione del cibo era un fattore essenziale per il mantenimento della vita. Gli altri metodi tradizionali per la conservazione del cibo – l’affumicatura e l’essiccazione – richiedevano spesso anche sale come parte del processo. Il cibo, prima di essere affumicato o essiccato, veniva tenuto per qualche tempo in salamoia. Le comunità prive di una fonte locale di sale dipendevano per il loro fabbisogno di questo conservante dal commercio.

Il fabbisogno di sale del corpo Dai tempi più antichi gli esseri umani riconobbero la necessità di procurarsi sale per la loro dieta, anche quando esso non era necessario per conservare il cibo. Gli ioni forniti dal sale svolgono un ruolo essenziale nel corpo umano, mantenendo l’equilibrio degli elettroliti fra le cellule e il liquido che le circonda. Una parte del processo che genera gli impulsi elettrici, trasmessi lungo neuroni nel sistema nervoso, implica la cosiddetta pompa sodiopotassio. Il numero degli ioni Na+ che vengono forzati a uscire da una cellula è maggiore del numero degli ioni K+ che vengono pompati in essa,

determinando una carica negativa netta del citoplasma all’interno della cellula, rispetto all’esterno della membrana cellulare. Si genera così una differenza di carica – nota come potenziale di membrana – che alimenta impulsi elettrici. Il sale è perciò vitale per il funzionamento dei nervi, e in ultima analisi per il movimento dei muscoli. Le molecole dei glucosidi cardiotonici, come la digossina e la digitossina presenti nella digitale purpurea, inibiscono la pompa sodio-potassio, determinando la presenza di un livello superiore di ioni Na+ all’interno della cellula. Questo fatto accresce la forza delle contrazioni del muscolo cardiaco, spiegando l’attività di queste molecole come stimolanti cardiaci. Anche lo ione cloruro fornito dal sale da cucina è utile nel corpo, dove serve per produrre acido cloridrico, un componente essenziale dei succhi gastrici. La concentrazione del sale in una persona sana varia entro margini piuttosto ristretti. Il sale perduto va sostituito; il sale in eccesso va escreto. La deprivazione di sale causa perdita di peso e di appetito, crampi, nausea e inerzia e, in casi estremi di perdita di sale corporeo – come nei maratoneti –, può condurre al collasso vascolare e alla morte. Si sa però anche che l’assunzione di ioni sodio in eccesso contribuisce all’ipertensione, un fattore importante nelle cardiopatie, oltre che a malattie dei reni e del fegato. Il corpo umano medio contiene circa 110 grammi di sale; noi ne perdiamo di continuo, specialmente attraverso la sua escrezione nel sudore e nell’urina, cosicché dobbiamo sostituirlo attraverso assunzioni quotidiane. L’uomo preistorico colmava il suo fabbisogno giornaliero attraverso la carne dei grandi animali erbivori che cacciava, poiché la carne cruda è un’eccellente fonte di sale. Con lo sviluppo dell’agricoltura, quando cereali e verdure divennero parti sempre maggiori della dieta, divenne necessario il sale supplementare. Mentre gli animali carnivori non cercano terreni salati da leccare, gli erbivori ne hanno bisogno. Hanno bisogno di sale supplementare anche gli esseri umani in parti del mondo in cui si mangia poca carne, e coloro che adottano una dieta vegetariana. Il sale supplementare, che divenne necessario non appena gli esseri umani adottarono un modo di vita sedentario fondato sull’agricoltura, doveva essere prodotto localmente o essere ottenuto attraverso il commercio.

La tassazione del sale Storicamente, il bisogno umano di sale insieme ai suoi specifici metodi di produzione hanno reso questo materiale peculiarmente adatto al controllo politico, al monopolio e alla tassazione. Per un governo, una tassa sul sale poteva produrre redditi sicuri. Non c’erano sostituti del sale, e tutti ne avevano bisogno, cosicché tutti dovevano pagare. Le fonti di sale erano note; la produzione di sale è difficile da nascondere, e il sale stesso è una merce voluminosa, difficilmente occultabile; il suo trasporto, inoltre, può essere facilmente regolamentato e tassato. A partire dal 2000 a.C. in Cina, dove l’imperatore Hsia Yu ordinò che la corte imperiale venisse rifornita di sale dalla provincia dello Shantung, il sale fu sempre una risorsa importante per i governi, attraverso tasse, dazi e tariffe doganali. In tempi biblici il sale, considerato una spezia e tassato come tale, fu soggetto a dazi doganali nei molti luoghi di sosta sulle vie carovaniere. Dopo la morte di Alessandro Magno, avvenuta nel 323 a.C., i funzionari in Siria e in Egitto continuarono a raccogliere una tassa sul sale che era stata imposta in origine dall’amministrazione greca. Nel corso di tutti quei secoli la riscossione delle tasse richiese degli esattori, molti dei quali si arricchirono aumentando le aliquote, aggiungendo altre imposte e vendendo esenzioni. Roma non fece eccezione. In origine le saline di Ostia, sul delta del Tevere, furono rilevate dallo Stato romano, in modo da poter fornire il sale a un prezzo ragionevole a chiunque. Una tale liberalità, però, non durò a lungo. Le entrate fornite dalla tassazione del sale erano una tentazione troppo forte, cosicché fu imposta una tassa sul sale. All’espandersi dell’Impero romano, crebbero anche i monopoli e le tasse sul sale. Gli esattori, agenti indipendenti sottoposti alla supervisione del governatore di ogni provincia romana, riscossero tasse dovunque fu loro possibile. Per coloro che vivevano lontano dalle aree produttrici di sale, il suo alto prezzo non rifletteva solo i costi di trasporto, ma anche tasse, dazi e tariffe doganali a ogni tappa del viaggio. Per tutto il Medioevo continuò in Europa la tassazione del sale, spesso nella forma di balzelli imposti alle chiatte o ai carri che lo trasportavano dalle miniere di salgemma o da impianti di produzione. Essa raggiunse il suo culmine in Francia con l’infame, oppressiva e odiatissima tassa sul sale nota come la gabella. Sull’origine della gabella ci sono varie relazioni. Alcune di

esse dicono che fu imposta nel 1259 in Provenza da Carlo d’Angiò; altri sostengono che ebbe inizio come una tassa generale applicata verso la fine del Duecento a merci come il frumento, il vino e il sale, nell’intento di raccogliere le risorse necessarie per mantenere un esercito permanente. Quale che sia stata la sua vera origine, però, nel Quattrocento la gabella era diventata una delle principali tasse nazionali francesi, e il nome si riferiva alla sola tassa sul sale. Ma non era solo una tassa sul sale. Essa includeva infatti anche la richiesta che ogni uomo, donna o bambino di età superiore a otto anni comprasse una determinata quantità settimanale di sale, a un prezzo fissato dal re. Non solo la tassa stessa poteva essere aumentata, ma anche la razione obbligatoria poteva essere accresciuta ad arbitrio del re. Quella che un tempo era stata concepita come una tassa uniforme sull’intera popolazione prelevò ben presto sovrattasse più alte in talune regioni della Francia che in altre. In generale, le province che si procuravano il sale dalle saline sull’Atlantico erano soggette alla grande gabelle, che le costringeva a pagare più del doppio di quanto si pagava nelle regioni, note come le Provinces des Petites Gabelles, dove il sale veniva fornito dalle saline del Mediterraneo. Attraverso una maggiore influenza politica o accordi particolari, alcune aree erano esentate dalla gabella o ne pagavano solo una frazione; in certi periodi non ci fu addirittura alcuna gabella in Bretagna, o si pagò un’aliquota particolarmente bassa in Normandia. Al suo culmine, la gabella aumentò il prezzo del sale a più di venti volte il suo costo reale, per i cittadini delle Provinces de la Grande Gabelle. Gli esattori della gabella sul sale – che venivano chiamati fermiers, in quanto si occupavano del raccolto delle tasse come i fermiers agricoli, i coloni, si occupavano dei raccolti delle coltivazioni – controllavano l’uso pro capite del sale per assicurarsi che ognuno rispettasse l’obbligo del consumo individuale. I tentativi di contrabbandare il sale erano molto diffusi nonostante le dure pene che colpivano i responsabili; una punizione comune in tali casi era la condanna alle galere. I contadini e i cittadini poveri erano i più colpiti dalle gabelle dure e ingiustamente applicate. Gli appelli al re perché attenuasse quella tassa onerosa non trovavano ascolto, e qualcuno ipotizzò che proprio la gabella sia stata fra le principali doléances che condussero alla Rivoluzione francese. Essa fu abolita al culmine della Rivoluzione nel 1790, quando più di trenta esattori furono giustiziati. Ma

l’abolizione non durò a lungo. Napoleone reintrodusse infatti l’odiosa gabella nel 1805: una misura di cui sostenne la necessità per finanziare la Campagna d’Italia. Questa tassa impopolare non sarebbe stata definitivamente eliminata fin dopo la Seconda guerra mondiale. La Francia non fu l’unico Paese in cui ci furono tasse onerose su generi di prima necessità. Nelle regioni costiere della Scozia, specialmente intorno a Firth of Forth, si era prodotto sale per secoli senza che nessuno mai pensasse a tassarlo. In quel clima freddo e umido l’evaporazione solare non era praticabile; l’acqua di mare veniva bollita in grandi recipienti, riscaldati in origine bruciando legna e in seguito carbone. Nel Settecento c’erano oltre 150 di tali saline in Scozia, più numerose altre che usavano come combustibile la torba. L’industria del sale era così importante per gli scozzesi che l’articolo 8 del Trattato dell’Unione del 1707, fra Scozia e Inghilterra, garantì alla Scozia un’esenzione di sette anni dalle tasse inglesi sul sale e, trascorso tale periodo, un’aliquota ridotta per sempre. L’industria del sale inglese si fondava sull’estrazione di sale dall’acqua di sorgenti salate, ma anche sullo sfruttamento di giacimenti di salgemma. Entrambi i metodi erano molto più efficienti e redditizi del metodo del riscaldamento dell’acqua di mare praticato dagli scozzesi. L’industria del sale in Scozia aveva bisogno di un alleggerimento delle tasse inglesi sul sale, per poter sopravvivere. Nel 1825 il Regno Unito divenne il primo Paese ad abolire la sua tassa sul sale, non tanto a causa del risentimento che questa tassa aveva generato nella classe lavoratrice nel corso dei secoli, quanto in virtù del riconoscimento del cambiamento di ruolo del sale. La Rivoluzione industriale viene concepita solitamente come una rivoluzione meccanica – lo sviluppo della navetta volante, il filatoio multiplo per il cotone (giannetta), il telaio ad acqua, la macchina a vapore, il telaio meccanico –, ma fu anche una rivoluzione chimica. Una produzione su vasta scala di composti chimici fu una condizione indispensabile per l’industria tessile, per la sbianca, per la produzione del sapone, del vetro, della ceramica, per l’industria dell’acciaio, per la conceria, per la produzione della carta, per la fabbricazione della birra e la distillazione di alcolici. Gli industriali e i proprietari di fabbriche spinsero per ottenere l’abolizione della tassa sul sale, che stava diventando molto più importante come materiale di partenza in processi industriali che non come conservante di cibi e come ingrediente di cucina. L’abolizione della tassa sul sale, richiesta da generazioni di poveri, divenne una realtà solo quando si

riconobbe che il sale era una materia prima fondamentale per la prosperità industriale della Gran Bretagna. L’atteggiamento illuminato della Gran Bretagna sul problema delle tasse sul sale non si estese alle sue colonie. In India una tassa sul sale imposta dai britannici divenne un simbolo di oppressione coloniale, denunciato dal mahatma Gandhi quando si mise alla testa della lotta per l’indipendenza dell’India. La tassa sul sale in India era più di una tassa. Come avevano capito molti conquistatori nel corso dei secoli, il controllo delle forniture di sale significava anche un controllo politico ed economico. I regolamenti governativi nell’India britannica consideravano un crimine la vendita o la produzione non governative di sale. Era fuori legge persino la raccolta di sale formatosi per evaporazione naturale intorno a piccoli bacini naturali, in cavità rocciose sulla riva del mare. Il sale, a volte importato dall’Inghilterra, doveva essere comprato da agenti governativi a prezzi stabiliti dai britannici. In India, dove la dieta è principalmente vegetariana, e il clima spesso molto caldo comporta una perdita accelerata di sale attraverso la sudorazione, l’aggiunta di sale ai cibi era particolarmente importante. Sotto il governo coloniale la popolazione fu costretta a pagare per un minerale che milioni di persone erano state tradizionalmente in grado di procurarsi a un piccolo costo se non addirittura gratis. Nel 1923, quasi un secolo dopo che i britannici avevano abrogato la tassa sul sale nella madrepatria, la tassa sul sale in India fu raddoppiata. Nel marzo 1930 Gandhi, accompagnato da un pugno di sostenitori, iniziò una marcia di quasi 400 chilometri verso il piccolo villaggio di Dandi, sulla costa nordoccidentale dell’India. Migliaia di persone si aggregarono via via al suo pellegrinaggio, e una volta raggiunta la costa cominciarono a raccogliere incrostazioni di sale sulla spiaggia, a bollire l’acqua di mare e a vendere il sale che producevano. Altre migliaia di persone si unirono loro nella violazione delle leggi sul sale; il sale illegale fu venduto in villaggi e città in tutta l’India e fu spesso confiscato dalla polizia. I sostenitori di Gandhi subirono spesso violenze da parte dei poliziotti, e furono imprigionati a migliaia. Altrettanti li sostituirono nella produzione del sale. Seguirono scioperi, boicottaggi e dimostrazioni. Le draconiane leggi indiane sul sale furono modificate entro il marzo seguente, quando si permise alle popolazioni locali di raccogliere sale o di produrlo da fonti locali, e di venderlo ad altri nei loro villaggi. Benché venisse ancora applicata una tassa

commerciale, il monopolio del sale del governo britannico era cessato. Gli ideali di Gandhi della disobbedienza civile non violenta avevano dimostrato la loro efficacia, e i giorni del governo britannico erano ormai contati.

Il sale come materia prima L’abolizione della tassa sul sale in Gran Bretagna fu importante non solo per le industrie che usavano il sale nei loro processi di produzione, ma anche per le aziende produttrici di composti chimici inorganici nei quali il sale era un’importante materia prima. Esso era particolarmente significativo per la produzione di un altro composto del sodio, il carbonato di sodio (Na2CO3), noto anche come soda o soda per bucato. La cenere di soda, usata nella saponificazione e necessaria in grandi quantità quando crebbe la domanda di sapone, veniva principalmente da depositi naturali, spesso sotto forma di incrostazioni intorno a laghetti alcalini che stavano prosciugandosi, o da residui della combustione di fucacee e altre alghe. La cenere di soda ottenuta da queste fonti era impura e le forniture erano limitate, cosicché attrasse l’attenzione la possibilità di produrre carbonato di sodio a partire, invece, dalla larga disponibilità di cloruro di sodio (il comune sale da cucina). Nell’ultimo decennio del Settecento, Archibald Cochrane, nono conte di Dundonald – oggi considerato uno dei leader della rivoluzione chimica inglese e fondatore dell’industria chimica degli alcali –, la cui modesta proprietà fondiaria di famiglia sull’insenatura scozzese di Firth of Forth confinava con numerosi impianti in cui si estraeva sale dall’acqua di mare riscaldata con carbone, prese un brevetto per convertire il sale in un «alcale artificiale», ma il suo processo non ottenne mai un successo commerciale. In Francia, nel 1791, Nicolas Leblanc sviluppò un metodo per produrre carbonato di sodio dal sale, da acido solforico, carbone e calcare. L’inizio della Rivoluzione francese ritardò l’applicazione del processo di Leblanc, e la redditizia produzione della cenere di soda ebbe inizio in Inghilterra. In Belgio, all’inizio del decennio 1860-1870, i fratelli Ernest e Alfred Solvay svilupparono un metodo migliorato per convertire il cloruro di sodio in carbonato di sodio, usando calcare (CaCO3) e ammoniaca allo stato gassoso (NH3). I passi chiave furono la formazione di un precipitato di

bicarbonato di sodio (NaHCO3) da una soluzione salata concentrata, nella quale erano stati infusi ammoniaca allo stato gassoso e biossido di carbonio (o anidride carbonica), ottenuti dal calcare: NaCl(aq) + NH3(g) + CO2(g) + H2O(l)→ NaHCO3(s) + NH4Cl(aq) cloruro di sodio

ammoniaca

biossido di carbonio

acqua

bicarbonato di sodio

cloruro di ammonio

e poi la produzione di carbonato di sodio, attraverso il riscaldamento del bicarbonato di sodio: 2NaHCO3(s)→ Na2CO3(s) + CO2(g) bicarbonato di sodio

carbonato di sodio

biossido di carbonio

Oggi il processo Solvay rimane il metodo principale per la preparazione della cenere di soda sintetica, ma la scoperta di grandissimi depositi di cenere di soda naturale ha diminuito la domanda della sua preparazione dal sale (per esempio il bacino del Green River nel Wyoming ha risorse di cenere di soda stimate a più di dieci miliardi di tonnellate). Un altro composto del sodio, la soda caustica (NaOH), ha avuto una forte domanda. Industrialmente, la soda caustica, o idrossido di sodio, viene prodotta facendo passare una corrente elettrica attraverso una soluzione di cloruro di sodio: un processo noto come elettrolisi. La soda caustica, uno dei dieci composti chimici più prodotti negli Stati Uniti, è essenziale per l’estrazione dell’alluminio dal suo minerale, e nella produzione del rayon, del cellofan, dei saponi, dei detersivi, dei prodotti del petrolio, della carta e della pasta di legno. Il gas cloro, anch’esso prodotto per elettrolisi di acqua molto salata, era considerato un tempo un semplice prodotto secondario di questo processo, ma ben presto si scoprì che era un eccellente agente sbiancante e un potente disinfettante. Attualmente l’elettrolisi commerciale di soluzioni di NaCl è importante tanto per la produzione di cloro quanto per quella di soda caustica. Il cloro viene usato oggi nella produzione di molti prodotti organici, come antiparassitari, polimeri e prodotti farmaceutici.

Dalle fiabe alle parabole bibliche, dal folklore svedese alle leggende degli indiani del Nordamerica, società di tutto il mondo raccontano storie del sale. Il sale è usato in cerimonie e riti, simboleggia ospitalità e buona sorte, e protegge contro cattivi spiriti e contro la malasorte. Il ruolo importante del sale nel plasmare la cultura umana è visibile anche nel linguaggio. Gli operai guadagnano un salario (e nel mondo anglosassone gli impiegati ricevono mensilmente un salary, uno «stipendio»): la parola deriva dal fatto che i soldati romani venivano spesso pagati in sale. Dalla stessa parola latina sal derivano le nostre parole «insalata» (condita spesso in origine con solo sale), «salsa» e «salso», «salsiccia» e «salame». Come in altre lingue, il nostro linguaggio quotidiano è farcito di metafore: discorsi «salaci», «cum grano salis», «restar di sale», il «sale della terra», il «sale della vita», il «sale della sapienza». L’ironia suprema nella storia del sale è che, nonostante tutte le guerre che si sono combattute per acquisirne il controllo, nonostante le battaglie e le proteste per le tasse e le gabelle poste su di esso, nonostante le migrazioni a cui la sua ricerca ha dato origine, e la disperazione di centinaia di migliaia di persone imprigionate per averlo contrabbandato, all’epoca in cui la scoperta di nuovi depositi sotterranei di salgemma e in cui la tecnologia moderna ne avevano ridotto di molto il prezzo, il bisogno di sale nella conservazione dei cibi era già fortemente diminuito, essendo stato soppiantato dalla refrigerazione come metodo standard per la conservazione dei cibi. Il sale, che per tutta la storia era stato onorato e riverito, desiderato e oggetto di dure lotte, e a volte valutato più dell’oro, è oggi diventato una merce comune, economica e facilmente disponibile.

16 I CLOROCARBURI

Nel 1877 la nave Frigorifique salpò da Buenos Aires alla volta del porto francese di Rouen, con un carico di carne bovina argentina. Mentre oggi un viaggio del genere verrebbe considerato di routine, esso fu in realtà un viaggio storico. La nave trasportava un carico di carne congelata che segnava l’inizio dell’era della refrigerazione e la fine della conservazione dei cibi con molecole di spezie e di sale.

La refrigerazione Almeno dal 2000 a.C. l’uomo ha conosciuto l’uso del ghiaccio per mantenere cibi a bassa temperatura, in base al principio che il ghiaccio, mentre fonde, sottrae calore all’ambiente circostante. L’acqua che si produce scorre via, e per mantenere freddi i cibi si aggiunge altro ghiaccio. La refrigerazione, d’altro canto, non implica la presenza di una fase solida e una fase liquida, bensì di una fase liquida e di una di vapore. Un liquido, evaporando, assorbe calore dall’ambiente circostante. Il vapore prodotto per evaporazione viene poi restituito allo stato liquido per compressione. Si deve a questa fase di compressione il re- della refrigerazione: il vapore viene restituito a un liquido, dopo di che ri-evapora causando raffreddamento, e l’intero ciclo si ripete. Un componente chiave del ciclo è la fonte dell’energia fornita per azionare il compressore meccanico. La vecchia ghiacciaia, nella quale si doveva aggiungere continuamente ghiaccio, non era tecnicamente un frigorifero. Oggi noi usiamo spesso le parole frigorifero o refrigerazione senza renderci ben conto del processo fisico su cui si fondano. Un vero frigorifero ha bisogno di un refrigerante: un composto che subisce il ciclo di evaporazione e compressione. Già nel 1748 si usava l’etere per

dimostrare l’effetto di raffreddamento di un refrigerante, ma trascorsero più di cento anni prima che si usasse come refrigeratore una macchina a etere compresso. Intorno al 1851 lo scozzese James Harrison, emigrato in Australia nel 1837, costruì per una fabbrica di birra australiana un refrigeratore fondato sulla compressione di vapore di etere. Lui e un americano, Alexander Twining, che aveva costruito press’a poco nello stesso tempo un sistema di refrigerazione simile fondato sulla compressione di vapore, sono considerati fra i primi ad avere sviluppato la refrigerazione commerciale. Nel 1859 fu usata come refrigerante l’ammoniaca, a opera del francese Ferdinand Carré, un altro pretendente al titolo di primo sviluppatore commerciale della refrigerazione. A quei tempi furono usati anche il cloruro di metile (o clorometano) e il diossido di zolfo; quest’ultimo fu l’agente refrigerante della prima pista artificiale di pattinaggio sul ghiaccio. Queste piccole molecole misero efficacemente fine al ricorso al sale e alle spezie per la conservazione del cibo.

Etere (etere dietilico)

Ammoniaca

Cloruro di metile

Diossido di zolfo

Nel 1873, dopo avere realizzato con successo la refrigerazione sulla terraferma, per l’industria australiana della macellazione e distribuzione della carne, oltre che per la produzione della birra, James Harrison decise di trasportare carne su una nave refrigerata, dall’Australia alla Gran Bretagna. Questo sistema meccanico fondato sull’evaporazione-compressione dell’etere entrò però in avaria durante la traversata. Sei anni dopo, all’inizio del dicembre 1879, il piroscafo Strathleven, allestito da Harrison, lasciò Melbourne e arrivò a Londra due mesi dopo, con quaranta tonnellate di carne bovina e ovina ancora congelate. Il processo di refrigerazione di Harrison aveva finalmente dato buona prova di sé. Nel 1882 un sistema simile fu installato sul piroscafo Dunedin, che trasportò in Gran Bretagna il primo carico di carne d’agnello della Nuova Zelanda. Anche se la Frigorifique è spesso citata come la prima nave refrigerata del mondo, tecnicamente questa rivendicazione è molto più giustificata per il tentativo del 1873 di Harrison, anche se non ebbe successo. Il primo viaggio veramente riuscito di una nave

refrigerata fu quello del piroscafo Paraguay, che arrivò a Le Havre nel 1877, con un carico di carne bovina congelata dall’Argentina. Il sistema di refrigerazione della nave Paraguay fu progettato da Ferdinand Carré e usava come refrigerante l’ammoniaca. Sulla nave Frigorifique la «refrigerazione» veniva mantenuta da acqua raffreddata per mezzo di ghiaccio (conservato in un ambiente ben isolato) e poi pompata in tutta la nave per mezzo di tubi. La pompa della nave ebbe un guasto durante il viaggio da Buenos Aires alla Francia, e prima di arrivare a destinazione la carne si deteriorò. Benché, quindi, la Frigorifique abbia preceduto il Paraguay di vari mesi, non era una vera nave refrigerata; era solo una nave termicamente isolata, che teneva il cibo freddo o congelato per mezzo del ghiaccio. La Frigorifique può quindi ambire tutt’al più al titolo di una fra le prime navi a trasportare attraverso l’oceano carne congelata, anche se in realtà il suo tentativo non ebbe successo. Ma lasciando da parte il problema di quale sia stata la nave più qualificata al titolo di prima nave refrigerata, fra il 1880 e il 1890 il processo meccanico di compressione-evaporazione si accingeva a risolvere il problema del trasporto di carne dalle aree produttrici del mondo ai maggiori mercati europei e agli stati americani del New England. Le navi provenienti dall’Argentina e dai pascoli per bovini e ovini ancora più remoti dell’Australia e della Nuova Zelanda dovevano affrontare un viaggio di due o tre mesi, passando per le calde temperature dei tropici. Il semplice sistema della conservazione per mezzo del ghiaccio della Frigorifique non sarebbe stato sufficiente. La refrigerazione meccanica cominciò ad acquisire una maggiore affidabilità, dando agli allevatori un nuovo mezzo per far pervenire i loro prodotti sui mercati mondiali. La refrigerazione svolse quindi un ruolo importante nello sviluppo economico dell’Australia, della Nuova Zelanda, dell’Argentina, del Sudafrica e di altri Paesi, dove le grandi distanze dai mercati riducevano i vantaggi naturali di un’abbondante produzione agricola.

I favolosi Freon La molecola refrigeratrice ideale deve soddisfare speciali requisiti pratici. Essa deve passare allo stato gassoso nel giusto ambito di temperature; deve

liquefarsi per compressione, di nuovo all’interno dell’intervallo di temperatura richiesto; e mentre passa allo stato di vapore deve assorbire quantità di calore relativamente grandi. L’ammoniaca, l’etere, il cloruro di metile, il diossido di zolfo e molecole simili soddisfacevano queste richieste tecniche per buoni refrigeranti. Questi composti avevano però qualità negative, come quella di decomporsi, di essere infiammabili, velenosi o maleodoranti, o a volte anche più d’una. Nonostante i problemi non ancora risolti con i refrigeranti, la domanda di refrigerazione, sia commerciale sia domestica, crebbe. La refrigerazione commerciale, sviluppata per far fronte alle richieste del commercio, precedette la refrigerazione domestica di una cinquantina d’anni o più. I primi frigoriferi per uso domestico divennero disponibili nel 1913, e negli anni ’20 avevano cominciato a sostituire la più tradizionale ghiacciaia, rifornita di ghiaccio da impianti tradizionali per la sua produzione. In alcuni fra i primi frigoriferi domestici, la rumorosa unità di compressione era installata nello scantinato, separata dall’armadio frigorifero vero e proprio. Alla ricerca di una soluzione per ridurre i rischi della tossicità e di esplosioni, l’ingegnere meccanico Thomas Midgley jr. – che già aveva colto un importante successo sviluppando il piombo tetraetile usato come antidetonante nelle benzine – e il chimico Albert Henne, che lavorava alla Frigidaire Division della General Motors, presero in esame composti che avessero con ogni probabilità punti di ebollizione all’interno dell’ambito definito del ciclo di refrigerazione. La maggior parte dei composti noti che rispondevano a questo criterio erano già in uso, o erano stati eliminati come poco pratici, ma non era stata considerata una possibilità: quella dei composti del fluoro. L’elemento fluoro è un gas altamente tossico e corrosivo, e fino allora erano stati preparati ben pochi composti organici contenenti fluoro. Midgley e Henne decisero di preparare un certo numero di molecole diverse, contenenti uno o due atomi di carbonio e un numero variabile di atomi di fluoro e di cloro, in luogo di atomi di idrogeno. I composti risultanti, i clorofluorocarburi (o CFC, come sono noti oggi), soddisfacevano mirabilmente tutte le richieste tecniche di un refrigerante ed erano anche molto stabili, non infiammabili, non tossici, poco costosi per l’azienda produttrice e quasi inodori. In un modo molto teatrale Midgley fece una dimostrazione della sicurezza dei suoi nuovi refrigeranti, nel corso di un convegno dell’American Chemical

Society ad Atlanta, in Georgia. Egli versò un po’ di CFC liquido in un recipiente aperto e, mentre il refrigerante bolliva, avvicinò il viso al vapore, aprì la bocca e aspirò profondamente. Volgendosi poi verso una candela accesa esalò lentamente i CFC, spegnendone la fiamma: una dimostrazione notevole e insolita delle proprietà non esplosive e non tossiche di questo clorofluorocarburo. Varie molecole diverse di CFC furono allora utilizzate come refrigeranti: il diclorodifluorometano, più noto con il nome commerciale di Freon 12, della Du Pont Corporation; il triclorotrifluorometano, o Freon 11; l’1,2-dicloro1,1,2,2-tetrafluoroetano, o Freon 114.

Freon 12

Freon 11

Freon 114

I numeri che seguono il nome del Freon sono un codice a tre cifre sviluppato da Midgley e Henne. La prima cifra corrisponde al numero degli atomi di carbonio a cui va sottratto uno. Se la prima cifra è zero (ossia se la molecola contiene un atomo di carbonio), non viene scritta; così il Freon 12 sarebbe in realtà Freon 012. La cifra seguente esprime il numero degli atomi di idrogeno (se ce ne sono) a cui va aggiunto uno. La terza cifra corrisponde al numero degli atomi di fluoro. Tutti gli atomi restanti sono di cloro, che non è indicato in detto codice. I clorofluorocarburi erano refrigeranti perfetti. Essi rivoluzionarono l’industria della refrigerazione e divennero la base di un grandissimo aumento del numero dei frigoriferi domestici, specialmente quando sempre più case vennero a essere collegate alla rete elettrica. Negli anni ’50 del Novecento, nel mondo dei Paesi sviluppati un frigorifero era considerato un elettrodomestico indispensabile. Non era più necessario comprare cibi freschi ogni giorno. I cibi deperibili potevano essere conservati in modi sicuri, e divenne possibile preparare cibi in anticipo. Prosperò l’industria degli alimenti surgelati; furono sviluppati nuovi prodotti; si introdussero cibi precotti, pasti da consumare davanti alla TV. I clorofluorocarburi cambiarono

il nostro modo di fare la spesa, di preparare il cibo e anche i tipi di cibo che consumiamo. La refrigerazione permise anche di conservare al fresco – e di inviare in tutto il mondo – antibiotici, vaccini e altri farmaci sensibili al calore. L’abbondanza di molecole sicure per la refrigerazione creò anche la possibilità di rinfrescare qualcosa di diverso dai cibi: l’ambiente. Per secoli si era fatto fronte alla temperatura dei climi più caldi catturando brezze naturali, muovendo l’aria per mezzo di ventagli e usando l’effetto rinfrescante dell’evaporazione dell’aria. Una volta arrivati sulla scena i CFC, l’industria in erba del condizionamento dell’aria si sviluppò rapidamente. In regioni tropicali e in altri luoghi in cui le estati erano estremamente calde, il condizionamento rese più confortevoli le case, gli ospedali, gli uffici, le fabbriche, i centri commerciali e le automobili: tutti i luoghi in cui la gente viveva e lavorava. Furono trovati anche altri usi per i CFC. Essendo inerti e non reagendo praticamente con niente, erano propellenti ideali per qualsiasi cosa potesse essere spruzzata con una bombola. Le lacche per capelli, le spume da barba, l’acqua di colonia, le lozioni di abbronzanti solari, le decorazioni in bombola per torte, i prodotti per la pulizia dei mobili, gli smacchiatori per tappeto, gli antimuffa per vasche da bagno e gli insetticidi sono solo alcuni dei moltissimi prodotti che possono essere forzati attraverso il piccolo ugello delle bombole per aerosol, espandendo il vapore dei CFC. Alcuni clorofluorocarburi erano perfetti come agenti schiumogeni nella produzione dei polimeri molto leggeri e porosi usati come materiali da imballaggio, schiuma isolante negli edifici, contenitori per cibi pronti e tazzine per caffè di «Styrofoam». Le proprietà solventi di altri CFC, come il Freon 113, facevano di loro dei detergenti ideali per piastre a circuiti stampati e altre parti elettroniche. La sostituzione di un atomo di bromo a uno di cloro, o a uno di fluoro, nella molecola di CFC produceva composti più pesanti, a punto di ebollizione superiore, come il Freon 13B1 (il codice è un modo adattato per indicare la presenza del bromo), che era adatto per essere usato negli estintori antincendio.

Freon 113

Freon 13B1

All’inizio degli anni ’70 del Novecento veniva prodotto annualmente un milione di tonnellate di CFC e di composti affini. Sembrava che queste molecole fossero in effetti ideali, perfettamente adatte ai loro ruoli nel mondo moderno, senza problemi o inconvenienti. Essi sembravano fare del mondo un luogo migliore.

I Freon rivelano il loro lato oscuro L’entusiasmo intorno ai clorofluorocarburi durò fino al 1974, quando in un altro convegno dell’American Chemical Society ad Atlanta i ricercatori Sherwood Rowland e Mario Molina annunciarono risultati preoccupanti. Essi avevano trovato che la stabilità stessa dei CFC presentava un problema del tutto inatteso ed estremamente allarmante. Diversamente da composti meno stabili, i CFC non vengono scomposti da comuni reazioni chimiche, proprietà che in origine li aveva fatti considerare così attraenti. I CFC liberati nell’atmosfera inferiore vi vagano per anni o addirittura per decenni, dopo di che salgono infine nella stratosfera, dove vengono scomposti dalla radiazione solare. Nella stratosfera c’è uno strato che si estende da 15 a 30 chilometri circa al di sopra della superficie terrestre, ed è noto come strato dell’ozono. Questo potrebbe sembrare una copertura abbastanza densa, ma in realtà, se si trovasse al livello del mare avrebbe uno spessore di soli pochi millimetri. Nella regione della stratosfera, la pressione dell’aria è così piccola che lo strato dell’ozono, estremamente rarefatto, viene a occupare un volume immenso. L’ozono è una delle forme elementari di ossigeno. L’unica differenza fra queste forme è il numero degli atomi di ossigeno presenti in ogni molecola: l’ossigeno comune è O2 e l’ozono è O3, ma le due molecole hanno proprietà molto diverse. In alto, al di sopra dello strato di ozono, l’intensa radiazione

solare rompe il legame che unisce i due atomi in una molecola di ossigeno, producendo due atomi di ossigeno indipendenti:

Questi atomi di ossigeno scendono nello strato di ozono, dove ognuno di loro reagisce con un’altra molecola di ossigeno formando una molecola di ozono:

All’interno dello strato di ozono, le molecole sono scomposte dalla radiazione ultravioletta ad alta energia, formando una molecola di ossigeno e un atomo di ossigeno.

Ora due atomi di ossigeno si ricombinano formando la molecola O2:

Così, nello strato di ozono, l’ozono viene costantemente prodotto e

costantemente scomposto. Nel corso dei millenni questi due processi hanno conseguito un equilibrio, cosicché la concentrazione dell’ozono nell’atmosfera terrestre rimane relativamente costante. Questa circostanza ha conseguenze importanti per la vita sulla Terra; lo strato di ozono assorbe la parte della radiazione ultravioletta solare più dannosa per gli organismi viventi. È stato detto che noi viviamo sotto un ombrello di ozono che ci protegge dalla mortale radiazione UV solare. Le ricerche di Rowland e Molina mostrarono però che gli atomi di cloro aumentano il tasso di decomposizione delle molecole di ozono. Al primo passo un atomo di cloro entra in collisione con ozono formando una molecola di monossido di cloro (ClO) e liberando una molecola di ossigeno:

Nel passo seguente il ClO reagisce con un atomo di ossigeno formando una molecola di ossigeno e rigenerando l’atomo di cloro:

Rowland e Molina sostennero che queste reazioni potevano sconvolgere l’equilibrio fra molecole di ozono e molecole di ossigeno, poiché gli atomi di cloro affrettano la scomposizione dell’ozono, ma non hanno alcun effetto sulla sua produzione. Un atomo di cloro, usato nel primo passo della scomposizione dell’ozono per produrre monossido di cloro, e liberato di nuovo nel secondo passo, agisce da catalizzatore; in altri termini, aumenta il ritmo di reazione ma non si consuma. Questo è l’aspetto più allarmante dell’effetto degli atomi di cloro sullo strato di ozono: ossia il fatto che non solo le molecole di ozono siano distrutte dal cloro, bensì che lo stesso atomo di cloro possa ricatalizzare ripetutamente questa scomposizione. Secondo una stima, ogni atomo di cloro che riesca a pervenire nell’atmosfera superiore attraverso una molecola di CFC, prima di essere disattivato distruggerà

centinaia di migliaia di molecole di ozono. Per ogni 1 per cento di diminuzione dello strato di ozono, potrebbe penetrare nell’atmosfera terrestre un 2 per cento addizionale della dannosa radiazione ultravioletta. Sulla base dei loro risultati sperimentali, Rowland e Molina predissero che gli atomi di cloro forniti dai CFC e composti affini, una volta raggiunta la stratosfera, avrebbero dato subito inizio alla decomposizione dello strato di ozono. Al tempo della loro ricerca, venivano liberati ogni giorno nell’atmosfera miliardi di molecole di CFC. La notizia che i CFC ponevano una minaccia reale e immediata di esaurimento dello strato di ozono, sottoponendo a gravi rischi la salute e la sicurezza di tutti gli organismi viventi, suscitò alcune reazioni di preoccupazione, ma sarebbero trascorsi vari anni – e altri studi, relazioni, gruppi di lavoro, ritiri graduali volontari e bandi parziali – prima che i CFC fossero proibiti completamente. Dati provenienti da una fonte totalmente inattesa fornirono la volontà politica per bandire i CFC. Studi compiuti nel 1985 in Antartide mostrarono un crescente svuotamento dello strato dell’ozono sopra il polo Sud. Che il più grande cosiddetto «buco» nello strato dell’ozono potesse apparire d’inverno su un continente virtualmente disabitato era sconcertante, tanto più che nell’Antartide non c’era certamente una grande richiesta di frigoriferi o di lacche spray per capelli. Ciò significava chiaramente che la liberazione di CFC nell’ambiente era un problema globale e non solo una preoccupazione locale. Nel 1987 un aereo per ricerche ad alta quota, che volava al di sopra della regione polare australe, trovò delle molecole di monossido di cloro (ClO) nelle aree impoverite di ozono: era una verifica sperimentale delle predizioni di Rowland e Molina (che otto anni dopo, nel 1995, si divisero il premio Nobel per la chimica, conferito loro per avere riconosciuto gli effetti a lungo termine dei CFC sulla stratosfera e sull’ambiente). Nel 1987 un accordo chiamato Protocollo di Montreal chiese a tutte le nazioni firmatarie di impegnarsi a diminuire gradualmente l’uso dei CFC per pervenire infine a un bando totale. Oggi si usano come refrigeranti, invece dei clorofluorocarburi, gli idrofluorocarburi e gli idrofluoroclorocarburi. Queste sostanze o non contengono cloro o vengono più facilmente ossidate nell’atmosfera; poche raggiungono le alte quote della stratosfera che venivano raggiunte dai meno reattivi CFC. Ma le sostanze usate oggi in sostituzione dei CFC non sono altrettanto efficaci come refrigeranti, e richiedono un 3 per cento in più di energia per il ciclo di refrigerazione.

Nell’atmosfera ci sono ancora miliardi di molecole di CFC. Non tutti i Paesi hanno firmato il Protocollo di Montreal, e persino nei Paesi che lo hanno firmato sono ancora in uso milioni di frigoriferi che li contengono, e vi sono probabilmente centinaia di migliaia di vecchie apparecchiature abbandonate che disseminano ancora CFC nell’atmosfera, in cui essi si uniranno al resto dei CFC nel viaggio lento ma inevitabile verso l’alto, dove provocheranno gravi guai nello strato di ozono. Queste molecole un tempo giudicate in modo molto positivo potrebbero continuare a fare danni per secoli. Se l’intensità della radiazione ultravioletta, ad alta energia, che raggiunge la superficie della Terra aumenta, cresce anche la possibilità di danni alle cellule e alle loro molecole di DNA, con probabile aumento del numero dei casi di cancro e dei tassi di mutazione.

Il lato oscuro del cloro I clorofluorocarburi non sono l’unico gruppo chimico di composti considerati molecole meravigliose al momento della loro scoperta, che in seguito hanno rivelato una tossicità inattesa o una potenzialità di danno ambientale o sociale. Quel che sorprende è forse il fatto che composti organici contenenti cloro abbiano dimostrato questo «lato oscuro» più di qualsiasi altro tipo di composti organici. Presenta quest’ambivalenza persino il cloro elementare. Milioni di persone in tutto il mondo dipendono dalla clorinazione per la potabilizzazione delle loro forniture d’acqua, e benché altre sostanze chimiche possano essere altrettanto efficaci nello svolgimento di questa funzione, sono molto più costose. Uno dei progressi maggiori conseguiti nel secolo scorso nel campo della sanità pubblica è stato lo sforzo di portare acqua potabile pulita in tutte le parti del mondo: un risultato che non è stato ancora pienamente raggiunto. Senza il cloro saremmo molto più lontani dalla realizzazione di quest’obiettivo; eppure il cloro è velenoso, fatto che fu ben compreso dal chimico tedesco Fritz Haber, di cui nel capitolo 5 abbiamo descritto le ricerche sulla sintesi dell’ammoniaca dall’azoto atmosferico. Il primo composto velenoso usato nella Prima guerra mondiale fu il gas cloro, di colore giallo- verdastro e odore pungente, fra i cui primi effetti ci sono il

soffocamento e la difficoltà di respiro. Il cloro è un potente irritante per le cellule e può causare un fatale rigonfiamento dei tessuti nei polmoni e nelle vie respiratorie. L’iprite e il fosgene, che sarebbero stati usati in seguito nei gas velenosi impiegati nella guerra di trincea contro il nemico, sono anch’essi composti organici contenenti cloro, con effetti altrettanto raccapriccianti di quelli del gas cloro. Anche se il tasso di mortalità per l’esposizione all’iprite non è elevato, questo gas causa danni permanenti agli occhi e menomazioni gravi e durature della funzione respiratoria.

Iprite

Fosgene

Gas velenosi usati nella Prima guerra mondiale. Gli atomi di cloro sono evidenziati in grassetto.

Il fosgene è un gas incolore altamente tossico. È il più insidioso di questi veleni; non è immediatamente irritante, cosicché può accadere che se ne inalino concentrazioni fatali prima che se ne scopra la presenza. La morte è di solito la conseguenza di una grave tumefazione dei tessuti nei polmoni e nelle vie aeree, che conduce alla soffocazione.

PCB: altri guai da composti clorurati Altri clorocarburi salutati all’inizio come molecole meravigliose, proprio come i CFC, sono in seguito risultati molto pericolosi. La produzione industriale di policlorobifenili, o PCB, come sono chiamati più comunemente, ebbe inizio verso la fine degli anni ’20 del Novecento. Questi composti furono considerati ideali per essere usati come isolatori elettrici e come refrigeranti in trasformatori, reattori, condensatori e interruttori automatici, nei quali la loro estrema stabilità, anche ad alte temperature, e la loro non infiammabilità erano altamente apprezzate. Furono molto usati anche come plastificanti – agenti capaci di accrescere la flessibilità – nella produzione di

vari polimeri, fra cui quelli usati come materiali per imballare o spedire merci o per confezionare cibi, nel rivestimento di bottiglini per neonati e per tazze da caffè di polistirene. I PCB furono usati anche nella produzione di vari inchiostri per la stampa, di carta autocopiante, di vernici, di cere, di adesivi, di lubrificanti e di oli per pompe da vuoto. I policlorobifenili (o derivati policlorurati del bifenile) sono composti in cui degli atomi di cloro hanno sostituito atomi di idrogeno sulla molecola madre del bifenile.

La molecola del bifenile

Questa struttura ha molte configurazioni possibili a seconda del numero e della posizione degli atomi di cloro presenti. Gli esempi che seguono mostrano due diversi bifenile tricloruro, ognuno dei quali con tre atomi di cloro, e un bifenile pentacloruro, con cinque atomi di cloro. Sono possibili più di duecento combinazioni diverse.

Bifenile tricloruro

Bifenile tricloruro

Bifenile pentacloruro

Non molto tempo dopo l’inizio della produzione dei PCB, emersero voci di problemi di salute fra i lavoratori degli impianti di produzione di questi composti. Molti riferirono una malattia nota come cloracne, nel corso della quale appaiono sulla pelle punti neri e pustole suppuranti. Oggi noi sappiamo che la cloracne è uno dei primi sintomi di un avvelenamento sistemico da PCB, e che può essere seguita da danni al sistema immunitario, al sistema

nervoso, al sistema endocrino e all’apparato riproduttivo, nonché da epatite e cancro al fegato. I PCB sono tutt’altro che molecole meravigliose e, in effetti, sono fra i composti più pericolosi che siano mai stati sintetizzati. La loro minaccia non sta solo nella tossicità diretta per gli esseri umani e per altri animali ma, come nel caso dei clorofluorocarburi, proprio in quella stabilità che li aveva resi all’inizio così utili. I PCB persistono nell’ambiente; essi sono soggetti a un processo di bioaccumulo (o di biomoltiplicazione), in cui la loro concentrazione aumenta lungo la catena alimentare. Gli animali che si trovano al vertice della catena alimentare, come gli orsi polari, i leoni, i cetacei, le aquile e l’uomo, possono accumulare nelle cellule adipose del loro corpo alte concentrazioni di PCB. Nel 1968 un episodio devastante di avvelenamento umano da PCB compendiò gli effetti diretti dell’ingestione di queste molecole. Milletrecento abitanti dell’isola di Kyushu, in Giappone, si ammalarono – all’inizio di cloracne e di problemi respiratori e visivi – dopo avere consumato olio di crusca di riso che era stato contaminato accidentalmente con PCB. Fra le conseguenze a lungo termine si osservarono difetti congeniti e cancro al fegato, con una frequenza quindici volte superiore alla norma. Nel 1977 gli Stati Uniti proibirono la discarica di materiali contenenti PCB nei corsi d’acqua. La produzione di questi composti fu finalmente messa fuori legge nel 1979, molto tempo dopo che numerosi studi avevano riferito sui loro effetti tossici per la salute umana e per la salute del nostro pianeta. Nonostante i regolamenti emanati per il controllo dei PCB, ci sono ancora milioni di chilogrammi di queste molecole in uso o in attesa di essere eliminate in modo sicuro. Esse sono ancora pericolosamente presenti nell’ambiente.

#Il cloro negli antiparassitari: dai benefìci al veneficio, alla proibizione Altre molecole contenenti cloro non sono sfuggite nell’ambiente, ma vi sono state deliberatamente riversate, a volte in grandi quantità, sotto forma di antiparassitari, nel corso dei decenni e in molti Paesi. Alcuni degli antiparassitari più efficaci che siano mai stati inventati contengono cloro.

Molecole molto stabili di questi veleni – quelle che persistono nell’ambiente – furono considerate all’inizio desiderabili. Gli effetti di un’applicazione potevano durare forse per anni. In effetti risultò che era veramente così, ma purtroppo le conseguenze non furono sempre quelle previste. L’uso di antiparassitari contenenti cloro è stato molto importante per l’umanità, ma ha causato anche, in taluni casi, effetti collaterali del tutto insospettati e molto dannosi. Più di qualsiasi altro antiparassitario contenente cloro, la molecola di DDT illustra il conflitto fra il potenziale benefico e il rischio. Il DDT è un derivato dell’1,1-difeniletano; DDT è un’abbreviazione di dicloro-difeniltricloroetano.

1,1-difeniletano

Dicloro-difenil-tricloroetano o DDT

Il DDT fu preparato per la prima volta nel 1874. Non ci si rese conto che fosse un potente insetticida fino al 1942, giusto in tempo per usarlo nella Seconda guerra mondiale come polvere contro i pidocchi, per arrestare la diffusione del tifo, e per uccidere le larve di zanzare portatrici di altre malattie.10 «Bombe contro gli insetti» (bug bombs), fatte con bombole da aerosol riempite di DDT, furono molto usate dai militari americani nel Pacifico meridionale. Esse inflissero un duro colpo all’ambiente, liberando grandi quantità di CFC insieme a nubi di DDT. Ancora prima del 1970, quando tre milioni di tonnellate di DDT erano già stati prodotti e usati, erano emerse preoccupazioni sull’effetto che esso poteva avere sull’ambiente e sullo sviluppo della resistenza degli insetti. L’effetto del DDT sulla fauna selvatica – e in particolare su uccelli da preda come aquile, falchi e altri rapaci che sono al vertice della catena alimentare –

è attribuito non direttamente al DDT, bensì al principale prodotto della sua decomposizione. Tanto il DDT quanto tale prodotto sono composti solubili nel grasso, che si accumulano nei tessuti animali. Negli uccelli, però, questo prodotto di decomposizione inibisce l’enzima che fornisce calcio al guscio delle loro uova. Gli uccelli esposti al DDT producono perciò uova dal guscio molto fragile, che spesso si rompono prima della schiusa. A cominciare dai tardi anni ’40, quindi, si osservò un rapido declino nelle popolazioni di aquile, falchi e di altri uccelli rapaci. Importanti disturbi dell’equilibrio fra insetti utili e dannosi, segnalati da Rachel Carson nel suo famoso libro del 1962 Primavera silenziosa, furono ricondotti all’uso sempre più massiccio del DDT. Durante la guerra del Vietnam, dal 1962 al 1970, milioni di litri dell’Agente Arancione – un miscuglio di erbicidi 2,4-D e 2,4,5-T contenenti cloro – furono irrorati su aree del Sud- est asiatico per distruggere il fogliame che occultava i guerriglieri.

2,4-D

2,4,5-T

Benché questi due composti non siano particolarmente tossici, il 2,4,5-T contiene tracce di un prodotto collaterale che è stato implicato nell’ondata di difetti congeniti, casi di cancro, malattie della pelle, deficienze del sistema immunitario e altri gravi problemi di salute che colpiscono ancora oggi i vietnamiti. Il composto responsabile di tutti questi mali ha il nome chimico di 2,3,7,8-tetraclorodibenzodiossina, oggi comunemente noto come diossina, anche se la parola si riferisce in realtà a un’intera classe di composti organici che non condividono necessariamente le dannose proprietà della 2,3,7,8tetraclorodibenzodiossina.

2,3,7,8-tetraclorodibenzodiossina, o diossina

La diossina è considerata il più letale fra i composti prodotti dall’uomo, anche se è ancora un milione di volte meno mortale del composto più tossico presente in natura, la tossina A del botulino. Nel 1976 un’esplosione industriale avvenuta a Seveso, in provincia di Milano, determinò la liberazione nell’ambiente di una quantità di diossina con conseguenze devastanti – cloracne, difetti congeniti, cancro – per esseri umani e animali. Successivamente le diffuse relazioni sull’evento pubblicate dai media additarono come colpevoli di tali effetti tutti i composti accomunati sotto il nome di diossine. Così come problemi inattesi di salute umana si accompagnarono all’uso di un erbicida defoliante, altri problemi inattesi si manifestarono con una differente molecola clorurata, l’esaclorofene, un prodotto germicida estremamente efficace, molto usato negli anni ’50 e ’60 del XX secolo in saponi, shampoo, lozioni dopo barba, deodoranti, collutori e prodotti simili.

Esaclorofene

L’esaclorofene veniva usato comunemente anche su neonati e aggiunto ai pannolini, al talco in polvere e ad altri prodotti per la toeletta del bambino. Esperimenti compiuti nel 1972 mostrarono però che il suo uso conduceva a danni al cervello e al sistema nervoso in animali da laboratorio. Esso fu perciò successivamente bandito dai preparati da banco e dai prodotti per

neonati, ma in conseguenza della sua grande efficacia contro certi batteri ha ancora un uso limitato, nonostante la sua tossicità, in farmaci contro l’acne e in preparati per lavaggi antisettici in chirurgia.

Molecole che ti fanno dormire Non tutte le molecole di clorocarburi sono state disastrose per la salute umana. Oltre alle proprietà antisettiche dell’esaclorofene, una piccola molecola contenente cloro si dimostrò di grande beneficio per la medicina. Fin verso la metà dell’Ottocento gli interventi chirurgici venivano eseguiti senza anestesia, ma a volte con la somministrazione di generose quantità di alcol, nella convinzione che esso ottundesse il dolore. Si dice che anche alcuni chirurghi bevessero per rafforzare la loro determinazione prima di infliggere tali sofferenze. Poi, nell’ottobre 1846, un dentista di Boston, William Morton, riuscì a dimostrare che l’etere poteva indurre la narcosi, uno stato temporaneo di incoscienza molto utile nel caso di interventi chirurgici. La notizia della capacità dell’etere di rendere possibili interventi chirurgici indolori si diffuse rapidamente, e altri composti vennero ben presto investigati per le loro proprietà anestetiche. Il medico scozzese – e professore di medicina e ostetricia alla Medical School dell’Università di Edimburgo – James Young Simpson sviluppò un modo unico di sperimentare possibili anestetici. Egli chiedeva ai suoi ospiti a cena di unirsi a lui nell’inalare varie sostanze. Il cloroformio (CHCl3), sintetizzato per la prima volta nel 1831, evidentemente superò la prova. Dopo l’esperimento con questo composto, Simpson si trovò steso sul pavimento della sala da pranzo, circondato dai suoi ospiti ancora in stato comatoso. Egli non perse tempo a usare il cloroformio sui suoi pazienti.

Cloroformio

Etere (etere dietilico)

L’uso di questo clorocarburo come anestetico aveva un certo numero di vantaggi sull’etere: il cloroformio agiva più rapidamente e aveva un odore migliore, inoltre se ne richiedeva di meno. Un altro vantaggio era che la ripresa dopo un intervento chirurgico in cui si era somministrato cloroformio era più rapida e meno sgradevole che se si fosse usato etere. Anche l’estrema infiammabilità dell’etere era un aspetto negativo non trascurabile. Esso formava con l’ossigeno un miscuglio esplosivo, che poteva essere innescato durante un intervento chirurgico da una benché minima scintilla, anche prodotta da un cozzo di strumenti metallici. L’anestesia col cloroformio fu prontamente accettata in chirurgia. Anche se alcuni pazienti morirono, i rischi associati furono considerati piccoli. Poiché la chirurgia era spesso l’ultima risorsa, e a volte i pazienti morivano comunque di shock durante un intervento chirurgico senza anestesia, il tasso di mortalità fu considerato accettabile. Inoltre, dato che i procedimenti chirurgici venivano eseguiti rapidamente – un uso che era essenziale quando ancora non esisteva l’anestesia –, i pazienti non erano esposti al cloroformio per molto tempo. È stato stimato che durante la Guerra di secessione furono eseguiti quasi settemila interventi chirurgici su feriti in battaglia anestetizzati col cloroformio, con meno di quaranta decessi dovuti all’uso dell’anestetico. L’anestesia chirurgica fu universalmente riconosciuta come un grande progresso, ma il suo uso nel parto era controverso. Le riserve erano in parte mediche: alcuni medici espressero giustamente preoccupazione sull’effetto del cloroformio o dell’etere sulla salute del bambino, ancora nel grembo materno, citando osservazioni di contrazioni uterine ridotte e di ritmi ridotti di respirazione del neonato in un parto sotto anestesia. Ma il problema non riguardava solo la sicurezza del neonato e il benessere della madre. Concezioni morali e religiose sostenevano la convinzione che il dolore del travaglio fosse necessario e giusto. Nella Genesi si dice che le donne, in quanto discendenti di Eva, sono condannate a soffrire durante il parto come punizione per la disobbedienza di Eva nell’Eden: «Con dolore partorirai figliuoli». Secondo un’interpretazione rigorosa di questo passo della Bibbia, qualsiasi tentativo di alleviare il dolore del parto era contrario alla volontà di Dio. Un’opinione più radicale uguagliava il travaglio del parto con l’espiazione del peccato: presumibilmente il peccato dei rapporti sessuali, l’unico modo per concepire un figlio alla metà dell’Ottocento. Ma nel 1853 in Gran Bretagna la regina Vittoria partorì il suo ottavo

figlio, il principe Leopoldo, con l’aiuto del cloroformio. La sua decisione di ripetere quest’esperienza nel suo nono e ultimo parto – quello della principessa Beatrice, nel 1857 – accelerò l’accettazione del cloroformio in sala parto, nonostante le critiche rivolte ai suoi medici in The Lancet, il prestigioso periodico medico britannico. Il cloroformio divenne l’anestetico più usato per il parto in Gran Bretagna e in gran parte d’Europa; l’etere rimase più popolare in Nordamerica. All’inizio del Novecento, in Germania, un metodo diverso di controllo del dolore nel parto acquistò rapida accettazione, diffondendosi rapidamente in altre parti d’Europa. Il «sonno crepuscolare», come divenne noto, veniva indotto mediante la somministrazione di scopolammina e morfina, composti di cui ci siamo occupati nei capitoli 12 e 13. Una piccolissima quantità di morfina veniva somministrata all’inizio delle doglie. Essa riduceva il dolore, anche se non lo cancellava completamente, specialmente se il travaglio era lungo o difficile. La scopolammina induceva sonno e, cosa più importante per i medici favorevoli a questa combinazione di farmaci, toglieva alla donna qualsiasi ricordo del parto. Il «sonno crepuscolare» era visto come la soluzione ideale al dolore del parto, tanto che una campagna pubblica per promuoverne l’uso ebbe inizio negli Stati Uniti nel 1914. La National Twilight Sleep Association (Associazione nazionale per il sonno crepuscolare) pubblicò opuscoli e organizzò conferenze che esaltavano le virtù di questo nuovo approccio. Le serie preoccupazioni espresse da membri della comunità scientifica furono bollate come scuse da parte di medici induriti e insensibili, per conservare il controllo sui loro pazienti. Il sonno crepuscolare divenne un problema politico, parte del grande movimento che condusse infine le donne ad acquisire il diritto di voto. La cosa che oggi ci appare più bizzarra in questa campagna è la convinzione delle donne che il sonno crepuscolare eliminasse le sofferenze del parto, permettendo loro di risvegliarsi rinvigorite e pronte ad accogliere con gioia il nuovo figlio. In realtà esse soffrivano gli stessi dolori, esattamente come se non fosse stato loro somministrato alcun farmaco, ma non se ne rendevano conto a causa del blocco del ricordo a opera della scopolammina. Il sonno crepuscolare forniva in realtà una falsa immagine di una maternità tranquilla e senza problemi. Come gli altri clorocarburi trattati in questo capitolo, anche il cloroformio – nonostante tutti i benefìci apportati ai pazienti chirurgici e alla professione

medica – risultò avere un lato oscuro. Oggi sappiamo che esso causa danni al fegato e ai reni, e che alti livelli di esposizione ad esso aumentano il rischio di cancro. Esso può danneggiare la cornea dell’occhio, può fare screpolare la pelle e portare senso di affaticamento, indurre nausea e provocare irregolarità nel ritmo cardiaco. Esposto ad alte temperature, all’aria o alla luce, il cloroformio forma cloro, monossido di carbonio, fosgene e/o cloruro di idrogeno, tutte sostanze tossiche o corrosive. Oggi chi lavora col cloroformio deve usare indumenti e apparecchiature protettive, in un clima molto lontano dai giorni esaltanti della sua introduzione come anestetico. Ma anche se le sue proprietà negative fossero state riconosciute più di un secolo fa, il cloroformio sarebbe stato tuttavia considerato una benedizione, e non una sventura, da parte delle migliaia di persone che ne inalarono con gratitudine i vapori dall’odore dolciastro, prima di subire un intervento chirurgico.

Non c’è dubbio che molti clorocarburi meritino di vedersi attribuire il ruolo del «cattivo», anche se forse quest’etichetta sarebbe più appropriata a coloro che hanno scaricato consapevolmente PCB nei fiumi, che si sono opposti alla proibizione dei CFC anche dopo la dimostrazione dei loro effetti distruttivi sullo strato dell’ozono, che hanno applicato indiscriminatamente antiparassitari (legali e illegali) alla terra e all’acqua, e che hanno anteposto il profitto alla sicurezza in fabbriche e laboratori in tutto il mondo. Oggi noi produciamo centinaia di composti organici contenenti cloro che non sono velenosi, non distruggono lo strato dell’ozono, non sono dannosi all’ambiente, non sono cancerogeni e non sono mai stati usati nella guerra con i gas. Questi composti vengono usati nelle nostre case e nelle industrie, nelle scuole e negli ospedali, nelle automobili, nelle navi e sugli aerei. Essi non ricevono molta pubblicità e non fanno danno, ma non possono essere descritti come sostanze chimiche che hanno cambiato il mondo. L’ironia dei clorocarburi è che quelli che hanno fatto più danno o che hanno la potenzialità di farlo sembrano essere anche quelli a cui vanno riconosciuti alcuni dei progressi più benefici nella nostra società. Gli anestetici sono stati essenziali allo sviluppo della chirurgia, come branca specialistica molto avanzata della medicina. Lo sviluppo di molecole refrigeranti da usare su navi, in treni e su autocarri dischiuse nuove opportunità al commercio, apportando inoltre crescita e prosperità in parti del

mondo non sviluppate. Oggi i frigoriferi domestici permettono una conservazione dei cibi sicura e a buon mercato. Noi diamo per scontato il conforto del condizionamento dell’aria, e supponiamo che la nostra acqua da bere sia sicura e che i nostri trasformatori elettrici non si incendieranno. Le malattie trasmesse da insetti sono state eliminate o molto ridotte in vari Paesi. Non possiamo sminuire l’impatto positivo di questi composti.

17 MOLECOLE CONTRO LA MALARIA

La parola «malaria» significa letteralmente «aria cattiva». Questo nome deriva dalla convinzione, nutrita in Italia per molti secoli, che questa malattia fosse causata da nebbie tossiche e miasmi che si alzavano da paludi. La malattia, causata da un parassita microscopico, è forse quella che ha ucciso il maggior numero di esseri umani in tutta la storia. Ancora oggi, secondo stime prudenti, ci sono da 300 a 500 milioni di nuovi casi all’anno, con due o tre milioni di decessi, soprattutto di bambini in Africa. Per confronto, l’epidemia causata nel 1995 in Zaire dal virus Ebola causò 250 decessi in sei mesi; un numero di africani venti volte maggiore muore di malaria ogni giorno. La malaria si trasmette molto più rapidamente dell’AIDS. Secondo una stima, i pazienti sieropositivi contagiano da due a dieci altre persone, mentre ogni paziente infettato dalla malaria può trasmettere la malattia a centinaia di altre persone. Ci sono quattro specie diverse di parassita della malaria (genere Plasmodium) che infettano gli esseri umani: il P. vivax, il P. falciparum, il P. malariae e il P. ovale. Tutt’e quattro causano i sintomi tipici della malaria – febbre intensa, brividi, terribile mal di testa, dolori muscolari –, che possono ricorrere anche a distanza di anni. La più letale di queste quattro forme è la malaria terzana maligna, causata dal P. falciparum. Le altre forme sono chiamate a volte malarie «benigne», anche se il tributo che riscuotono sulla salute complessiva e la produttività di una società è tutt’altro che benigno. Nella malaria la febbre è di solito periodica, con punte ogni due o tre giorni. Nel caso della malaria maligna da P. falciparum, questa febbre periodica è rara e, al progredire della malattia, il paziente diventa itterico, letargico e confuso, prima di entrare in coma e morire. La malaria si trasmette fra gli esseri umani attraverso la puntura della zanzara anofele. Una zanzara femmina ha bisogno di un pasto di sangue

prima di deporre le uova. Se il sangue che si procura proviene da un essere umano malato di malaria, il parassita può continuare il suo ciclo vitale nel tubo digerente della zanzara ed essere trasmesso all’essere umano che le fornirà il pasto successivo. Esso si svilupperà allora nel fegato della prossima vittima; una settimana dopo ne invaderà il circolo sanguigno ed entrerà nei globuli rossi del sangue (o eritrociti, dal greco «cellule rosse»), pronto a trasferirsi nell’anofele che si ciberà del sangue di questo paziente. Noi oggi consideriamo la malaria una malattia tropicale o semitropicale, ma fino a poco tempo fa era diffusa anche in regioni temperate. Riferimenti a una febbre – molto probabilmente malarica – si trovano nei documenti scritti più antichi della Cina, dell’India e dell’Egitto, risalenti a migliaia di anni fa. Il nome inglese per la malattia era the ague (febbre ricorrente, con brividi). Essa era molto comune nelle basse regioni costiere dell’Inghilterra e dell’Olanda, che possedevano estese paludi e acque poco mobili o stagnanti, ideali per la riproduzione delle zanzare. La malattia esisteva anche in comunità più nordiche: in Scandinavia, negli Stati Uniti settentrionali e nel Canada. La malaria era nota anche in aree così a nord come le regioni della Svezia e della Finlandia, in prossimità del golfo di Botnia, vicinissime al circolo polare artico. Essa era endemica in molti Paesi che costeggiano il mar Mediterraneo e il mar Nero. Dove prosperava l’anofele era diffusa la malaria. A Roma, città famigerata per la sua mortale «febbre romana» o «febbre delle paludi», ogni volta che si teneva un conclave, un certo numero di cardinali moriva in conseguenza di questa malattia. A Creta e nella penisola del Peloponneso, in Grecia, le altre parti del mondo con stagioni umide e secche ben distinte, nei mesi estivi si conducevano gli animali da pascolo nelle regioni più alte. Queste migrazioni interne potevano essere dovute non tanto al desiderio di trovare pascoli estivi, quanto a quello di sfuggire alla malaria. La malaria colpiva tanto i poveri quanto i personaggi ricchi e famosi. Alessandro Magno sarebbe morto di malaria, come l’esploratore africano David Livingstone. Gli eserciti erano molto vulnerabili alle epidemie di malaria; dormendo in tende, in ricoveri di fortuna o all’aperto, i soldati erano particolarmente esposti alle punture delle zanzare, che vanno in giro a nutrirsi di notte. Più di metà dei soldati nella Guerra di secessione soffrì di accessi annuali di malaria. Potremmo forse aggiungere la malaria alle sofferenze delle truppe di Napoleone, almeno verso la fine dell’estate e verso l’autunno

del 1812, quando cominciarono la grande spinta verso Mosca? La malaria rimase un problema a livello mondiale fino al XX secolo inoltrato. Negli Stati Uniti, nel 1914, ci furono più di mezzo milione di casi di malaria. Nel 1945 quasi due miliardi di persone nel mondo vivevano in aree malariche, e in alcuni Paesi il 10 per cento della popolazione era infettata. In tali luoghi l’assenteismo dal lavoro connesso alla malaria poteva raggiungere il 35 per cento, mentre l’assenteismo a scuola poteva toccare punte fino al 50 per cento.

Chinina: l’antidoto della natura Con statistiche come queste, non c’è da stupirsi se nel corso dei secoli sono stati usati vari metodi diversi per cercare di contrastare la malattia. Questi metodi hanno implicato tre molecole del tutto diverse, le quali hanno tutte connessioni interessanti e addirittura sorprendenti con molte delle molecole menzionate in capitoli precedenti. La prima di queste molecole è la chinina. In alto sulle Ande, fra mille e tremila metri sul livello del mare, cresce un albero la cui corteccia contiene un alcaloide in assenza del quale il mondo sarebbe oggi del tutto diverso. Esistono una quarantina di specie di quest’albero, appartenenti tutte al genere Cinchona. Esse sono native delle pendici orientali delle Ande, dalla Colombia verso sud fino alla Bolivia. Le speciali proprietà della corteccia erano note da molto tempo agli abitanti locali, i quali senza dubbio si trasmisero di generazione in generazione la conoscenza che un infuso di questa parte dell’albero era una cura efficace contro la febbre. Si raccontano molte storie su come i primi esploratori europei dell’area andina scoprirono l’effetto antimalarico della corteccia di cinchona. In una di tali storie, un soldato spagnolo sofferente per un episodio di malaria bevve dell’acqua da uno stagno circondato da alberi di cinchona, e la sua febbre sparì miracolosamente. Un altro racconto chiama in causa la contessa di Cinchón, Doña Francisca Henriques de Rivera, il cui marito, il conte di Cinchón, fu il viceré spagnolo del Perù dal 1629 al 1639. Poco dopo il 1630, Doña Francisca si ammalò gravemente di malaria. I rimedi tradizionali europei rimasero senza effetto, e il suo medico optò per una terapia locale,

l’albero di cinchona. Questa specie ricevette il nome dalla contessa, la quale sopravvisse grazie alla chinina presente nella corteccia dell’albero. Queste storie sono state usate come prova del fatto che la malaria era già presente nel Nuovo Mondo prima che vi arrivassero gli europei. Ma il fatto che gli indiani sapessero che un albero di kina – parola peruviana che divenne quina in spagnolo (e china in italiano) – guarisse una febbre non dimostra che la malattia fosse indigena nelle Americhe. Colombo arrivò sulle coste del Nuovo Mondo un secolo abbondante prima che Doña Francisca si curasse con la chinina: un tempo più che sufficiente perché l’infezione malarica si trasmettesse dai primi esploratori europei alle zanzare locali e si diffondesse poi fra gli altri abitanti delle Americhe. Non ci sono prove del fatto che le febbri trattate con la corteccia di china nei secoli precedenti all’arrivo dei conquistadores fossero malariche. Oggi gli storici della medicina e gli antropologi accettano in generale la tesi che la malattia sia stata portata nel Nuovo Mondo dall’Africa e dall’Europa. Tanto gli europei quanto gli schiavi africani sarebbero stati una fonte di infezione. Alla metà del Cinquecento la tratta degli schiavi dall’Africa occidentale, dove la malaria era molto diffusa, alle Americhe, era già ben stabilita. Dopo il 1630, l’epoca in cui la contessa di Cinchón contrasse la malaria in Perù, generazioni di neri provenienti dall’Africa occidentale e di europei contagiati dal parassita della malaria avevano già stabilito un serbatoio di infezione enorme, in attesa di spargere il contagio sull’intero Nuovo Mondo. La fama che la corteccia di china era in grado di guarire dalla malaria si diffuse rapidamente in Europa. Nel 1633 il padre Antonio de la Calaucha prese nota delle proprietà sorprendenti della corteccia dell’«albero della febbre», e altri membri dell’ordine dei gesuiti in Perù cominciarono a usare la corteccia di china, sia per curare sia per prevenire la malaria. Fra il 1640 e il 1650 il padre Bartolomé Tafur portò un po’ di corteccia a Roma, dove la fama delle sue proprietà miracolose si sparse nel clero. Il conclave del 1655 per l’elezione del nuovo papa fu il primo senza un decesso per malaria fra i cardinali presenti. I gesuiti importarono ben presto grandi quantità della corteccia, e la vendettero in tutt’Europa. Nonostante la sua eccellente reputazione in altri Paesi, la «polvere dei gesuiti» – come divenne nota – non fu affatto popolare nell’Inghilterra protestante. Oliver Cromwell, rifiutando di farsi curare con un rimedio dei papisti, morì di malaria nel 1658. Un altro farmaco contro la malaria acquistò notorietà nel 1670, quando

Robert Talbor, farmacista e medico londinese, mise in guardia il pubblico contro i pericoli associati alla polvere dei gesuiti e cominciò a pubblicizzare il proprio preparato segreto. La cura di Talbor fu portata alle corti reali d’Inghilterra e di Francia; il suo re Carlo II, e il figlio del re francese Luigi XIV, sopravvissero a gravi attacchi di malaria grazie al sorprendente nuovo farmaco di Talbor. Solo dopo la morte del medico inglese si scoprì qual era l’ingrediente miracoloso della sua formula: era la stessa corteccia di cinchona della polvere dei gesuiti. L’inganno di Talbor, che gli permise di accumulare una fortuna – era stata questa, con ogni verosimiglianza, la sua motivazione principale –, ebbe comunque il merito di salvare la vita ai protestanti che si rifiutavano di sottoporsi a una cura cattolica. Il fatto che la chinina curasse la malattia nota come ague è considerato una prova che questa febbre, che afflisse per secoli gran pare dell’Europa, era in effetti la malaria. Nei tre secoli seguenti la malaria – come pure l’indigestione, la febbre, la perdita dei capelli, il cancro e molte altre condizioni – fu comunemente curata con corteccia di cinchona. Non si seppe in generale da quale pianta venisse questa corteccia fino al 1735, quando un botanico francese, Joseph de Jussieu, mentre esplorava le aree più elevate delle foreste pluviali del Sudamerica, scoprì che fonte di quella corteccia amara erano varie specie di latifoglie che potevano raggiungere anche venti metri d’altezza. Esse appartengono alla famiglia delle rubiacee, la stessa dell’albero del caffè. La corteccia di cinchona ebbe sempre una grande richiesta, e la sua raccolta divenne un’industria molto importante. Benché fosse possibile raccogliere una parte della corteccia senza uccidere l’albero, si potevano avere profitti maggiori abbattendo l’albero e strappandogli tutta la corteccia. Si stima che alla fine del Settecento si abbattessero ogni anno circa 25.000 alberi di china.

L’albero di cinchona, dalla cui corteccia si ottiene la chinina. (Foto gentilmente concessa da L. Keith Wade)

Mentre il prezzo della corteccia di cinchona saliva continuamente, e l’albero da cui essa proveniva rischiava di estinguersi, divennero un obiettivo importante l’isolamento, l’identificazione e la produzione della molecola antimalarica. Si pensa che la chinina sia stata isolata la prima volta, anche se probabilmente in una forma impura, già nel 1792. Una ricerca completa sui composti presenti nella corteccia ebbe inizio intorno al 1810, e solo nel 1820 i ricercatori Joseph Pelletier e Joseph Caventou riuscirono a estrarne e a purificare la chinina. L’Institut des Sciences di Parigi premiò i due chimici francesi per il loro prezioso lavoro con la somma di 10.000 franchi. Fra i quasi trenta alcaloidi che si trovano nella corteccia di cinchona, la

chinina fu rapidamente identificata come l’ingrediente attivo. La sua struttura non fu compiutamente determinata fino al XX secolo inoltrato, cosicché i primi tentativi di sintetizzare il composto ebbero ben poche possibilità di successo. Fra i primi tentativi ci fu quello del giovane chimico inglese William Perkin (che abbiamo incontrato nel capitolo 9) di combinare due molecole di alliltoluidina con tre atomi di ossigeno, per formare chinina e acqua: 2C10H13N + 3O→ C20H24N2O2 + H2O alliltoluidina

ossigeno

chinina

acqua

Lavorando nel 1856 sulla semplice base del fatto che la formula dell’alliltoluidina (C10H13N) era quasi metà di quella della chinina (C20H24N2O2), il suo esperimento aveva ben poche prospettive di riuscita. Noi oggi sappiamo che la struttura dell’alliltoluidina e la struttura più complicata della chinina sono come segue:

Se Perkin non riuscì a sintetizzare la chinina, il suo lavoro fu comunque estremamente fruttuoso, conducendo alla produzione della malva per l’industria dei coloranti e allo sviluppo della scienza della chimica organica (e permettendogli di accumulare una fortuna). Nel corso dell’Ottocento, mentre la Rivoluzione industriale apportava prosperità alla Gran Bretagna e ad altre parti d’Europa, divenne disponibile del capitale per affrontare il problema dei malsani terreni agricoli paludosi. Grandi progetti di bonifica trasformarono torbiere e paludi in aziende agricole

più produttive, lasciando disponibile meno acqua stagnante per la riproduzione delle zanzare e diminuendo l’incidenza della malaria in regioni dov’era stata molto diffusa. Ma la domanda di chinina non diminuì. Al contrario, al crescere della colonizzazione europea in Africa e in Asia, ci fu una maggiore richiesta di protezione contro la malaria. L’abitudine dei britannici di prendere la chinina come precauzione profilattica contro la malaria si sviluppò nell’abitudine serale di bere «gin and tonic»: il gin era considerato necessario per rendere gradevole in acqua tonica il sapore amaro della chinina. L’Impero britannico dipese fortemente dalla sua disponibilità di chinina, dato che molte fra le sue colonie più importanti – India, Malesia, Africa e Caraibi – si trovavano in regioni del mondo in cui la malaria era endemica. Anche olandesi, francesi, spagnoli, portoghesi, tedeschi e belgi colonizzarono aree malariche. A livello mondiale c’era di conseguenza una domanda enorme di chinina. Non essendo in vista alcuna via promettente per la sintesi della chinina, si cercò – e trovò – una soluzione diversa: la coltivazione di specie della cinchona fuori del bacino del Rio delle Amazzoni, in altre regioni del mondo. I profitti della vendita della corteccia della cinchona erano così grandi che i governi della Bolivia, dell’Ecuador, del Perù e della Colombia, per poter conservare il loro monopolio sul commercio di questo prodotto, proibirono l’esportazione di piante di cinchona vive o dei loro semi. Nel 1853 l’olandese Justus Hasskarl, direttore di un orto botanico nell’isola di Giava, nelle Indie orientali olandesi, riuscì a far uscire illegalmente dal Sudamerica un sacchetto di semi di Cinchona calisaya. Dai semi, piantati a Giava, crebbero con successo le piante, ma purtroppo per Hasskarl e per gli olandesi quella specie di cinchona ha un contenuto di chinina relativamente basso. I britannici fecero un’esperienza simile con semi contrabbandati di Cinchona pubescens, che piantarono in India e a Ceylon. Gli alberi crebbero, ma la corteccia aveva meno del 3 per cento del contenuto di chinina necessario per una produzione efficiente, in termini di costi. Nel 1861 Charles Ledger, un australiano che aveva speso vari anni come commerciante di corteccia di china, riuscì a convincere un indio della Bolivia a vendergli semi dell’albero di cinchona che si pensava dovesse avere un contenuto molto elevato di chinina. Il governo britannico non fu interessato all’acquisto dei semi di Ledger; l’esperienza fatta in Gran Bretagna della coltivazione della cinchona aveva probabilmente convinto il governo che tale

via non fosse economicamente valida. Il governo olandese, invece, comprò per circa venti dollari poco meno di mezzo chilo (una libbra) di semi di quella specie, che divenne nota come la Chinchona ledgeriana. Mentre quasi duecento anni prima erano stati i britannici a fare la scelta giusta cedendo agli olandesi il monopolio del commercio della noce moscata, contenente la preziosa molecola dell’isoeugenolo, in cambio dell’isola di Manhattan, questa volta furono gli olandesi a prendere la decisione giusta. Il loro acquisto da venti dollari è stato definito il migliore investimento in tutta la storia, e i livelli di chinina della corteccia della Cinchona ledgeriana risultarono essere addirittura del 13 per cento. I semi della C. ledgeriana furono piantati a Giava. Quando gli alberi furono abbastanza cresciuti da permettere il raccolto della corteccia ricca di chinina, le esportazioni della corteccia nativa del Sudamerica cominciarono a declinare. Fu uno scenario che si ripeté quindici anni dopo, quando semi esportati illegalmente di un altro albero sudamericano, la Hevea brasiliensis, segnarono la fine della produzione locale di gomma (vedi il cap. 8). Nel 1930 più del 95 per cento della chinina mondiale proveniva dalle piantagioni di Giava. Queste piantagioni di cinchona furono molto redditizie per gli olandesi. La molecola di chinina, o forse più correttamente il monopolio sulla produzione della molecola di chinina, fece quasi saltare gli equilibri della Seconda guerra mondiale. Nel 1940 la Germania invase l’Olanda e confiscò l’intero stock europeo di chinina proveniente dalla sede del kina bureau ad Amsterdam. La conquista, nel 1942, dell’isola di Giava da parte dei giapponesi mise ulteriormente in pericolo la fornitura di questo antimalarico essenziale. Alcuni botanici americani, diretti da Raymond Fosberg, della Smithsonian Institution, furono inviati sul versante orientale delle Ande per procurare una fornitura di corteccia di china staccata dagli alberi che crescevano ancora normalmente nell’area. Pur riuscendo a procurare varie tonnellate di corteccia, non trovarono però alcun esemplare della specie altamente produttiva Cinchona ledgeriana, con cui gli olandesi avevano avuto un successo tanto sorprendente. La chinina era essenziale per proteggere le truppe alleate ai tropici, cosicché ancora una volta la sua sintesi – o quella di una molecola simile dotata di proprietà antimalariche – divenne estremamente importante. La chinina è un derivato della molecola chinolina. Negli anni ’30 del XX secolo erano stati creati alcuni derivati sintetici della chinolina, che si erano

rivelati efficaci nel trattamento della malaria acuta. Estese ricerche su farmaci antimalarici compiute durante la Seconda guerra mondiale produssero come migliore prodotto di sintesi un derivato della 4-amminochinolina, noto oggi come clorochina, ottenuto in origine da chimici tedeschi prima della guerra.

Tanto la chinina (a sinistra) quanto la clorochina (a destra) includono la struttura della chinolina (circolata), che è presentata a sé al centro della figura. Nella clorochina l’atomo di cloro è indicato con una freccia.

La clorochina contiene un atomo di cloro: un altro esempio di un cloroderivato che è stato estremamente benefico per l’umanità. Per più di quarant’anni la clorochina fu un innocuo ed efficace farmaco antimalarico, ben tollerato dalla maggior parte delle persone e con poca della tossicità propria delle altre chinoline sintetiche. Purtroppo negli ultimi decenni si sono diffusi rapidamente ceppi del parassita della malaria resistenti alla clorochina, riducendo l’efficacia di questo farmaco, e oggi si usano in sua vece, per la protezione contro la malaria, composti come il Fansidar e la meflochina, con la loro maggiore tossicità e i loro effetti collaterali a volte allarmanti.

La sintesi della chinina Si ebbe l’impressione che la ricerca per sintetizzare la molecola della chinina avesse avuto finalmente successo nel 1944, quando Robert Woodward e William Doering, dell’Università di Harvard, convertirono un semplice derivato della chinolina in una molecola che chimici precedenti, nel 1918, avevano affermato di essere riusciti a trasformare in chinina. Ma non era così.

La relazione pubblicata delle ricerche precedenti era stata così scarna che non fu possibile accertare quali risultati si fossero effettivamente ottenuti e se la rivendicazione della trasformazione fisica avesse o no una qualche validità. I chimici che studiano i prodotti organici naturali hanno un detto: «La prova finale di una struttura è la sintesi». In altri termini, per quante prove possano esserci della correttezza di una struttura proposta, per essere assolutamente sicuri che essa sia corretta si deve sintetizzare la molecola in un modo indipendente. E nel 2001, quasi un secolo e mezzo dopo il primo famoso tentativo di Perkin di sintetizzare la chinina, Gilbert Stork, professore emerito alla Columbia University di New York, ha infine ottenuto il successo, insieme a un gruppo di collaboratori. Essi presero le mosse da un diverso derivato della chinolina, seguirono una via alternativa ed eseguirono personalmente ogni passo della loro sintesi. Oltre ad avere una struttura piuttosto complicata, la chinina, come molte altre molecole presenti in natura, presenta la sfida particolare di determinare in che modo siano disposti spazialmente i vari legami intorno a certi atomi di carbonio. La struttura della chinina ha un atomo H fuori del piano della pagina (con legame disegnato a forma di cuneo ►; indicato dalla freccia in basso) e un gruppo OH dietro il piano della pagina (legame indicato con tratteggio ┈), intorno all’atomo di carbonio adiacente al sistema di anelli della chinolina.

La molecola di chinina

Un esempio delle diverse disposizioni spaziali di questi legami è illustrato nella figura che segue, per la chinina e per una versione invertita intorno allo

stesso atomo di carbonio.

La chinina (a sinistra) e la versione molto simile (a destra), che sarebbe stata sintetizzata anch’essa in laboratorio nello stesso periodo della chinina.

Spesso la natura produce uno solo di due tipi di composti simili a questo. Quando però i chimici tentano di produrre la stessa molecola sinteticamente, non riescono a evitare di produrre un miscuglio dei due tipi. Poiché le due sostanze sono molto simili, la separazione delle due molecole è un compito lungo e difficile. Nella molecola di chinina ci sono altre tre posizioni degli atomi di carbonio in cui durante la sintesi di laboratorio si producono inevitabilmente le versioni naturale e invertita, cosicché queste lunghe operazioni devono essere ripetute quattro volte in tutto. Questa sfida è stata recentemente affrontata con successo da Stork e dal suo gruppo, e non ci sono prove che questo problema sia mai stato valutato appieno nel 1918. La chinina continua a essere raccolta da piantagioni in Indonesia, India, Zaire e altri Paesi africani, e quantità minori arrivano anche da fonti naturali in Perù, Bolivia ed Ecuador. Oggi i suoi usi principali sono nell’acqua chinata, nell’acqua tonica, in altre bevande amare e nella produzione di chinidina, un farmaco per il cuore. Attualmente si pensa ancora che la chinina fornisca qualche misura di protezione contro la malaria, in regioni in cui i parassiti sono resistenti alla clorochina.

Le soluzioni dell’uomo alla malaria

Mentre si cercavano modi per raccogliere più chinina o per produrla sinteticamente, i medici stavano ancora cercando di capire che cosa causasse la malaria. Nel 1880 un medico dell’esercito francese in Algeria, CharlesLouis-Alphonse Laveran, fece una scoperta che aprì infine la strada a un nuovo approccio molecolare alla lotta contro questa malattia. Laveran, usando un microscopio per controllare campioni di sangue, trovò che il sangue di pazienti affetti da malaria conteneva cellule che, come sappiamo oggi, rappresentano uno stadio del protozoo della malaria Plasmodium. I risultati di Laveran, dapprima rifiutati dalla comunità medica, furono confermati qualche anno dopo con l’identificazione del P. vivax e del P. malariae, e in seguito del P. falciparum. Nel 1891 si poté infine identificare il parassita specifico della malaria colorando la cellula del plasmodio con vari coloranti. Benché fosse già stato ipotizzato che le zanzare fossero in qualche modo implicate nella trasmissione della malaria, solo nel 1897 Ronald Ross, un giovane inglese nato in India che prestava servizio come medico nell’Indian Medical Service, identificò un altro stadio di vita del plasmodio nel tessuto del tubo digerente della zanzara anofele. Fu così riconosciuta la complessa associazione fra il parassita, l’insetto e l’uomo. Ci si rese conto allora che il parassita era vulnerabile ad attacchi in vari punti del suo ciclo vitale.

Il ciclo di vita del parassita Plasmodium. I merozoiti emergono periodicamente (ogni 48 o 72 ore) dai globuli rossi del loro ospite, causando attacchi periodici di febbre.

Ci sono vari modi possibili per interrompere il ciclo della malattia, fra cui l’uccisione dello stadio dei merozoiti del parassita, nel fegato e nel sangue. Un’altra linea d’attacco ovvia è quella di neutralizzare il «vettore» della malattia, l’anofele stesso. Questa linea potrebbe implicare la difesa contro le punture delle zanzare, l’uccisione delle zanzare adulte o la prevenzione della loro riproduzione. Non sempre è facile evitare le punture di zanzare; in luoghi in cui i costi di un’abitazione ragionevole sono superiori ai mezzi della maggior parte della popolazione, le zanzariere non sono assolutamente realizzabili. Non è una soluzione praticabile nemmeno quella di prosciugare tutte le acque stagnanti o in lento movimento, per impedire alle zanzare di riprodursi. Si può controllare in qualche misura la popolazione degli anofeli spandendo una sottile pellicola d’olio sulla superficie dell’acqua, così che le larve delle zanzare in acqua non possano respirare. Contro l’anofele, però, la

migliore linea d’attacco è l’uso di potenti insetticidi. Inizialmente il più importante di questi insetticidi era la molecola clorurata del DDT (diclorodifeniltricloroetano), che opera ostacolando un processo di controllo nervoso che è presente esclusivamente negli insetti. Per questa ragione il DDT (ai livelli usati nella sua funzione di insetticida) non è tossico per altri animali, anche se è mortale per gli insetti. Si stima che la dose letale per un essere umano sia di trenta grammi: una quantità considerevole. Non risulta che ci siano mai stati decessi umani causati dal DDT.

La molecola del DDT (diclorodifeniltricloroetano)

Grazie a una varietà di fattori – come il miglioramento dei sistemi di sanità pubblica, l’esistenza di alloggi migliori, il minor numero di persone residenti in aree rurali, la diffusa bonifica delle acque stagnanti e l’accesso quasi universale ai farmaci antimalarici – agli inizi del XX secolo diminuì molto l’incidenza della malaria nell’Europa occidentale e nel Nordamerica. Il DDT fu l’ultimo passo necessario per eliminare il parassita nei Paesi sviluppati. Nel 1955 l’Organizzazione Mondiale della Sanità (OMS) iniziò una massiccia campagna, usando il DDT come arma per eliminare la malaria dal resto del mondo. Quando ebbe inizio lo spargimento del DDT, vivevano in aree malariche circa 1,8 miliardi di persone. Nel 1969 la malaria era stata estirpata per quasi il 40 per cento di queste persone. In alcuni Paesi i risultati furono fenomenali: nel 1947 la Grecia aveva circa due milioni di casi di malaria, mentre nel 1972 il numero era sceso a sette. Se a una qualche molecola va riconosciuto il merito di avere determinato la crescita della prosperità economica in Grecia, nell’ultimo quarto del XX secolo, questa molecola è senza dubbio il DDT. Prima che cominciasse la campagna del DDT in India, nel 1953, nel Paese c’era una stima di 75 milioni di casi all’anno; nel 1968 essi erano scesi a solo 300.000. Risultati simili furono riferiti da Paesi di tutto il mondo. Non sorprende che il DDT sia stato considerato una molecola miracolosa. Nel

1975 l’Organizzazione Mondiale della Sanità annunciò che l’Europa era stata totalmente liberata dalla malaria. Essendo il DDT un insetticida di lunga durata, era sufficiente un trattamento ogni sei mesi – o anche un solo trattamento annuale quando la malattia era stagionale – per conferire una protezione efficace. Il DDT veniva spruzzato sulle pareti interne delle case, su cui si posavano le zanzare femmine in attesa che scendesse la notte per andare alla ricerca del loro pasto di sangue. Il DDT rimaneva dov’era stato spruzzato, e si pensava che ben poca parte di questa sostanza avrebbe mai trovato il modo di entrare nella catena alimentare. Era una molecola a basso costo, e a quel tempo sembrava che presentasse ben poca tossicità per altre forme di vita animale. Solo in seguito divenne chiaro l’effetto devastante della sua bioaccumulazione. Da allora ci siamo resi conto anche di come l’uso eccessivo di insetticidi possa sconvolgere l’equilibrio ecologico, causando una diffusione ancora maggiore di altri parassiti. Benché la crociata dell’Organizzazione Mondiale della Sanità contro la malaria fosse parsa all’inizio promettente, l’estirpazione del parassita a livello mondiale si rivelò più difficile del previsto per un numero di ragioni, fra cui lo sviluppo della resistenza al DDT nelle zanzare, l’aumento della popolazione umana, mutamenti ecologici che ridussero il numero delle specie che si cibavano delle zanzare o delle loro larve, la guerra, i disastri naturali, il declino dei servizi della pubblica sanità e l’aumento della resistenza del plasmodio alle molecole antimalariche. All’inizio degli anni ’70 del Novecento l’OMS aveva abbandonato il sogno di estirpare completamente la malaria, e concentrò i suoi sforzi sul controllo. Se si può dire che delle molecole diventino di moda e vadano fuori moda, nel mondo sviluppato il DDT è oggi decisamente passato di moda, tanto che persino il suo nome ha per noi un suono sinistro. Pur essendo oggi fuori legge in molti Paesi, si stima che abbia salvato cinquanta milioni di vite umane. La minaccia della morte per malaria è in gran parte scomparsa dai Paesi sviluppati – un enorme beneficio diretto apportato da una molecola che è stata molto criticata –, ma persiste per milioni di persone che vivono ancora nelle regioni malariche del mondo.

Emoglobina: una protezione naturale In molte di tali regioni ben poche persone possono permettersi l’acquisto degli insetticidi che controllano gli anofeli o dei sostituti sintetici della chinina che forniscono protezione ai turisti che arrivano dal mondo occidentale. In tali luoghi la natura ha però fornito alle popolazioni locali una diversa forma di difesa contro la malaria. Il 25 per cento degli africani che vivono a sud del Sahara sono portatori dei geni per la malattia grave e debilitante nota come anemia drepanocitica (o falciforme). Quando entrambi i genitori sono portatori di questo carattere, un figlio ha una probabilità su quattro di avere la malattia, una su due di essere un portatore, e una su quattro di non avere la malattia e non essere un portatore. I globuli rossi del sangue, sferici nella loro forma normale, sono flessibili e comprimibili, cosa che permette loro di penetrare nei tessuti dell’organismo anche passando per i vasi sanguigni più piccoli. Nei malati di anemia drepanocitica, invece, metà circa dei globuli rossi del sangue diventano rigidi e acquistano una forma allungata a falce (drepane è il nome della falce in greco). Questi eritrociti irrigiditi in forma di falce hanno difficoltà a comprimersi e possono quindi causare blocchi nei vasi sanguigni più piccoli, lasciando le cellule del tessuto muscolare e di organi vitali senza sangue e senza ossigeno. Ciò conduce a una crisi che causa forti dolori e che a volte danneggia in modo permanente organi e tessuti. Il corpo distrugge gli eritrociti anormali in forma di falce a un ritmo più elevato rispetto alla norma, causando una riduzione complessiva del numero dei globuli rossi: la fonte dell’anemia. Fino a poco tempo fa l’anemia falciforme era di solito fatale nell’infanzia; problemi cardiaci, insufficienza renale ed epatica, infezioni e ictus esigevano un pesante tributo in tenera età. I trattamenti attuali, che non sono vere terapie, permettono ai pazienti di vivere più a lungo e in migliori condizioni di salute. I portatori dell’anemia drepanocitica possono risentire della deformazione delle cellule, anche se di solito non abbastanza per compromettere la circolazione del sangue. Per i portatori del carattere dell’anemia falciforme che vivono in aree malariche, la malattia offre un importante compenso: un consistente livello di immunità nei confronti della malaria. La precisa correlazione fra incidenza della malaria e alta frequenza dei portatori di anemia drepanocitica è spiegata

dal vantaggio evoluzionistico di essere un portatore. Coloro che ereditano il carattere della drepanocitemia da entrambi i genitori muoiono di solito di questa forma di anemia già nell’infanzia. Coloro che non ereditano il carattere da nessuno dei due genitori soccomberanno con molta maggiore probabilità alla malaria, spesso già nell’infanzia. Coloro che ereditano i geni della drepanocitemia da un solo genitore hanno una certa misura di immunità al parassita della malaria, e di solito sopravvivono fino all’età della riproduzione. Così il carattere ereditario della drepanocitemia non solo continua in una popolazione, ma si moltiplica al passare delle generazioni. Dove la malaria non esisteva non c’era alcun vantaggio nell’essere portatori, e tale carattere sarebbe gradualmente stato eliminato dalla selezione naturale. L’assenza di un’emoglobina anormale che fornisca alla popolazione degli indiani d’America un’immunità alla malaria è considerata una prova certa che prima dell’arrivo di Colombo il continente americano non conosceva questa malattia. Il colore rosso degli eritrociti è dovuto alla presenza di molecole di emoglobina, che hanno la funzione di trasportare l’ossigeno in tutto il corpo. Un mutamento estremamente piccolo nella struttura chimica dell’emoglobina è responsabile dell’anemia drepanocitica, che può mettere in pericolo la vita stessa dei pazienti. L’emoglobina è una proteina; come la seta, è un polimero comprendente più unità di amminoacidi; ma diversamente dalla seta, le cui catene di amminoacidi variamente disposte possono contenere migliaia di unità, gli amminoacidi dell’emoglobina, accuratamente ordinati, sono disposti in due insiemi di filamenti uguali fra loro a due a due (due filamentiα e due filamentiβ). I quattro filamenti (o catene polipeptidiche) sono avvolti insieme intorno a quattro unità non proteiche contenenti ferro dette eme: il luogo cui si attaccano gli atomi di ossigeno. I pazienti affetti da anemia drepanocitica hanno un solo amminoacido diverso su uno dei due insiemi di filamenti: sul cosiddetto filamentoβ, il sesto amminoacido, anziché essere l’acido glutammico presente nell’emoglobina normale, è stato sostituito dalla valina.

Acido glutammico

Valina

La valina differisce dall’acido glutammico solo nella struttura della catena laterale (evidenziata).

Il filamentoβ è composto da 146 amminoacidi; il filamentoα da soli 141. La variazione complessiva negli amminoacidi è quindi solo di uno su 287: una differenza di circa un terzo dell’1 per cento. Eppure le conseguenze, per la persona che eredita il carattere della drepanocitemia da entrambi i genitori, sono devastanti. Se diciamo che il gruppo laterale è solo un terzo circa della struttura dell’amminoacido, la differenza percentuale nella struttura chimica reale diventa ancora minore: un cambiamento di solo l’1 per cento della struttura molecolare. Quest’alterazione minima nella struttura di una catena proteica spiega i sintomi dell’anemia drepanocitica. Questo gruppo laterale dell’acido glutammico ha come parte della sua struttura un gruppo COOH, mentre il gruppo laterale della valina non ce l’ha. Senza questo COOH sul residuo del sesto amminoacido del filamentoβ, la forma deossigenata dell’emoglobina dell’anemia drepanocitica è molto meno solubile; essa precipita all’interno dei globuli rossi, determinandone la forma alterata e la mancanza di flessibilità. La solubilità della forma ossigenata dell’anemia drepanocitica ne risente ben poco. Ci sono quindi molte più emazie falciformi quando c’è più emoglobina deossigenata. Una volta che le cellule falciformi cominciano a bloccare i capillari, i tessuti locali diventano carenti d’ossigeno, l’emoglobina ossigenata si converte nella forma deossigenata e si verifica una deformazione di un numero ancora maggiore di cellule: un circolo vizioso che conduce rapidamente a una crisi. Ecco perché anche i portatori della costituzione genetica eterozigote per l’anemia drepanocitica, che non sono affetti da quest’anemia, possono presentare la deformazione falciforme in un certo numero delle loro cellule; mentre di solito solo l’1 per cento dei loro globuli

rossi sono deformati in forma di falce, possono assumere la forma a falce anche il 50 per cento delle loro molecole di emoglobina. Questo può accadere in situazioni di ridotta pressione dell’ossigeno in aerei non pressurizzati, o dopo un forte esercizio fisico a grandi altitudini: due condizioni in cui può accumularsi nel corpo la forma deossigenata di emoglobina. A tutt’oggi sono state trovate più di 150 variazioni diverse nella struttura chimica dell’emoglobina umana, e benché alcune di esse siano letali o possano causare problemi, molte altre sono apparentemente benigne. Si pensa che una resistenza parziale alla malaria venga conferita anche ai portatori delle variazioni dell’emoglobina che producono altre forme di anemia, come la talassemia alfa, endemica fra popolazioni originarie del Sud-est asiatico, e la talassemia beta, più comune nell’ambiente mediterraneo, per esempio fra greci e italiani, come pure in popolazioni del Medio Oriente, dell’India, del Pakistan e di parti dell’Africa. È probabile che almeno 5 ogni 100.000 esseri umani abbiano un qualche tipo di variazione nella loro emoglobina, e che la maggior parte di loro siano destinati a non saperlo mai. Non è detto che sia solo la differenza nella struttura del gruppo laterale fra acido glutammico e valina a causare i problemi debilitanti dell’anemia falciforme; questi potrebbero infatti essere legati anche all’esatta posizione in cui tale differenza si presenta nel filamentoβ. Noi non sappiamo se lo stesso cambiamento in una posizione diversa avrebbe un effetto simile sulla solubilità dell’emoglobina e sulla forma dei globuli rossi. Né sappiamo con precisione perché questo cambiamento conferisca immunità nei confronti della malaria. È ovvio che in un globulo rosso contenente emoglobina con valina, anziché acido glutammico, nella posizione 6 c’è qualcosa che ostacola il ciclo vitale del plasmodio.

Le tre molecole al centro della lotta attualmente in corso contro la malaria sono molto diverse chimicamente, ma ognuna di esse ha avuto un’influenza importante su eventi del passato. Gli alcaloidi della corteccia di cinchona, durante tutta la loro lunga storia di benefìci per l’uomo, hanno apportato ben pochi vantaggi economici alle popolazioni indigene delle pendici orientali delle Ande, dove cresceva l’albero della china. Furono gli stranieri a trarre profitto dalla molecola di chinina, sfruttando a proprio vantaggio una risorsa naturale unica di un Paese meno sviluppato. La colonizzazione europea di

gran parte del mondo fu resa possibile dalle proprietà antimalariche della chinina; questa, come molti altri prodotti naturali, fornì anche un modello molecolare su cui lavorare ai chimici che tentarono di riprodurne o potenziarne gli effetti, apportando modifiche alla sua struttura chimica originaria. Benché la molecola di chinina, nell’Ottocento, abbia fornito un notevole contributo alla crescita dell’Impero britannico, e all’espansione di altre colonie europee, fu la molecola del DDT, come insetticida, a sradicare infine nel XX secolo la malaria dall’Europa e dal Nordamerica. Il DDT è una molecola organica sintetica che non ha alcun analogo naturale. Quando si producono molecole del genere si corre sempre qualche rischio: non abbiamo infatti alcun modo di sapere con certezza quali di tali molecole saranno incondizionatamente benefiche e quali potranno avere effetti nocivi. Ma quanti di noi sarebbero pronti a rinunciare all’intera varietà delle nuove molecole, i prodotti delle innovazioni dei chimici che migliorano la nostra vita: gli antibiotici e gli antisettici, le plastiche e i polimeri, i tessuti e gli aromi, gli anestetici e gli additivi, i colori e i refrigeranti? Le ripercussioni del piccolo mutamento molecolare che produsse l’anemia drepanocitica si fecero sentire su tre continenti. La resistenza alla malaria fu un fattore cruciale nella rapida crescita della tratta degli schiavi africani nel Seicento. La grande maggioranza degli schiavi importati nel Nuovo Mondo veniva da regioni dell’Africa in cui la malaria era endemica e in cui l’anemia drepanocitica era comune. Commercianti e proprietari di schiavi sfruttarono prontamente il vantaggio evoluzionistico offerto dalla sostituzione della valina all’acido glutammico, nella posizione 6 sulla molecola di emoglobina. Ovviamente non conoscevano la ragione chimica dell’immunità degli schiavi africani alla malaria. Tutto quel che sapevano era che gli schiavi provenienti dall’Africa erano in generale in grado di sopravvivere alle febbri diffuse nei climi tropicali, adatti alla coltivazione della canna da zucchero e del cotone, mentre gli americani nativi, portati a lavorare nelle piantagioni da altre parti del continente, soccombevano rapidamente alle malattie. Questo cambiamento molecolare condannò generazioni di africani alla schiavitù. La tratta degli schiavi non avrebbe avuto il successo che ebbe se gli schiavi e i loro discendenti fossero stati sterminati dalla malaria. Le grandi piantagioni del Nuovo Mondo non avrebbero potuto fornire grandi profitti, e sarebbe quindi venuto meno il loro contributo alla crescita economica in

Europa. Non ci sarebbero state grandi piantagioni di canna da zucchero. Il cotone non si sarebbe sviluppato fra le coltivazioni più importanti nel Sud degli Stati Uniti, la Rivoluzione industriale in Gran Bretagna sarebbe stata forse ritardata o avrebbe preso una direzione diversa, e magari negli Stati Uniti non ci sarebbe stata la Guerra di secessione. Gli eventi dell’ultimo mezzo millennio sarebbero stati molto diversi se non fosse stato per quel minuscolo mutamento nella struttura chimica dell’emoglobina. La chinina, il DDT e l’emoglobina: queste tre strutture molto diverse sono unite storicamente dalle loro connessioni con una delle malattie più letali nella storia del nostro pianeta. Esse sono in qualche misura rappresentative anche delle molecole di cui ci siamo occupati nei capitoli precedenti. La chinina è un prodotto vegetale presente in natura, così come molti altri composti che hanno avuto effetti di lunga portata sullo sviluppo della civiltà. Anche l’emoglobina è un prodotto naturale, ma di origine animale. Essa appartiene inoltre al numero delle molecole classificate come polimeri, e i polimeri di tutti i tipi hanno avuto un ruolo significativo in mutamenti importanti nel corso di tutta la storia. Quanto al DDT, esso ben illustra i dilemmi spesso associati ai composti artificiali prodotti dall’uomo. Quanto sarebbe diverso il nostro mondo – in meglio o in peggio – senza le sostanze sintetiche prodotte dall’ingegnosità di coloro che creano nuove molecole!

EPILOGO

Gli eventi storici hanno quasi sempre più di una causa, cosicché sarebbe troppo semplicistico attribuire gli eventi menzionati in questo libro esclusivamente alle strutture chimiche. Non è però neppure un’esagerazione dire che le strutture chimiche hanno svolto un ruolo essenziale, e spesso non riconosciuto, nello sviluppo della civiltà. Quando un chimico determina la struttura di un diverso prodotto naturale, o sintetizza un nuovo composto, l’effetto di un piccolo cambiamento chimico – un doppio legame spostato qui, un atomo di ossigeno sostituito là, una modificazione in un gruppo laterale – sembra sempre poco importante. È spesso solo alla luce del senno di poi che riconosciamo gli effetti di grande rilevanza che possono scaturire da mutamenti chimici piccolissimi. All’inizio le strutture chimiche presentate in questi capitoli possono essere apparse ai lettori estranee e sconcertanti. Speriamo però di essere riusciti nel corso del libro a dissipare un po’ del mistero che le avvolgeva, e che ora i lettori possano vedere come gli atomi che compongono le molecole si conformino a regole ben definite. Eppure, all’interno dei confini di queste regole ci sono possibilità apparentemente infinite di strutture differenti. I composti che abbiamo scelto come protagonisti di storie interessanti e importanti si suddividono in due gruppi principali. Il primo comprende molecole fornite da fonti naturali: molecole preziose ricercate in natura dall’uomo. Il desiderio di queste molecole ha governato molti aspetti della storia del passato. Nel corso dell’ultimo secolo e mezzo è diventato più importante il secondo gruppo di molecole. Queste sono composti prodotti in laboratori o in fabbriche: alcuni di essi, come l’indaco, sono assolutamente identici a molecole estratte da un prodotto della natura, mentre altre sono variazioni della struttura del prodotto naturale. A volte, come nel caso dei clorofluorocarburi (CFC), sono molecole del tutto nuove, che non hanno analoghi in natura. A questi gruppi possiamo ora aggiungere una terza classificazione:

molecole che possono avere un effetto tremendo, ma imprevedibile sulla nostra civiltà in futuro. Sono molecole prodotte dalla natura ma su direzione e per intervento dell’uomo. L’ingegneria genetica (o la biotecnologia, o qualsiasi altro termine si voglia usare per il processo artificiale per mezzo del quale un nuovo materiale genetico è introdotto in un organismo) conduce alla produzione di molecole in precedenza non esistenti. Il riso giallo «golden rice», per esempio, è un ceppo di riso geneticamente modificato per produrreβ-carotene, il colorante giallo arancione abbondante nelle carote e in altri frutti e verdure gialli, e presente anche in ortaggi con foglie verdi scure.

β-carotene

Il nostro corpo ha bisogno diβ-carotene per produrre la vitamina A, essenziale alla nutrizione umana. La dieta di milioni di persone in tutto il mondo, ma specialmente in Asia, dove il riso è il cibo base, è scarsa diβcarotene. La carenza di vitamina A porta malattie che possono causare la cecità e persino la morte. Il riso non contieneβ-carotene e per le parti del mondo in cui si mangia quasi esclusivamente riso e nelle quali questa molecola non viene ottenuta da altre fonti, l’aggiunta diβ-carotene al golden rice sembra la garanzia di una salute migliore. Ma l’ingegneria genetica non ha solo lati positivi. Anche se la molecola delβ-carotene si trova naturalmente in molte piante, i critici della biotecnologia si chiedono se sia sicuro includere questa molecola in luoghi in cui normalmente non si trova. Questa molecola non potrebbe reagire in modo sfavorevole con altri composti già presenti? Non c’è la possibilità che diventi un allergene per alcune persone? Quali sono gli effetti a lungo termine della manomissione della natura? Oltre alle molte questioni chimiche e biologiche, sono stati sollevati altri problemi concernenti l’ingegneria genetica, come il motivo del profitto che spinge gran parte di tale ricerca, la probabile perdita

della diversità delle piante e la globalizzazione dell’agricoltura. Per tutte queste ragioni e incertezze dobbiamo agire con cautela, nonostante quelli che potrebbero sembrare ovvi vantaggi nel costringere la natura a produrre molecole dove e come ci servono. Come nei casi dei PCB e del DDT, su cui abbiamo avuto occasione di soffermarci, i composti chimici possono essere sia una benedizione sia una maledizione, e non sempre possiamo farcene un’idea chiara al tempo dell’invenzione. Può darsi che la manipolazione umana delle complesse sostanze chimiche che controllano la vita possa condurre infine allo sviluppo di piante coltivate migliori, alla riduzione dell’uso degli antiparassitari e all’estirpazione delle malattie, ma potrebbe anche condurre a problemi totalmente inattesi, in grado – nello scenario peggiore – di minacciare la vita stessa. In futuro, se i posteri guarderanno indietro alla nostra civiltà, quali molecole potrebbero identificare come quelle che hanno maggiormente influenzato il XXI secolo? Saranno forse le molecole erbicide naturali aggiunte a piante geneticamente modificate, che eliminano inavvertitamente centinaia di altre specie di piante? Saranno le molecole farmaceutiche che migliorano la salute del nostro corpo e il nostro benessere mentale? Saranno nuove varietà di droghe illegali collegate al terrorismo e al crimine organizzato? Saranno molecole tossiche che inquinano ulteriormente l’ambiente? Saranno molecole che aprono la via a fonti di energia nuove o più efficienti? Sarà l’abuso di antibiotici che condurrà allo sviluppo di «supergermi» resistenti? Colombo non avrebbe potuto prevedere quali sarebbero state le conseguenze della sua ricerca della piperina, Magellano non conobbe mai gli effetti a lungo termine della sua ricerca dell’isoeugenolo, e Schönbein si sarebbe certamente stupito nell’apprendere che la nitrocellulosa formata assorbendo composti chimici liquidi col grembiule di sua moglie avrebbe dato l’avvio a grandi industrie così diverse fra loro, come quelle degli esplosivi e dei tessili. Perkin non avrebbe mai previsto che il suo piccolo esperimento avrebbe infine condotto non solo a un immenso commercio di coloranti per tessuti, ma anche allo sviluppo di antibiotici e farmaci. Marker, Nobel, Chardonnet, Carothers, Lister, Baekeland, Goodyear, Hofmann, Leblanc, i fratelli Solvay, Harrison, Midgley e tutti gli altri di cui abbiamo raccontato la storia avevano ben poca idea dell’importanza storica delle loro scoperte. Siamo quindi forse in buona compagnia se esitiamo a cercare di

predire se già oggi esista una molecola insospettata in grado di avere infine un effetto profondo e non previsto sulla vita, quale la conosciamo oggi, tale da far dire ai nostri discendenti: «Ha cambiato il nostro mondo».

RINGRAZIAMENTI

Non avremmo potuto scrivere questo libro senza il sostegno entusiastico delle nostre famiglie, dei nostri amici e dei nostri colleghi. Ci piacerebbe ringraziare tutti; abbiamo apprezzato ogni suggerimento e commento, anche quando non li abbiamo utilizzati. Il professor Con Cambie, dell’Università di Oakland, in Nuova Zelanda, oggi in pensione, non si sarebbe probabilmente più aspettato di spendere tempo a controllare diagrammi strutturali e formule chimiche. Noi gli siamo grati per la sua disponibilità, per il suo occhio di lince e per il suo totale appoggio al progetto. Qualsiasi errore rimane ovviamente nostro. Vorremmo ringraziare anche la nostra agente Jane Dystel, del Jane Dystel Literary Management, che vide le possibilità insite nel nostro interesse per la relazione fra le strutture chimiche e gli eventi storici. Wendy Hubbert, la nostra redattrice alla Tarcher/Putnam, dice di avere imparato molte cose (di chimica) curando questo libro, ma noi pensiamo di avere imparato molto di più da lei. È stata la sua insistenza sulla narrazione, attraverso collegamenti e transizioni, a trasformare i nostri materiali in un libro; noi sapevamo che c’erano le connessioni; ma fu Wendy, non permettendo mai che ci fossero conoscenze sconnesse, a incoraggiarci a legare tutto assieme. Infine dobbiamo ricordare con riconoscenza la curiosità e la genialità dei chimici venuti prima di noi. Senza i loro sforzi non avremmo mai sperimentato la comprensione e il fascino che sono la massima gioia che può darci la chimica.

BIBLIOGRAFIA SCELTA

Allen, Charlotte, «The Scholars and the Goddess», in Atlantic Monthly, gennaio 2001. Arlin, Marian, The Science of Nutrition, Macmillan, New York 1977. Asbell, Bernard, The Pill: A Biography of the Drug That Changed the World, Random House, New York 1955. Aspin, Chris, The Cotton Industry, Series 63, Shire Publications, Aylesbury 1995. Atkins, P.W., Molecules, Scientific American Library series, n. 21, Scientific American Library, New York 1987 (trad. it. di M. Armenzoni, Molecole, Zanichelli, Bologna 1992). Balick, Michael J., e Paul Alan Cox, Plants, People, and Culture: The Science of Ethnobotany, Scientific American Library series, n. 60, Scientific American Library, New York 1997. Ball, Philip, «What a Tonic», in Chemistry in Great Britain, ottobre 2001, pp. 26-29. Bangs, Richard, e Christian Kallen, Islands of Fire, Islands of Spice: Exploring the Wild Places of Indonesia, Sierra Club Books, San Francisco 1988. Brown, G.I., The Big Bang: A History of Explosives, Sutton Publications, Gloucestershire 1998. Brown, Kathryn, «Scary Spice»», in New Scientist, 23-30 dicembre 2000, p. 53. Brown, William H., e Christopher S. Footer, Organic Chemistry, Harcourt Brace, Orlando, Florida, 1998. Bruce, Ginny, Indonesia: A Travel Survival Kit, Lonely Planet Publications, Australia, 1986. Bruice, Paula Yurkanis, Organic Chemistry, Prentice-Hall, Englewood Cliffs, New Jersey, 1998. Cagin, S., e P. Day, Between Earth and Sky: How CFCs Changed Our World

and Endangered the Ozone Layer, Pantheon Books, New York 1993. Campbell, Neil A., Biology, Benjamin/Cummings, Menlo Park, California, 1987. Carey, Francis A., Organic Chemistry, McGraw-Hill, New York 2000. Caton, Donald, What a Blessing She Had Chloroform: The Medical and Social Responses to the Pain of Childbirth from 1800 to the Present, Yale University Press, New Haven 1999. Chang, Raymond, Chemistry, McGraw-Hill, New York 1998. Chester, Ellen, Woman of Valor: Margaret Sanger and the Birth Control Movement in America, Simon and Schuster, New York 1992. Clow, A., e N.L. Clow, The Chemical Revolution: A Contribution to Social Technology, Batchworth Press, London 1952. Collier, Richard, The River That God Forgot: The Story of the Amazon Rubber Boom, E.P. Dutton, New York 1968. Coon, Nelson, The Dictionary of Useful Plants, Rodale Press, Emmaus, Pa., 1974. Cooper, R.V., e R.C. Cambie, New Zealand’s Economic Native Plants, Oxford University Press, Auckland 1991. Davidson, Basil, Black Mother: The Years of the African Slave Trade, Little Brown, Boston 1961 (trad. it., Madre nera: l’Africa nera e il commercio degli schiavi, Einaudi, Torino 1966). Davis, Lee N., The Corporate Alchemists: The Power and Problems of the Chemical Industry, Temple-Smith, London 1984. Davis, M.B., J. Austin e D.A. Partridge, Vitamin C: Its Chemistry and Biochemistry, Royal Society of Chemistry, London 1991. De Bono, Edward (a cura di), Eureka: An Illustrated History of Inventions from the Wheel to the Computer, Holt, Rinehart and Winston, New York 1974. Delderfield, R.F., The Retreat from Moscow, Hodder and Stoughton, London 1967. Djerassi, C., The Pill, Pygmy Chimps and Degas’ Horse: The Autobiography of Carl Djerassi, Harper and Row, New York 1972. DuPuy, R.E., e T.N. DuPuy, The Encyclopedia of Military History from 3500 B.C. to the Present, ed. riv., Harper and Row, New York 1977. Ege Seyhan, Organic Chemistry. Structure and Reactivity, D.C. Heath, Lexington 1994.

Ellis, Perry, «Overview of Sweeteners», in Journal of Chemical Education, 72, n. 8 (agosto 1995), pp. 671-675. Emsley, John, Molecules at an Exhibition: Portraits of Intriguing Materials in Everyday Life, Oxford University Press, New York 1998 (trad. it. di G. Sabato, Molecole in mostra: la chimica nascosta nella vita quotidiana, Dedalo, Bari 1999). Fairholt, F.W., Tobacco: Its History and Associations, Singing Tree Press, Detroit 1968. Feltwell, John, The Story of Silk, St. Martin’s Press, New York 1990. Fenichell, S., Plastic: The Making of a Synthetic Century, HarperCollins, New York 1996. Fessenden, Ralph J., e Joan S. Fessenden, Organic Chemistry, Brooks/Cole, Monterey, California, 1986. Fieser, Louis F., e Mary Fieser, Advanced Organic Chemistry, Reinhold, New York 1961. Finniston, M. (a cura di), Oxford Illustrated Encyclopedia of Invention and Technology, Oxford University Press, Oxford 1992. Fisher, Carolyn, «Spices of Life», in Chemistry in Britain, gennaio 2002. Fox, Marye Anne, e James K. Whitesell, Organic Chemistry, Jones e Bartlett, Sudbury 1997. Frankforter, A. Daniel, The Medieval Millennium: An Introduction, PrenticeHall, Englewood Cliffs, New Jersey, 1998. Garfield, Simon, Mauve: How One Man Invented the Colour That Changed the World, Faber and Faber, London 2000 (trad. it. di A. Antonini, Il malva di Perkin. Storia del colore che ha cambiato il mondo, Garzanti, Milano 2002). Gilbert, Richard, Caffeine, the Most Popular Stimulant: Encyclopedia of Psychoactive Drugs, Burke, London 1988. Goodman, Sandra, Vitamin C: The Master Nutrient, Keats, New Canaan, Conn., 1991. Gottfried, Robert S., The Black Death: Natural and Human Disaster in Medieval Europe, Macmillan, New York 1983. Harris, Nathaniel, History of Ancient Greece, Hamlyn, London 2000. Heiser, Charles B., jr., The Fascinating World of the Nightshades: Tobacco, Mandrake, Potato, Tomato, Pepper, Eggplant, etc., Dover, New York 1987.

Herold, J. Christopher, The Horizon Book of the Age of Napoleon, Bonanza Books, New York 1983. Hildebrand, J.H., e R.E. Powell, Reference Book of Inorganic Chemistry, Macmillan, New York 1957. Hill, Frances, A Delusion of Satan: The Full Story of the Salem Witch Trials, Hamish Hamilton, London 1995 (trad. it. di F. Genta Bonelli, Le streghe bambine di Salem: una storia vera del 1692, Piemme, Casale Monferrato 2003). Hough, Richard, Captain James Cook: A Biography, W.W. Norton, New York 1994. Huntford, Roland, Scott and Amundsen (The Last Place on Earth), Hodder and Stoughton, London 1979. Inglis, Brian, The Opium Wars, Hodder and Stoughton, New York 1976. Jones, Maitland, jr., Organic Chemistry, W.W. Norton, New York 1997. Kauffman, George B., «Historically Significant Coordination Compounds. 1. Alizarin Dye», in Chem 13 News (maggio 1988). Kauffman, George B., e Raymond B. Seymour, «Elastomers. 1. Natural Rubber», in Journal of Chemical Education, 67:5 (maggio 1990), pp. 422425. Kaufman, Peter B., Natural Products from Plants, CRC Press, Boca Raton, Florida, 1999. Kolander, Cheryl, A Silk Worker’s Notebook, Interweave Press, Colorado, 1985. Kotz, John C., e Paul Treichel, jr., Chemistry and Chemical Reactivity, Harcourt Brace College, Orlando, Florida, 1999. Kurlansky, Mark, Salt: A World History, Alfred Knopf, Toronto, Canada 2002 (trad. it. di A. Crea, Sale: una biografia, Rizzoli, Milano 2003). Lanman, Jonathan T., Glimpses of History of Old Maps: A Collector’s View, Map Collector, Tring, Inghilterra, 1989. Latimer, Dean, e Jeff Goldberg, Flowers in the Blood: The Story of Opium, Franklin Watts, New York 1981. Lehninger, Albert L., Biochemistry: The Molecular Basis of Cell Structure and Function, Worth, New York 1975 (trad. it., Biochimica: le basi molecolari della struttura e della funzione cellulare, Zanichelli, Bologna 1979). Lewis, Richard J., Hazardous Chemicals Desk Reference, Van Nostrand

Reinhold, New York 1975. Loudon, G. Marc, Organic Chemistry, Benjamin/Cummings, Menlo Park, California, 1988. MacDonald, Gayle, «Mauve with the Times», in Toronto Globe and Mail, 28 aprile 2001. Magner, Lois N., A History of Life Sciences, Marcel Dekker, New York 1979. Manchester, William, A World Lit Only by Fire. The Medieval Mind and the Renaissance: Portrait of an Age, Little, Brown, Boston 1992. Mann, John, Murder, Magic and Medicine, Oxford University Press, Oxford 1992. McGee, Harold, On Food and Cooking. The Science and Lore of the Kitchen, Charles Scribner’s Sons, New York 1984 (trad. it., Il cibo e la cucina: scienza e cultura degli alimenti, Muzzio, Padova 1989). McKenna, Terence, Food of the Gods, Bantam Books, New York 1992 (trad. it., Il nutrimento degli dèi. La ricerca dell’albero originale della conoscenza, Apogeo, Milano 1995). McLaren, Angus, A History of Conception from Antiquity to the Present Day, Basil Blackwell, Oxford 1990. McMurry, John, Organic Chemistry, Brooks/Cole, Monterey, California, 1984. Meth-Cohn, Otto, e Anthony S. Travis, «The Mauveine Mystery», in Chemistry in Britain (luglio 1995), pp. 547-549. Miekle, Jeffrey L., American Plastic: A Cultural History, Rutgers University Press, New Brunswick, New Jersey, 1995. Milton, Giles, Nathaniel’s Nutmeg, Farrar, Straus and Giroux, New York 1999. Mintz, Sidney W., Sweetness and Power: The Place of Sugar in Modern History, Viking Penguin, New York 1985 (trad. it. di L. Blanchetti, Storia dello zucchero tra politica e cultura, Einaudi, Torino 1990). Multhauf, R.P., Neptune’s Gift: A History of Common Salt, Johns Hopkins University Press, Baltimore, Maryland, 1978. Nikiforuk, Andrew, The Fourth Horseman. A Short History of Epidemic, Plagues, Famine and Other Scourges, Penguin Books, Toronto, Canada, 1992. Noller, Carl R., Chemistry of Organic Compounds, W.B. Saunders,

Philadelphia 1966. Orton, James M., e Otto W. Neuhaus, Human Biochemistry, C.V. Mosby, St. Louis 1975. Pakenham, Thomas, The Scramble for Africa: 1876-1912, Weidenfeld and Nicolson, London 1991. Pauling, Linus, Vitamin C, the Common Cold and the Flu, W.H. Freeman, San Francisco 1976. Pendergrast, Mark, Uncommon Grounds: The History of Coffee and How It Transformed the World, Basic Books, New York 1999. Peterson, William, Population, Macmillan, New York 1975. Radel, Stanley R., e Marjorie H. Navidi, Chemistry, West, St. Paul, Minnesota, 1990. Rayneer-Canham, G., P. Fischer, P. Le Couteur e R. Raap, Chemistry: A Second Course, Addison-Wesley, Reading, Mass., 1989. Robbins, Russell Hope, The Encyclopedia of Witchcraft and Demonology, Crown, New York 1959. Roberts, J.M., The Pelican History of the World, Penguin Books, Harmondsworth, Middlesex, 1980. Rodd, E.H., Chemistry of Carbon Compounds, 5 voll., Elsevier, Amsterdam 1960. Rosenblum, Mort, Olives: The Life and Lore of a Noble Fruit, North Point Press, New York 1996. Rudgley, Richard, Essential Substances: A Cultural History of Intoxicants in Society, Kodansha International, New York 1994. Russell, C.A. (a cura di), Chemistry, Society and Environment: A New History of the British Chemical Industry, Royal Society of Chemistry, Cambridge. Savage, Candace, Witch: the Wild Ride from Wicked to Wicca, Douglas & McIntyre, Vancouver, British Columbia, 2000. Schilvelbusch, Wolfgang, Tastes of Paradise: A Social History of Spices, Stimulants, and Intoxicants, trad. ingl. di David Jacobson, Random House, New York 1980. Schmidt, Julius, ed. riv. e curata da Neil Campbell, Organic Chemistry, Oliver and Boyd, London 1955. Seymour, R.B. (a cura di), History of Polymer Science and Technology, Marcel Dekker, New York 1982.

Snyder, Carl H., The Extraordinary Chemistry of Ordinary Things, John Wiley and Sons, New York 1992. Sohlman, Ragnar, e Henrik Schuck (a cura di), Nobel, Dynamite and the Peace, Cosmopolitan, New York 1929. Solomons, Graham, e Craig Fryhle, Organic Chemistry, John Wiley and Sons, New York 2000. Stamp, Laurence Dudley, The Geography of Life and Death, Cornell University Press, Ithaca, New York 1964. Stine, W.R., Chemistry for the Consumer, Allyn and Bacon, Boston 1979. Strecher, Paul G., The Merck Index: An Encyclopedia of Chemicals and Drugs, Merck, Rahway, New Jersey, 1968. Streitwieser, Andrew, jr., e Clayton H. Heathcock, Introduction to Organic Chemistry, Macmillan, New York 1981. Styer, Lubert, Biochemistry, W.H. Freeman, San Francisco 1988. Summers, Montague, The History of Witchcraft and Demonology, Castle Books 1992. Tannahill, Reay, Food in History, Stein and Day, 1973 (trad. it. di L. Sosio, Storia del cibo, Rizzoli, Milano 1987). Thomlinson, Ralph, Population Dynamics: Causes and Consequences of World Demographic Changes, Random House, New York 1976. Time-Life Books (a cura della redazione di), Witches and Witchcraft: Mysteries of the Unknown, Time-Life Books, Virginia 1990. Travis, A.S., The Rainbow Makers: The Origins of the Synthetic Dyestuffs Industry in Western Europe, Associated University Presses, London e Toronto 1993. Visser, Margaret, Much Depends on Dinner: The Extraordinary History and Mythology, Allure and Obsessions. Perils and Taboos of an Ordinary Meal, McClelland and Stewart, Toronto 1986. Vollhardt, Peter C., e Neil E. Schore, Organic Chemistry: Structure and Function, W.H. Freeman, New York 1999. Watts, Geoff, «Twelve Scurvy Men», in New Scientist, 24 febbraio 2001, pp. 46-47. Watts, Sheldon, Epidemics and History: Disease, Power and Imperialism, Redwood Books, Wiltshire 1997. Webb, Michael, Alfred Nobel: Inventor of Dynamite, Copp Clark Pitman, Mississauga, Canada, 1991.

Weinburg, B.A., e B.K. Bealer, The World of the Caffeine. The Science and Culture of the World’s Most Popular Drug, Routledge, New York 2001. Wright, James W., Ecocide and Population, St. Martin’s Press, New York 1972. Wright, Lawrence, Clean and Decent: The Fascinating History of the Bathroom and the Water Closet, T.J. Press (Padstow), Cornwall 1984.

INDICE ANALITICO

acero, sciroppo d’ acetato di cellulosa acetato di piombo acetilglucosammina Achras sapota (sapodilla) acidi biliari acidi grassi – con doppi legami cis – con doppi legami trans – insaturi; monoinsaturi; polinsaturi; – saturi; aumentano le concentrazioni di colesterolo nel sangue; predispongono a cardiopatie acido, sapore acido: – adipico – acetico – acetilsalicilico – amminobenzoico – ascorbico (vitamina C); determinazione della struttura dell’; preparazione industriale dell’; utilità medica dell’ – borico – butirrico – caproico – carbolico – carminico – chermesico – cianico – cloridrico – desossicolico – esuronico – folico – glucuronico – glutammico

– gulonico – laurico – linoleico – linolenico – lisergico – miristico – nicotinico – nitrico – oleico – ossalico – palmitico – palmitoleico – picrico – salicilico – di semi di palma – solforico – stearico aconito acqua – le sue molecole sono leggermente cariche acrecaidina Adams, Thomas adenosina additivi per alimenti Agente Arancione alanina Albuquerque, Afonso de alcaloidi alcol metilico alcol salicilico Alessandro Magno Alessandro VI (Borgia) papa alfa-amminoacidi, struttura generalizzata alite (o salgemma) alizarina – sintetica alliltoluidina allucinazioni alluminio amaro, sapore American Viscose Company

amido amilopectina amilosio amminoacidi – gruppo laterale R – struttura generalizzata condensata ammoniaca amoxocillina ampicillina Amundsen, Roald anandammide androgeni androsterone anelli: – aromatici – di benzene – esatomici – fenilici – pentatomici – tetratomici anemia – da avvelenamento da mercurio – da avvelenamento da piombo – drepanocitica o falciforme anestetici angina pectoris – trattamento con nitroglicerina anidride carbonica (o biossido di carbonio) anilina, coloranti di animali e piante: differenza nei polisaccaridi di riserva Annibale, generale cartaginese anofele Antartide antibiotici – di sintesi anticoncezionali antigelo per automobili Antiochia antiparassitari antisepsi antisettici

antrace antrachinone ape operaia ape regina appio Arabia Areca catechu Argentina argento Armata napoleonica – bottoni di stagno della armi da fuoco medievali aromatici, anelli Arrhenius, Svante August artificiale non è sinonimo di sintetico artrite aspartame Aspirina – origine del nome Atena Atene Atropa belladonna atropina attentati terroristici: – all’edificio federale Alfred P. Murrah di Oklahoma City (1995) – alla metropolitana di Tokyo col gas nervino sarin (1995) – al volo Pan America 10su Lockerbie (Scozia) (1988) – al World Trade Center di New York (1993) Auschwitz, campo di concentramento di Australia avorio azoto – sua funzione negli esplosivi – ossido di: funzioni fisiologiche dell’ – triplo legame dell’ aztechi bachelite – applicazioni della – struttura della bachicoltura

baco da seta vedi Bombyx mori Bacone, Ruggero Baekeland, Leo Baeyer, Johann Friedrich Wilhelm Adolf von Baghdad bagni pubblici Balaklava, battaglia di (1854) balata Banda, isole di BASF (Badische Anilin und Soda Fabrik) Batavia Bayer belladonna benzene benzocaina Berzelius, Jöns Jakob beta-carotene beta-lattame betel, noci di Bevan, Edward bicarbonato di sodio bifenile biliardo, palle da biossido di azoto biotecnologia bioterrorismo bisolfato di sodio blue jeans bombicolo Bombyx mori (bombice del gelso) botulinica, tossina – sua letalità botulino, botulismo bouillabaisse Brasile – colonizzazione portoghese – coltivazione del caffè – produzione di gomma – produzione di pepe – produzione di zucchero – schiavismo in

Breda, trattato di (1667) bromo bronzo bufotossina butadiene cacao – frutti di caffè – albero del – sua introduzione in Europa nel Seicento caffeina – effetti della Calaucha, Antonio de calcio Calicut calze da donna di nailon cancrena – gassosa canna da zucchero Cannabis sativa (canapa indiana) Cão, Diago Capo Verde capsaicina Capsicum – annuum – frutescens carbonati – di calcio – di potassio – di sodio (soda) carbonio – forma quattro legami Caro, Heinrich Carlo d’Angiò poi Carlo I, re di Sicilia Carlo I, re d’Inghilterra Carlo II, re d’Inghilterra Carothers, Wallace Carré, Ferdinand Carson, Rachel – Primavera silenziosa

carta fotografica Cartier, Jacques Castilla elastica Castro, Fidel Caterina de’ Medici regina di Francia catrame di carbon fossile caucciù, albero del Caventou, Joseph cellofan celluloide cellulosa – esplosiva – nitrazione della – organismi capaci di digerire la Cesare, Gaio Giulio Challenger, shuttle: disastro del Chardonnet, Hilaire de chicle Chiesa, incorporazione di molte feste pagane chili chimica organica china chinina – sintesi della – usi principali della chinolina chiodi di garofano chirurgia chitina Chrysothamnus cibi, inscatolamento dei ciclammato cicloesano Cina Cinchón, conte di Cinchón, Doña Francisca Henriques de Rivera Cinchona – calisaya – ledgeriana – pubescens cioccolata

cioccolato cis-, isomero cicuta maggiore Claviceps purpurea Clodoveo I, re dei franchi cloracne clorinazione dell’acqua cloro – negli antiparassitari – funzioni industriali del – gas tossico usato in guerra – lato oscuro del clorocarburi clorochina clorofluorocarburi (CFC) – come agenti schiumogeni – e il buco nell’ozono – nel condizionamento dell’aria – come propellenti per bombole – Protocollo di Montreal per la messa al bando degli – nella refrigerazione cloroformio – inconvenienti del cloruro di calcio cloruro di magnesio cloruro di metile (clorometano) cloruro di sodio; vedi anche sale Clostridium – botulinum cloxacillina coca: – albero della – foglie di cocaina coccidi (o cocciniglie) cocciniglia Coccus cacti (cocciniglia dei cactus) Coccus ilicis Cochrane, Archibald Cockburn, William – Sea Diseases, or the Treatise of their Nature, Cause and Cure

coclearia (Cochlearia officinalis) codeina Coffea arabica (albero del caffè) cola, noci di colesterolo – «buono» (HDL) – «cattivo» (LDL) collagene collodio colloidi Colombo, Cristoforo – secondo viaggio nelle «Indie» coloranti – blu – derivati dal catrame del carbon fossile – giallo-arancione – indaco – magenta – malva – minerali – porpora – rosso – sintetici – e uniformi militari Compagnia inglese delle Indie Orientali Compagnia olandese delle Indie Orientali composti aromatici composti chimici composti organici – elementi che li formano Condamine, Charles-Marie de la condensazione condizionamento dell’aria Congo coniina Conium maculatum (cicuta maggiore) conservanti dei cibi contraccettivi – diaframmi – chimici – orali

– e promozione sociale della donna Cook, James – epico salvataggio della Endeavour – esplorazione dei mari del Sud – sua lotta contro lo scorbuto – osservazioni astronomiche Cortés Hernán cortisone Costantinopoli cotone – «fulminante» (nitrocellulosa) – industria del – lavoro infantile nei cotonifici – sua manifattura in Inghilterra – pianta di – e la Rivoluzione industriale – e schiavismo negli Stati Uniti – storia del crauti acidi Creta minoica crocetina crociate Crocus sativus (zafferano) Cromwell, Oliver Cross, Charles crostacei Cuba, coltivazione dello zucchero a curculionidi Dactylopius coccus (cocciniglia) Datura – arborea – stramonium (stramonio) – suaveolens DDT (dicloro-difenil-tricloroetano) – effetti nocivi a lungo termine del Demerol Democrito diacetilmorfina (eroina) diamminoesano Dianabol (metandrostenolone)

Dias, Bartholomeu diatomite dibromoindaco difterite digitale digitalina digitossina digossina dinamite dinitrotoluene dinosauri Dioscorea (igname selvatico) diosgenina diossido di zolfo diossina – incidente di Seveso disaccaridi dissenteria Djerassi, Carl Doering, William Dogmak, Gerhard dolcificanti artificiali drepanocitemia (anemia falciforme) Dunedin (nave refrigerata) Du Pont Fibersilk Company Eastman, George Eastman Kodak ebanite Ebola, virus echinocromo ecstasy efedrina Egitto Ehrlich, Paul elastici elastomero elementi elemicina elettrolisi elettroni

eme emoglobina endorfine Enovid Enrico il Navigatore Ephedra sinica epigallocatechin-gallato (nel tè verde) Eracle erbe medicinali, erboristeria Ercole eritrociti (globuli rossi) Erodoto ergonovina ergot ergotammina ergotismo – sintomi – nella storia eroina (diacetilmorfina) Erytrhoxylon – coca (albero della coca) esaclorofene esilresorcinoli esotermiche, reazioni esplosivi: – acido picrico – chimica degli – dinamite – e la guerra – nitrato di ammonio – nitrocellulosa (cotone fulminante) – nitroglicerina – pentaeritritoltetranitrato (pentrite) – plastici – polvere da sparo (polvere pirica) – usati nello scavo di tunnel estradiolo estrogeni estrone etere etilene

– prodotto dalle mele mature euforbiacee Eugenia aromatica (albero dei chiodi di garofano) Eugenia caryofillata (albero dei chiodi di garofano) Eugenia María de Montijo de Guzmán, imperatrice di Francia eugenolo Euphorbia pulcherrima Fansidar Faraday, Michael farmaci farmaceutica, industria fenilalanina fenilchetonuria feniletilammina fenolo – in chirurgia – e fenoli fenoplasti Ferdinando il Cattolico, re di Spagna feromoni ferro ferrovie, costruzione delle prime fertilizzanti Ficus elastica figli dei fiori Filipendula olmaria Filippine, isole Firenze: produzione di tessuti di seta Fischer, Emil – formula di proiezione di Fleming, Alexander fluoro fluoxetina formaldeide Fosberg, Raymond fosforo Francia Fréjus, galleria ferroviaria del Freon Freud, Sigmund

frigorifero Frigorifique (nave refrigerata) fruttosio fumo fuochi d’artificio Furchgott, Robert Furneaux, Tobias

gabella sul sale (in Francia) galattosio gallette Gandhi, Mohandas Karamchand, Mahatma – disobbedienza civile non violenta garofano, olio di gas, illuminazione a gas, uso bellico dei – cloro – fosgene – iprite gel gelso Germania – collaborazione fra industria e università – dominio mondiale nella produzione dei coloranti germi gesuiti ghiacciaia Giabir ibn Hayyan Giacomo I, re d’Inghilterra Giacomo II, re d’Inghilterra gin and tonic Giovanni I, re del Portogallo giubbe rosse giusquiamo glicina glicerolo (glicerina) glicogeno glicole etilenico globuli rossi (eritrociti) glucosammina

glucosidi glucosio – alfa-glucosio – beta-glucosio Glycyrrhiza glabra (radice della liquirizia) Goldberger, Joseph golf, palle da gomma – per cancellare – latice di – da masticare – naturale, chimica della – naturale, struttura della – palle di – piantagioni brasiliane di – polimero di unità di isoprene – sintetica – di stirene e butadiene – storia della – sviluppo tecnologico della – usi della gommalacca Goodyear, Charles Goodyear, Nelson gossipolo Gossypium (cotone) goulasch Graebe, Carl Grande Barriera Corallina (Queensland) grassi – vedi anche acidi grassi Grecia antica – cause del suo declino Grenada gruppi funzionali: – acetile (CH3CO) – ammidico (CO-NH) – amminico (NH2) – carbossile (COOH) – fenolico, su anello benzenico (OH)

– metilico (CH3) – nitro (o nitrico) (-NO2) – nitroso (-NO) – ossidrile (OH) guado guerre dell’oppio gulonolattone ossidasi guttaperca – applicazioni della Haber, Fritz – resistenza al nazismo – sintesi dell’ammoniaca – uso di gas tossici in guerra Haiti – coltivazione del caffè Hancock, Thomas Harrison, James Harvard University Hasskarl, Justus Hawaii, isole Haworth, Norman – formule di Hawkins, Richard henna Henne, Albert Hevea brasiliensis Hispaniola Hitler, Adolf Hoechst Hofmann, Albert Hofmann, August Hofmann, Felix Hooker, Joseph Hsia Yu, imperatore cinese Hsi-ling-shih, principessa cinese Huang-ti, imperatore cinese Hudson, Henry Hyosciamus niger

idrofluorocarburi idrofluoroclorocarburi idrogeno idrossido di potassio (KOH) idrossido di sodio (NaOH) IG (Interessengemeischaft) Farben igname Ignarro, Louis impermeabili indaco – sintetico India indicano Indigofera tinctoria (indaco) indigotina indossile infezioni – batteriche – gastrointestinali – ospedaliere – stafilococciche – streptococciche – delle vie urinarie influenza pandemica del 19192 ingegneria genetica Inghilterra Inquisizione, tribunale dell’ insulina iodio ioni – di carica negativa – di carica positiva – cloruro – potassio – sodio iosciammina ioscina Ippocrate Iran Iraq Isabella di Castiglia, regina di Spagna

Isatis tinctoria (guado) Iside isoeugenolo isomeri isoprene – struttura della molecola di Italia Iuglans regia (noce) Jenner, Edward juglone Jussieu, Joseph de Kaldi, pastore etiopico Kew Gardens (Royal Botanical Gardens) Kieselguhr (farina di diatomee fossili) Kodak Brownie Kyushu (Giappone), contaminazione ambientale con PCB (1968) lacca indiana Laccifer lacca (cocciniglia del Sudest asiatico) Lancaster, James Lancet, The lattasi lattonasi lattone lattosio laudano Laveran, Charles-Louis-Alphonse lawsone Lawsonia inermis (henna) Leary, Timothy Leblanc, Nicolas Ledger, Charles legami – ammidici – alfa – beta – coniugati – disolfuro – doppi

– peptidici – singoli; e doppi alternati – tripli lentisco Leopoldo II, re del Belgio lidocaina Liebermann, Carl lignina – struttura della Lind, James – A Treatise of Scurvy Linné, Karl von (Linneo) Lione, bachicoltura e manifattura della seta lipoproteine buone (HDL) lipoproteine cattive (LDL) Lippia dulcis (verbenacea) Liquidambar orientalis (albero dello storace) Lister, Joseph Livingstone, David Lloyd, Edward Lloyd di Londra, società di assicurazioni LSD (dietilammide dell’acido lisergico) Lucca, produzione di tessuti di seta Luigi XI, re di Francia Luigi XIV, re di Francia Luigi Filippo d’Orléans, re di Francia macintosh (o mac) Macintosh, Charles macis Magellano, Ferdinando (Fernão de Magalhães) magnesio malaria – parassiti e veicolo della – una protezione naturale: l’anemia falciforme – sintomi malattia del sonno africana malattie cardiocircolatorie e grassi saturi malva Manaus Manchester

mandragora (Mandragora officinarum) Manhattan, isola di Marianne, isole 34 marijuana Marker, Russell – degradazione di Mauritius, isola di mauveina maya McCormick, Katherine Mediterraneo meflochina meperidina mercurio – avvelenamento da merluzzo mescalina Messico metadone metano metanolo miasmi, teoria dei middle passage nella tratta degli schiavi (dall’Africa alle Indie Occidentali) Midgley, Thomas jr. miele Mimusops globosa Minerva Ming, dinastia cinese miristicina Molina, Mario Molucche (Isole delle Spezie) monosaccaridi monossido di cloro Montezuma II re degli aztechi morbillo mordenzanti morfina – regola della – struttura chimica della Morte nera Morton, William

Morus alba (gelso) muffe Murad, Ferid Murex (murice) – brandaris Myristica fragrans (albero della noce moscata) naftochinore nailon – applicazioni del – calze da donna di – in sostituzione della seta per i paracadute – struttura chimica del Napoleone I Bonaparte, imperatore dei francesi, 1233345 Napoleone III, imperatore dei francesi narcosi nascite, controllo delle Natta, Giulio nazismo negriere, navi Nerone Lucio Domizio, imperatore di Roma niacina (acido nicotinico) Nicot, Jean Nicotiana – rustica (tabacco maya) – tabacum (tabacco) nicotina – effetti della Nieuw Amsterdam (poi New York) nitrato – di ammonio – di potassio – di sodio (nitro del Cile) nitrazione nitrocellulosa nitroglicerina – olio di nitroderivati nitrotoluene Nobel, Alfred Bernard Nobel, azienda produttrice di esplosivi

Nobel, Emil Nobel, premi noce moscata – proprietà allucinogene – come protezione contro la Morte Nera noretindrone (la «pillola») noretinodrel novocaina Nuova Zelanda Olanda, olandesi – caccia alle streghe – controllo del commercio delle spezie – esplorazioni – guerre contro gli inglesi nel Sudest asiatico – produzione di gomma del Sudest asiatico – tratta degli schiavi Olea europea (olivo domestico) oli olio: – di balena – di crusca di riso – d’oliva; nell’antichità; chimica dell’; italiano: Plinio il Vecchio sull’; proprietà benefiche dell’; sapone di; usi medicinali e cosmetici – di palma – di semi di lino olivo – miti sull’ – riferimenti all’albero e al suo olio nella Bibbia – valori simbolici dell’ – Virgilio sull’ olmaria Omero oppio – storia dell’ organico: – definizione attuale del termine – storia dell’evoluzione del termine Organizzazione Mondiale della Sanità (OMS) ormoni sessuali oro

– sua influenza su esplorazioni e colonizzazione, – nella lingua ossalato di calcio ossigeno ozono – buco nell’ PABA (acido para-amminobenzoico) paella Palaquium Papaver somniferum (papavero da oppio) paprika Paraguay (nave refrigerata) para-nitrotoluene parathion Parke-Davis Parthenium argentatum (guayule) parto indolore Passaggio a Nordovest Pasteur, Louis – Mémoire sur la fermentation appelée lactique pastorizzazione patate Pauling, Linus PCB (policlorobifenili) – loro applicazioni – loro persistenza – loro tossicità Pechino (Beijing) pellagra Pelletier, Joseph penicillina –G – struttura chimica della penicilline Penicillium notatum pepe – bianco – ingrediente attivo del – nero – produttori del

– rosso o pepe di Caienna – storia del – verde peperoncino rosso – importato da Colombo peperone rabbioso peperoni Perkin, William Henry Persia peste – bubbonica – polmonare – setticemica petrolio peyotl (o peyote) Pickles, Samuel Shrowder picrati Pietro il Grande, zar di Russia pigmenti pillola contraccettiva – maschile pimento Pincus, Gregory piombo: – avvelenamento da – tetraetile usato come antidetonante nelle benzine – usato per recipienti e condutture nell’antica Roma piperina Piper nigrum (pepe nero) piridossina Plasmodium – falciparum – malariae – ovale – vivax plastica Plinio il Vecchio – Naturalis historia pneumatici poliammidi poliestere

polifenoli polimeri – basati sulla cellulosa polipeptidi polisaccaridi – di condensazione – di riserva – strutturali (di sostegno) polistirene (o polistirolo) polmonite Polo, Marco polvere pirica (polvere da sparo) pomodori pompa sodio-potassio porpora di Tiro Portogallo, portoghesi – colonizzazione – esplorazioni geografiche – commercio delle spezie – metalli preziosi dal Nuovo Mondo – pesca oceanica – tratta degli schiavi potassa (carbonato di potassio) prezzemolo Priestley, Joseph Prima guerra mondiale progesterone progestine Prontosil rosso propellenti per aerosol Prozac puerperale, febbre Purpura haemastoma Raleigh, Sir Walter Rauwolfia serpentina rayon refrigeranti, i primi refrigerazione reserpina resine fenoliche

reticolazione Rhazi Rhizopus nigricans, muffa robbia Rock, John Roma – malaria a – saline a Ostia – la Via Salaria Roosevelt, Franklin Delano Ross, Ronald rosso – di anilina (magenta o fucsina) – carminio (o cocciniglia) – porpora – scarlatto – Tripan I – di Turchia Rowland, Sherwood Royal Infirmary di Glasgow Royal Society di Londra Rubia tinctorum (robbia) rughe, trattamento Botox contro le rum Run (nelle isole Banda) Russia, campagna di

saccarina saccarosio – struttura della molecola del Saccharum officinale (canna da zucchero) safrolo Sahara, depositi di sale nel salato, sapore sale (cloruro di sodio) – commercio del – corpo umano, suo fabbisogno di sale – nella cultura e nella storia – grande solubilità del – salgemma (o alite)

– marino – come materia prima per l’industria chimica – produzione di – di sorgenti salate – struttura chimica del – tassazione del – usato nella conservazione di carne e pesce Salem (Massachusetts), caccia alle streghe ai salice (Salix) salicina salnitro (nitrato di potassio) salsapariglia Salvarsan Samuele Sandoz Sanger, Margaret Santa Anna, Antonio López de Santo Domingo Sanremo sapodilla sapogenine Saponaria officinalis (saponaria) sapone (-i:) – funzionamento chimico del – micelle di – di olio di oliva: prodotto con potassio; prodotto con sodio; tipo castiglia; tipo marsiglia – storia del – tasse sul saponificazione saponine sapori – acido – amaro – dolce – salato Sapindus saponaria (albero del sapone) sapotacee sarin (gas nervino) sarsasapogenina sarsasaponina

sassofrasso Saul scarlattina schiavi – nella coltivazione dell’indaco – nella coltivazione del tabacco – nella produzione di cotone – nella produzione della gomma – nella produzione di zucchero schiavismo Schönbein, Friedrich scilla marittima scopolammina scorbuto – rimedi contro lo – sintomi – storia della malattia – terapia a base di succo di limone e altri agrumi Scott, Robert Falcon Searle, G.D., azienda farmaceutica Seconda guerra mondiale segale cornuta Selliguea feei serina Serturner, Friedrich seta – amminoacidi della – artificiale – di Chardonnet – chimica della – funzione dei gruppi laterali negli amminoacidi della – sericoltura – sua storia – Via della – viscosa Shakespeare, William – Amleto – Romeo e Giulietta Shen Nung, imperatore della Cina Sidone siero della verità

sifilide – storia della Simpson, James Young Singapore sintetico non è sinonimo di artificiale Siria Sobrero, Ascanio Socrate soda (carbonato di sodio) – cenere di soda caustica (o idrossido di sodio) solanacee solfato di ferro solfato di zinco solfuro di potassio Solone Solvay, Alfred Solvay, Ernest Solvay, processo, per la produzione di cenere di soda sintetica sonno crepuscolare Spagna: – commercio delle spezie – commercio dello zucchero – metalli preziosi dal Nuovo Mondo – tratta degli schiavi africani speranza di vita in varie epoche storiche spezie, declino del commercio delle Spiraea ulmaria (olmaria) spirocheta stafilococchi stagno – «malattia dello» (alle basse temperature) – storia antica dello Stanazololo Standard Oil Company del New Jersey Staudinger, Hermann steroidi, ormoni – anabolici: naturali e sintetici – struttura molecolare degli – vegetali Stevia rebaudiana

stirene Stopes, Marie Stork, Gilbert stramonio Strahleven (nave refrigerata) streghe – processi alle – unguenti per volare stregoneria streptococchi stricnina strutture chimiche Strychnos nux-vomica Stuyvesant, Peter sucralosio sulfacetammide sulfamidici sulfanilammidi sulfapiridina sulfatiazolo surgelazione dei cibi Svizzera Syntex Szent-Györgyi, Albert tabacco – alcaloidi del – coltivazione del – Giacomo I d’Inghilterra contro l’uso del – proibizione del tabacco nella storia Tafur, Bartolomé talassemia Talbor, Robert tarassaco Tasman, Abel Janszoon tasso (Taxus baccata) tè – Boston Tea Party – origine del nome – verde Tennyson, Alfred

teobromina teofillina termoplastici, materiali termostabili, materiali Ternate Terra Australis Incognita Terranova terrorismo, vedi attentati terroristici testosterone tetraidrocannabinolo Theobroma cacao (albero del cacao) Thomson, Joseph John Tidore tifo Timbuctù timolo tintoria, arte della tintura toluene trans-, isomero triclorofenolo triclorotrifluorometano (Freon) trigliceridi trinitrofenoli trinitrotoluene (o tritolo) tripanosomi tubercolosi tunnel scavati usando esplosivi Turchia Twining, Alexander ultravioletta, luce urea, sintesi dell’ urina usata come acqua nelle armi da fuoco medievali vaccinazione antivaiolosa vaiolo valina vaniglia Vanilla planifolia vanillina

Vasco da Gama Venezia – commercio del sale – commercio delle spezie – commercio dello zucchero – crociate – produzione di tessuti di seta vetriolo verde (solfato di ferro) «viaggi» con l’acido viaggi oceanici – incendi a bordo – inconvenienti legati alle lunghe navigazioni, – malattie associate ai lunghi – provviste per i – tassi di mortalità per scorbuto Viagra vino viscosa (xantato di cellulosa) vitalismo vitamina (-e) –A – B (gruppo) – C (acido ascorbico); come conservante dei cibi; determinazione della struttura della; dose giornaliera raccomandata; naturale e sintetica –E –K Vittoria regina d’Inghilterra vulcanizzazione della gomma Vulcano (dio greco) Watt, James Wickham, Henry Alexander Withering, William Wöhler, Friedrich Woodall, John – The Surgeon’s Mate Woodward, Robert Yucca

zafferano – coltivazione dello – usi dello zanzare portatrici della malaria (Anopheles) Zanzibar zenzero – selvatico Ziegler, Karl zingerone Zingiber officinale zolfo zucchero – di barbabietola – di canna – di mais – e la Rivoluzione industriale – storia del consumo dello – e la tratta degli schiavi

NOTE

5. I NITRODERIVATI

1.

Sulla figura controversa di Fritz Haber si possono vedere Joe Schwarcz, «Creatore nel bene e nel male», in Id., Come si sbriciola un biscotto?, trad. it. di L. Sosio, Longanesi, Milano 2005, pp. 249-253, e Roald Hoffmann, La chimica allo specchio, trad. it. di L. Sosio, Longanesi, Milano 2005, cap. 33 «Una vita in chimica. Fritz Haber». (N.d.T.)

6. SETA E NAILON

2.

Sull’invenzione del nailon e sulla breve vita di Wallace Carothers si può vedere anche il breve saggio «Corsa alle calze» di Joe Schwarcz, in Id., Come si sbriciola un biscotto?, trad. it. di L. Sosio, Longanesi, Milano 2005, pp. 202-203. (N.d.T.)

12. LE MOLECOLE DELLA STREGONERIA

3.

William Shakespeare, Romeo e Giulietta, trad. it. di C. Chiarini, atto IV, scena 3, in Id., Tutte le opere, a cura di Mario Praz, Sansoni, Firenze 1964, p. 321. (N.d.T.)

4.

Ibid., atto IV, scena 1, p. 319. (N.d.T.)

5.

William Shakespeare, Amleto, trad. it. di R. Piccoli, atto I, scena 5, in Id., Tutte le opere, a cura di Mario Praz, Sansoni, Firenze 1964, p. 689. (N.d.T.)

6.

Sull’argomento si può vedere Sigmund Freud, Sulla cocaina, a cura di Robert Byck, trad. it. di A. Durante. Introduzione di Flavio Manieri. Note agli scritti freudiani di Anna Freud, Newton Compton editori, Roma 1979. (N.d.T.)

14. L’ACIDO OLEICO

7.

Virgilio, Georgiche, II, 425 (trad. it. di Clemente Bondi [1742-1821], Georgiche, lib. II, vv. 647-649, in Id., Eneide, Georgiche, Cremonese, Roma 1958, p. 433). (N.d.T.)

8.

Questa leggenda, per quanto suggestiva, sembra destinata a rimanere tale. Il nome sapo è infatti già usato da Plinio per indicare la pomata per capelli usata dai galli; la parola latina sapo si riferisce quindi a tale pomata. (N.d.T.)

9.

Come scrivevano E. Sherwood Taylor e Charles Singer, in Storia della tecnologia (a cura di C. Singer, E.J. Holmyard, A.R. Hall e T.I. Williams, vol. II, Bollati Boringhieri, Torino 1993, p. 361): «Il sapone duro era ottenuto, nella zona costiera mediterranea, da olio di oliva e da carbonato di sodio (rocchetta o barilla). Venne prodotto dapprima dagli arabi e più tardi venne fabbricato principalmente in Castiglia, a Marsiglia e a Venezia, ed esportato nei paesi nordici». Ancora oggi è in uso da noi la denominazione di «sapone di Marsiglia» per indicare il sapone bianco che un tempo si produceva usando come unico grasso l’olio d’oliva (a cui oggi si uniscono anche altri oli e grassi). (N.d.T.)

16. I CLOROCARBURI

10.

In Italia è stato usato nel 1944 dagli americani: a Napoli, per combattere un’epidemia di tifo petecchiale, e in Sardegna, contro l’anofele, per debellare la malaria. (N.d.T.)

INDICE

Presentazione Frontespizio Pagina di copyright Introduzione 1. Pepe, noce moscata e chiodi di garofano Breve storia del pepe Chimica piccante Il miraggio delle spezie Le molecole aromatiche dei chiodi di garofano e della noce moscata La noce moscata e New York

2. L’acido ascorbico Lo scorbuto in mare Cook: centinaia di uomini, nessun caso di scorbuto Una piccola molecola in un grande ruolo Scorbuto sul ghiaccio

3. Il glucosio Schiavismo e coltivazione dello zucchero

Dolce chimica Sapore dolce I dolcificanti artificiali

4. La cellulosa Il cotone e la Rivoluzione industriale La cellulosa, un polisaccaride strutturale I polisaccaridi di riserva Cellulosa esplosiva

5. I nitroderivati La polvere da sparo: il primo esplosivo Chimica degli esplosivi L’idea della dinamite di Nobel La guerra e gli esplosivi

6. Seta e nailon La diffusione della seta La chimica del lustro e della lucentezza La ricerca della seta sintetica Il nailon: una nuova seta artificiale

7. Il fenolo Chirurgia sterile Le molte sfaccettature dei fenoli Il fenolo nelle plastiche

Un fenolo per il sapore

8. L’isoprene Le origini della gomma Cis e trans Lo sviluppo della gomma Che cosa la fa allungare? La gomma influisce sulla storia La storia influisce sulla gomma

9. I coloranti Colori primari Coloranti sintetici L’eredità dei coloranti

10. Farmaci miracolosi L’Aspirina La saga dei sulfamidici Le penicilline

11. La pillola I primi tentativi di contraccezione orale Gli steroidi Le sorprendenti avventure di Russell Marker La sintesi di altri steroidi Le madri della pillola

12. Le molecole della stregoneria Fatica e sofferenze Erbe curative, erbe dannose Gli alcaloidi della segale cornuta

13. Morfina, nicotina e caffeina Le guerre dell’oppio Nelle braccia di Morfeo Fumo da bere La struttura stimolante della caffeina

14. L’acido oleico L’olivo fra leggenda e realtà La chimica dell’olio d’oliva Il commercio dell’olio d’oliva Sapone di olio d’oliva

15. Il sale La produzione del sale Il commercio del sale La struttura del sale Il fabbisogno di sale del corpo La tassazione del sale Il sale come materia prima

16. I clorocarburi

La refrigerazione I favolosi Freon I Freon rivelano il loro lato oscuro Il lato oscuro del cloro PCB: altri guai da composti clorurati Il cloro negli antiparassitari: dai benefìci al veneficio, alla proibizione Molecole che ti fanno dormire

17. Molecole contro la malaria Chinina: l’antidoto della natura La sintesi della chinina Le soluzioni dell’uomo alla malaria Emoglobina: una protezione naturale

Epilogo Ringraziamenti Bibliografia scelta Indice analitico Note 5. I nitroderivati 6. Seta e nailon 12. Le molecole della stregoneria 14. L’acido oleico 16. I clorocarburi

Seguici su IlLibraio

www.illibraio.it Il sito di chi ama leggere

Ti è piaciuto questo libro? Vuoi scoprire nuovi autori? Vieni a trovarci su IlLibraio.it, dove potrai: scoprire le novità editoriali e sfogliare le prime pagine in anteprima seguire i generi letterari che preferisci accedere a contenuti gratuiti: racconti, articoli, interviste e approfondimenti leggere la trama dei libri, conoscere i dietro le quinte dei casi editoriali, guardare i booktrailer iscriverti alla nostra newsletter settimanale unirti a migliaia di appassionati lettori sui nostri account facebook, twitter, google+ «La vita di un libro non finisce con l’ultima pagina.»