SOBRE MICROBIOS Y HUMANOS Notas breves sobre la extraña relación que han mantenido los microorganismos y los seres humanos a lo largo de la historia 9789875915404

822 135 2MB

Spanish Pages [234]

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

SOBRE MICROBIOS Y HUMANOS Notas breves sobre la extraña relación que han mantenido los microorganismos y los seres humanos a lo largo de la historia
 9789875915404

Table of contents :
Portada
SOBRE MICROBIOS Y HUMANOS
Créditos
Agradecimientos
Sobre microbios y humanos (A modo de introducción)
I. ¡Agar agar… qué grande sos!
(Sobre el descubrimiento de algo tan simple que revolucionó la microbiología)
Bibliografía consultada
II. Alquimistas de bolsillo
(Sobre cómo el hombre intentó domesticara los microbios)
Bibliografía consultada
III. Cocos escondidos, bacterias envueltas, inquilinos indeseables y otros nombres raros
(Sobre los curiosos resortes que se ponen en marcha cuando hay que colocarle nombre a un microbio)
Bibliografía consultada
IV. El Art Attack microscópico
(Sobre los microbios usados en el arte)
Bibliografía consultada
V. Viejos son los trapos
(Sobre el uso de nuevas y viejas técnicas en microbiología)
Bibliografía consultada
VI. Con las manos en la masa
(Sobre la historia de la espectrometría de mas asaplicada a la microbiología)
Bibliografía consultada
VII. Flora normal y académicos oportunistas
(Sobre el significado de nuevas palabras y el nuevo significado de viejas palabras en microbiología)
Bibliografía consultada
VIII. El sexo de los ángeles
(Sobre la vida sexual de las bacterias y el gran incesto universal)
Bibliografía consultada
IX. Del microbio vienes y en microbio te convertirás
(Sobre el origen de la vida y su relación con los microbios)
Bibliografía consultada
X. El alimento de los Dioses
(Sobre microbios usados para alimentar a dioses)
Bibliografía consultada
XI. The magic bullet
(Sobre el marketing en microbiología y la industria farmacéutica)
Bibliografía consultada
XII. Lo que no mata fortalece
(Sobre los curiosos métodos que han ensayado los médicos para curar las enfermedades infecciosas)
Bibliografía consultada
XIII. Antibióticos, ¿mitos o realidades?
(Sobre la extraña relación de la mitología clásica con los antibióticos)
Bibliografía consultada
XIV. La única verdad es la realidad
(Sobre dogmas que se derrumban y verdades que no son tan verdaderas)
Bibliografía consultada
XV. La culpa no la tiene el chancho…
(Sobre los antibióticos usados en animales)
Bibliografía consultada
XVI. Ciencias duras y no tan duras
(Sobre cómo el hombre ordena el saber, y lo difícil que resulta ordenar la microbiología)
Bibliografía consultada
Volver al futuro. A modo de conclusión
Premio Nobel, ese oscuro objeto del deseo (Bonus track, un cacho de cultura)
Bibliografía consultada
Índice
Colofón

Citation preview

SOBRE MICROBIOS Y HUMANOS Notas breves sobre la extraña relación que han mantenido los microorganismos y los seres humanos a lo largo de la historia

Mario L. Vilaró

Ilustración de tapa y contratapa: Torbellino de vida aquí y alla, Exploración (técnica mixta) Autora: María Claudia Manggini

Vilaró, Mario L. Sobre microbios y humanos : notas breves sobre la extraña relación que han mantenido los microorganismos y los seres humanos a lo largo de la historia . - 1a ed. Córdoba : Brujas, 2014. E-Book. ISBN 978-987-591-540-4 1. Microbiología. I. Título CDD 579.09

© Mario L. Vilaró © Editorial Brujas 1° Edición. Impreso en Argentina ISBN: 978-987-591-540-4 Queda hecho el depósito que marca la ley 11.723. Ninguna parte de esta publicación, incluido el diseño de tapa, puede ser reproducida, almacenada o transmitida por ningún medio, ya sea electrónico, químico, mecánico, óptico, de grabación o por fotocopia sin autorización previa.

www.editorialbrujas.com.ar [email protected] Tel/fax: (0351) 4606044 / 4609261- Pasaje España 1485 Córdoba - Argentina.

Agradecimientos A la profesora María Elena Tarbine por su dedicación, profesionalismo y oportunos consejos durante la lectura y corrección del texto. A Laura Decca, Marina Bottiglieri, Marta Rocchi y la comisión directiva de la filial Córdoba de la Asociación Argentina de Microbiología, por haber creído una vez más en este proyecto. A la Asociación Argentina de Microbiología por haber aceptado auspiciar este libro. A la artista María Claudia Manggini por haber realizado las pinturas de la portada y contratapa de este libro, y haber aceptado el desafío de expresar en obras de arte la esencia de la microbiología A la vida… por haberme dado tanto.

Sobre microbios y humanos (A modo de introducción) Si existe una relación entre grupos biológicos diferentes que sea íntima y duradera, es, sin dudas, la que hay entre microbios y seres humanos. Los microbios son los primeros seres vivos con los que tenemos contacto al nacer y serán los últimos en acompañarnos cuando dejemos este mundo. Mal que nos pese tenemos que aceptarlo. Como en cualquier relación que se precie de tal, no todo es un lecho de rosas. Se trata de un vínculo en el que no escasean los vaivenes entre acuerdos debidos a necesidades vitales mutuas y desacuerdos con consecuencias, a menudo, fatales. Entre un extremo y otro, el lazo se presenta jalonado por una dilatada gama de matices en la que hay para todos los gustos. Cuando el hombre descubrió la existencia de un mundo microscópico, y a poco de vencer la sorpresa y el descreimiento ante la aparición de un pequeño universo que

7|

Mario L. Vilaró

escapaba fuera de la dimensión humana, se sintió intrigado por comprenderlo y estudiarlo. De allí en más, la relación biológica milenaria se trasladó al plano del conocimiento y algo que había existido desde siempre, comenzó a ser analizado desde un ángulo intelectual y racional. Dicho de otra forma, el hombre convivió millones de años con los microbios, pero cuando supo de su existencia, fue necesario no solo aceptarlos, sino también comenzar a entenderlos. El nacimiento de la microbiología como ciencia ha recorrido un intenso camino a pesar de su corta edad. Y en ese trayecto, las grandes desavenencias han ocurrido debido, más que nada, a la incapacidad del hombre para comprender la magnitud del fenómeno biológico que se abría ante sus ojos. Los interrogantes y desafíos fueron tantos y tan complejos, y lo siguen siendo, que hacen que el ser humano se sienta pequeño ante tamaña inmensidad por descubrir. Podríamos pensar, a la sazón, que la relación humanomicrobio ha abandonado la perspectiva estrictamente biológica y ha tomado un cariz en el que se han puesto en juego muchas de las pasiones y virtudes humanas, conformando así un conjunto de curiosas historias que exceden el plano meramente científico. No ha sido fácil para los naturalistas comprender que, en gran medida, la existencia del mundo tal como lo conocemos depende del rol que desempeñan seres microscópicos aparentemente insignificantes. Ello ha conducido a que la arrogancia humana de considerarse el rey de la creación, haya tenido que rendirse ante la evidencia de que un grupo biológico, a su entender rudimentario, presente una complejidad fisiológica, ecológica y funcional fascinante.

|8

Sobre microbios y humanos

Continuando con la temática de mis libros anteriores, en esta oportunidad se intenta abordar la problemática de esas historias en las que, tanto microbios como humanos, sostienen una relación mucho más estrecha de lo que el hombre está dispuesto a aceptar, aunque se esmere en avanzar hacia el conocimiento de los tantos secretos que atesoran los microorganismos. Este texto no tiene más aspiraciones que transformarse en una lectura coloreada por algunas curiosidades, refrendada por hechos históricos, y salpicada por otros tantos comentarios que poco tienen ver con la microbiología. Los caminos intelectuales que se transitaron, en especial al hacer ciertas asociaciones entre microbios y otras artes del ser humano, carecen del suficiente sustento académico para ser consideradas como relevantes. Se trata, simplemente, de especulaciones ligeras y, quizás, más influenciadas por los sentimientos que por la razón. Ignorados, vilipendiados, incomprendidos, despreciados, los microbios forman parte, inexorablemente, de nuestra vida y deberían ocupar un lugar más elevado en nuestro reconocimiento. Sería atinado que lo aceptásemos y reconociésemos. Mario L. Vilaró Marzo de 2014

9|

I ¡Agar agar… qué grande sos! (Sobre el descubrimiento de algo tan simple que revolucionó la microbiología) Una de las mayores preocupaciones de los microbiólogos por el año 1870 era la de conseguir la reproducción de microorganismos a gran escala. La teoría microbiana se basaba en ello, en especial para poder confirmar que los gérmenes eran los causantes de muchos procesos biológicos, entre ellos las enfermedades infecciosas. La clave era entonces poder obtenerlos de manera artificial. Louis Pasteur usaba medios de cultivo de origen humano como orina, humor vítreo o líquido ascítico. El principal problema es que estas sustancias estaban a menudo contaminadas, lo que hacía que los cultivos fuesen difíciles de interpretar. Algo que por nuestros días parece tan obvio no lo era tanto para los primeros microbiólogos. Ante ese inconveniente era fundamental aislar el organismo en cultivo puro para poder determinar si se trataba del responsable de una determinada infección. La única so-

11 |

Mario L. Vilaró

lución disponible era diluir los caldos de cultivo hasta poder lograr que quedase “una sola bacteria por tubo” y multiplicarla para obtener una población originada a partir de un ancestro único. Con ese criterio, la bacteria causante debería ser encontrada en la mayoría de los tubos y los contaminantes quedarían en el camino, consecuencia de las numerosas diluciones a las que había sido sometida la muestra original. Joseph Lister fue el primero en usar la técnica de las diluciones. Esta metodología era laboriosa, aleatoria y complicada para realizar. No obstante se comenzaba a gestar un concepto que llega hasta nuestros días: el del germen predominante; claro está que, al carecer de los conocimientos que disponemos hoy, no podemos negar que surgió un razonamiento lógico. Se imponía entonces el uso de algo más preciso y práctico, diferente del medio de cultivo líquido. El botánico alemán Oscar Brefeld en 1872 usa la gelatina para solidificar los medios de cultivo, y logra recuperar colonias de hongos. En el mismo año, Joseph Schroeter, médico alemán que en sus ratos libres despuntaba el vicio de la micología, cultiva las primeras colonias bacterianas sobre rodajas de papa, y luego obtiene resultados similares ensayando pasta de almidón, pan y albúmina de huevo coagulada. Al utilizar diferentes soportes nutricionales, Schroeter sugiere que es posible diferenciar los microorganismos por el aspecto de sus colonias y su capacidad de crecer sobre distintos sustratos. Aunque a comienzos del siglo XIX Bizzio había informado la presencia de “colonias sangrantes” sobre la polenta, es Schroeter el que habla de colonias “cromogénicas”

| 12

Sobre microbios y humanos

o provistas de color. El medio sólido se había transformado en una herramienta muy útil que subsanaba las deficiencias del método de las diluciones en líquido. Estalló entre los científicos una fiebre en la búsqueda del medio ideal y se comenzó a probar todo tipo de soporte sólido bajo la sola condición de que pudiese brindar una superficie lo suficientemente firme para obtener colonias bacterianas aisladas. Entra en acción otro de los ilustres desconocidos de la microbiología, el médico alemán Walter Hesse. Hesse trabajaba en el laboratorio de Robert Koch, estudiando la calidad del aire y del agua. En esa época, Koch estaba gestando la idea que daría origen a sus famosos postulados que explicarían el mecanismo de transmisión de las enfermedades infecciosas, y sostenía que uno de los posibles vectores era el aire, aunque no había podido demostrarlo aún. En esa línea de investigación se dedicaban a filtrar aire haciéndolo pasar por membranas que luego eran cultivadas sobre gelatina. El principal problema era que la gelatina tenía la tendencia a fundirse durante los meses de verano e incluso algunos microorganismos la degradaban, lo que hacía imposible recuperar e individualizar sus colonias. La esposa de Hesse, Angelina Fannie Eilshemius, totalmente desconocida para la mayoría de los microbiólogos, y cuya principal virtud era la de ser una excelente cocinera, es quien va a cambiar el rumbo de la historia. “Lina”, como la llamaba cariñosamente su marido, era aficionada a la elaboración de dulces a base de una vieja receta para lograr que sus preparaciones adquiriesen firmeza. En ella se usaba como agente gelificante el extracto de un alga traída del Lejano Oriente.

13 |

Mario L. Vilaró

No existen referencias consistentes, menos consistentes que la gelatina, de cómo fue la manera que a Hesse se le ocurrió utilizar en microbiología la fórmula que su esposa empleaba en la elaboración de los postres. Como suele suceder en este tipo de cuestiones domésticas, la receta había sido transmitida de generación en generación sin conocerse de manera cierta cómo llegó a manos de Frau Hesse. Por supuesto que estamos hablando del agar agar y conocer de qué manera esta milenaria preparación oriental, originaria de China y Japón, llegó hasta la cocina de la mujer de un médico alemán, ayudante de Koch, entra en el terreno de las especulaciones. Existen varias referencias que comentan el hecho, pero al ser discrepantes no podemos tomar ninguna como cierta. Es probable que el resultado haya sido consecuencia de una de las tantas casualidades que abundan en la historia de la ciencia. De modo que solo nos contentaremos con afirmar el hecho de que Hesse tomó la receta a su mujer y se le ocurrió proponérsela a Koch para solidificar sus medios de cultivo. El agar-agar fue descubierto en Japón por Tarazaemon Minoya, en 1658. Por esos años, en Japón, era conocido como Kanten, que significa “cielo frío”, en referencia al método de extracción mediante la congelación-descongelación natural. En este sistema de producción, se aprovechaban las bajas temperaturas invernales de las zonas montañosas, donde se lo obtenía de forma totalmente artesanal. El congelamiento elimina las impurezas del agar. Las algas eran almacenadas a la intemperie en el invierno. Durante la noche se congelaban y a lo largo del día se descongelaban. La repetición de este fenómeno durante varias jornadas generaba la aparición de una sustancia blanca gelatinosa.

| 14

Sobre microbios y humanos

De acuerdo con la tradición japonesa Tarazaemon Minoya, un posadero del distrito de Fushimi, en la provincia de Kioto, preparó una cena especial en ocasión de la visita del Shogun Tokugawua, sirviendo un plato tradicional a base de algas. Los restos de comida fueron abandonados a la intemperie. Cuando decidió hacer un poco de limpieza encontró que las algas se habían desecado pero sobre ellas había aparecido una sustancia de color blanquecino. Preso de la curiosidad, se le ocurrió ponerla a hervir y comprobó que se fundía al calor y luego se solidificaba al enfriarse. De esa forma, este descubrimiento accidental llevó a que se lo comenzase a utilizar en diferentes recetas culinarias, con el objeto de brindar consistencia a las preparaciones. Su uso se difundió rápidamente por el Lejano Oriente, incluyendo China, Korea, Filipinas e Indonesia, y el agregado de agar-agar a diferentes tipos de comida comenzó a formar parte de la cultura gastronómica tradicional de esos países. De esa expansión alimentaria surge su nombre actual. Agar-agar es un término malayo, donde agar significa gelatina o jalea y, como es costumbre en las culturas malayas del sudeste asiático, la palabra se repite dos veces para darle mayor énfasis: la traducción literal es “gelatina-gelatina”, y su interpretación, “pura gelatina”. Su introducción en Europa data de 1859, cuando el químico francés Anselme Payen lo presentó en la Academia de Ciencias de París, junto a otros alimentos exóticos traídos de Oriente. Sobre el final del siglo XVIII, Hanbei Miyata inicia la producción de agar a escala industrial en el Japón. Este fue un hecho relevante, ya que su uso se había difundido ampliamente en Occidente y era necesario producirlo en grandes 15 |

Mario L. Vilaró

cantidades, ante una demanda comercial creciente. Tanto fue así que, posteriormente, se decidió la construcción de un memorial en honor a Miyata, en el templo Monriki, en Takatsuki, como reconocimiento por su contribución al desarrollo de la industria japonesa (hacia el año 1940 Japón contaba con más de 400 plantas de procesamiento industrial de agar). En 1933 se inaugura la primera fábrica en los Estados Unidos, en San Diego, California. Antiguamente, en Japón, el agar se obtenía solamente de algas del género Gelidium (Tengusa en japonés), pero a finales del siglo XIX, debido al gran consumo mundial, se empezó a elaborar a partir de otro tipo de algas, principalmente Gracilaria, Achantopelthis, Gelidiella y Pterocladia. De acuerdo con el género de alga utilizado, consigue un agar-agar con distintas características. El agar de Gelidium no necesita sufrir ninguna transformación química en su proceso de extracción, en cambio el agar de Gracilaria debe ser sometido a un fuerte tratamiento alcalino a base de químicos. Gelidium puede llegar a superar los 25 centímetros de longitud y crece naturalmente en las costas de Japón, España, Portugal, Marruecos, Corea y Baja California. Se la encuentra en las rocas de las zonas litorales, en áreas principalmente expuestas al oleaje, y se la suele hallar en las zonas descubiertas por la bajante de la marea. Las especies de Gracilaria son una fuente importante de agar de calidad alimentaria. Las algas se recogen en su estado silvestre o se crían para aplicaciones comerciales. En las granjas marítimas se cultivan mediante el uso de sogas sumergidas en el

| 16

Sobre microbios y humanos

mar y, a menor escala, en tanques con agua, sobre las que se adhieren las algas. Anualmente se producen unas 30.000 toneladas de especies de Gracilaria, una tercera parte en América del Sur. La estructura química del agar es bastante compleja, se trata de un polisacárido caracterizado por la repetición de unidades de 3-6, anhidro L-Galactosa. Sus propiedades son por demás conocidas entre los microbiólogos; las más remarcables son su uso como material inerte para adicionar a los medios de cultivo, y su importante capacidad gelificante, por lo que se constituyó en un excelente soporte para los medios de cultivo. Pero no todo es microbiología en el agar. Su uso está ampliamente difundido en diferentes aspectos de la vida cotidiana, a veces mucho más de lo que imaginamos. Solo con el propósito de asomarnos a sus múltiples aplicaciones, diremos que el agar agar tiene algunas utilidades que son insospechadas para la mayoría de nosotros. En medicina, como laxante y para evitar las obstrucciones intestinales en enfermos con patologías digestivas; como vehiculo para al sulfato de Bario usado en radiología; como excipiente en diferentes tipos de emulsiones medicamentosas; como antilipémico por su capacidad de absorber y eliminar las grasas; como anticoagulante con acción similar a la heparina. En el laboratorio, como clarificante en determinaciones turbidimétricas de suspensiones con sólidos densos, como marcador de estructuras biológicas por su afinidad con diferentes colorantes, como el azul de metileno, azul de toluidina, tionina o pinacianol; como medio de embebido para hacer cortes histológicos particularmente en botánica; para electroforesis de proteínas en diferentes 17 |

Mario L. Vilaró

áreas de investigación; para técnicas como inmunodifusión, filtración en gel y cromatografía; para analizar el espectro de absorción infrarroja de los aminoácidos. Su derivado, la agarosa, se emplea para estudios de separación de moléculas de ADN; para clasificar por tamaño las partículas virales; y para la purificación de las enzimas. En la alimentación, como espesante, emulsificante, estabilizante y proveedor de textura, para la elaboración de jaleas, dulces sólidos, queso crema, yogurt, galletas, caramelos, cremas heladas, merengues, caldos y sopas. En la comida vegetariana es muy usado en la preparación de cereales, postres, y como sustituto de la carne. En otras aplicaciones: moldes para prótesis dentales, recolección de impresiones digitales en criminología y medicina forense, fotografía, aparatos de medición como higrómetros mecánicos y electrónicos, champú, cremas cosméticas, pasta dental, solidificación de alcoholes y en explosivos. Se estima que la producción mundial de agar alcanza las 8000 toneladas anuales, con un valor de 176 millones de dólares. Los países que cultivan las algas son Chile, España, Portugal, Marruecos, Japón, China, Estados Unidos, Indonesia, Corea y Nueva Zelanda. Chile es el principal productor con un 30% del mercado mundial. Como se puede apreciar, para nosotros, simples microbiólogos, que pensamos que el mundo gira alrededor de nuestra ciencia, el agar, considerado como patrimonio exclusivo, se ha difundido por numerosas áreas de la tecnología e industria, ya que sus características propias así lo permiten. No deja de resultar llamativo que de un alga se extraiga un producto cuya utilidad es tan profusa que raya en la perfección. Y de eso se trata, a pesar de varios sucedáneos naturales y artificiales que se han descubierto, la misma sustancia que encontró hace siglos Tarazaemon Minoya

| 18

Sobre microbios y humanos

no ha podido aún ser sustituida. Algo perfecto es aquello “que tiene el mayor grado posible de bondad o excelencia en su línea”, y como tal, se torna irreemplazable. Con ese razonamiento podemos decir que el agar es perfecto para los múltiples usos que se le atribuyen. Hablando de perfecciones y perfeccionistas, si existe alguien que hizo un culto de la perfección fue Michelangelo Buonarroti. Solo los afortunados que han tenido la dicha de apreciar de cerca sus obras, y poder extasiarse ante su vista, podrán comprender el verdadero sentido de la perfección. Basta con observar atentamente La Pietà, en donde un trozo de mármol esculpido tiene la capacidad de transmitir sentimientos y sensaciones, para comprender la esencia de algo perfecto, ergo, inmejorable. Leer sobre la vida de Miguel Ángel nos depara el conocimiento de un artista apasionado, obsesionado y atormentado por la perfección. Es por eso que cuando la naturaleza nos muestra, gracias a una simple alga, uno de los tantos aspectos que tiene la perfección, no podemos dejar de reconocerla, valorarla y admirarla. Finalizamos este breve opúsculo con una frase del mismo Miguel Ángel que puede ser atribuida tanto a una escultura, una estructura microscópica o al viejo y querido agar-agar, que tantas satisfacciones brinda a los microbiólogos: “La perfección no es cosa pequeña, pero está hecha de pequeñas cosas”.

19 |

Mario L. Vilaró

Bibliografía consultada: Rafael Armisen. World-wide use and importance of Gracilaria. Journal of Applied Phycology, 7, 231-243, 1995. Roy Whistler Ed. Industrial Gums: Polysaccharides and Their Derivatives. Academic Press, 1973. Lahaye M, Rochas C, Chemical structure and physico-chemical properties of agar, Hydrobiologia, 221 pp137-148 (1991).

| 20

II Alquimistas de bolsillo (Sobre cómo el hombre intentó domesticar a los microbios) La alquimia es, de acuerdo con el diccionario de la Real Academia, el conjunto de especulaciones y experiencias, generalmente de carácter esotérico, relativas a las transmutaciones de la materia, que influyó en el origen de la ciencia química. Tuvo como fines principales la búsqueda de la piedra filosofal y de la panacea universal. Para el común de la gente, los alquimistas suelen ser unos charlatanes de feria que dedicaban sus días a engañar a pobres incautos con falsas promesas, como la de transformar el plomo en oro. Es claro que ese tipo de percepción del imaginario popular suele estar deformada por novelescas historias originadas en una época en que magia y ciencia se confundían. Pensar que todos los alquimistas eran embaucadores es tan erróneo como creer que ninguno lo era. Si observamos con mirada actual una disciplina que combina elementos de la química, la metalurgia, la física, la medicina, la astrología, la semiótica, el misticismo, el espiritualismo y el arte, rematada con una marcada impronta

21 |

Mario L. Vilaró

de filosofía, es difícil escapar a la tentación de pensar que se trata de algo poco serio. Pero el gran error para evaluar cualquier hecho histórico es sacarlo del contexto en el que ocurrió. Antes de continuar avanzando, es menester un breve comentario sobre el origen de la alquimia, con la intención de hacer una aproximación a su verdadera esencia. Varios autores consideran la alquimia como la precursora de la química moderna. Al respecto, Titus Burckhardt en su libro “Alchemie”, nos dice: “Este enfoque unilateral ha permitido, por lo menos, sacar a la luz un cúmulo de antiguas prácticas artesanas para la preparación de metales, colorantes y vidrio, escogidas de entre unos procesos aparentemente absurdos que, sin embargo, desempeñaban el papel más importante en la alquimia propiamente dicha”. Y concluye su interpretación sobre el trabajo de los alquimistas al afirmar: “Los verdaderos alquimistas no eran esclavos del afán de fabricar oro ni perseguían sus fines como sonámbulos ni mediante pasivas «proyecciones» de ignoradas facultades del alma, sino que seguían un método perfectamente lógico cuya alegoría metalúrgica –por el arte de convertir los metales corrientes en oro y plata–, si bien ha confundido a muchos profanos, resulta en sí del todo razonable, más aún, verdaderamente profunda”. Con gran devoción intentaron descubrir la fórmula de lo que llamaron “aurum potabile”, el elixir de la vida, una sustancia con la capacidad de servir como medicina univer-

| 22

Sobre microbios y humanos

sal y especularon con la creación artificial de seres humanos, que algunos afirmaron haber logrado, bajo el nombre de homúnculos. Podría afirmarse, entonces, que la alquimia surgió de un grupo de individuos con tremenda curiosidad por conocer la esencia de las cosas y trascender más allá del mundo físico, buscando, si se quiere, la perfección en el conocimiento superior. Sin embargo, contentarse con pensar en que el oro y la plata tenían un valor exclusivamente pecuniario para los alquimistas, sería considerar solo parte de la verdad. En muchas culturas antiguas esos metales tenían un valor sagrado. De acuerdo con ciertas interpretaciones, se trataba de una representación terrenal del sol y la luna. Incluso en algunos ámbitos mercantiles el valor monetario del oro y la plata estaban asociados a la evolución de los astros; una suerte de bolsa de valores astral que establecía que el valor de una moneda de plata no era el mismo si la transacción comercial se realizaba durante la fase de luna nueva o de luna llena. Algunos estudiosos afirman que la forma circular de las monedas tiene relación con la de los astros. Esto ha perdurado hasta nuestros días y no es raro encontrar monedas que tengan la imagen de un sol o motivos con rayos solares. Al respecto, Titus Burckhardt aclara: “No es del todo correcto decir que el oro representa al Sol y la plata a la Luna; el oro tiene la misma esencia que el Sol, y la plata la misma esencia que la Luna; tanto los dos metales preciosos como los dos astros son símbolos de dos realidades cósmicas o divinas. Por tanto, la magia del oro deriva de su esencia sagrada, de su perfección cualitativa, mientras que su valor material tiene solo una importancia secundaria”. 23 |

Mario L. Vilaró

Desde ese punto de vista, la obtención de oro y plata a partir de otros metales menos nobles tenía una estampa más espiritual que práctica, y la alquimia era una actividad con una fuerte impronta sacerdotal. Ahora nos queda un poco más clara la cosa, aunque nos arriesgamos a decir que algún que otro alquimista habrá tenido propósitos mucho más concretos que el de aspirar al grado supremo del conocimiento y la perfección; finalmente eran tan humanos como cualquiera de nosotros, y lejos estamos de pensar en ellos como individuos cuya elevación metafísica les permitiese alejarse de los bienes materiales. Mal que nos pese, a nadie le viene mal emprender el camino de la sabiduría con algunas monedas de oro en los bolsillos. El origen de la palabra alquimia nos enfrenta a varias posibles raíces. Algunas bibliotecas aluden a un origen árabe, derivada del egipcio (la posible palabra khem, cuyo significado en la lengua de los faraones era “tierra negra”, en franca alusión a las fértiles tierras producto de los aluviones del Nilo, sinónimo de vida); otras la ubican en el griego antiguo khyma: mezcla de líquidos. Sea como fuere, ambas apreciaciones ostentan una profunda impronta alegórica. No podemos hablar de alquimia sin dejar de mencionar a Hermes Trimegisto. Hermes era el dios griego –los romanos lo llamaban Mercurio- conocido como el mensajero de los dioses. Paradójicamente, Hermes también era el protector de los comerciantes y de los ladrones al mismo tiempo, lo que abre la posibilidad de pensar si ambos, comerciantes y ladrones, no vienen a ser más o menos lo mismo (!). A los griegos les gustaba robarles dioses a otras religiones. Eso hicieron con Hermes que, originariamente, era el dios Thot egipcio. A los fines de salvar un poco la

| 24

Sobre microbios y humanos

situación, y para no ser acusados de ladrones de dioses, dijeron que Hermes era descendiente de Thot, que para los egipcios regía las artes y las ciencias sagradas. Para dotarlo de algo más de identidad vernácula, le agregaron un calificativo que enaltecía sus virtudes: trimegisto (el tres veces grande). De ahí en más pasó a llamarse Hermes Trimegisto, y asunto resuelto. Para andar llevando mensajes entre los dioses y proteger en igual medida a ladrones y comerciantes, Hermes Trimegisto estaba provisto de unas sandalias aladas que agilizaban su tarea (una especie de antecesor del WhatsApp moderno), y una vara sobre la que se enroscaban dos serpientes llamada caduceo, tomado como símbolo representativo de la alquimia. Los alquimistas escogieron a Hermes Trimegisto como dios de cabecera y generaron una línea de pensamiento filosófico reunida en dos textos: el Corpus hermeticum y la llamada Tabla Esmeralda, cuya escritura fue atribuida al propio dios (se ve que el dios, entre sus múltiples ocupaciones, se hacía un tiempito para escribir libros sagrados). Ambos escritos sirvieron no solo como un punto de partida para la ideología de la alquimia sino que, gracias a las virtudes de mensajero del dios que enviaba mensajes con la mayor discreción, fueron el modo como mantuvieron sus fórmulas y descubrimientos en secreto, conformando una cofradía de sabios totalmente cerrada. Tanto fue así, y tan celosos de preservar sus conocimientos ocultos estaban, que la palabra hermético – que en sus comienzos hacía referencia a todo aquello vinculado con Hermes- culminó adquiriendo entidad propia bajo el significado de algo cerrado e impenetrable. De allí en más el camino que recorrió la alquimia fue extenso y colmado de matices e imprecisiones, de acuerdo con la orientación que cada alquimista quiso imprimirle (al 25 |

Mario L. Vilaró

decir de mis abuelos, “de todo como en botica”). Sus cultores, basándose en los principios filosóficos herméticos, comenzaron a acercarse a la religión, a tal punto que la alquimia, que en sí misma no era una religión, necesitaba ser confirmada por un mensaje de salvación y revelación. Continuar avanzando sobre la historia de la alquimia sería por demás interesante, a tal punto que nos sorprendería saber que muchos personajes famosos de la ciencia moderna fueron fieles seguidores de sus principios. Sin dejar de mencionar a otros tantos que, por estrictas cuestiones herméticas, nunca revelaron su esencia de alquimistas. Desde que el hombre comenzó a desarrollar su intelecto y sintió curiosidad por conocer los secretos del mundo que lo rodeaba, advirtió que saber cosas que la mayoría ignoraba le otorgaba cierto poder sobre el resto de sus congéneres. La historia de la religión y la ciencia está colmada de ejemplos de científicos, sacerdotes, chamanes o cualquier tipo de sabio que, sabiéndose poseedor de conocimientos, reales o mágicos, los usaba en beneficio propio. Desde los sacerdotes del culto de Amón Ra, en el antiguo Egipto, que decían conocer los ritos para que el sol saliera todas las mañanas, hasta el científico actual que mezquina la difusión de su sapiencia, con el solo objeto de sentirse superior a los demás, se percibe que no hay muchos cambios en la esencia del comportamiento. Y seamos honestos, ¿a quién no le gusta sentirse admirado por sus pares, en particular si nos halagan por nuestra erudición? De más está decir que los alquimistas no fueron la excepción de la regla, todo lo contrario, quizás fueron los que montaron toda una parafernalia para que su doctrina

| 26

Sobre microbios y humanos

permaneciese oculta y solo quedase en manos de algunos elegidos. Por algo eran herméticos. A esta altura de la lectura, más de uno se debe estar preguntando (¡una vez más!) qué nexo podremos realizar entre los alquimistas y los microbiólogos. Pues bien, amigo lector, es menester advertir que va a ser necesario un esfuerzo de imaginación para poder vincular ambas ciencias. En el fondo todos lo somos, y aunque en ocasiones nos cueste reconocerlo, los microbiólogos tenemos algo de alquimistas. Solemos combinar sustancias de las más variadas, cocinarlas a fuego lento en misteriosos cuencos con aspecto de material de laboratorio, para terminar preparando singulares pociones con el único objeto de recrear vida. Esta última frase puede sonar demasiado ampulosa, porque nuestra intención al preparar un medio de cultivo no es otra que favorecer la reproducción y el crecimiento de microbios, pero en alguna medida nos brinda la ilusión de sentirnos los suficientemente poderosos para dejarnos arrastrar, aunque más no sea por un instante, por la sensación de pretendernos supremos creadores de vida microscópica. Es harto conocido que los requerimientos nutricionales de los microorganismos son extremadamente complejos. A tal punto lo son que basta revisar cualquier catálogo con medios de cultivo usados en microbiología, para sorprendernos por las complicadas formulaciones de cada uno de ellos, en especial cuando nos referimos a los medios de composición no definida. Es habitual encontrarnos con componentes de la más diversa, extraña y asombrosa naturaleza. Hablamos con liviandad de infusiones de cerebro y corazón, extracto de levaduras, lisados de proteínas y demás mezclas nutritivas, aunque en general desconocemos su origen y la 27 |

Mario L. Vilaró

forma como se llegó a emplearlos casi de manera rutinaria. Los primeros medios de cultivo usados fueron sustancias naturales y en muchos casos fluidos biológicos como orina o sangre. El uso de infusiones de productos de origen animal y vegetal, conocidas como caldos, fue el comienzo de los primeros ensayos, más elaborados, para lograr la reproducción microbiana. Es más, la palabra que se empleó en sus comienzos para nombrar los microorganismos fue “infusorios”, en franca alusión a su capacidad para crecer en diferentes infusiones (la idea original surgió de Pasteur, que hizo hervir diferentes sustancias para demostrar experimentalmente la falta de sustento de la teoría de la generación espontánea). En 1857, Pasteur prepara un medio de cultivo por calentamiento de agua de levadura para obtener un cultivo puro de fermento láctico. A continuación, prueba orina, maceración de músculos bovinos y de pollo, para cultivar gérmenes patógenos. A partir de allí, bajo el viejo pero siempre útil esquema del ensayo-error, se fueron descubriendo las propiedades nutritivas de diferentes compuestos, lo que permitió ampliar el espectro de medios de cultivo empleados en microbiología. En el Congreso Médico Internacional de Londres, en 1881, Robert Koch presenta la fórmula de un caldo basado en suero bovino y extracto de carne. Sin embargo, quedaban aún sin solucionar los problemas que presentaban los cultivos en medios líquidos. Buscando soportes sólidos, probó pasta de almidón, huevo coagulado y rodajas de papa cortada de manera aséptica. Posteriormente ensayó gelatina para solidificar sus caldos, tomando la idea de los alemanes Brefeld y Schroeter, que fueron los prim-

| 28

Sobre microbios y humanos

eros en observar, en 1872, la presencia de colonias de hongos sobre gelatina y fetas de papa, aunque fue Koch quien propuso que las colonias eran originadas por un individuo aislado. Dos grandes ideas revolucionaron la microbiología, y ambas surgieron del laboratorio de Koch: el agar y la placa de Petri. Koch publica su trabajo Methods for the study of pathogenic organisms,����������������������������������������� en donde resalta las ventajas de la nueva metodología. A partir de esos simples inventos, se facilitaron enormemente las cosas y se avanzó rápidamente sobre el estudio de los requerimientos nutricionales de los microorganismos. En 1884, Fredrick Loeffler modifica la fórmula de Koch y adiciona peptona y sal, con el objeto de incrementar la cantidad de aminoácidos de la preparación. Por estos tiempos, la peptona, sustancia producida por la digestión enzimática de la carne, era prescripta como medicamento para tratar los desórdenes nutricionales. “Si es bueno para los humanos, también debe serlo para los microbios”, pensó Loeffler. Y razón no le faltaba. En 1888, Martinus Beijerinck intentaba recuperar en cultivo las bacterias del género Rhizobium, a partir de nódulos de las raíces de vegetales. De acuerdo con su teoría, este tipo de microorganismo tenía la capacidad de fijar el nitrógeno atmosférico, y se le ocurrió diseñar un medio selectivo sin fuentes de nitrógeno, de tal modo que solo pudiesen crecer aquellas bacterias que dispusiesen de esa vía metabólica. Fue el nacimiento del primer medio de cultivo selectivo que evitaba que desarrollaran las bacterias no deseadas. Poco después, y bajo el mismo principio, diseñó un medio sin fuentes de carbono, para seleccionar las bacterias que tuviesen la capacidad de obtener ese nutriente a partir del aire. El uso de agentes químicos incorporados a las fórmulas de los medios comienza en 1905, cuando MacConkey 29 |

Mario L. Vilaró

descubre que las sales biliares inhiben el crecimiento de las bacterias Gram positivas. En 1912, Churchman demostró que los colorantes violeta de genciana y verde brillante tenían efecto inhibitorio sobre la flora Gram positiva y que el cristal violeta hacía lo propio con los hongos. En un artículo publicado en Journal of Bacteriology, en 1916, se expone un reporte preliminar de lo que fueron los primeros medios de cultivo sintéticos. En el mismo se hace una detallada síntesis de los componentes básicos para confeccionar diferentes medios de cultivo con formulaciones en las que se expresan al detalle, tanto en cantidad como en calidad, cada uno de los constituyentes. En 1919, James Brown descubre las propiedades hemolíticas al usar por primera vez el agar sangre. En 1923, Muller usa un medio con tetrationato que permite desarrollar solamente los microorganismos que posean la enzima tetrationasa (Salmonella y Proteus). Se continúan probando diferentes tipos de recetas y combinaciones de sustancias. En 1930, Levine y Schoenlein recopilan las 2543 fórmulas de diferentes medios de cultivo publicadas hasta el momento. Aunque algunas no perduraron en el tiempo, se estima que en la actualidad existen unos 1000 medios de cultivos distintos, que son usados regularmente en los laboratorios de microbiología en todas sus áreas. Obviamente, los que estamos en el tema, sabemos que no existe un medio de cultivo universal que pueda satisfacer las necesidades nutritivas de todos los microorganismos al mismo tiempo, y que es necesario recurrir a ciertos artilugios de laboratorio para lograr lo que queremos. Las clasificaciones de los medios basadas, por ejemplo, en su forma de uso, determinan grandes grupos (selectivos, nutritivos, enriquecidos, etc.), dentro de los cuales se

| 30

Sobre microbios y humanos

reúne una enorme variedad de combinaciones de sustancias empleadas como factores de crecimiento. Desde los que tienen una composición definida, en la que se conoce con precisión la cantidad de cada uno de sus constituyentes, hasta aquellos en los que se usan infusiones o extractos de compuestos naturales; la gama es enorme y lo llamativo es que se suele recurrir a algunos ingredientes que son tan singulares como desconocidos, a tal punto que en más de una oportunidad nos invade la curiosidad de saber cómo se les ocurrió probarlo o de dónde surgió la idea. El listado es grande y nos aventuramos a afirmar que casi no existe compuesto de la naturaleza que alguna vez no se haya probado en microbiología. Aceite de oliva, concentrado de naranja, harina de maíz, carbón, sangre de caballo, cordero y gallina, huevo embrionado de pollo, infusión de papa, son solo algunas de las sustancias que mencionamos a modo ilustrativo, que representan el ingenio puesto en juego por los microbiólogos para elaborar toda suerte de pociones y menjunjes que permitan reproducir microorganismos. Finalmente, solo se trata de servirles a los bichos el plato de su preferencia lo más apetecible posible. Una interesante derivación es la que formuló la hipótesis de usar células como medio de cultivo. En 1885, Wilhelm Roux logró que células de un embrión de pollo permaneciesen viables durante varios días en una solución salina. De allí nació la idea de que algunas células pueden sobrevivir fuera del organismo que les dio origen, a condición de que se les provea el entorno adecuado. En otras palabras: si se pueden cultivar microbios, ¿por qué no podrían cultivarse células eucarióticas? El zoólogo R. G. Harrison es considerado el padre de los cultivos de células animales. En 1907 realizó cultivos de 31 |

Mario L. Vilaró

médula espinal embrionaria de anfibios, y pudo observar el crecimiento de los axones a partir de neuroblastos. Este es un hecho muy significativo, ya que representa el primer registro del uso de técnicas in vitro para observar fenómenos in vivo. La metodología empleada es simple e ingeniosa: se trataba de una gota de linfa de anfibio (usada como medio de cultivo) que colgaba de un portaobjetos y se almacenaba en una cámara estéril sellada. En 1910, Burrows usó plasma para cultivar tejidos embrionarios de pollo. Posteriormente comenzaron los ensayos para ver si se podían conservar en cultivo, y por tiempo prolongado, en células y tejidos. En 1913, Carrel lo logró, con tanto éxito, que mantuvo viables las células embrionarias por treinta y cuatro años. En sus inicios se usaron fragmentos de tejidos, preferentemente embrionarios, pero luego se comenzó a cultivar líneas celulares disociadas. Ello permitió separar células de distintos orígenes y mantenerlas aisladas en caldo de cultivo, con el consecuente beneficio de poder cultivar y preservar tipos celulares con diversas características. Hasta la década del 60 se pensaba que las células tenían una capacidad ilimitada de dividirse. Sin embargo, la experiencia demostró que luego de ser replicadas muchas veces comenzaban a perder algunas características y se deterioraban. Esto fue atribuido al envejecimiento celular y su elucidación representó un insospechado avance para el conocimiento de la fisiología celular. El envejecimiento se debía al acortamiento de los telómeros de los cromosomas, en cada ciclo de replicación de ADN, lo que conducía finalmente a errores de transcripción en la estructura genética. Al observar células tumorales, se constató que el fenómeno de acortamiento no se producía, ya que tenían la capacidad de reparar de manera autónoma sus telómeros. La consecuencia de ese hallazgo terminó por explicar, en alguna me-

| 32

Sobre microbios y humanos

dida, la agresividad de algunos tejidos cancerosos: sus células viven en eterna juventud y nunca envejecen. A partir de los cultivos de líneas celulares se abrió la puerta a un nuevo escenario en microbiología: su uso para reproducir microorganismos. Y el resultado vino de la mano de la virología. En 1949, se demostró que los poliovirus podían ser cultivados en células, y se avanzó hacia la elaboración de una vacuna contra la poliomielitis. Weller y Robins fueron galardonados con el premio Nobel de Medicina por sus trabajos de crecimiento de virus en cultivos celulares. De allí en más, el desarrollo de la técnica no dejó de avanzar, lo que posibilitó la recuperación de bacterias cuyo cultivo había fracasado con los medios conocidos. Además de todos los enumerados, existen dos medios de cultivo que, por sus características, nos llaman poderosamente la atención. El primero presenta ciertas particularidades que hacen que, aunque no se trate de un medio de cultivo en un sentido estricto, de solo pensarlo, se sienta correr el frío por la espalda. En 1912, un hombre de 25 años de edad atacado de sífilis secundaria, comienza a manifestar alteraciones cerebrales. En una punción de líquido cefalorraquídeo se observa la presencia de Treponema pallidum. Con el objeto de mantener la viabilidad de la cepa, y habiendo fracasado en los intentos anteriores para cultivar los treponemas in vitro, Nichols inocula una alícuota de la muestra original en de los testículos de varios conejos. Días después, al animal se le 33 |

Mario L. Vilaró

produce una orquitis rica en treponemas que mantienen su virulencia y características antigénicas intactas. El uso de animales vivos como medios de cultivo ya había sido probado por Pasteur años antes. Sin embargo, se trataba de una forma poco práctica de reproducir microorganismos (basta con imaginarse un laboratorio que en lugar de placas de Petri, tuviese gallinas y conejos, para tomar dimensión de lo peliagudo que sería hacer microbiología), sumamente compleja, y en algunos casos con resultados inciertos. Estos métodos que, en una primera instancia, pueden parecer crueles o inhumanos, han sido permanentemente cuestionados por distintas corrientes de pensamiento, que proponen la erradicación del uso de animales en la experimentación. Profundizar sobre el tema nos llevaría a adentrarnos en un sendero en el que existen tantas posturas como personas, y todas son atendibles. Sea como fuere, nadie preguntó a los conejos si estaban dispuestos a facilitar sus testículos con fines científicos, aunque nos aventuramos a afirmar que no se deben de haber sentido muy a gusto. El segundo medio tiene la peculiaridad de incorporar, como factor de crecimiento, un elemento por demás extraño: el alpiste negro (Guizotia abissinica). El alpiste negro o “Níger”, es un aplanta herbácea de crecimiento anual que puede llegar a tener hasta dos metros de altura. Contrariamente a lo que se pueda creer, constituye la principal fuente de aceite comestible de Etiopía y varios países de África y Asia. La semilla es consumida de diferentes formas y los restos que quedan, luego de la extracción del aceite, constituyen un excelente forraje para el ganado. Sus características nutricionales se basan en su elevado porcentaje de proteínas e hidratos de carbono, además de una impor-

| 34

Sobre microbios y humanos

tante presencia de ácido linoleico, palmítico, esteárico y otros tipos de ácidos. También es utilizada industrialmente para la fabricación de pinturas y, en los últimos años, en la elaboración de biodiesel. Dichas características nutricionales fueron aprovechadas para elaborar un medio de cultivo que facilita el desarrollo de Cryptococcus neoformans. El hongo transforma el ácido cafeínico que contiene la semilla en un compuesto polimérico similar a la melanina, ello hace que las colonias del hongo sobre el agar presenten un color marrón, lo que permite diferenciarlas de otros géneros de hongos. Una modificación del mismo medio consiste en el agregado de antibióticos para hacerlo más selectivo. Lo llamativo de esta fórmula es que se haya pensado en el empleo de una sustancia como el alpiste que, podríamos afirmar, escapa a los compuestos tradicionalmente usados en microbiología. Ello nos demuestra que el ingenio de los investigadores, cuando de diseñar medios de cultivo se trata, no tiene límites. Para ir concluyendo con este pequeño racconto sobre las experiencias de los microbiólogos en su rol de alquimistas, no puede dejar de llamarnos la atención la enorme cantidad de combinaciones que existen en la elaboración de un medio de cultivo y que no hacen otra cosa que reflejar la extraordinaria complejidad y variedad metabólica de los microorganismos. Todo ello no es casual. Los hombres de ciencia ensayan diferentes mixturas con el objeto de recrear vida, y ya sean los testículos de un conejo o semillas de alpiste o el compuesto natural más extraño, el fin sigue siendo el mismo y, en alguna medida, no hay mucha distancia con los primeros alquimistas que buscaban la poción ideal de la vida eterna, claro que con microbios. Finalmente, tampoco resulta tan grave robar un poco de alpiste a los canarios, aunque no se pueda decir necesariamente lo mismo con los conejos.

35 |

Mario L. Vilaró

Bibliografía consultada Luis E. Iñigo Fernández. Breve historia de la Alquimia. Ediciones Nowtilus. Madrid 2010. Titus Burckhardt. Alchemy: Science of the Cosmos, Science of the Soul. Doryland C. J. T. PRELIMINARY REPORT ON SYNTHETIC MEDIA. J. Bacteriol. 1916, 1(2):135.

| 36

III Cocos escondidos, bacterias envueltas, inquilinos indeseables y otros nombres raros (Sobre los curiosos resortes que se ponen en marcha cuando hay que colocarle nombre a un microbio) Ya nos hemos referido, en textos anteriores, a los curiosos resortes intelectuales que se ponen en marcha en la mente de los microbiólogos al momento de denominar un nuevo germen. La diversidad de calificativos es enorme, y las motivaciones que guían a sus mentores más aún. Honrar a personajes ilustres de la ciencia, citar lugares geográficos, referirse a dioses y otros seres mitológicos, o describir características metabólicas y morfológicas de los microorganismos, son los recursos más comunes, aunque parece estar permitido todo, dependiendo, casi de manera exclusiva, de la creatividad del científico en cuestión. Tal es el caso de W. Kloos que en 1998 describió una nueva especie de estafilococo y la bautizó con el nombre de su caballo (Staphylococcus equipercicus -del Lat. equi, caballo, y percicus, una latinización de Percy “el caballo Percy”). Otro ejemplo es el del género Elizabethkingia. En 1960, la bacterióloga americana Elizabeth King, aisló una bacteria y sin siquiera un atisbo

37 |

Mario L. Vilaró

de falsa modestia, la bautizó con su apellido: Kingella kingae (algo así como la Kingella de King). Posteriormente el microorganismo sufrió una reubicación taxonómica y cambió de género a Elizabethkingia (ahora le agregó el nombre de pila, para que no queden dudas). Como experiencia personal de quien escribe, podemos citar el caso de Pseudomonas monteilii. La nueva especie fue descripta, hace pocos años, en el Instituto de Microbiología de la Universidad Louis Pasteur de Estrasburgo. Por ese entonces el director era el Profesor Henri Monteil, con quien tuve la oportunidad de conversar. Me aseguró que la idea de ponerle su apellido a la nueva especie fue de su grupo de trabajo, y que “sus muchachos” tuvieron que insistir bastante para que accediese a semejante honor. Conociéndolo personalmente, y habiendo trabajado bajo su dirección, no me queda la menor duda de que la elección del nombre ocurrió exactamente de manera inversa, ya que en el Profesor se destacaban dos virtudes: su poca o nula modestia, y su fuerte poder de convicción sobre el grupo de gente a su cargo. Todos sabemos más o menos lo que es un nombre y todos tenemos uno (aunque a veces no sea de nuestro agrado). Los académicos dicen que un nombre es una palabra que designa cualquier realidad, concreta o abstracta, y que sirve para referirse a ella, reconocerla y distinguirla de otra. También se lo define como la palabra que designa o identifica seres animados o inanimados. La principal característica del nombre científico, además de cumplir con las normas estipuladas para cada grupo biológico, es que debe ser inequívoco (que no admite duda o equivocación). Es decir que, cuando se identifica a cualquier ser vivo, la denominación científica es única e irrepetible. Es por eso que encontrar una denominación para un nuevo organismo no es poca cosa.

| 38

Sobre microbios y humanos

En El ingenioso Hidalgo Don Quijote de la Mancha, obra cumbre de la literatura castellana, el protagonista, al intentar construir su propia historia, imagina un nombre ideal para su corcel. Desde su punto de vista, la cabalgadura de un caballero de fuste debía tener un nombre acorde con la talla del jinete. Basta con revisar la historia para ver que los grandes personajes, reales o de leyenda, realizaron sus proezas montados en un caballo que también pasó a la fama (quizás los más famosos sean Babieca, del Cid Campeador, y Bucéfalo, de Alejandro Magno; aunque la lista es mucho más larga). En Don Quijote leemos: “…y así después de muchos nombres que formó, borró y quitó, añadió, deshizo y tornó a hacer en su memoria e imaginación, al fin le vino a llamar Rocinante, nombre a su parecer alto, sonoro y significativo de lo que había sido cuando fue rocín, antes de lo que ahora era, que era antes y primero de todos los rocines del mundo.” Podemos pensar en un microbiólogo, formando, borrando, quitando, añadiendo y deshaciendo, con el objeto de hallar el nombre para el nuevo microorganismo que acaba de caracterizar, y que a su vez sea alto, sonoro y significativo. Claro que lejos está cualquier científico de incurrir en los delirios de Don Quijote, ya que no se trata de caballos, sino de microorganismos. Al fin y al cabo, no es cuestión de obrar a la ligera. Si las cosas marchan bien, el nuevo microbio quedará inmortalizado para toda la historia de la microbiología. Es como bautizar un hijo, aunque tiene la ventaja de que es muy poco probable que, cuando el microbio crezca, nos venga a reclamar que no le gusta el nombre que le elegimos. Muchas denominaciones científicas están conformadas por la combinación de dos o tres palabras, étimos comu39 |

Mario L. Vilaró

nes, prefijos y sufijos que constituyen un vocablo con entidad propia. Es así que nacen nuevos términos que cumplen con la condición, antes mencionada, de ser inequívocos. El listado de prefijos, étimos y sufijos con raíces griegas y latinas usados en microbiología es extenso. Solo a modo de ejemplo mencionaremos algunos. - a (sin, ausencia), Acinetobacter (a- kinetos- bacter): bacteria sin movimiento. - actino (con forma de estrella, rayo), Actinomices (el hongo con rayos o estrellado). - brevi (corto), Brevibacterium (la bacteria corta). - chryseo (dorado), Chryseobacterium (la bacteria dorada). - haemo (sangre), Staphylococcus haemolyticus (el esafilococo que lisa la sangre). Haemophilus (que ama la sangre). - pauci (poco), Sphingomonas paucimobilis (la unidad –mona- apretada que se mueve poco). - stenos (estrecho), Stenotrophomonas, trophos (alimentarse), monas (unidad). - xanto (amarillo), Xantomonas (la unidad –monaamarilla). - entero (intestino). Enterobacter aerogenes (la bacteria del intestino que produce aire). El listado es extenso y muy rico en vocablos aplicados para caracterizar los microorganismos. Así como hemos visto que algunos taxónomos buscan el camino más simple para idear una denominación, otros hacen gala de una creatividad que linda con lo poético. El uso del aspecto que presenta ante el microscopio un determinado microorganismo, ha sido lo más empleado

| 40

Sobre microbios y humanos

desde el comienzo de la microbiología. Cuando los primeros observadores microscópicos tuvieron que ponerle nombre a lo que veían, fue necesario recurrir a una descripción lo más ilustrativa posible para que no se prestase a confusiones. Es bien sabido, también, que en los inicios de la microscopía, la resolución de los instrumentos era rudimentaria, lo que llevó a que la caracterización estuviese sesgada por interpretaciones subjetivas y, por qué no decirlo, enriquecidas con algunas pinceladas de imaginación. Sin embargo, nos solemos encontrar con apelaciones que son por demás atinadas y sorprendentemente ajustadas a la realidad. Cuando sabemos que, por ejemplo, Staphylococcus significa ”granos arracimados”, caemos en la cuenta de que no se podía haber elegido un mejor vocablo para describir lo que se veía. Es por ello que el conocimiento de la etimología de los nombres de los microorganismos suele ser bastante esclarecedora. En castellano se suele emplear el prefijo “cripto” para significar que algo está oculto, encerrado o escondido. Una cripta es el lugar en donde se entierra a los muertos, aunque también puede significar un piso subterráneo destinado al culto en una iglesia o una oquedad en el parénquima celular de un tejido. En griego antiguo kryptein significaba ocultar. En nuestra lengua existen muchas palabras con ese prefijo (críptico, criptografía, criptograma, Kriptón, criptestesia, encriptar, etc.) que necesariamente aluden a alguna propiedad oculta del término en cuestión. El uso de ese prefijo en biología es ampliamente difundido, y no podemos dejar de pensar que si hay una ciencia que posee cosas, en mayor o menor medida, ocultas, esa es la microbiología. Cryptococcus, género de hongos de relevancia 41 |

Mario L. Vilaró

médica, significa etimológicamente “grano encerrado”, y la denominación hace franca alusión a la cápsula de polisacáridos que rodea a la levadura (también podría haberse usado la expresión “grano envuelto”, pero resulta a todas luces menos impactante). El que lo haya observado alguna vez al microscopio podrá concluir que la definición es por demás atinada y representativa. Si hablamos de bacterias envueltas, no podemos dejar de mencionar el género Chlamydia. Considerando las diferentes patologías que causan las bacterias de este grupo, y su particular forma de reproducción, su descubrimiento no fue fácil. En particular cuando se trata de infecciones oculares, genitales y del tracto respiratorio, encontrar un vínculo común entre ellas no resultó fácil. Durante mucho tiempo los procesos infecciosos causados por Chlamydia permanecieron desconocidos. En el caso de las infecciones genitales sus manifestaciones clínicas se confundían con la gonorrea. Fue el checo Stanislaus von Prowazek quien, en 1907, descubrió estructuras intracelulares en células de pacientes infectados. El origen de la denominación se remonta a la palabra griega Khlamydos, que definía a la capa o manto corto que usaban los militares griegos. El Khlamydos cumplía la función de abrigo y de protección de la piel de los hoplitas griegos, ya que en un principio se usaba debajo del jubón que hacía de armadura. Una de las curiosas derivaciones es que la capa, en principio de rústica tela de lino o lana, se comenzó a emplear como medio de reconocimiento entre soldados del mismo bando. Por esa época no existían los uniformes tal como los conocemos hoy. En la batallas cuerpo a cuerpo, se generaban confusiones y, en más de una oportunidad, accidentes entre camaradas. La capa identificada con un color

| 42

Sobre microbios y humanos

determinado, fue el precursor del uniforme militar. Tanto fue así que, de acuerdo con el historiador Jenofonte, el legislador Licurgo, en el siglo VII a. C., ordenó a los espartanos adoptar túnicas de color escarlata que según él eran: “Colores menos afeminados y más propios de un guerrero” (¡Una suerte de Village people1 espartanos!). El manto pasó a ser entonces uno de los bienes más preciados por los soldados ya que, según Plutarco, era la única prenda que acompañaba al guerrero a su entierro. Esta historia sirvió de inspiración para que se interpretaran las formaciones intracelulares observadas al microscopio como bacterias envueltas por una túnica, y en 1945 se propusiese la creación del género Chlamydia. Todo un detalle de sutileza interpretativa. Otro caso interesante ocurrió en 2002, cuando Tom Coenye caracterizó una bacteria, poco frecuente, aislada de las secreciones de pacientes afectados de fibrosis quística. En ese momento propuso la denominación de Inquilinus limosus. Mientras estudiaba la microbiota de las secreciones respiratorias de este tipo de enfermos, Coenye descubrió la presencia de un nuevo microorganismo que hasta el momento había pasado inadvertido o había sido mal identificado. Los estudios moleculares realizados sobre las cepas revelaron que se trataba de una especie desconocida. No tenemos referencias concretas, pero sospechamos que Coenye se debe de haber preguntado ¿qué hace esta bacteria aquí? Una elegante forma de responder fue bautizando el hallaz1  Village people fue un conjunto de música disco de finales de los años 70 que

se caracterizaba por sus curiosos disfraces, su música bailable y pegadiza, y por representar la primera formación musical homosexual que expresó abiertamente su elección sexual.

43 |

Mario L. Vilaró

go con un nuevo género al que llamó Inquilinus (del latín: un habitante de un lugar que no es el suyo, un peregrino), ya que no pudo demostrar si se trataba de una colonización ocasional o permanente. Para completar, llamó a la especie limosus (del latín: barroso, lleno de limo, baboso), haciendo referencia a las particularidades de las colonias al desarrollar en medio sólido. En el derecho romano existían dos tipos de arrendamiento: el de granjas y el de fincas urbanas. La relación entre el locador (locator) y el arrendatario (conductor) era diferente de acuerdo con el bien en cuestión. Si, por ejemplo, la propiedad se encontraba fuera de la ciudad (fincas rústicas), el locator era colonus, en cambio si se trataba de una casa urbana, el locator era inquilinus. Los contratos se llamaban Locatio conductor rei, y prácticamente se podía alquilar cualquier cosa, incluyendo servicios y bienes consumibles. De acuerdo con las normas, el locator se obliga a poner a disposición del conductor un bien para que lo use y la disfrute, prometiendo este último pagar a cambio una suma llamada merces. Una interpretación diferente de inquilinus, en la antigua Roma, era la de llamar así a los hombres que no eran nativos de un lugar o a los recién llegados. La frase “inquilinus civis urbis Romae” (un hombre nuevo en Roma) es citada en muchos textos clásicos para referirse a una persona pública, no nativa de Roma. Sin embargo, al no ser ciudadano, el recién llegado, por importante que fuera, carecía de los derechos de los romanos nobles y la frase anterior se complementaba con la siguiente: velut inquilinus est, cui honores non communicantur (como es inquilino, no comparte honores). En el caso de Inquilinus limosus suena mucho más apropiada, ya que es un microorganismo recién llegado al conocimiento científico, aunque dudamos sobre si el resto de los microbios, con quienes comparte su hábitat, le conceden honores.

| 44

Sobre microbios y humanos

Otro recurso utilizado para denominar un microorganismo nuevo es describir la enfermedad que produce. El término gonorrea proviene del latín gonorrhaea, originario a su vez del griego gonorróiha, compuesto por la raíz gonos: esperma, y el verbo rheo: fluir. El mismo verbo se emplea para numerosas palabras de uso médico (amenorrea, dismenorrea, esteatorrea, etcétera). Es esperable que los primeros enfermos interpretasen la abundante secreción purulenta, que caracteriza a la enfermedad, como una emisión espontánea e imprevista de esperma. Fue el médico alemán Albert Neisser quien, en 1879, descubrió al agente causante de la infección que, posteriormente, se denominó Neisseria gonorrhoeae en su honor. No existen registros sobre si Neisser fue consultado a la hora de bautizar la bacteria. Menos aún si estuvo de acuerdo con que fuese así. Queda en la intimidad del lector su opinión acerca de que su apellido resulte marcado, para toda la historia de la ciencia, con una enfermedad tan desagradable como la gonorrea. En fin, gustos son gustos, y vanidades son vanidades. Al fin y al cabo, cada uno tiene derecho a elegir la mejor manera de trascender que le convenga. La teoría de los cuatro humores predominó en la medicina europea durante varios siglos. La historia se remonta a unos 400 años a. C., cuando Hipócrates, siguiendo las enseñanzas de los filósofos Anaxímenes y Anaximandro (que propusieron que la fuerza creativa estaba compuesta por cuatro elementos: tierra, aire, fuego y agua), sugirió que la salud de una persona estaba determinada por el equilibrio de los cuatro humores que componía su cuerpo: la sangre, la bilis negra, la flema y la bilis amarilla (que supuestamente se originaban en el corazón, bazo, cerebro e hígado, respectivamente). El predominio de alguno de esos humores, tenía 45 |

Mario L. Vilaró

fuerte influencia en el temperamento de las personas, y determinaba que tuviese un carácter: sanguíneo, melancólico, flemático o colérico (es notable cómo estos términos llegan hasta nuestros días, con una fuerte consistencia para simbolizar la forma de ser de las personas). De acuerdo con antiguos escritos, sabemos que “aquellos individuos con mucha Sangre eran sociables; aquellos otros con mucha Flema eran calmados; aquellos con mucha Bilis eran violentos y aquellos con mucha Bilis Negra eran melancólicos”. Cuando algún humor se producía en exceso, en detrimento de los otros, provocaba distintos tipos de enfermedades. En el libro Aforismos y Sentencias de Hipócrates, podemos encontrar párrafos que ilustran esta línea de pensamiento: 167. El sudor que sobreviene en fiebre que no remite, es de mal agüero. Anuncia que la enfermedad será larga y que existe exceso de humores en el enfermo. 322. En las enfermedades melancólicas o atrabiliarias son peligrosas las acumulaciones de humores y metástasis, porque acarrean frecuentemente la apoplejía, las convulsiones, y la ceguera. 494. El vómito es muy bueno cuando se arrojan con él la pituita y la cólera muy mezcladas, y al mismo tiempo si son estos humores muy gruesos ni en grande copia; pero si se echan puros, de modo que no haya mezcla de unos y otros, entonces son peores. La enfermedad, de acuerdo con Hipócrates, era consecuencia de un “humor malo”, lo que también se trasladaba a la forma como se sentía el paciente, que estaba de

| 46

Sobre microbios y humanos

“mal humor” (Hipócrates tenía razón, ¿quién está de buen humor cuando está enfermo?). Para los griegos, la mayoría de los desarreglos gastrointestinales eran causados por un exceso de bilis (en griego: khole), de allí que comenzó a emplearse el término cólera, asociado a la diarrea. Los romanos tomaron el uso griego y llamaron a los problemas intestinales “cholera morbus”. Fue en 1833 cuando Robert Koch, estudiando epidemias en Egipto y la India, descubrió el agente causal del cólera y lo bautizó Vibrio cholerae. En 1251, cólera aparece con el significado de bilis, y en 1572 comienza a usarse con el sentido de ira. En el Diccionario castellano, de Esteban de Terreros, publicado entre 1765 y 1783, se mencionaba la enfermedad con su nombre latino, “cólera-morbo”, y solo en 1843 hay registro de la afección simplemente como cólera. Una llamativa derivación en el uso de los términos es la, no por muchos conocida, palabra castellana “atrabiliario”. La bilis negra –en griego melano kholé-, pasó al latín como atra bilis (atra: negro), que definía a la persona en la que predominaba ese tipo de humor (… o mal humor, según como se mire). Los que tenían mucha bilis negra eran melancólicos, y no podemos obviar una asociación entre la palabra melanos (en griego: negro) y el sentimiento de la melancolía. El diccionario explica que la melancolía es la tristeza vaga, profunda, sosegada y permanente, nacida de causas físicas o morales, que hace que no encuentre quien la padece gusto ni diversión en nada; y es imposible obviar que cuando una persona está melancólica, ve negro todo lo que la rodea. En su versión latina la bilis negra llega al castellano como atrabilis, y su adjetivo atrabiliario, por algún mecanismo consuetudinario, comienza a usarse como ira (o mal humor). De hecho, el diccionario dice que atrabiliario es alguien con genio destemplado y violento, es decir irascible o con un carácter de perros. Entonces, por una asociación que solo la evolución de la lengua pue47 |

Mario L. Vilaró

de explicar (en este caso sin aclarar mucho), cólera termina siendo sinónimo de ira. Los enfermos de cólera manifestaban una profusa diarrea acompañada de vómitos y este último síntoma fue interpretado como un exceso de bilis que debía ser eliminada por el organismo. En el tratado Regimen Sanitatis Salernitanum, del siglo XII, se hace el siguiente comentario sobre los síntomas de un colérico: “Su lengua se vuelve áspera, y a menudo emite frecuentes vómitos llenos de odio, padece mucha sed, los excrementos se llenan de lodo y nada es grato para su estómago”. Es probable que de este tipo de interpretación sobre los padecimientos del cólera, surja el sentido que actualmente le otorga el diccionario y el uso popular a la palabra: ira, enfado, enojo. Se puede fácilmente confundir con las frecuentes convulsiones eméticas, con manifestaciones descontroladas de odio. Una interesante derivación de este asunto de andar desparramando humores a diestra y siniestra, es la que se orientó hacia el teatro. El concepto de que el carácter y la personalidad de los hombres se basaban en el equilibrio de sus humores, sirvió de inspiración para que los autores de la antigua Grecia desarrollaran una nueva línea en el teatro: las llamadas comedias nuevas, que se basaron en la teorías hipocráticas y peripatéticas, y se conocieron con el nombre de Humoralismo o Humorismo. Y no era para menos, después de tanta tragedia griega, en la que los argumentos enseñaban moral gracias al padecimiento de sufrientes personajes, no venía nada mal darle al auditorio un poco de alegría y buenas ondas.

| 48

Sobre microbios y humanos

La descripción del hábitat de un microorganismo es ampliamente usada en la nomenclatura microbiana. Es muy común que los nombres, genéricos o específicos, hagan referencia al ambiente en donde vive el microbio en cuestión y que, en muchas oportunidades, resuman alguna característica metabólica relevante. Thomas Brock y Hudson Freeze encontraron, en 1969, una nueva especie bacteriana, aislada de los géiseres del Parque Nacional de Yellowstone en los EE.UU. Podría haberse tratado de un hallazgo científico interesante, aunque de importancia acotada, si no fuera porque su metabolismo le permitía realizar todas sus funciones biológicas a temperaturas muy elevadas, tanto que parecían incompatibles con la vida. Aunque es por demás sabido que las bacterias se pueden adaptar a todo tipo de ambientes, siempre existe la limitación que impone la actividad enzimática, mediada por proteínas. La sorpresa fue enorme el encontrarse con estos procariotas que tenían la capacidad de desarrollarse a temperaturas superiores a los 110° C. Decidieron bautizar al recién llegado con el nombre de Thermus aquaticus, en franca alusión a su predilección por las aguas termales. Thermus aquaticus saltó a la fama por sus enzimas, particularmente la Taq polimerasa, que fue la que dio sustento a la técnica de amplificación génica llamada PCR. La etimología de Thermus aquaticus es por demás obvia, y no es necesario ser un avezado latinista para comprenderla. No sucede lo mismo con otros apelativos, cuya interpretación requiere de una búsqueda algo más profunda. Tal es el caso de Pseudomonas oryzihabitans, que a primera vista no nos sugiere gran cosa. Si hay algo que caracteriza 49 |

Mario L. Vilaró

a la taxonomía bacteriana es su permanente dinámica, y los que estamos en el tema solemos vernos sorprendidos por la aparición de nuevos taxones, con nombres muy extraños, que en muchas ocasiones resultaron de la recategorización de viejos conocidos. El género Pseudomonas ha sido uno de los taxones que más variaciones ha sufrido a lo largo de la historia. Desde que fue descripto por Migula, en 1894, las especies pertenecientes a este género han ido cambiando de manera permanente. La especie en cuestión, Pseudomonas oryzihabitans, fue descripta originariamente como Chromobacterium typhiflavum y posteriormente se llamó Flavimonas oryzihabitans. A pesar de los cambios taxonómicos, el nombre de la especie es por demás curioso. El prefijo griego oryzi significa arroz. La raíz habitans, habitante. Es decir, habitante del arroz. De hecho, el nombre científico del arroz común, que habitualmente consumimos, es Oryza sativa. Kodama, en 1985, idea el nombre Flavimonas oryzihabitans (la unidad amarilla que vive en el arroz), al aislar un microorganismo con características similares a Pseudomonas, en un campo cultivado con arroz. Posteriormente se describió el microorganismo como patógeno oportunista en pacientes con compromiso inmune. Resta saber qué andaba buscando Kodama en los cultivos de arroz, aunque todos sabemos que los microbiólogos son muy curiosos. Otra singularidad es el tamaño de los términos que surgen al intentar describir algunas propiedades microbianas significativas. Sabemos que, cuando un neologismo científico resulta de la conformación de varias características asociadas, la extensión de los epítetos puede alcanzar dimensiones considerables. El género que se lleva la medalla de oro entre los procariotas es Hydrogenoanaerobacterium, con veinticuatro letras; mientras que la especie que ocupa el primer lugar, en el podio de palabras largas, es saccharoper-

| 50

Sobre microbios y humanos

butylacetonicum, con veintiséis letras. No podemos dejar de citar al procariota que posee el apelativo más largo enunciado hasta el momento: Thermoanaerobacterium thermosaccharolyticum, que tiene la friolera de cuarenta y dos letras. Todo un récord, hasta que a algún taxónomo se le ocurra romperlo. Aunque otros intentan economizar letras. Dyella soli, Vibrio xuii, y Yania flava, son los organismos que comparten el honor de poseer menor cantidad de letras (solo diez) en su denominación. El primer lugar en economía de caracteres, dentro del mundo procariota, lo tienen las especies uli y uda (Lactobacillus uli, y Cellulomonas uda), que vagan por el universo microbiano con tres humildes letras a cuestas. Estos últimos datos pueden parecer poco significativos, y de hecho lo son, para los conocimientos generales de un microbiólogo. Sin embargo, pueden ser de mucha utilidad si en alguna reunión social nos ufanamos de nuestra erudición al comentar, casi por descuido, que estuvimos leyendo un interesante artículo sobre la vida y costumbres de Methanothermococcus thermolithotrophicus, siempre y cuando logremos pronunciarlo de corrido y sin que se nos trabe la lengua, (solo basta imaginarnos la cara de nuestros interlocutores, para regocijarnos por anticipado con las reacciones que despertaría la apostilla). Sea como fuere, hemos comprobado que si hay algo que les sobra a los taxónomos es fantasía e inventiva. Ahora bien, luego de este breve recorrido sobre los distintos aspectos que jalonan la nomenclatura microbiana, sería oportuno hacer alguna reflexión al respecto.

51 |

Mario L. Vilaró

Un nombre es una denominación que se le atribuye a un individuo, un animal, un objeto o cualquier entidad, ya sea concreta o abstracta, con el propósito de reconocerlo e individualizarlo frente a otros. Es importante destacar que todas las palabras que usamos para identificar algo tienen un origen y que, en algún momento de la historia, alguien las creó para darle un uso determinado. A ojos vista de ello, no deberíamos renegar de quienes, al descubrir un nuevo ser vivo, agudizan el ingenio para identificar algo que antes no existía. Finalmente, de alguna manera hay que llamarlo. Sin embargo, independientemente del significado académico de un nombre, o de su origen etimológico, quien más, quien menos, sabe que el sentido que tiene trasciende mucho más allá del término en sí mismo. La palabra usada para reconocer algo le atribuye una entidad propia que lo caracteriza. Todas las cosas que nos rodean, personas, objetos concretos o ideas, tienen un nombre y su concepto se traslada a un plano intangible. Dicho de otro modo, si alguien pronuncia la palabra “silla”, no es necesario tener el objeto a la vista para comprender a qué se refiere. Del mismo modo, si alguien nos expresa que tiene un sueño, es poco probable que se pueda afirmar que esa persona lo pudo ver y tocar, aunque luego nos diga “tuve un sueño en mis manos y lo dejé escapar”. Al fin y al cabo, ¿quién alguna vez no tuvo un sueño, o a quién alguna vez no se le escapó un sueño de las manos? En este mecanismo abstracto, juega un rol fundamental la conceptualización de cada persona, y las ideas se confunden con las realidades en una combinación difícil de definir. Cuando escuchamos el nombre de algo, casi de manera inmediata, lo asociamos a ideas que tienen mucho de las experiencias personales vividas relacionadas con él. ¿Será por eso que a los microbiólogos nos molesta tanto cuando un taxónomo cambia la denominación de un taxón existente? Es por demás sabido que los taxones varían de manera constante, y

| 52

Sobre microbios y humanos

eso nos obliga a modificar de igual modo los vínculos que los asocian con determinados fenómenos biológicos que nos interesan y forman parte de nuestro trabajo. Para rematar con este comentario, nada mejor que evitar tanto palabrerío e ir a lo concreto. Y lo concreto siempre usa pocas palabras. Y para poder expresar muchas cosas con pocas palabras, nada mejor que la poesía. Quizás los versos que siguen puedan, de manera sutil e imperceptible, precisar todo lo dicho más arriba: Que no te asombre... si al mirar la belleza de una rosa o al mirar al cielo ¡o cualquier cosa! de pronto... digo tu nombre. Que no te asombre... si en una noche de luna llena o al imaginar tu mirada serena de pronto... digo tu nombre. Que no te asombre... que en cada estrella que cuento o al escuchar reír al viento de pronto... digo tu nombre. Y si eso te parece poco ¡te digo que no te asombre! que la gente me llame... loco porque solo pienso en tu nombre.

53 |

Mario L. Vilaró

Bibliografía consultada Tom Coenye, Johan Goris, Theodore Spilker, Peter Vandamme and John J. LiPuma. Characterization of Unusual Bacteria Isolated from Respiratory Secretions of Cystic Fibrosis Patients and Description of Inquilinus limosus gen. nov., sp. nov. J. Clin. Microbiol. 2002, 40(6):2062. Basilio A. Kotsias. Maravillas del infierno. Editorial, MEDICINA (Buenos Aires) 2005; 65: 461-464. Ricardo Soca. La fascinante historia de las palabras. Editorial Interzona, 2012. Jean P. Euzeby. List of procaryotic names with standing in the nomenclature. http://www.euzeby.fr/

| 54

IV El Art Attack microscópico2 (Sobre los microbios usados en el arte) ¡Lo único que nos faltaba, pretender mezclar los microbios con el arte! Y sí, a un primer vistazo parece que si hay algo que no tiene nada que ver con los microbios son las expresiones artísticas del ser humano. Casi que intentar relacionar ambas cosas suena un poco absurdo, pero como sabemos que los microbios se meten en todos lados, no sería raro encontrarlos también entreverados con los artistas. Si de expresiones artísticas hablamos, no es necesario ser un entendido para emocionarse al observar las pinturas rupestres de las cuevas de Altamira en España. Las coloridas imágenes de animales, que fueron pintadas hace más de 14.000 años, tienen la belleza que solo la simplicidad puede dar. Son de un impacto admirable, aún más, si pensamos que quien las realizó quizás no había desarrollado todavía 2  Art Attack fue un programa de televisión británico que luego se difundió por el resto del mundo, traducido a diferentes idiomas, por el canal de Disney. El conductor enseñaba diferentes tipos de manualidades para niños y jóvenes, de una manera muy fácil y divertida. El latiguillo más usado por el conductor era que los protagonistas sufrían un “atacazo de arte” y se ponían frenéticamente a pintar o a realizar diferentes obras de arte.

55 |

Mario L. Vilaró

la capacidad de la expresión oral estructurada. Las cuevas han sido declaradas patrimonio de la humanidad y como tal deben de hacerse esfuerzos para preservarlas del paso del tiempo. Desde hace unos años, han aparecido sobre la roca unas manchas grises que, paulatinamente, han ido invadiendo el techo de la llamada Sala de los Policromos. Estudios microscópicos demostraron que las manchas están formadas por una densa capa de bacterias cubiertas de cristales, principalmente de carbonato de calcio. Las bacterias en cuestión pertenecen al grupo de los Acinetobacter y se especula que su crecimiento se debe a la alta concentración de humedad provocada por la condensación de la respiración de las personas que visitan el lugar y al aumento de la temperatura. En todas las zonas accesibles de las cuevas han comenzado a aparecer las manchas y se ha propuesto la reducción de la circulación humana y de la iluminación artificial. Algo similar ocurrió con las pinturas rupestres de las cuevas de Lascaux en Francia, que fueron cerradas al público. El hecho de que los pigmentos usados por los artistas de las cavernas estuvieran compuestos por una mezcla de sustancias orgánicas e inorgánicas favoreció que los microbios se desarrollaran en capas concéntricas. Estudios más completos demostraron la presencia de muchos tipos microbianos asociados, que mantienen complejas interrelaciones metabólicas con el sustrato mineral de las cuevas. Aparentemente, estas asociaciones microbianas (formadas por bacterias, algas microscópicas y hongos) habían permanecido en un moderado equilibrio durante miles de años, y con el descubrimiento de los yacimientos fósiles, y su apertura a la visita del público, se alteró el ambiente, lo cual provocó cambios que favorecieron el sobrecrecimiento microbiano.

| 56

Sobre microbios y humanos

A consecuencia de ello, se introduce en el léxico microbiano el término “biodeterioro”. En 1965, H. J. Hueck definió el biodeterioro como: “Ciertos cambios indeseables en las propiedades de un material causados por la actividad vital de algunos organismos’’. Es oportuno contraponer el concepto de biodeterioro con el de biodegradación. La biodegradación supone consecuencias positivas para un ecosistema. De hecho, la participación de microorganismos en los procesos de biodegradación, es fundamental e indispensable para el ambiente y el sostenimiento de los ciclos biológicos. En cambio, el biodeterioro implica, como su nombre lo dice, una acción negativa, ya que la actividad microbiana genera la alteración o destrucción gradual de objetos que se desea preservar. El ambiente umbrío y húmedo de catedrales góticas y sepulcros ha sido ventajoso para que los microbios vivan felices y contentos. Tanto es así, que incluso se han llegado a descubrir especies microbianas desconocidas que crecen sobre las obras de arte. Es el caso de Paenibacillus sepulcri, bacteria descubierta en los murales de la tumba de Servilia, en la necrópolis romana de Carmona (Sevilla), o de Halomonas muralis, otra bacteria encontrada, que coloniza los muros de algunas capillas medievales. Las bacterias desnitrificantes tienen la capacidad de desdoblar el nitrógeno del aire y de otros sustratos transformándolos en óxido nítrico que, combinado con la humedad ambiente, puede formar un compuesto similar a la lluvia ácida que corroe las esculturas de mármol expuestas a la intemperie. En pocas palabras, los microbios también destruyen esculturas de piedra. El desarrollo microbiano ocasiona porosidad en el material y lo vuelve frágil y quebradizo. 57 |

Mario L. Vilaró

El deterioro de monumentos pétreos, como esculturas o yacimientos arqueológicos, se encuentra asociado a cambios de origen tanto físico-químicos, como biológicos. Las modificaciones ambientales, producto de la actividad humana, han favorecido, en muchos casos, la proliferación de determinados agentes microbianos que aceleran los procesos de debilitamiento de estructuras de constitución mineral. Es así que la acción de la polución ambiental se combina con la actividad metabólica, causada por el crecimiento de bacterias, hongos, algas y líquenes, terminando por fragilizar compuestos tan sólidos como el mármol, el granito o rocas calcáreas. Del mismo modo, las pinturas antiguas (tanto sus pigmentos, como los soportes sobre los que se realizaron), están constituidas por sustancias orgánicas que se pueden comportar como excelentes sustratos para el desarrollo microbiano. Es por todos conocido que se han emprendido programas que apuntan a la restauración y conservación de diferentes obras de arte que sufrieron un importante deterioro, producido, en la mayoría de los casos, por la actividad microbiana. Llegamos al extremo de suponer que los microorganismos se están devorando las obras maestras del arte, por más descabellada que pueda parecer la afirmación. Sin embargo, no todas son malas noticias para los amantes del arte. Científicos de la Universidad de Valencia se encuentran trabajando en el uso de microbios para preservar diferentes obras de arte. Se trata de usar las características metabólicas de ciertas bacterias para que protejan los pigmentos originales. Con el paso del tiempo, las sales procedentes de la materia orgánica, con que se elaboraron los tintes, brotaron hacia la superficie en forma de deposiciones salitrosas. Se ensaya la posibilidad de aplicar pequeñas

| 58

Sobre microbios y humanos

cantidades de bacterias, que se alimentan de sal, para eliminar las manchas que suelen aparecer sobre los monumentos. Aunque pueda parecer extraño, durante la restauración de la Capilla Sixtina, uno de los métodos empleados para limpiar los magistrales murales realizados por Miguel Ángel, fue el de aplicar un algodón impregnado con bacterias y dejarlas actuar durante un tiempo para luego continuar con la limpieza. Se ha demostrado que la técnica es menos agresiva que el uso de compuestos químicos. Como si esto fuera poco, en París se ha desarrollado una cepa bacteriana con la capacidad de generar depósitos de carbonato de calcio sobre murallas y esculturas de piedra (se trata de la bacteria llamada Myxococcus xanthus, por si algún espíritu curioso se interesa). La técnica es muy simple e ingeniosa: se cultivan las bacterias en el laboratorio y luego se las rocía con una solución acuosa sobre la escultura. Posteriormente, se aplica una mezcla de nutrientes que favorece el crecimiento bacteriano. Cuando las bacterias se reproducen, depositan finas capas de carbonato de calcio, que no solo rellena las fracturas o grietas que pueda haber, sino que impermeabiliza la piedra. En el momento cuando se deja de aplicar la mezcla nutritiva, las bacterias mueren pero las deposiciones minerales que dejaron perduran por muchos años. Incluso, cuando existen fisuras importantes, se usan jeringas para instilar la solución bacteriana con el objeto de que pueda alcanzar lugares más profundos. La restauración de obras de arte usando microorganismos ha dado lugar a la limpieza ecológica con la que cada día se obtienen mejores y promisorios resultados. Esta “biolimpieza” ha sido ya empleada en la Pietà Rondanini de Michel Ángelo Buonarroti, en la fachada del Duomo de Milán, escultura que se encontraba deteriorada por el paso del tiempo y salpicada por deposiciones de palomas. 59 |

Mario L. Vilaró

El séptimo arte tampoco está libre de microbios. El fascinante mundo microbiano ha servido de fuente de inspiración para que guionistas y directores de cine den rienda suelta a su creatividad. Con repasar la historia de los estrenos cinematográficos vemos que no son pocas las películas que le han sacado el jugo al tema. ¿Quién no se ha sentido emocionado al ver cómo la bella Nicole Kidman se ocultaba para expectorar sangre, víctima de la tuberculosis, mientras era la reina del cabaret? (Moulin Rouge, 2001; hay versiones anteriores de la misma historia, protagonizada por diferentes actrices). La muerte ha rondado a numerosos films con diferentes matices. Desde enfermedades sociales como la lepra (Ben-Hur, 1959), hasta fiebres de origen bacteriano, que hoy en día son controlables, pero que en su momento producían la muerte de los personajes (Mujercitas, 1994). Ni hablar de las amputaciones efectuadas a heridos de guerra infectados: los héroes regresaban a casa mutilados y enamorados de una bella enfermera que los había cuidado en el hospital. Una de las primeras cintas que abordó la problemática del SIDA, tanto en su aspecto epidemiológico como social, ya que habló de la homosexualidad afrontando la realidad sin tapujos, fue Philadelphia, 1993, en la que un joven Tom Hanks encarnaba a un homosexual enfermo de SIDA. En el argumento se plasma la lucha del protagonista, no solo contra la enfermedad sino también contra la discriminación y las barreras sociales reinantes, ya que por ese entonces la infección por VIH era incurable y, a su vez, considerada una enfermedad propia de los homosexuales. Tanto la guerra biológica como las epidemias han sido útiles para filmar cientos de metros de celuloide. En particular en el área de la ciencia-ficción. En el film La Amenaza de Andrómeda, 1971, basado en una novela de Michael

| 60

Sobre microbios y humanos

Crichton, una bacteria del espacio exterior es traída accidentalmente por un satélite artificial y un equipo de científicos intenta dominarla antes de que se convierta en una plaga letal. En Invasores, 2007, una misteriosa epidemia está extendiéndose rápidamente en todo el mundo. En Washington D.C., una psiquiatra (Nicole Kidman) se da cuenta de que se trata de una patología de origen extraterrestre, especialmente cuando su hijo la contrae. En Exterminio, 2002, un grupo de activistas por los derechos de los animales irrumpe en un laboratorio, donde hay una colonia de monos infectados con una cepa altamente contagiosa del virus de la rabia. Ese mismo día, Jim, un repartidor, sufre un accidente y queda en estado de coma. Al despertar 28 días después, se encuentra con una Londres vacía, a causa del ataque masivo de personas que se infectaron de rabia, que convierte a la gente en fieras sedientas de destrucción, ya que los rabiosos son extremadamente violentos y altamente contagiosos (el desenlace no lo vamos a contar y lo dejamos para que los amantes de este tipo de cine se deleiten con el morbo de un argumento tan delirante). Podríamos continuar citando otras películas con historias similares vinculadas a los microbios (Soy leyenda -2007-, Cuarentena -2008-, La última esperanza -1971-, El día del juicio final -2008-, entre otras, sin dejar de citar algún que otro capítulo del Súper Agente 86, en el que los agentes de Kaos quieren dominar el mundo con microbios letales), pero no podemos olvidar un clásico del cine en que los microbios salvan a la humanidad: La guerra de dos mundos, 1957, en la que los indestructibles invasores marcianos son vencidos por las bacterias y virus terrestres (¡al fin una en la que los microbios nos ayudan!). Una interesante derivación de la filmografía microbiológica existente ha surgido al utilizar las películas sobre el tema como un recurso educativo. En su artículo Bugs and Movies: Using Film to Teach Microbiology, el autor, Manuel 61 |

Mario L. Vilaró

Sánchez, del Departamento de Producción Vegetal y Microbiología, Universidad Miguel Hernández de España, alcara: “Es importante recordar que un film es una obra de arte, y que no necesita reflejar la realidad de manera tan exacta como en el mundo real. Generalmente la credibilidad es sacrificada a favor del show, pero la explicación y corrección de los errores microbiológicos de la película, constituyen también una excelente herramienta para la enseñanza”. Pero más allá de las historias y argumentos cinematográficos, la historia del cine está siendo amenazada realmente por microbios. La gelatina emulsionante, que sirve de soporte a la fotografía y a los films, está constituida de proteínas obtenidas del colágeno de animales, lo que es un excelente nutriente para bacterias y hongos. Se ha encontrado que viejas películas, almacenadas en lugares no adecuados, se han deteriorado por el ataque microbiano, que ha devorado la gelatina y ha hecho desaparecer las imágenes. Debido a ello, las grandes empresas cinematográficas han avanzado en el proceso de digitalización de los celuloides con el objeto de preservarlas del deterioro microbiano. Lo único que falta es que aparezca un microbio que se coma los discos duros de las computadoras o los CD y estamos fritos, porque hasta ahora eso no ha sucedido… ¿o sí? Recientemente se ha demostrado que ciertas bacterias tienen la capacidad de adherirse y formar biofilms sobre los discos compactos, con lo que ocasionan su deterioro. Igualmente, se comprobó que hongos del género Geotrichum crecen entre las capas de aluminio de los CD, producen la

| 62

Sobre microbios y humanos

solubilización de ese metal y destruyen los estratos de policarbonato que los recubren. Parece ser que ahora los amantes de las computadoras deberán, no solo protegerse de los virus informáticos, sino también tomar precauciones contra los microbios verdaderos. Y como si esto fuera poco, ahora a los microbiólogos se les dio por el arte, aunque de una forma poco convencional. Se trata de utilizar el aspecto y los colores característicos de bacterias y hongos que desarrollan sobre placas de agar, para hacer arte. Realizan dibujos sembrando diferentes gérmenes en placas de Petri con medios de cultivo y los llevan a incubar. Como se trata de arte efímero, luego de retirar los cultivos de la estufa, los fotografían ya que las bacterias mueren rápidamente. Los resultados son curiosos y, aunque difícilmente ocupen un lugar destacado en los principales museos del mundo, no dejan de llamar la atención (aquellos que se muestren interesados en el tema del arte microbiano pueden visitar la página www.microbialart.com, donde se aprecia una galería de fotos con obras de arte microbiológicas). ¿Arte hecho con bacterias?... ¿Quién dijo que los microbiólogos somos aburridos? Bibliografía consultada Krumbein W, Pochon J. 1964. Bacterial ecology of altered stones of monuments. Annales de l´ Institute Pasteur 107: 724-732. P. S. Guiamet, P. Lavin, P. Schilardi, S.G. Gómez de Saravia. �������� Microorganismos que afectan diferentes soportes de información. Revista Ar-

63 |

Mario L. Vilaró

gentina de Microbiología (2009) 41: 117. Romero, Elvira, y cols. Degradación de los discos compactos por hongos. FEMS Microbiol Lett, 275 :122–129 (2007). Sanchez M. El microbio es la estrella. Una guía de películas para el microbiólogo. Actualidad S.E.M. 50:42-46, 2012. Sanchez M. Bugs and Movies: Using Film to Teach Microbiology. Journal of Microbiology & Biology Education , Vol 12, N° 2. 2011. American Society for Microbiology.

| 64

V Viejos son los trapos (Sobre el uso de nuevas y viejas técnicas en microbiología) ¿Es lo nuevo lo mejor?, es la pregunta que se formula Caroline O’Hara en su publicación Manual and Automated Instrumentation for Identification of Enterobacteriaceae and Other Aerobic Gram-Negative Bacilli. Es la pregunta que, en más de una oportunidad, nos hacemos los que llevamos algunos años transcurriendo por los caminos de la microbiología. Y no es para menos: los cambios tecnológicos que hemos tenido que asumir, y a los que nos hemos tenido que adaptar, en los últimos tiempos, son tan grandes que resulta difícil seguirles el ritmo sin caer en un desenfrenado vórtice que nos conduzca a la desesperante sensación de no comprender muy bien qué estamos haciendo. Indiscutiblemente, los que estamos en la ciencia sabemos que no hay que dejar pasar ningún tren, so pena de cometer el pecado capital de quedar desactualizados. Aunque hay veces que nos queda la sensación de que los trenes son tantos, y pasan tan veloces, que no podemos su-

65 |

Mario L. Vilaró

birnos a todos. El bombardeo de información científica que recibimos, o el que podemos recibir si nos lo proponemos, es tan intenso, que por momentos nos queda poco tiempo para reflexionar sobre lo que sucede. Es así que, nuevos y constantes descubrimientos, producto de la mejora en las metodologías de investigación, ponen en tela de juicio los paradigmas clásicos que han formado parte de la esencia de la microbiología tradicional. Todo ello nos conduce, de manera constante, a reformular viejos conceptos y a analizar los nuevos bajo la luz de los existentes. Por ejemplo, Fredericks y Relman, en su trabajo Sequence-based identification of microbial pathogens: a reconsideration of Koch’s postulates, cuestionan la vigencia de los postulados de Koch ante los resultados obtenidos por la identificación molecular de microorganismos patógenos humanos. De acuerdo con su opinión, el hallazgo, gracias a la amplificación génica, de bacterias que no se han podido cultivar, obliga a reformular la vigencia de los postulados que han explicado la relación huésped – patógeno de las enfermedades infecciosas durante más de 100 años. Y no es para menos: la biología molecular ha logrado descubrir microorganismos cuya existencia se desconocía, que son causantes de diferentes patologías, y que todavía no ha sido posible reproducirlos por los métodos tradicionales. En la era de la microbiología molecular, cuando nos da la impresión de que todo pasa por el estudio de los ácidos nucleicos microbianos, parece que cada vez hay menos lugar para los métodos tradicionales. Los más osados pronostican el fin de las técnicas sobre las que se ha apoyado la microbiología por más de 150 años. La secuenciación de ADN, la amplificación génica, la hibridación molecular, solo por mencionar algunas de las tantas posibilidades con las que se

| 66

Sobre microbios y humanos

puede analizar la estructura genética de un microorganismo, han ocupado un espacio prevalente en la investigación microbiológica. Tanto es así que, sin demasiados remilgos, cualquier publicación actual que en su contenido no haga mención a algunos de estos métodos, suena como anticuada. El cultivo de microorganismos con fines científicos tiene algo más de un siglo y medio de edad. Con todas sus variantes, que incuestionablemente han representado una significativa mejora, la esencia continúa siendo la misma. Algunos profetizan que va a desaparecer, reemplazado por técnicas mucho más sensibles y específicas y, en particular, más rápidas. Si en todos los aspectos de la vida el tiempo es oro, lo es aún más ciertas áreas de la en microbiología. Y hacia allí ha apuntado la evolución del desarrollo tecnológico de los cultivos microbianos: recuperar la mayor cantidad de microorganismos en el menor tiempo posible. Los sistemas automatizados, que identifican y realizan pruebas de sensibilidad a los antimicrobianos en microbiología clínica, han revolucionado la disciplina y aportado una velocidad diagnóstica que resulta vital en el tratamiento de un paciente con un proceso infeccioso agudo. Del mismo modo, en aquellos gérmenes de crecimiento lento o los llamados “fastidiosos” (por su dificultad para reproducirlos in vitro), la reformulación de medios de cultivo clásicos y de los métodos para detectar su crecimiento, han logrado reducir notablemente los tiempos para la obtención de los resultados. Aunque se los haya modernizado, continúan siendo cultivos. La disyuntiva planteada entre los microbiólogos moleculares y los clásicos, se presenta como un problema de solución incierta. Los futuristas más osados preconizan el 67 |

Mario L. Vilaró

ocaso de las técnicas tradicionales, y los conservadores, más moderados, descreen esas predicciones y auguran larga vida a los métodos “antiguos”. Los microbiólogos no somos la excepción en este aspecto. Prácticamente todas las áreas de la ciencia mantienen el mismo debate entre tecnología y tradición científica. En microbiología, puntualmente, la discusión se traslada a las bondades de conocer en profundidad el genoma microbiano y, por contrapartida, el estudio de sus expresiones fenotípicas, que no hacen otra cosa que poner en evidencia las características genéticas de cada organismo. En un principio se asume que si un microorganismo posee determinado gen en su acervo genético, lo puede expresar, aunque en la naturaleza no sea necesariamente así. Es por demás sabido que la expresión de ciertos genes está condicionada por el ambiente y/o su contexto fisiológico. Del mismo modo, la variabilidad genética microbiana es tan amplia y ágil, y el intercambio de genes, intra o inter específico, tan profuso, que las poblaciones son altamente dinámicas. Ello determina que la dotación genética se encuentre en permanente y vertiginoso cambio. Al mismo tiempo, se generan, dentro de una población determinada, subpoblaciones con características diferentes, constituyendo grupos heterogéneos de individuos de la misma especie. Como se ve, la cosa es mucho más compleja que en otras géneros vivientes. Entonces, ¿qué es mejor…? ¿Conocer si un microorganismo posee tal o cual gen, o ver si lo puede expresar? En un punto intermedio ha desembarcado recientemente en los laboratorios la proteómica. Basándonos en el conocido axioma biológico que dice: un gen, una proteína, la proteómica analiza las proteínas producidas durante el crecimiento de un microorganismo. Entonces, podremos es-

| 68

Sobre microbios y humanos

tudiar la expresión fenotípica de un individuo, si analizamos las proteínas que produjo. De esa forma se pueden determinar, con alto grado de certeza, las características propias de cada organismo aunque sin obviar, en la mayoría de los casos, el cultivo. Es decir que esta nueva tecnología, que ha revolucionado el trabajo de los microbiólogos por su rapidez, sensibilidad y especificidad, necesita del cultivo, el mismo que se viene realizando desde hace más de 150 años. ¿Representa ello un retroceso en la evolución de las técnicas microbiológicas? Los “fundamentalistas de la molécula” dirán que sí. Es lógico, quienes se dedican a escudriñar los recovecos de los ácidos nucleicos interpretarán que volver al cultivo, aunque sirva para analizar las proteínas microbianas, constituye un paso atrás. Contrariamente, los “expresionistas fenotípicos” estarán de parabienes, ya que la última tecnología desarrollada para el diagnóstico microbiológico necesita del cultivo para poder ser consumada. Algo similar ocurre con el microscopio. La observación microscópica ha dado nacimiento a la microbiología y, aún en el siglo XXI, continúa en uso. Resulta impensable un laboratorio de microbiología que no disponga de un microscopio. Sin embargo, los agoreros del modernismo apuntan que va a llegar el día en que la observación microscópica no va a ser necesaria. Es más, en algunas áreas, existe la tendencia a pensar en que mirar al microscopio es algo obsoleto, y su empleo es cada vez menor. A pesar de todo, la observación microscópica continúa siendo una herramienta fundamental de muchos laboratorios de microbiología clínica. La información que se obtiene, en el examen microscópico de una muestra biológica, es de suma utilidad para comprender la calidad y representatividad del espécimen que se estudia, y brinda una clara orientación acerca de la evolución de un proceso infeccioso. El trabajo de un buen 69 |

Mario L. Vilaró

microscopista, correctamente interpretado, puede sugerir, orientar o modificar un tratamiento médico. No en vano existen numerosas publicaciones que se refieren a la importancia de un informe rápido del laboratorio, y el impacto que tiene sobre los enfermos, y muchos de esos trabajos se han basado en la observación microscópica. Aunque nos cueste admitirlo, a los microbiólogos nos encanta estar en la cresta de la ola, cuando de medios para investigar se trata. Y no es para menos: las posibilidades de ampliar el conocimiento que nos brinda la biología molecular son prácticamente infinitas, y su potencial desarrollo futuro, insospechado. Debido a ello, la seductora tentación de disponer siempre de lo más nuevo, para tener siempre lo mejor, se impone con un ritmo tan apasionante (para los que se sienten apasionados por los descubrimientos científicos) y alocado, que puede conducir al engaño. Si a esta altura del texto, amigo lector (y por qué no, biólogo molecular), siente que la palabra alocado genera un poco de ruido de fondo en su autoestima, es invitado a contar hasta diez antes de tirar el libro por la ventana, deshojarlo frenéticamente para destinarlo a papel de baño, o usarlo como promotor de fuego en el asadito del fin de semana. Que los amantes de la ciencia son apasionados no queda la menor duda. Con repasar la historia de cualquier científico destacado lo refrendamos. Y, sin llegar a citar los grandes hombres de la ciencia, con conocer el espíritu de cualquier persona que transita los caminos del conocimiento, veremos que el fuego de la pasión por saber y conocer más es su guía. Podemos afirmar, sin temor a equívoco, que ciencia y conformismo son palabras incompatibles. La llama

| 70

Sobre microbios y humanos

que arde en el alma del científico no se extingue nunca, y la pasión tampoco. Pero de ahí a decir que tenemos actitudes “alocadas”, hay un trecho grande… ¿o no? Todos sabemos lo que significa pasión. Quién más, quién menos, en algún momento de su vida no se ha sentido apasionado por algo o por alguien. Desde el fanático futbolero que llega hasta extremos inenarrables para defender los colores de su equipo, hasta el filósofo más meditabundo, que puede pasar años de su vida buscando el sentido de las cosas, los apasionados están imbuidos de un sentimiento que no resulta fácil de dominar. El diccionario de la Real Academia establece ocho acepciones para la palabra pasión. La más ajustada, para el uso que proponemos en este texto, es aquella que dice “Apetito o afición vehemente a algo”, y todos estaremos más o menos de acuerdo. Aunque vemos que la quinta acepción dice que una pasión es una “perturbación o afecto desordenado del ánimo”, y ahí la cosa se comienza a complicar. Perturbar es “trastornar el orden y concierto, o la quietud y el sosiego de algo o de alguien”, y desordenado es “lo que no tiene orden” o “Dicho de una persona: Que obra sin método y no cuida del orden en sus cosas”. No es nuestro propósito adentrarnos en consideraciones psicológicas para las que no estamos en absoluto capacitados. Todo lo contrario, sería una imprudencia enorme arriesgar conclusiones de este tipo. Este juego de palabras y definiciones, examinado desde el punto de vista de un microbiólogo, puede resultar interesante como un ejercicio de introspección, si es válido aceptarlo como tal. Llegado a este punto, es lícito hacer una autocrítica. Mirémonos en el espejito interior, a riesgo de saber que hay oportunidades en que lo que nos muestra no es precisamente nuestra mejor faceta. 71 |

Mario L. Vilaró

Cada vez que leemos acerca de la aparición de una nueva técnica aplicada a la microbiología, afloran en nuestro espíritu sentimientos y sensaciones contradictorias. Luego de analizar las ventajas que nos propone, estudiamos en qué la podríamos utilizar y comenzamos a ambicionar la posibilidad de disponer de ella. Claro está que no siempre es fácil acceder a lo nuevo de manera inmediata. No obstante, queda plantada, de manera legítima, la semilla de la inquietud para mejorar nuestro trabajo. Hasta aquí no hay nada raro; al contrario, todos aspiramos a poseer de los mejores recursos disponibles. Pero existe una trampa oculta: corremos el peligro de creer que debemos embarcarnos en una desenfrenada carrera por la actualización permanente. La frase anterior no sería cuestionable si no tuviese la palabra “desenfrenada” haciendo ruido en nuestros espíritus. Aquello desenfrenado es lo que no tiene freno, y lo que no tiene freno resulta alocado, y algo alocado es una acción que revela poca cordura. Si hay algo que debe tener el que navega por los mares del saber, es cordura para poder analizar, libre de pasiones, los pasos a seguir. Aspirar a lo más nuevo no implica, necesariamente, desdeñar lo más viejo. Una de las cosas a comprender es que la pugna entre modernismo y clasicismo no debería ser interpretada como una antinomia, sino como una instancia complementaria para la comprensión y resolución de los problemas que a diario nos plantea una disciplina científica. Nada tiene de malo que puedan coexistir nuevas y viejas técnicas, en la medida en que sean útiles para aportar la información buscada. Menospreciar lo viejo es, en alguna medida, olvidarse del pasado que nos dio el fundamento del saber. En especial cuando, revisando la historia, constatamos que los mentores de las bases de la microbiología moderna hicieron tanto con tan poco, y lograron, más a fuerza de em-

| 72

Sobre microbios y humanos

peño y genialidad que de tecnología, desarrollar una ciencia hasta esos momentos inexistente. Finalmente, examinar la distribución de las bandas de ADN en una corrida electroforética, observar el aspecto de una colonia sobre un medio de cultivo, o mirar al microscopio un extendido o una coloración, suponen una actitud analítica y reflexiva que se debe imponer a cualquier recurso tecnológico. Podrá sonar poco científico, pero tomarse un momento para pensar sirve para establecer una conexión sutil con lo que estamos estudiando. Uno de los retratos más difundidos de Louis Pasteur, realizado por el pintor finlandés Albert Edelfelt, en 1885, lo muestra acodado sobre un libro que se encuentra sobre la mesada de trabajo, y observando un matraz que contiene la espina dorsal desecada de un conejo infectado de rabia. El pintor intenta transmitir la actitud reflexiva del sabio, que muestra su mirada dirigida hacia el tubo pero inmersa en las profundidades de sus pensamientos. La imagen capta, de manera exquisita, la esencia de la investigación científica: el hombre intentado desentrañar los secretos que se ocultan tras sus innumerables dudas. Y de eso se trata, del entusiasmo por saber (entusiasmo, del griego enthousiasmos, inspiración divina; derivado a su vez de entheous, el que lleva un dios adentro), de la curiosidad innata del ser humano, de la pausa introspectiva que nos lleva, en ocasiones, a un descubrimiento inesperado, a la respuesta que estábamos buscando o al florecimiento de una idea que, de tan obvia, permanecía oculta en los resquicios de la mente. Si logramos eso, estaremos usando el recurso más viejo que nos ha dado la naturaleza: el cerebro, y contra eso, hasta ahora, no hay tecnología que valga.

73 |

Mario L. Vilaró

Bibliografía consultada Caroline M. O’Hara. Manual and Automated Instrumentation for Identification of Enterobacteriaceae and Other Aerobic Gram-Negative Bacilli. Clin. Microbiol. Rev. 2005, 18(1):147. D N Fredericks and D A Relman. Sequence-based identification of microbial pathogens: a reconsideration of Koch’s postulates. Clin. Microbiol. Rev. January 1996 vol. 9 no. 1 18-33.

| 74

VI Con las manos en la masa (Sobre la historia de la espectrometría de masas aplicada a la microbiología) En los últimos años ha irrumpido con fuerza en el diagnóstico microbiológico una nueva tecnología: la espectrometría de masas. En realidad, no se trata de una nueva tecnología en un sentido estricto, sería más correcto decir que se trata de una nueva aplicación para una vieja tecnología. Antes de ahondar más sobre el tema, mal no nos vendría revisar el origen de las palabras. Espectro, de acuerdo con el diccionario, es un fantasma o la imagen de una persona muerta. Si el término es usado en la física, se trata de la distribución de la intensidad de una radiación en función de una magnitud característica, como la longitud de onda, la energía, la frecuencia o la masa y, por extensión, también es la representación gráfica de cualquiera de estas distribuciones. El vocablo tiene su origen en el latín, spectrum, que significa imagen y que pro-

75 |

Mario L. Vilaró

viene del verbo specere: mirar. Es interesante la cantidad de derivaciones que ha tenido hacia nuestra lengua el término original. De ese verbo provienen: espejo, especie, especial, especular, inspector, aspecto, perspectiva, entre otras locuciones castellanas. Basta con pensar un poco las ramificaciones lingüísticas para concluir que todas tienen algo en común con el verbo mirar. Por consiguiente, espectrometría es la técnica que permite medir imágenes. Masa viene del latín massa, que a su vez se origina en el griego maza “madza”, palabra que hacía referencia a a un pastel hecho con harina, originado en el verbo masso, que significaba presionar con las manos. El poeta griego Hesídodo – siglo VII a. C.- la usa como sinónimo de pan. Aristófanes, en el siglo V a. C., en su obra La Paz, escribe: “¡Oh Poseidón, cómo alegra la vista ese batallón de labradores, apretados como la masa de una torta!” Es probable que de allí se haya originado el modismo que define a una masa como una muchedumbre o grupo numeroso de personas. Su uso se hizo extensivo a un conjunto concurrente de cosas, reunión o conjunto de objetos, transformándose posteriormente en una expresión de medida, volumen o cantidad. En física, la masa es la magnitud que expresa la cantidad de materia que contiene un cuerpo. Su unidad en el Sistema Internacional es el kilogramo, lo que genera no pocos problemas de interpretación. La diferencia entre un kilo de peso y un kilo de masa, es sutil, pero conceptualmente enorme, y no siempre bien comprendida; ha costado más de un aplazo a los alumnos de la escuela secundaria que estudian física. La tradicional y didáctica definición de masa como la cantidad de materia que posee un cuerpo, se contrapone con los enredos que se

| 76

Sobre microbios y humanos

producen en la cabecita de los estudiantes cuando tratan de medir la masa de algo y deben de expresarla en kilogramos. En particular, cuando la unidad de medida para el peso (o sea, la fuerza que la atracción de la gravedad ejerce sobre un determinado cuerpo) no es técnicamente el kilogramo sino el Newton. Durante años, los físicos y profesores de física se han esmerado en instaurar este último concepto con escaso éxito. Como prueba experimental bastaría con ir a la carnicería y pedir que nos corten cinco Newton de costilla (finita, como para poner a la parrilla vuelta y vuelta), o preguntarle al verdulero de la esquina cuántos Newton tiene la sandía que nos está vendiendo, para comprobar que todos los esfuerzos de los físicos han caído en saco roto. La cosa se complica aún más cuando usamos el verbo “pesar” para medir la fuerza de atracción de la gravedad, y el verbo “masar” para determinar la cantidad de materia de la sandía. Entonces, si pesamos el peso, y masamos la masa, pero a ambas magnitudes las medimos, usualmente, en kilogramos, la cosa se embrolla lo suficiente como para generar un entrevero del que el mismo Einstein se vería en figurillas para salir (¡ni hablar del carnicero con sus costillas y del verdulero con su sandía!). Sin embargo, los que hace tiempo que hemos superado esa etapa educativa de nuestras vidas, tenemos por demás clara la diferencia entre ambos términos como para poder explicarlo con soltura y desenfado (¿o no?). Sea como fuere, a todos más o menos, nos queda claro lo que es la masa, concebida como parámetro físico, sin que sea necesario ahondar en definiciones más complejas. 77 |

Mario L. Vilaró

El hecho es que la espectrometría de masa vendría a ser, literalmente, la medición de la imagen de la masa de un cuerpo (… más o menos). La historia de la espectrometría de masas en microbiología se presenta como algo reciente, y de hecho lo es, aunque la técnica en sí misma tiene unos cuantos años de evolución. La espectrometría de masas comienza a ver la luz en el Cavendish Laboratory de la Universidad de Cambridge en Inglaterra, en 1897 de la mano de Joseph John Thomson. Él descubrió que descargas eléctricas en gases producían iones y que estos rayos de iones podían adoptar diferentes trayectorias parabólicas de acuerdo con su masa cuando pasaban a través de campos electromagnéticos. En 1886, Goldstein había descubierto los iones positivos; en 1898, W. Wien consiguió analizarlos por deflexión magnética y en 1901, W. Kaufmann pudo examinar los rayos catódicos usando campos eléctricos y magnéticos paralelos. Con base en estos logros, Thomson realizó la construcción del primer espectrómetro de masas, llamado parábola espectrográfica, para la determinación de la relación masa/carga de iones. Con su nuevo aparato obtuvo los primeros espectros de elementos como O2, N2, CO y CoCl2. Francis William Aston fue uno de los estudiantes de Thomson que se avocó al tema, e ideó varios espectrómetros en los cuales los iones podían ser dispersados por sus masas y enfocados de acuerdo con su velocidad. Esto aumentó el poder de resolución y posibilitó el posterior descubrimiento de diferentes isótopos naturales.

| 78

Sobre microbios y humanos

Como consecuencia de ello, Thomson recibió el Premio Nobel de Física en 1906 y Aston, el de Química en 1922. En la década del 20, en la Universidad de Chicago, se desarrolló el Electrón impacta, un analizador magnético que enfocaba iones formados por impacto electrónico sobre un colector eléctrico. Esta mejora fue adaptada por diferentes científicos, y durante la década del 30 se realizaron importantes descubrimientos en el campo de la física atómica y nuclear. En la década del 40 aparecieron los primeros espectrómetros comerciales, que ya habían incorporado las tecnologías de vacío y la electrónica, para mejorar el desempeño de los primeros de los instrumentos. Hasta ese momento los estudios se enfocaban para determinar, en forma precisa, los pesos atómicos de los elementos químicos y sus isótopos. A fines de los años 40, surgió una interesante modificación de la metodología: los iones eran separados a base de sus diferencias en velocidad cuando son acelerados en un tubo de vuelo lineal. Al nuevo método se lo llamó espectrómetro de masas de tiempo de vuelo (time-of-Flight, TOF). Era un concepto revolucionario ya que, esencialmente, se trataba de algo muy específico y, sobre todo, barato y simple de usar. Con diferentes matices tecnológicos, la espectrometría de masas se transformó en una admirable técnica para caracterizar compuestos orgánicos. Franz Hillenkamp y Michael Karas desarrollaron una nueva variante que denominaron Matrix-assisted laser desorption ionization (MALDI). Hillenkamp y Karas descubrieron que el aminoácido alanina podía ser ionizado más fácilmente cuando se lo combinaba con triptófano en una matriz y se lo irradiaba con pulsos de láser de 266 nm. 79 |

Mario L. Vilaró

Se introduce el concepto de desorción como la emisión de un fluido previamente absorbido por un material. Para comprender mejor el término, podemos decir que se trata de lo contrario a la absorción, es decir, la eliminación de materia a partir de un medio absorbente. Mediante el MALDI, las moléculas son “desorbidas” por un láser a partir de una superficie sólida o líquida que contiene una matriz de compuesto orgánico. Esta técnica ha permitido caracterizar moléculas biológicas de más de 1 millón de Daltons en los espectrómetros de masas como iones estables en fase gaseosa. Una de las principales aplicaciones ha sido la de poder identificar proteínas. A partir de allí nace posibilidad de “desorber” las proteínas de una célula (o de un microorganismo) estimulándola con haces de láser. De esa manera, usando la vieja afirmación que dice: un gen, una proteína, podremos estudiar el perfil proteico de un organismo, del mismo modo que podemos identificar a una persona por sus huellas dactilares. Bajo ese contexto, emerge el neologismo proteoma. El término proteoma desembarcó en el vocabulario científico de la mano del australiano Marc Wilkins, en 1994. La palabra nace de la combinación de proteína y genoma, y define el conjunto de proteínas expresadas a partir de un genoma determinado. El proteoma celular define a las proteínas que se encuentran en una determinada célula, y la combinación de palabras se puede aplicar a microorganismos o virus (proteoma bacteriano o proteoma viral, por ejemplo). Como consecuencia, la proteómica es la disciplina que estudia el proteoma de diferentes grupos biológicos. La

| 80

Sobre microbios y humanos

proteómica ha tomado gran relevancia en los últimos tiempos como una forma de identificar microorganismos a través de sus proteínas, mediante el uso de la espectrometría de masas. La combinación del tiempo de vuelo y la ionización desorción por matriz, dio origen al llamado Matrix-assisted laser desorption/ionization time of flight (MALDI-TOF). La explicación técnica de su funcionamiento es relativamente simple: se colocan bacterias sobre un soporte sólido y se les agrega la matriz, luego son irradiadas por pulsos de rayos láser y las proteínas ionizadas “vuelan” por un tubo al vacío, en cuyo extremo se encuentra un detector de iones. Un sistema informático registra el tiempo de vuelo de las partículas y construye un espectro que refleja el perfil proteico de la muestra. Basta con que la curva obtenida sea comparada con otras ya catalogadas en una base de datos, para buscar homologías y terminar asociando la curva en cuestión con otra previamente identificada. Un espectro de masa es, entonces, una información bidimensional que representa un parámetro relacionado con la abundancia de diferentes tipos de iones (en este caso proteínas) en función de la relación masa/carga de cada uno de ellos. Su empleo, aplicado a la microbiología, ha venido a revolucionar los paradigmas clásicos y a zarandear viejas estructuras. La metodología es tan simple, específica y eficiente, que permite identificar una bacteria en cuestión de segundos, algo que entusiasma a muchos y preocupa a otros tantos. Como suele suceder, con el advenimiento de una nueva metodología se produce una reacción en cadena en la que se inicia una suerte de carrera para ver quién la usa más y 81 |

Mario L. Vilaró

mejor. Las publicaciones científicas relacionadas al MALDI-TOF en el diagnóstico microbiológico han explotado, y las proyecciones sobre sus posibles usos parecen ilimitadas. Sin intenciones de menoscabar los entusiastas logros de los “malditoflogos” del mundo, pero ante la fehaciente convicción de que “esta historia ya la hemos vivido”, es oportuno poner un poco la pausa y encontrar un espacio para la reflexión. En el capítulo anterior hemos esbozado nuestro parecer sobre los acontecimientos revolucionarios en la historia de la microbiología, en los que cada nueva técnica aparecida representaba, para sus cultores, un punto de inflexión del que no se podía regresar más. De hecho, en algunas oportunidades los avances científicos han sido así, pero en otras, no pocas, la preeminencia de lo nuevo terminó siendo bastante menor de lo que se preconizaba, y los grandes giros microbiológicos terminaron ocupando un lugar propio y con ingerencia bastante limitada, o desaparecieron, absorbidos por nuevas tecnologías. Las proyecciones sobre el uso de MALDI-TOF son por demás atrayentes. La simpleza, flexibilidad y rapidez de la metodología se presentan como su principal fortaleza, lo que abre la puerta a inesperado universo de aplicaciones posibles, quizás tantas como se pueda imaginar. De hecho, la proteómica se ha revelado como un área gracias a la que se ha podido obtener un enorme caudal de información y una nueva óptica en la interpretación del genotipo y el fenotipo. ¿Será acaso el MALDI-TOF la piedra filosofal de la microbiología moderna?

| 82

Sobre microbios y humanos

No obstante, los mentores del MALDI-TOF maquinan todo tipo de usos para la tecnología recientemente llegada, cuyo potencial aparece como ilimitado. Es difícil saberlo, habrá que esperar un tiempo para ver qué sucede, hasta dónde se llega, y confiar en que no aparezca nada nuevo que lo opaque. Mientras tanto, los malditoflogos del mundo se frotan las manos y por lo bajo exclaman: “BENDI-TOF seas MALDI-TOF ”. Bibliografía consultada Leigh Anderson, Norman G. Anderson. Proteome and proteomics: New technologies, new concepts, and new words. ELECTROPHORESIS. Volume 19, Issue 11, pages 1853–1861, August 1998. Blackstock WP1, Weir MP. Proteomics: quantitative and physical mapping of cellular proteins. Trends Biotechnol. 1999 Mar;17(3):121-7. Hillenkamp, F.; Karas, M.; Beavis, R. C.; Chait, B. T. (1991). ”Matrixassisted laser desorption/ionization mass spectrometry of biopolymers”. Analytical Chemistry 63 (24): 1193A–1203A. Julie Hardouin. Protein sequence information by matrix-assisted laser desorption/ionization in-source decay mass spectrometry. Mass Spectrometry Reviews Volume 26, Issue 5, pages 672–682, September/October 2007.

83 |

VII Flora normal y académicos oportunistas (Sobre el significado de nuevas palabras y el nuevo significado de viejas palabras en microbiología) Hay palabras, o expresiones, que tienen el carácter de consuetudinarias, es decir que se suelen emplear para definir algo cuyo significado no es necesariamente el que figura en el diccionario. Algo consuetudinario es aquello que termina siendo consagrado por el uso. Dicho de otra forma, algunas expresiones se usan con tanta frecuencia que terminan adquiriendo un significado diferente del original. Solemos ver que, periódicamente, los académicos de la lengua española se reúnen para discutir la incorporación de nuevos términos al diccionario y modificaciones en la ortografía o la gramática. No es para menos, las lenguas son dinámicas y requieren de actualización constante. De hecho, la Real Academia de la Lengua, por más conservadora que pueda parecernos, no tiene más remedio que terminar aceptando los nuevos términos que todo el mundo usa. En esta especie de “blanqueo” idiomático, vemos con sorpresa la incorporación de palabras que a priori parecería imposible que pudiesen

85 |

Mario L. Vilaró

ocupar un lugar en el diccionario de nuestra lengua –esa especie de Biblia de las palabras que nos dice qué está bien y qué está mal–. Es así que encontramos aceptados términos como software, hardware, bit o chip, que ingresaron al español emigrando de otros idiomas por la impetuosa ventana de la informática. Aquellos que intentan hacer un culto del bien hablar, o que por lo menos evitan caer en la vulgaridad del deterioro progresivo de la lengua, no pueden ocultar cierto gesto de fastidio cuando vemos que todo el mundo usa esas palabras extranjeras y exclaman “¡Acaso no hay una palabra en Castellano que signifique lo mismo!”. Y… parece que no. Pongamos como ejemplo otro vocablo informático: scanner. Es de imaginar que los académicos se tienen que haber agarrado de los pelos para tratar de reemplazarlo por un término español adecuado. Claro está que es mucho más simple para todos decir scanner que “digitalizador de imágenes”. ¿Qué cara pondría el empleado de una tienda de insumos informáticos si fuese un cliente a decirle que quiere comprar un “Dispositivo que explora un espacio o imagen, y los traduce en señales eléctricas para su procesamiento”? (sic del diccionario de la RAE). Ante una palabra consagrada por el uso, los académicos y los puristas de la lengua tuvieron que aceptarla a regañadientes; eso sí, para no perder identidad, la castellanizaron y la aceptaron como “escáner”. Sea como fuere, una batalla perdida. Otro tipo de palabras son las llamadas “antiguas reintroducidas”. Para esclarecer el alcance de la expresión, el Diccionario Médico biológico de la Universidad de Salamanca nos dice: “Se trata de palabras que se usaron en la antigüedad

| 86

Sobre microbios y humanos

(s. VIII a.C. a s. V d.C.) pero que en época medieval se perdieron y fueron reintroducidas en vocabulario científico a partir del Renacimiento, cuando pudieron volver a leerse los textos clásicos griegos y latinos en un volumen y pureza impensables durante la Edad Media. Para estas palabras se ofrecen en el comentario dos fechas: la de su uso en la antigüedad y la de su uso a partir del s. XVI. Las reintroducciones de término se acompañan en muchas ocasiones de cambios de significado. Por otra parte hay que señalar que un mismo término científico antiguo pudo ser reintroducido en más de una ocasión, fenómeno que suele hacerse evidente por curiosos cambios de significado. En algunas ocasiones se incluyen en esta categoría términos que de contar con una mejor documentación de época medieval aparecerían en la categoría de “Antigua”, es decir, aquellas palabras que se han usado sin interrupción desde la antigüedad hasta nuestros días”. En microbiología, las palabras usadas para definir seres microscópicos han transitado un camino por momentos errático. Fue Maximilien Paul Emile Littré (1801-1881) quien ideó la palabra microbio para definir a todos aquellos seres vivos que no se podían ver al ojo desnudo. El término era por demás amplio, ya que no puntualizaba sobre mayores características de los organismos. Lo curioso es que Littré no era microbiólogo ni investigador en alguna de las ramas afines de las ciencias biológicas; era lexicógrafo y lingüista. Fue el cirujano francés Charles Sédillot (1804-1883) el que propuso en 1878 a la Academia Nacional de Medicina de Francia usar esa palabra, para reemplazar las denominaciones “animáculos” y “microzimas”, “monas”, “microzoarios”, “microphyta”, “bacterium” o “spirillum” usadas por ese en87 |

Mario L. Vilaró

tonces. Sin embargo, no fue fácil que el término se impusiese en el lenguaje científico. Como suele suceder en estos casos, muchos se resistieron argumentando las más variadas razones en contra. Poco a poco, fue ganando espacio de manera consuetudinaria, ya que cumplía la función de abarcar tanto a bacterias, como a hongos, parásitos pequeños y protozoarios. Microbio funcionó como un gran paraguas académico bajo el que se refugiaron los naturalistas para ponerle un nombre a su objeto de estudio. Es de destacar el rechazo que pusieron los botánicos en llamar microbios a las algas unicelulares, algo que en gran medida perdura hasta nuestros días. Pero bueno, ya sabemos cómo son de celosos y posesivos los botánicos con sus cosas; ¡que se queden ellos con sus algas, que nosotros nos quedamos con los microbios! Era de esperar que los que estudiaran estos microbios terminasen llamándose microbiólogos y la ciencia que los agrupó, microbiología. Nada más evidente. A pesar de ello, la mayoría de los microbiólogos actuales rehusamos utilizar la palabra microbio por considerarla, vaya uno a saber por que razón, poco académica o, quizá, demasiado vulgar. La hemos reemplazado por “microorganismo”, que suena menos depreciada que microbio. Entonces los microbiólogos somos “microorganismólogos” de hecho, aunque a veces nos cueste reconocerlo. Basta con hojear algunos textos de microbiología para caer en la cuenta de que la palabra microbio solo aparece en el capítulo dedicado a la historia de la microbiología y luego, misteriosamente, desaparece reemplazada por “microorganismo”, que ocupa un lugar destacado. Parecería que microorganismo es una expresión bastante más explícita que microbio, aunque

| 88

Sobre microbios y humanos

en el fondo no lo sea, ya que dicen lo mismo de diferentes formas. En fin… cosas de microbiólogos nomás. El naturalista alemán Christian Gottfried Ehrenberg fue el primero en introducir el mundo científico en el uso de una nueva palabra: bacteria. Ello sucedió hacia 1838 y sirvió para identificar a un tipo particular de microorganismo con determinadas características –nótese que este suceso fue anterior a la aparición de la palabra “microbio”–. Su origen deriva del griego “bakterion”, que significa pequeño bastón. El primer registro en castellano de dicha palabra está asentado en el Diccionario de Domínguez en 1853, pero la Real Academia solo reconoció el término en 1914 y lo incorporó al diccionario bajo el siguiente significado: “Bacteria: Organismo vegetal, que se distingue del bacilo en que aparece entre otros varios, pero aislado y sin guardar con ellos ningún orden” (¿?) La definición no es muy precisa que digamos, pero tenemos que valorar la buena intención de aclarar las cosas. Es lógico pensar que, dada la situación del conocimiento microbiológico a comienzos del siglo XX, decir que una bacteria era un organismo vegetal era totalmente esperable y sin demasiados reproches. Ya hemos visto en reiteradas oportunidades que el estado de confusión sobre qué eran exactamente los microbios predominó durante mucho tiempo. Con el avance del conocimiento se pudo lograr establecer, con criterios más que razonables, la diferencia entre una bacteria y un vegetal. Por lo menos eso es lo que nos creemos los que vamos por la vida llevando un microscopio 89 |

Mario L. Vilaró

en nuestras manos y nuestros corazones. Pero no todo suele estar tan claro para los académicos de la lengua. La vigésima edición del Diccionario de la RAE incurre en un error de interpretación que vaya uno a saber por qué motivo pasó inadvertido. En la definición de la palabra “flora”, dice textualmente: flora. (Del lat. Flora, diosa de las flores). 1. f. Conjunto de plantas de un país o de una región. 2. f. Tratado o libro que se ocupa de ellas. 3. f. Conjunto de vegetales vivos adaptados a un medio determinado. Flora intestinal. Flora posglacial. Basta consultar el diccionario en línea de la RAE para ver una pestaña que dice “artículo enmendado”. Al presionar allí, aparece la siguiente enmienda: flora. (Del lat. Flora, diosa de las flores). 1. f. Conjunto de plantas de un país o de una región. 2. f. Tratado o libro que se ocupa de ellas. 3. f. Conjunto de microorganismos adaptados a un medio determinado. Flora intestinal. Esta corrección hace referencia de manera específica al avance de la vigésima tercera edición que pronto va a salir a la luz. Es decir que los estudiosos de la lengua española tardaron 96 años en reconocer que las bacterias de la flora intestinal no son vegetales. Consultando las cifras del diccionario, vemos que entre la vigésima segunda y la vigésima tercera edición (desde el año 2001 hasta al año 2010, cuando se cerraron las correcciones), la Real Academia tuvo que hacer 6688 enmiendas de acepción, o sea, correcciones en el

| 90

Sobre microbios y humanos

sentido de otras tantas palabras. ¡Mirá vos… tan académicos que parecían los académicos! Aunque tampoco se trata de cargar las tintas sobre los académicos; nosotros, los microbiólogos, también tenemos lo nuestro. El vocablo flora fue ampliamente utilizado en el ambiente de los microbios. Sin embargo, más de uno de los cultores de la ciencia de lo pequeño, lo objetó porque no figuraba en el diccionario con el sentido que se le daba en microbiología. Cosa que era cierto. Se propuso reemplazarlo por otro: microbiota, que se ajustaba con mayor precisión al uso científico. Toda una sutileza académica. Lo curioso es que el nuevo término tampoco figura en el diccionario (ni siquiera se registra la entrada de esa palabra, cosa que sí sucede con flora). Será cuestión de esperar otros 96 años para que aparezca, siempre y cuando no surja uno nuevo. Entre tanta parafernalia de acepciones enmendadas, bien podemos hacer la vista gorda por la confusión entre bacterias y vegetales. Otra palabra usada para nombrar los microorganismos es germen. De acuerdo con el diccionario, un germen es un microorganismo que puede causar o propagar enfermedades. Curiosamente, en la acepción microbiológica de la palabra el diccionario dice “germen patógeno”, lo que nos remite a la definición enunciada más arriba. Es pues que para los académicos de la lengua todos los gérmenes son patógenos. Eso llevaría a que revisásemos el uso que los microbiólogos le damos al término. Desde un punto de vista general, cuando nos referimos a un germen no necesariamente queremos decir que estamos hablando de un patógeno. El uso de esa voz es ampliamente difundido en los distintos textos 91 |

Mario L. Vilaró

y publicaciones, aunque en microbiología clínica existe una estrecha relación entre germen y enfermedad. La palabra deriva del latín “germinis” que significa brote o semilla. Lucrecio (96-55 a. C.), en su “De rerum natura” (De las cosas de la naturaleza) hace varias alusiones a lo que llamó “semillas de enfermedad”. El origen de su uso en microbiología se remonta a la época de la lucha contra la generación espontánea. Los partidarios de la biogénesis elaboraron “la teoría del germen” para oponerse a los generacionistas. Su aplicación se encuentra ampliamente justificada ya que con la elección de esa locución latina se estaba demostrando que la vida no se generaba de manera espontánea, sino a partir de una “semilla viva” que germinaba. Tan sutil como contundente. En el año 1640, se utiliza esa palabra para definir el “rudimento de un microorganismo originado de otro preexistente”. En 1803, se la emplea por primera vez como “causante de enfermedad”, y en 1871, se la usa como “microorganismo peligroso”. Sin embargo, en los últimos años se ha instalado la tendencia a no usarla en textos científicos escritos en castellano. Un poco más precisa, en cuanto al aspecto morfológico, es la expresión bacilo. Su origen es el latín “baculum”, que significa bastón. En castellano actual, la palabra báculo hace referencia al “palo o cayado que llevan en la mano para sostenerse quienes están débiles o viejos”. Báculo también es usado por dignatarios en el rito cristiano en franca relación a su función pastoral. Basta recordar que los pastores de la Antigüedad se desplazaban grandes distancias con el objeto de buscar buenas pasturas para sus ovejas. Como las caminatas eran largas, solían ayudarse con un largo palo con un

| 92

Sobre microbios y humanos

extremo ligeramente curvado para prender y retener a los animales que se alejaban del rebaño. Entonces, remedando a los viejos pastores, los obispos y el mismo Papa suele predicar sosteniendo en sus manos el báculo para prender y retener a los fieles descarriados. Al fin y al cabo, ellos también son pastores y debe mantener su majada en orden. Con los cocos la cosa se pone complicada, si nos atenemos a lo que dicen los académicos de la lengua. Todos los que trabajamos en microbiología sabemos lo que es un coco, una de las principales formas bacterianas de la naturaleza y, a la sazón, uno de lo términos que probablemente empleemos con mayor frecuencia. Cualquier libro de microbiología nos dice que coco deriva del griego “kokkos”, que significa grano; posteriormente pasó al latín como “coccus”, conservando el mismo significado. Nada que objetar a esa denominación por demás descriptiva de lo que se observa al microscopio. Y de eso se trata, de describir lo que vemos lo más fielmente posible y que de esa descripción emane la información suficiente que nos permita actuar en consecuencia. Como entre microbiólogos nos entendemos, si en un preparado microscópico decimos que observamos cocos, todos estamos de acuerdo y sabemos a qué nos referimos. No obstante, si nuestro interlocutor no es afín a las bacterias, es posible que no nos comprenda y recurra al diccionario. Allí se encontrará con una lista de designaciones de la palabra coco, y podrá pensar que estamos hablando de un árbol americano, una fruta de consistencia coriácea, de un fantasma que lleva una calabaza vacía en la cabeza, un gorgojo, un ave zancuda o, finalmente, un micrococo. Parece que, al ser la palabra tan prolífica en significados, los académicos decidieron llamar micrococo a la bacteria, para diferenciarla de las acepciones precedentes.

93 |

Mario L. Vilaró

Es harto sabido que los lingüistas saben muy poco de ciencia, y menos aun de microbiología, pero tratan de acomodar las cosas para que todo el mundo se comprenda. Si nos atuviésemos a las normas de la Academia, en lugar de decir que en un preparado se observan cocos Gram positivos, deberíamos decir que observamos micrococos Gram positivos, lo que generaría más de una confusión. En 1877, el cirujano vienés Albert Theodor Billroth, fue más allá con la denominación y llamó Streptococcus (del griego streptos: intrincado) a cocos que presentaban cierta distribución morfológica. El concepto clásico que tenemos de cocos dispuestos en forma de cadena no obedece en sentido estricto a la etimología de la palabra (en castellano intrincado quiere decir enredado, complicado, confuso), pero es por demás sugerente del aspecto con que se muestran en la naturaleza. El bacteriólogo escocés Alexander Ogston, afinó un poco la puntería, al llamar Staphylococcus a las bacterias con forma de cocos que se encontraban agrupadas en formas de racimos (del griego staphylo, racimo de uvas). En taxonomía microbiológica, el sufijo “coccus” es ampliamente utilizado para indicar que el microorganismo tiene forma circular, independientemente del grupo microbiano al que pertenezca, y no constituye una entidad taxonómica en sí mismo. Si nos pusiéramos a rebuscar un poco más en la nomenclatura biológica, nos sorprenderíamos al ver que el género “Coccus” sí existe, aunque se refiere a un insecto de la familia de los Coccidae, vulgarmente conocido como cochinilla; pero con los entomólogos no nos metemos, que se ocupen ellos de sus cocos, que nosotros nos ocupamos de los nuestros.

| 94

Sobre microbios y humanos

Como vemos, la atribución de un nombre a determinada forma microbiana trata, generalmente, de ajustarse al aspecto que presente de modo que pueda ser lo más ilustrativo posible. Nada más demostrativo de lo que acabamos de afirmar que el caso de las espiroquetas. Dentro de la amplia variedad de formas que tienen los microorganismos, una de las más llamativas es la de las espiroquetas. La denominación espiroqueta comenzó a usarse hacia 1877. Su etimología deriva del griego spiro, espiral, y chaite, cabello (no podemos negar que la imagen de un cabello enrulado es muy ilustrativa). Más interesante es la definición del diccionario de la Real Academia. En su primera acepción nos dice que una espiroqueta es algo “perteneciente o relativo a las espiroquetales”, pero al buscar la palabra espiroquetales en el mismo diccionario, nos topamos con que no existe. No hemos podido discernir si se trata de un acertijo de los académicos, o si simplemente se sacaron el problema de encima al citar una palabra que no figura en el mismo texto que ellos redactaron. En la segunda acepción se salva el honor diciendo que se trata de una “Bacteria a menudo patógena, de un taxón que se caracteriza por tener cuerpo arrollado en hélice. A este grupo de bacterias pertenecen las causantes de la sífilis y de la fiebre recurrente en el hombre”. Resulta casi inevitable asociar a las espiroquetas con la sífilis. El agente causal de la enfermedad es habitualmente conocido como la “espiroqueta pálida de Schaudinn” más que por su nombre real, Treponema pallidum. Fritz Schaudinn (1871-1906) era un zoólogo alemán – por esos años, prusiano- que se dedicaba a estudiar el ciclo vital de diferentes protozoarios. Su descubrimiento significó un importante avance acerca del conocimiento de una enfermedad tan per-

95 |

Mario L. Vilaró

judicial como controvertida. Treponema es la combinación de dos palabras griegas, tropos, cambio, giro, movimiento, y nema, hilo. Pallidum –pálido- hace referencia a la dificultad que representa su observación microscópica, ya que al ser una bacteria tan delgada, se presenta casi transparente. En conclusión, se trata de un “hilo pálido que gira”, interesante retrato del hallazgo hecho por Schaudinn. Otra morfología microbiana es la de vibrio. Su etimología deriva del latín vibrare, en obvia alusión al movimiento que lo caracteriza (basta haber observado solo en una oportunidad un vibrio, para comprender cabalmente lo que se quiere significar). En algún momento de su historia, el vibrio fue llamado “anguila del vinagre”, denominación que cayó en desuso. Del mismo modo que en el caso anterior, cuando hablamos de vibrios, vibriones para el diccionario de la RAE, es imposible dejar de referirse a la patología causante de numerosas epidemias históricas, solo comparables a las de la peste: el cólera (la historia de esa expresión la vimos en el capítulo III, “Cocos escondidos, bacterias envueltas, inquilinos indeseables y otros nombres raros”). Para ir concluyendo, vemos que el recorrido que han hecho las palabras microbiológicas a lo largo de la historia es por demás atrayente. Día a día van aflorando neologismos que la ciencia necesita para denominar sus nuevos descubrimientos. A medida que ganan espacio en el vocabulario, suelen salir, cada vez con mayor frecuencia, del ámbito académico hacia el hablar cotidiano. Mientras mayor relevancia tenga un hallazgo científico, más pronto la palabra ingresará al lenguaje popular y será necesario entonces que su incorporación al diccionario de la lengua sea considerada por los académicos. Tér-

| 96

Sobre microbios y humanos

minos como metagenoma, bioremediación, probiótico, por mencionar solo algunos que han nacido de la microbiología, esperan su turno para que los doctos lingüistas se dignen considerarlos o que, de manera consuetudinaria, se vean obligados a aceptarlos. Definitivamente, los académicos no saben nada de microbiología, pero se ven obligados a opinar de cosas que no entienden. Allá ellos. Bibliografía consultada Domínguez Ramón Joaquín. Suplemento al Diccionario Nacional o Gran Diccionario Clásico de la Lengua Española, 5ª ed. Madrid-París, Establecimiento de Mellado, 1853. Diccionario Médico- biológico, histórico y etimológico. Ediciones de la Universidad de Salamanca. Etymologia. Emerging Infectious Diseases • www.cdc.gov/eid • Vol. 17, No. 11, November 2011. Salacroux M : Nuevos Elementos de Historia Natural Conteniendo la Zoología, La Botánica, La Mineralogía, y La Geología, aplicadas a la Medicina a la Farmacia, a la Ciencia y a las Artes comunes. Madrid, Imprenta de Verges. 1839. Google libros, www.books.google.com.

97 |

VIII El sexo de los ángeles (Sobre la vida sexual de las bacterias y el gran incesto universal) Para Alejandro, ser intelectualmente incestuoso, si los hay La expresión “discutir sobre el sexo de los ángeles” ha sido empleada para significar que una discusión es en vano. Su origen se remonta a la Edad Media y el Renacimiento cuando los artistas intentaban representar a los ángeles en los cuadros religiosos. Es común ver ciertas pinturas clásicas de santos o vírgenes en las que se exalta su condición celestial rodeándolos de ángeles. Uno de los problemas que se generó por esa época fue cómo representarlos y definir qué sexo tenían. Los textos sagrados no hacen ninguna referencia explícita al respecto aunque, como suele suceder en estos casos, siempre están sujetos a diferentes interpretaciones. Las autoridades eclesiásticas se embarcaron pues en discusiones sobre el tema para terminar de zanjar las diferencias. Fueron entonces discusiones bizantinas –otra expresión religiosa-, que en ocasiones no llegaban a buen puerto. Finalmente se arribó a un acuerdo en el que se

99 |

Mario L. Vilaró

los definió como seres “inmateriales y andróginos”, y asunto terminado. Mientras tanto, los pintores habían solucionado el problema tiempo antes al pintar ángeles rodeados de vaporosas telas o gasas que, irremediablemente, terminaban ocultando sus partes pudendas; los dotaron, además, de rostros infantiles e indefinidos. A pesar de ello, perduró en la conciencia histórica el sentido que actualmente le damos a la expresión: debatir inútilmente sobre algo que carece de sentido. Si esto fuese el Martín Fierro, bien podríamos expresar la frase “discutir al ñudo” para ser más gráficos sin caer en la vulgaridad de emplear una locución más popular. En el supuesto caso de que existiesen ángeles, y en el más supuesto caso aún de que tuvieran sexo, es poco significativo como tema para profundizar conocimientos; ni siquiera –nos aventuramos a afirmar- para los teólogos más avezados, que dedican sus días a zarandear con especulaciones teologales toda la estantería celestial. En este caso, la expresión es válida para ilustrar el hecho de que muchas veces la ciencia suele enredarse en discusiones estériles y enmarañadas, de las que rara vez surge una verdad que pueda emplearse como aporte concreto al saber de la humanidad. Generalmente se limitan a posturas, más filosóficas que experimentalmente comprobables, que suelen asumir los científicos cuando -inspirados por un dejo de soberbia- tienen ganas de discutir con sus pares. No obstante, de tanto en tanto, especular sobre ideas que van más allá de lo experimental, no le viene mal a nadie. De acuerdo con ello, e intentando dar un poco de vuelo a nuestras disquisiciones, nos vamos a permitir reflexionar sobre el sexo de los microbios. Finalmente, no creemos que vayan a manifestar su desagrado por adentrarnos en su intimidad.

| 100

Sobre microbios y humanos

Las estrategias reproductivas de los seres vivos son tan variadas como interesantes. En última instancia, y desde un punto de vista fisiológico, las podemos resumir en la búsqueda de un adecuado balance energético que asegure la supervivencia de la especie. En dinámica de las poblaciones, existe la denominación de “R estrategas” para definir a determinadas especies que presentan elevada fertilidad –o gran potencial biótico- aunque su supervivencia sea baja y que, sometidas a altos índices de mortalidad, la compensan con crecimientos explosivos en períodos favorables. Son poblaciones oportunistas que basan su éxito en producir un gran número de individuos en el menor tiempo posible. Por el contrario, los llamados K estrategas (sin ningún tipo de implicancias políticas, ahora que está de moda usar la letra K para significar otro tipo de cosas) son aquellos que, en términos generales, tienen una tasa de reproducción baja pero proveen los cuidados parentales suficientes para disminuir la mortalidad, y asegurar que la mayoría de sus miembros lleguen a la etapa reproductiva. Dicho de otro modo: algunos gastan mucha energía reproduciéndose activamente, mientras que otros la gastan cuidando a sus pocos hijos. Pero no solo siendo muchos se logra una buena táctica reproductiva. También es necesario que esos muchos sean diversos para poder adaptarse a las variaciones del medio ambiente. Un ejemplo paradigmático de individuos R estrategas en la naturaleza, son las bacterias. Son numerosas, se adaptan a todos los ambientes y se reproducen a gran velocidad cuando las circunstancias les son favorables. Si las condiciones son adversas, recurren a la vieja táctica de “violín en bolsa” y esperan a que soplen mejores vientos. Al fin y al cabo no se trata de otra cosa que optimizar los recursos para la supervivencia.

101 |

Mario L. Vilaró

La tan mentada ubicuidad bacteriana es el modelo por antonomasia de lo que acabamos de afirmar. La capacidad de adaptación bacteriana y su plasticidad reproductiva nos llevan a concluir que se trata de una eficiente asociación de mecanismos destinados a maximizar la energía disponible con el objeto de perpetuar la especie. En su definición biológica clásica, la reproducción sexual implica la unión de dos gametos mediante el proceso denominado fecundación o singamia. El término singamia fue acuñado por el naturalista inglés Marcus Manuel Hartog en el año 1904, a partir de las palabras griegas sin “con”, “unión”, y gamia “boda”, para significar la fusión de dos gametos que culmina con la creación de un nuevo individuo, cuyo genoma deriva de ambos progenitores. Existe la tendencia a atribuir sexo a los gametos, de tal modo que solemos expresar gametos masculinos o femeninos. Pero como en biología nada es todo y todo es nada, nos tropezamos con varias situaciones que escapan a la descripción tradicional y que nos obligan a replantear los conceptos usados. Se podría encuadrar la concepción de sexualidad biológica bajo un punto de vista antropocéntrico. El binomio masculino/femenino (varón/mujer) –significaciones esencialmente humanas- se traslada al resto de la biología como la dupla macho/hembra que termina generalizándose a todos los seres vivientes del universo. Entonces no solo terminamos hablando de animales y vegetales macho o hembra, sino que también la generalización llega hasta los microbios. En el estado actual de conocimiento, no quedan dudas de que la reproducción sexual sienta sus bases en la recombinación de genes. Desde ese punto de vista, es lógico

| 102

Sobre microbios y humanos

razonar que gracias a ella se asegura de manera constante el intercambio de genes, reforzando permanentemente la potencia evolutiva de la variabilidad genética. De ese modo, en una eterna danza de fragmentos de ADN que se truecan de generación en generación, las diferentes especies vivientes se van nutriendo de nuevos genes que les permiten hacer frente a las variaciones ambientales y, por consecuencia, tener mayores posibilidades de sobrevivir. Ello ha generado que los naturalistas usen la expresión “vigor híbrido” para referirse a la mayor disposición para adaptarse a los cambios que poseen los organismos engendrados de padres genéticamente diferentes. Cuanto mayor es el entrecruzamiento sexual de una población, mayor será su vigor híbrido y sus posibilidades de sobrevivir. Igualmente, una población raramente está aislada en la naturaleza. Usualmente, la teoría evolutiva pone énfasis en los cambios ambientales, no obstante los individuos viven en poblaciones que se encuentran insertas en comunidades con otros seres que también están en constante cambio. Es decir que todos intercambian genes para adaptarse a las modificaciones. Esa afirmación proviene de las conclusiones de Van Valen quien dice, en su famosa “Hipótesis de la reina roja”, que cada cambio evolutivo genera más cambio evolutivo y todos los organismos corren desesperadamente (evolucionan) para permanecer en el mismo lugar (conservarse). Finalmente, parecería que hacen tanto esfuerzo para nada (Van Valen se basó en la novela Alicia a través del espejo, de Lewis Carroll -segunda parte de Alicia en el país de las maravillas- en donde existe el país de la Reina Roja que se mueve a gran velocidad y sus habitantes deben correr permanentemente para permanecer en el mismo lugar). Con base en ello, es factible pensar la reproducción sexual como un recurso más que eficiente para dotar a las 103 |

Mario L. Vilaró

especies de un eficaz poder de adaptación. La pregunta más que obvia es ¿cómo se explica que organismos ubicuos como las bacterias, que han logrado adaptarse a prácticamente todos los hábitats del planeta, no se reproduzcan sexualmente? Durante muchos años las bacterias fueron consideradas organismos biológicamente excepcionales: sin genes, sin núcleo y sin sexo. Ello dejaba abierta una serie de interrogantes no solo sobre su mecanismo de reproducción, sino también acerca de su estrategia adaptativa. Los pioneros en avanzar sobre el tema fueron Lwoff (1938) y Knight (1936), que estudiaban los requerimientos nutricionales de los microorganismos y sus variaciones evolutivas referidas a sus habilidades para sintetizar nutrientes. Ellos fueron los que descubrieron que las bacterias poseían genes, y sugirieron que bajo ciertas circunstancias disponían de un instrumento de intercambio genético similar al de otros seres vivos, aunque no lo llamaron estrictamente reproducción sexual. Avery, MacLeod y McCarty demostraron, hacia el año 1944, que la responsable del proceso de transformación de la bacteria por entonces llamada Pneumococcus, no era otra cosa que la molécula de ADN. Esto significó un cambio más que significativo en la comprensión de la reproducción bacteriana, y abrió una luz en una parte del conocimiento que hasta ese entonces había permanecido en la oscuridad. A tal punto fue así, que en el año 1954 la Asociación Americana para al Avance de la Ciencia llegó a realizar un simposio sobre el sexo en los microorganismos. Al hacer

| 104

Sobre microbios y humanos

una breve revisión sobre los temas abordados en dicha reunión, se pone en evidencia que los científicos se dedicaron a profundizar sobre la sexualidad de todos los microbios (bacterias, virus, algas unicelulares, protozoos, etc.), y al momento de sacar conclusiones no dejaron títere con cabeza. Hurgaron sin piedad en la vida privada microbiana, y dejaron al desnudo, si es válido usar una expresión gráfica, los secretos de alcoba celosamente guardados por los microbios. La asociación entre el proceso de intercambio genético denominado conjugación bacteriana y la copulación de otros seres vivos, ha llegado a tomar ribetes interesantes, si de interpretaciones libres hablamos. Edward Tatum y Joshua Lederberg describieron la conjugación bacteriana en 1952, e introdujeron el término plásmido para definir a una partícula genética extracromosómica. Uno de los científicos que más ahondó sobre el tema fue el francés Francois Jacob. Su libro Sexuality and the genetics of bacteria habla a las claras sobre la exégesis que hizo acerca de la reproducción bacteriana. Jacob inició sus estudios en medicina y tuvo que interrumpirlos para luchar en la Segunda Guerra Mundial. Luego de concluido el conflicto bélico, culminó su carrera y se graduó como médico cirujano, tarea que no pudo desempeñar ya que las secuelas de una herida recibida en el campo de batalla se lo impidieron. Ingresó al Instituto Pasteur y comenzó a estudiar los mecanismos de transmisión genética de los microorganismos. En 1965 fue galardonado, conjuntamente con Jacques Monod y André Lwoff, con el premio Nobel de fisiología o medicina, por sus descubrimientos sobre el control genético de las en105 |

Mario L. Vilaró

zimas y la síntesis de los virus. De allí en más, el sexo de los microbios ha llegado a ocupar un lugar distinguido en las investigaciones de los microbiólogos. Con el advenimiento de las técnicas de biología molecular, el conocimiento de los mecanismos que regulan el intercambio genético microbiano ha crecido de manera exponencial. En un artículo periodístico aparecido en la “sección ciencia” del diario El Mundo de España (marzo de 2008), se comenta una publicación realizada por un grupo de investigadores croatas encabezado por el académico Miroslav Radman. En el trabajo se presenta por primera vez en sociedad un video en donde se muestra, sin censura, la conjugación bacteriana. Más allá del importante aporte académico que se expone en el trabajo de los investigadores, la interpretación que hace el divulgador científico que escribe el artículo no deja de tener un sesgo por demás curioso. Citamos textualmente: “Un grupo de científicos croatas, encabezado por el académico Miroslav Radman, ha logrado por primera vez filmar y explicar la copulación entre bacterias, la forma más elemental de sexo en la naturaleza. Hasta aquí vamos bien (aunque la palabra copulación pueda sonarnos fuera de lugar), mas en el segundo párrafo se puede advertir que el periodista toma una cierta tendencia al morbo cuando acota: “Las bacterias masculinas, según se revela en las imágenes, tienen un órgano sexual hasta cinco veces

| 106

Sobre microbios y humanos

mayor que la bacteria misma.” Del comentario precedente deducimos que, de acuerdo con el reportero, en las bacterias “el tamaño sí importa”; aunque los implicados en la orgía microscópica registrada por las cámaras se negaron a hacer declaraciones. Es probable que el autor del artículo haya considerado de interés para el público que el Pilus bacteriano tenga semejante tamaño. ¿Es posible imaginar al periodista mirando con ojos exorbitados el video, dando rienda suelta a sus fantasías más perversas, mientras considera que el tema tiene la relevancia suficiente para ser comunicado de manera masiva? Una consideración importante es que el Pilus bacteriano no constituye necesariamente un órgano sexual, aunque algunos autores lo hayan interpretado de ese modo. De hecho, en diferentes textos suele mencionárselos como Pili sexuales. En realidad, son prolongaciones citoplasmáticas que constituyen puentes de unión entre los contenidos intracelulares de diferentes bacterias. Se ha interpretado a la bacteria donante como macho y a la receptora como hembra, lo que constituye una simplificación más ilustrativa que otra cosa, y no hace honor a su verdadera función. Pero bueno, así somos los humanos, siempre hay un poco de liviandad en el fondo de nuestro espíritu. Bajo la misma óptica, se podría considerar a los científicos expertos en la materia como una suerte de voyeurs que dedican sus académicas vidas a espiar de manera lasciva los lujuriosos encuentros microbianos. Si hay algo que queda claro es que los microbios realizan profusos intercambios de genes que, a los ojos de un moralista, bien podrían ser considerados promiscuos; en 107 |

Mario L. Vilaró

especial si tenemos en cuenta que las bacterias suelen conjugarse con otras de diferentes especies sin demasiados remilgos. A pesar de ello, y en defensa de la integridad moral bacteriana, se ha descubierto que ciertos organismos producen precursores de feromonas con el objeto de generar atracción química con otros individuos, para favorecer un intercambio de genes más eficiente. De ese modo, las bacterias pueden “elegir” químicamente con quién unirse y con quién no. Promiscuos, pero no tanto. Tampoco es cuestión de revolear la chancleta - o los Pili - en demasía. Aunque nunca falta algún individuo que se deje llevar por las pasiones carnales, rompa las fronteras y se sumerja en el mundo del libertinaje. Tal es el caso de Agrobacterium tumefaciens, bacteria simbionte de algunos vegetales, y parásita de otros, que posee un plásmido de ADN (conocido como T-DNA) que tiene la propiedad de integrarse al genoma vegetal y alterar el sistema de regulación de crecimiento de la planta. Otro caso es el llamado plásmido F de Escherichia coli, que se transfiere al hongo S. cerevisiae, gracias a un mecanismo similar a la conjugación. Son claros ejemplos de que algunas bacterias están abiertas a cualquier tipo de experiencias sexuales. Al fin y al cabo, si los microbios consideran que no está nada mal probar de todo en la vida, allá ellos. ¿Quiénes somos los microbiólogos para abrir juicio de valor sobre la moral microbiana? Otro aspecto interesante de la sexualidad bacteriana es que no se asocia de manera directa con la reproducción. De hecho, la unión entre dos bacterias tiene por fin intercambiar material genético y rara vez se hace con el objeto de reproducirse. Cada vez que las bacterias tienen contacto íntimo, enriquecen su capital de genes y ganan vigor híbrido para sobrevivir, pero no implica que la unión tenga por

| 108

Sobre microbios y humanos

fin la reproducción. La lógica consecuencia del intercambio genético es que esos genes se transmitan a la herencia, pero por los mecanismos de división celular conocidos. También es sabido que, si bien la conjugación es la forma más difundida, no es la única manera como las bacterias modifican naturalmente su dotación de ADN, e incorporan material genético extraño. Ello nos muestra que han evolucionado tanto, que han logrado prescindir del Pilus, para desagrado de aquellos, como el periodista citado más arriba, que pudiesen regodearse con especular qué bacteria lo tiene más grande (para todos aquellos que se puedan sentir interesados, es oportuno decir que el tamaño medio de un pilus es de 6 o 7 nanómetros, y que lo destacado en el artículo periodístico solo corresponde a honrosas excepciones). Queda claro que si bien la unión sexual entre individuos de una misma especie representa, en la mayoría de los reinos vivientes, un acto tendiente a la reproducción, no lo es de manera forzosa en el caso de las bacterias. La apreciación humana suele ser errónea o, cuando menos, distorsionada. A partir de allí, cualquier tipo de reflexión que se haga nos llevará a conclusiones imprecisas y a discusiones estériles, tanto como lo era debatir sobre el sexo de los ángeles. Tampoco deberemos arribar a soluciones salomónicas, como declarar a las bacterias seres andróginos (como los ángeles), intentando solucionar las diferencias inexplicadas. La cosa va mucho más allá de eso. Quizás el hombre, y los científicos que estudian estos temas en particular, deberían dejar de lado cualquier tipo de apreciación desde una visión exclusivamente humana. No es fácil, finalmente somos seres humanos, aunque los hombres de ciencia deberían poder abstraerse de su condición de tales, y pensar y analizar los hechos con una mentalidad abier109 |

Mario L. Vilaró

ta que les permitiese posicionarse un escalón más arriba del común de los mortales. Los acontecimientos biológicos en general deberían ser interpretados en un contexto mucho más extenso que el de una serie de reacciones físicas y químicas que conducen a un determinado fin. Es innegable que el estudio profundo de los mecanismos moleculares que se desencadenan en tal o cual proceso biológico, ayuda a una mejor comprensión de los misterios de la vida. Sin embargo, sería mezquino quedarse solo en eso, ya que estaríamos develando nada más que una parte de la historia. Queda pendiente avanzar un poco más allá de los simples hechos demostrables de manera experimental, y analizarlos en una línea de pensamiento que nos ayude a comprenderlos de manera holística. El diccionario de filosofía nos dice que: “El holismo es una posición metodológica y epistemológica según la cual el organismo debe ser estudiado no como la suma de las partes sino como una totalidad organizada, de modo que es el `todo` lo que permite distinguir y comprender sus `partes`, y no al contrario. Las partes no tiene entidad ni significado alguno al margen del todo, por lo que difícilmente se puede aceptar que el todo sea la `suma` de tales partes.” Desde ese punto de vista, poco importa si las bacterias tienen sexo o no, y menos aún el tamaño del supuesto órgano sexual. El error de apreciación en que incurre el periodista, autor del artículo que acabamos de citar, es justificable, en especial viniendo de una persona que no está necesariamente trabajando en ciencia. Lo llamativo es que algunos científicos especializados no puedan ver algo más

| 110

Sobre microbios y humanos

allá, o por lo menos tener la inquietud de querer avanzar. De nada sirve estudiar cualquier fenómeno microbiano si se lo entiende de manera aislada y no formando parte de un todo integral, que surge de mucho más que la suma de sus partes. Podemos detallar hasta el extremo, por ejemplo, los procesos fisiológicos que permiten el transporte de sustancias a través de la pared bacteriana, pero si no llegamos a comprender de qué modo están concatenados con un sistema físico-químico de regulación biológica mucho más complejo, estaremos viendo solamente una parte de la historia. Si nos quedamos solo con eso, podremos saber hasta el extremo cómo funciona una bacteria, pero difícilmente podamos definir qué es una bacteria y qué lugar ocupa dentro del universo cósmico de vida que nos rodea, en donde cada componente encaja y ocupa un lugar misteriosa e inexplicablemente perfecto. Finalmente, estudiar una ciencia describiendo únicamente los sucesos que la caracterizan, debería resultar insuficiente para aquellos que tienen la posibilidad de mirar el conocimiento desde una óptica mucho más amplia. Quedarnos en el análisis puntual del fenómeno sería desaprovechar una excelente oportunidad de ampliar nuestro horizonte. Probablemente debamos adentrarnos en conocimientos ajenos a la microbiología. Probablemente la incapacidad de comprender nos desanime. Probablemente nunca lo consigamos entender. No se trata de que nos transformemos en filósofos o epistemólogos, pero bien vale la pena intentar mover un pie para subir un escalón. Para concluir, poco valor tiene cualquier apreciación humana sobre las promiscuas e incestuosas relaciones que tienen las bacterias. ¿A qué otra cosa aspira un ser vivo que 111 |

Mario L. Vilaró

no sea reproducirse?, y en este caso, si lo hace con muchos, mejor. Bibliografía consultada: Jacob Francois. Le Jeu des possibles, essai sur la diversité du vivant. 1981. París, Librairie Arthème Fa-yard. Ana Babić, Ariel B. Lindner, Marin Vulić, Eric J. Stewart, Miroslav Radman. Direct Visualization of Horizontal Gene Transfer. Science, March 2008; 319; 5869;1533-1536. Jacob Francois and Élie Wollman. Sexuality and the genetics of bacteria. 1961. Academic Press. Dorion Sagan, Tyler Volk. Sex and Death. 2009. Barcelona. Editorial Kairos. David Henry Wenrich. Sex in microorganisms; a symposium presented on December 30, 1951, at the Philadelphia meeting of the American Association for the Advancement of Science. Washington, 1954. Joshua Lederberg and E. L. Tatum. Sex in Bacteria: Genetic Studies, 1945-1952. Science, August 1953, Vol. 118, So. 3039, 169-175. Masamichi Kohiyama, Sota Hiraga, Ivan Matic, and Miroslav Radman. Bacterial Sex: Playing Voyeurs 50 Years Later, Science 8 August 2003: Vol. 301 no. 5634 pp. 802-803. Clewell DB, Francia MV, Flannagan SE, An FY. Enterococcal plasmid transfer: sex pheromones, transfer origins, relaxases, and the Staphylococcus aureus issue. Plasmid. 2002 Nov; 48(3):193-201.

| 112

IX Del microbio vienes y en microbio te convertirás (Sobre el origen de la vida y su relación con los microbios) Y Dios creó los microbios y vio que era bueno En el año 2011, un grupo de científicos encontró, en la formación rocosa australiana de Strelley Poll, fósiles microscópicos de bacterias que vivieron hace 3400 millones de años. El hallazgo es de suma importancia ya que constituye el registro de vida más antiguo del planeta. El Profesor Martin Brasier de la Universidad de Oxford, publicó su hallazgo en la revista Journal Nature Geoscience. Al respecto, Brasier apunta: “Finalmente tenemos una evidencia sólida sobre la existencia de vida hace 3400 millones de años. Se confirma que existían bacterias por esos tiempos y que vivían sin oxígeno.” De acuerdo con las teorías, la Tierra no era el mejor lugar para vivir. No existía la atmósfera tal como la co-

113 |

Mario L. Vilaró

nocemos hoy -su principal característica era la ausencia de oxígeno-, se registraba una profusa actividad volcánica en la superficie y la temperatura del agua alcanzaba los 50º C. La amplitud de la marea era enorme y circulaban violentas corrientes marítimas y los continentes aún no se habían consolidado. De tal modo que resulta un poco difícil imaginar seres vivos que tuviesen la capacidad de sobrevivir en ese ambiente hostil. Sin embargo, parece ser que bajo esas condiciones extremas se originó la vida. ¿Sería demasiado pretencioso afirmar que todos los seres vivos del planeta derivan de un microbio? (Nuestro ego de microbiólogos se enaltece al tomar semejante protagonismo). Las teorías sobre el origen de la vida en nuestro planeta han dado mucha tela para cortar. Resulta inevitable soslayar las creencias religiosas que sustentan las diferentes doctrinas, al fin y al cabo, cada uno de nosotros deberá acordar con su dios y su fe; pero vamos a tratar de centrarnos en aquellas que se orienten al pensamiento científico. Más allá de los matices e interpretaciones, las especulaciones científicas confluyen en un punto común, con variaciones en detalles de acuerdo con los autores: la vida comenzó en un entorno ambiental bastante caótico, lo que da cabida para que prácticamente todo haya sido posible. Todo apunta a que en el comienzo de los tiempos de nuestro planeta, de alguna forma, unas cuántas moléculas se agruparon y comenzaron a funcionar de manera coordinada, constituyendo un esbozo primitivo de lo que hoy conocemos como célula. Obviamente, no existen evidencias concretas de que haya sido así, pero los modelos teóricos coinciden en que podría ser factible.

| 114

Sobre microbios y humanos

Ello ha dado lugar a varias interpretaciones del mismo supuesto fenómeno con otras tantas conjeturas al respecto. En el año 1924, el químico soviético Alexander Ivánovich Oparin postuló su idea sobre el origen de la vida. De acuerdo con su pensamiento, antes de la aparición de los primeros seres vivos, existían substancias orgánicas simples en una suerte de mezcla que llamó caldo primitivo. Supuso que los primeros habitantes del planeta fueron, probablemente, heterótrofos, y que el oxígeno de la atmósfera fue generándose posteriormente, a consecuencia de la aparición de los organismos fotosintéticos que desarrollaron la capacidad de nutrirse de sustancias inorgánicas. Si bien es cierto que sustentó su teoría en apreciaciones bioquímicas, Oparin abrió el paraguas cuando se ocupó de dejar bien en claro que la misma debería ser susceptible de una “especulación razonable y experimentación que la demuestre”. Como habitualmente sucede en estos casos, sus dichos fueron cuestionados por un amplio espectro de la comunidad científica, que lo acusó de lanzar hipótesis sin el suficiente aval experimental. Y razón no les faltaba. Aunque es necesario remarcar que los cuestionamientos no fueron solo de carácter científico, ya que el debate se trasladó al plano filosófico y político. Oparin pertenecía al materialismo dialéctico, sustentado en las ideas de Marx, y a una naciente Unión Soviética que ya se perfilaba como una amenaza contra el sistema político occidental. En su libro El origen de la vida sobre la tierra (1936), escribe:

115 |

Mario L. Vilaró

“La Historia nos muestra que el problema del origen de la vida ha atraído la atención de la Humanidad ya desde los tiempos más remotos. No existe un solo sistema filosófico o religioso, ni un solo pensador de talla, que no haya dedicado la máxima atención a este problema. En cada época diferente y durante cada una de las distintas fases del desarrollo de la cultura, este problema ha sido resuelto con arreglo a normas diversas. Sin embargo, en todos los casos ha constituido el centro de una lucha acerba entre las dos filosofías irreconciliables del idealismo y el materialismo.” Pero los hombres de ciencia occidentales no querían, ni podían, dar el brazo a torcer tan fácilmente. Había en juego mucho más que una teoría. Es justo decir que la crítica hacia Oparin no fue todo lo objetiva que debería haber sido, y que la óptica empleada para la apreciación de su pensamiento fue bastante sesgada. Si leemos otro fragmento de Oparin, veremos que su forma de pensar representaba una crítica a las líneas de pensamiento opuestas a la suya: “Con arreglo a los idealistas, todos los seres vivientes, incluyendo al hombre entre ellos, habrían surgido primariamente dotados de una estructura poco más o menos igual a la que hoy en día poseen gracias a la acción de fuerzas anímicas supramateriales: como resultado de un acto creador de la Divinidad; por la acción “conformadora” del alma, de la fuerza vital o de la entelequia, etc. En otras palabras, sería siempre el resultado de aquel principio espiritual que, según los conceptos idealistas, constituye la esencia de la vida. Por el contrario, los naturalistas y filósofos de

| 116

Sobre microbios y humanos

fibra materialista, partían de la tesis, según la cual, la vida, lo mismo que todo el universo restante, es de naturaleza material, no siendo necesaria la existencia de principio espiritual alguno para explicarla. En consecuencia, al ser la generación espontánea un hecho autoevidente para la mayoría de ellos, la cuestión se limitaba a interpretar este último fenómeno como el resultado de leyes naturales, rechazando toda injerencia por parte de fuerzas sobrenaturales. Creían así que la manera correcta de resolver el problema del origen de la vida consistía en estudiar, con todos los medios al alcance de la Ciencia, aquellos casos de generación espontánea descubribles en el medio natural o inducidos experimentalmente.” Sea como fuere, y más allá de todas las consideraciones de otra índole, la idea de Oparin prendió la llama en el espíritu de los investigadores para continuar trabajando. Uno de sus seguidores fue el biólogo y genetista escocés John Burdon Sanderson Haldane (1892-1964), quien sugirió que las moléculas orgánicas libres solo habían podido originarse en una atmósfera con poco contenido en oxígeno ya que, en presencia de este elemento, la mayoría de las moléculas orgánicas se descomponen en productos simples. Había logrado notoriedad pública debido a la publicación de varias obras de divulgación científica y a los resultados de sus investigaciones en genética, selección natural y enfermedades hereditarias. Hasta aquí todo podría haber ido bien, si no fuese por un pequeño detalle: a pesar de que Haldane pertenecía a una familia aristocrática, estaba afiliado al Partido Comunista. Ello hizo que la sopa primigenia se transformase en un caldo de cultivo en el que se mezclaron ideologías y rencillas políticas que generaron su descrédito. 117 |

Mario L. Vilaró

Tanto se agitaron las aguas, que Haldane abandonó el Partido, se exilió en la India, escapó de las persecuciones de sus colegas y terminó adoptando la nacionalidad de ese país. Años después, el científico norteamericano Stanley Miller retomó la idea y decidió intentar una demostración experimental de lo sugerido por Oparin, en donde se intentó recrear las condiciones bajo las que se generó la primera forma de vida. En el ensayo de laboratorio, Miller colocó en un recipiente de vidrio pequeñas cantidades de metano, amoníaco, hidrógeno y agua, y comenzó a calentar la mezcla. La idea fue la de tratar de simular la composición y atmósfera de nuestro planeta hace millones de años. Para darle más realismo a la prueba, sometió además la preparación a frecuentes descargas eléctricas, tal como se presupone sucedía por esos tiempos en un convulsionado planeta que se estaba de formando. El resultado fue que semanas después pudo identificar, en el mejunje resultante, pequeñas cantidades de aminoácidos. Miller, exultante, creyó haber descubierto la piedra filosofal y el secreto de la vida, y decide someterlo para su publicación en la revista Science el 15 de mayo de 1953. La comunidad científica cuestionó el experimento objetando su falta de rigor, aduciendo fallos metodológicos en su diseño y poniendo en duda las conclusiones. Para el mundo de ciencia tradicional, el experimento de Miller hacía demasiado ruido en un tema tan importante. En particular, cuando el experimento en sí no era demasiado complicado (más de uno de los objetores se habrá preguntado ¿cómo no se me ocurrió a mí?). Miller continuó perfeccionando su ensayo, que pasó a la historia bajo el nombre de “Experimento Urey- Miller” (en honor al propio Miller y a su director Harold Urey, premio Nobel de química en 1934). Es justo reconocer que ni siquiera el propio Urey apoyó en sus comienzos a su discípulo, y estimó que sus apreciaciones

| 118

Sobre microbios y humanos

fueron apresuradas y requerían de mayores y mejores comprobaciones experimentales. El experimento de Miller estuvo lejos de ser concluyente. De hecho, repeticiones posteriores, realizadas incluso con el mismo equipamiento, dieron resultados discordantes y confusos. Bajo la idea de Oparin se han tejido numerosas variantes, aunque ninguna ha logrado reunir la suficiente evidencia científica que la avale como definitiva. La teoría llega hasta nuestros días, reafirmada por algunos y mirada con recelo por otros y, con diferentes matices, se postula que en el principio de la vida la cosa debe de haber sido más o menos así. Lo que sí es cierto es que se han logrado crear artificialmente algunos aminoácidos, proteínas e incluso ácidos nucleicos, aunque todavía no se ha demostrado que esos compuestos puedan autoorganizarse para constituir células autónomas. La búsqueda de un ancestro común universal (también llamado Cenancestor) ha representado una especie de quimera para la ciencia, aunque algunos no pierden la esperanza de poder encontrarlo. Con las características de adaptación funcional que poseen los microorganismos, no sería descabellado pensar que el primer ser viviente haya sido uno. ¿Quién, sino un microbio, podría vivir en una atmósfera sin oxígeno, saturada de gases y sustancias tóxicas, y bajo el rigor de elevadas temperaturas? Bueno… está bien… si no fue un microbio debe de haber sido algo parecido, tampoco es cuestión de que los microbiólogos nos creamos ser los dueños de la creación.

119 |

Mario L. Vilaró

Todo apunta a que a partir de esa primitiva forma -que de alguna manera que aún no ha sido totalmente comprendida logró autoorganizarse- se abrieron innumerables ramas que nos conducen a la complejidad biológica actual. La evolución de los seres vivos nos demuestra que los cambios se suceden desde niveles orgánicos simples hacia organismos de mayor complejidad bajo diferentes rutas evolutivas y sujetos a disímiles factores que ejercen presión para seleccionarlos. Eso explica que, en la actualidad, convivan, felices y contentos, seres tan simples y pequeños como las bacterias, con otros tan grandes y complejos como las ballenas. Y a todos aquellos que reniegan de la teoría de la evolución, bastaría con demostrarles que para los microbiólogos se trata de un fenómeno cotidiano. No obstante, si existen paleontólogos que escarban lugares remotos del planeta, y se regocijan con el hallazgo de un trozo de hueso fosilizado, tratando de reconstruir el pasado, deberían existir microbiólogos que hicieran lo mismo… al fin y al cabo ¿Qué tiene un dinosaurio que no tenga un microbio? Algunos expertos han desarrollado un área llamada arqueobacteriología, que se dedica a estudiar las posibles vías evolutivas que han seguido las bacterias a lo largo de sus millones de años de existencia. Los microbiólogos han intentado reconstruir el pasado. Gracias a estudios comparados de la composición del ADN y ARN bacteriano, tratan de analizar la afinidad de diferentes grupos y han logrado elaborar el árbol genealógico e intentado encontrar lo antepasados comunes a las bacterias actuales.

| 120

Sobre microbios y humanos

El avance de las técnicas de biología molecular ha posibilitado no solo revelar los secretos más íntimos de su composición genética, sino poder recuperar ADN de microbios que vivieron hace millones de años. Para muchos puede parecer ciencia-ficción al estilo de la película Jurasic Park, y en términos generales es más o menos lo mismo, solo que en lugar de dinosaurios se usan bacterias. Lo interesante de esto es que si para seguir los rastros de la evolución, los paleontólogos necesitan excavar en lugares inhóspitos para encontrar restos fósiles y elaborar teorías con base en ello, los arqueobacteriólogos pueden realizar experimentos de laboratorio con relativa facilidad y hasta, si se le puede llamar así, revivir microbios muy antiguos. Al someter a bacterias actuales a diferentes condiciones de vida y estudiar los cambios genéticos que producen en respuesta a los mismos, disponen de una excelente herramienta que les da la posibilidad de recrear los caminos evolutivos microbianos con elementos objetivos y bastante consistentes. ¡Nadie puede reconstruir un dinosaurio fósil en el patio de su casa, pero los microbiólogos sí pueden hacerlo con las bacterias en un pequeño laboratorio! Esto es de suma importancia, ya que el entendimiento de las bases de la evolución microbiana se puede usar como modelo para comprender los procesos evolutivos del resto de los seres vivos. Haciendo un ejercicio de abstracción, estimado lector, se podría asumir que usted proviene de un microbio ancestral y que, de no mediar circunstancias artificiales reñidas con los procesos naturales, cada una de las moléculas que componen su cuerpo pasará a formar parte de los componentes de los millones de microbios que darán cuenta de sus restos el día cuando la Parca golpee a su puerta. Viéndolo con ojos científicos, no sería más que volver a las fuentes, cerrando, ni más ni menos, el eterno ciclo de transferencia de 121 |

Mario L. Vilaró

materia y energía que ha caracterizado, desde sus comienzos, a la vida de nuestro cacareado planeta. Para muchos será poco prudente reducir al hombre (a pesar de su enorme ego) a unos cuantos nucleótidos estratégicamente ubicados, pero en el fondo no se trata más que de eso. Conforme al modo como se dispongan las moléculas, tendremos un mono, un hombre, un microbio o una zanahoria, y eso, por más que nos duela, no deja de ser una verdad incontrastable. Existen los fundamentos suficientes para sospechar que la diversidad biológica de la naturaleza actual es la consecuencia de una larga transformación evolutiva que, posiblemente, se haya originado en un caldo primigenio, y que el primer organismo viviente haya sido algo similar a un microbio. Falta dilucidar si durante ese transcurso, la intervención de algún ser superior los dotó de un alma, y que esa alma haya también evolucionado, pero todavía no se sabe, ni se lo ha logrado demostrar experimentalmente; por lo menos, por ahora. En fin… ¡vaya uno a saber! Bibliografía consultada - David Wacey, Matt R. Kilburn, Martin Saunders, John Cliff, Martin D. Brasier. Microfossils of sulphur-metabolizing cells in 3.4-billionyear-old rocks of Western Australia. Nature Geoscience, 2011.

| 122

X El alimento de los Dioses (Sobre microbios usados para alimentar a dioses) El título en sí mismo parece demasiado ostentoso. ¿De qué se alimentan los dioses?, nos preguntamos al tiempo de hacer remontar nuestra fantasía hasta lugares insospechados. Al fin y al cabo… ¡son dioses! Es de suponer que, dado semejante estado de grandeza espiritual, su dieta debe ser por demás interesante. La mitología es prolífica en interpretaciones sobre los requerimientos nutritivos divinos, tanto como lo es sobre el origen sagrado de muchos alimentos que consumimos los seres terrenales. Prácticamente, no existe civilización en la que no encontremos algún tipo de comida, grano o preparado, que tenga el apelativo de “el alimento de los dioses”. En su mayoría se trata de comestibles concretos y tangibles, que forman parte de la cultura alimenticia de cada pueblo y que, por sus características propias e identificatorias, se constituyen en emblemas nativos de cada región. De allí que se presume que han sido heredados de una entidad superior que ha tenido la grandeza de ofrecerlos a su pueblo.

123 |

Mario L. Vilaró

Nos encontramos entonces con que el cacao para las culturas mesoamericanas, la miel, para las poblaciones de Oriente Medio, y el té para el Lejano Oriente, solo por mencionar algunos ejemplos, se constituyeron en íconos de origen sagrado que encarnaban su cultura. Ni hablar del vino y otras bebidas fermentadas que, por su carácter estimulante, sustentaban con mayor fuerza sus pretendidas virtudes celestiales. De hecho, en los pueblos de la Antigüedad, el beber tenía un fuerte componente ritual, al punto que al acto de tomarse unos vinitos se lo denominaba libación. El diccionario explica que libación es la ceremonia religiosa de los antiguos paganos, que consistía en derramar vino u otro licor en honor de los dioses. Es menester aclarar que las bebidas eran derramadas, casi de preferencia, dentro de las gargantas de los que libaban, con las consecuencias esperables del caso. Es de suponer que, dentro de un marco ritual, y luego de unas cuantas libaciones, los participantes de la ceremonia deberían terminar en tal grado de estado etílico que, sin mediar otra circunstancia, estaban en condiciones de conectarse en línea directa con cuanto dios anduviera dando vueltas por allí. Al fin y al cabo, de tanto en tanto, a nadie le hace mal pillarse una buena borrachera para ponerse en comunicación con mundos espirituales y etéreos.

De todas maneras, a la mañana siguiente, la resaca les haría poner, bruscamente, los pies sobre la tierra y recordarnos la finitud de nuestras vidas y lo efímero de los contactos con los seres superiores.

Pero no todo son atracones y borracheras en el mundo divino. También existen alimentos espirituales. Tal es el caso de la ambrosía de los griegos. Se trata del “alimento inmortal”, con el que se nutrían los dioses del Olimpo. La ambrosía para los griegos era una extraña sustancia oleosa, combinación de alimento, agua y ungüento, cuyas propieda-

| 124

Sobre microbios y humanos

des concedían la inmortalidad. Se trata de lo que actualmente llamamos un “alimento funcional”, ya que aporta múltiples beneficios para quien lo consume. En pocas palabras, la ambrosía se podía comer, beber o usar como cosmético, según fuese la necesidad. En el canto XIV de La Ilíada, la diosa Hera pretende distraer a Zeus del campo de batalla para ayudar a Poseidón y los Aqueos. Para ello usa el arma más antigua y eficaz que han empleado diosas y mujeres mortales, para captar la atención de dioses y hombres mortales: la seducción. Hera decide poner “toda la carne en el asador” y, además de su gran belleza, recurre a la ambrosía. Entonces leemos: “Hera lava su deseable cuerpo con ambrosía y luego lo unta con aceite perfumado por ella misma”. Otro alimento intangible es el néctar. Si la ambrosía representa el aceite de los mortales, el néctar es la simbolización del vino. Estas dos sustancias permiten que el cuerpo de los dioses disponga de un esplendor inalterable. Un tercer elemento nutritivo, menos conocido y sujeto a interpretaciones controvertidas, es el icor, uno de los componentes de la sangre de los dioses y que, de acuerdo con algunas versiones, formaba parte de la ambrosía. En algunas civilizaciones las ofrendas o sacrificios hechos a los dioses eran comestibles. Según las diferentes interpretaciones rituales, los alimentos eran depositados en los templos y recogidos por los sacerdotes que, luego de alguna ceremonia misteriosa, extraían su esencia y la ofrecían a sus divinidades. Entonces los ofrecimientos perdían sus propiedades y no podían ser consumidos por los mortales. 125 |

Mario L. Vilaró

Nos resulta poco probable que los sacerdotes no se viesen tentados de, aunque más no fuera, picotear un poco de los pantagruélicos banquetes depositados por los fieles al pie de la imagen que simbolizaba su dios. En especial cuando, con excepción de algunos cultos orientales, los religiosos no suelen ser lo que se dice desnutridos. Podríamos seguir navegando por los senderos de la historia de los mitos y creencias, y nos encontraríamos con numerosos hechos que ilustran el tema, pero vamos a evitar seguirnos dispersando. Hasta ahora podemos concluir que, salvo las sustancias etéreas, los dioses comían alimentos comunes y conocidos. Si a esta altura del texto afirmásemos que algunos dioses se alimentaban de bacterias, luego de tantos comentarios sobre las bondades espirituales de la dieta divina, no lo creeríamos. Sin embargo, algo de cierto hay. Los Aztecas llamaban Tecuitlatl al alimento de sus dioses. El nombre Tecuitlatl significa “lodo de piedra” o “excremento de piedra”, aunque, debido a sus virtudes nutritivas, prontamente se lo comenzó a asociar como un legado divino para su pueblo. Más allá de las dificultades que siempre presentan los nombres aztecas en su pronunciación, es bueno saber que se trata de un microorganismo, más precisamente un alga verde azulada del grupo de las cianófitas, para los botánicos; o una bacteria, para los microbiólogos (es sabido el entredicho permanente que tienen los botánicos y microbiólogos, cuando de discutir sobre algas se trata). El hecho es que nos referimos a espirulina (o spirulina), cianobacterias pertenecientes al género Arthrospira, bacterias cilíndricas, fotosintéticas, que forman filamentos con disposición helicoidal.

| 126

Sobre microbios y humanos

Sin abundar en detalles, la cultura azteca presentaba características más que interesantes en cuanto a su sistema de vida, conocimientos científicos y creencias religiosas, y dominó durante siglos una importante área geográfica de América Central. Sin embargo, y según quién escriba y cómo mire la historia, las opiniones van desde “una floreciente civilización que fue arrasada por la barbarie evangelizadora española”, hasta “un grupo de bárbaros incivilizados que debían ser evangelizados”. Esta antinomia es tal que, la lectura de textos redactados en la misma época nos plantea puntos de vista tan extremos que cuesta creer que se refieran al mismo tema. Es así que el historiador azteca Domingo Francisco Chimalpahin Quauhtlehuanitzin (1579-1660), escribió: “En tanto que el mundo exista, jamás deberán olvidarse la gloria y el honor de México-Tenoclititlán”. En tanto que el eclesiástico y cronista español, Francisco López de Gomara (1511-1566), al referirse a Hernán Cortés, nos dice: “Permanezca pues, el nombre y memoria, de quien conquistó tanta tierra, convirtió tantas personas, derribó tantos dioses, impidió tanto sacrificio y comida de hombres”. Sin embargo, se nos hace difícil pensar que el pueblo Náhuatl (tal es la denominación original de los aztecas), fuese tan salvaje como dicen los conquistadores, si sus poetas fueron capaz de escribir:

127 |

Mario L. Vilaró

“Solo venimos a dormir, solo venimos a soñar. No es verdad, no es verdad que venimos a vivir en la tierra: somos como hierba primaveral. Viene, está rozagante, echa brotes nuestro corazón, abre algunas corolas la flor de nuestro cuerpo, y ya se marchita”3 Sea como fuere, la religión era imperante en la vida social y política de los aztecas. En 1521, Bernal Díaz del Castillo, miembro de las huestes de Hernán Cortés, notó que los nativos cosechaban algas en el lago Texcoco y que luego las secaban y vendían para el consumo humano. Lo describe de la siguiente manera: “pasteles pequeños hechos de unas algas parecidas al lodo, que tienen un sabor parecido al queso, y que los nativos sacaban del lago para hacer pan”. El sacerdote franciscano Bernardino de Sahagún narró: “En ciertos períodos del año, cosas muy blandas son extraídas de los lagos mexicanos. Eso se parece a un coágulo, de color azul claro, y se acostumbra a hacer pan, que entonces es cocinado y comido”. En el libro de La Conquista de México, de López de Gomara, se lee el siguiente comentario: 3  Sejoumé, Lauretle: Pensamiento Religión en México Antiguo.

| 128

Sobre microbios y humanos

“El consumo de un alimento azul-verdoso que los aborígenes de esta tierra consumían y llamaban tecuitlatl un tipo de tierra; pues con la ayuda de redes de malla muy menuda, abarren, en cierto tiempo del año, una cosa molida que se cría sobre el agua de las lagunas de Méjico, y se cuaja, y que ni es yerba, ni tierra, sino como cieno. Hay dello mucho; y como quién hace sal, la vacían, y ahí se cuaja y se seca. Hácenlo tortas como ladrillos, y no solo las venden en el mercado, más llévanlas también a otros fuera de la ciudad y lejos”. Los informes relacionados con el uso de algas como alimento son recurrentes en los textos de historia. Se puede concluir que la espirulina constituía una parte importante de la dieta de los pueblos de América Central. Su consumo era aconsejado para aquellos que necesitaban mucha energía. Es así que encontramos el siguiente texto: “Los painanis o corredores veloces, los tequuihuatitlantis o mensajeros militares y los yciucatitlantis, mensajeros que avisaron la llegada de los españoles; consumían grandes cantidades de algas para cumplir con su trabajo diario”. A consecuencia de la conquista española, la práctica de cosechar Tecuitlatl y elaborar panes comestibles desaparece, junto a muchas otras costumbres y tradiciones, y no existen reportes históricos posteriores sobre su uso. En el año 1940, el naturalista francés Dangeard describe en una publicación las características de unas algas que le había enviado el farmacéutico de las tropas acantonadas en el África Ecuatorial Francesa (actualmente, Repúbli129 |

Mario L. Vilaró

ca del Chad). La muestra fue comprada en un mercado del pequeño poblado de Massakory. En el informe se comunica que las algas son vendidas para consumo de los nativos bajo el nombre de Dihé. Dangeard concluye que se trata de un “verdadero puré de algas filamentosas azules, con aspecto de espiral al microscopio”. El alga fue identificada como Spirulina (Arthrospira) platensis. Años más tarde, el botánico J. Léonard, participante de la expedición Belga Trans-Sahariana, informa que en los mercados se vendía para consumo de la población unos: “Bizcochos secos, compuestos de una curiosa sustancia verde azulada” Léonard realiza una serie de análisis y confirma que se trata de la misma Spirulina platensis descripta por Dangeard 25 años antes. Estudios posteriores, realizados en el Instituto Francés del Petróleo, confirmaron que S. platensis tenía una composición proteica que llegaba al 68% de su peso seco (algo nada despreciable como alimento). El mismo grupo de científicos, comienza a investigar las algas que crecían en el lago Texcoco, de México, y refieren la presencia de otra especie de alga con características similares a la encontrada en África: Spirulina maxima. Spirulina es un microorganismo ubicuo, descripto por primera vez por Turpin en 1927. Fue hallada en una gran variedad de ambientes y sustratos (desde el Mar del Norte hasta en aguas termales), y presenta características metabólicas que le permiten vivir en ambientes en los que otros microorganismos no lo pueden hacer, incluso en aguas con alcalinidad extrema.

| 130

Sobre microbios y humanos

La ubicación taxonómica de Spirulina ha sido por demás controvertida. Actualmente suele considerarse el género Spirulina en desuso, ya que fue reemplazado por Atrhtrospira, aunque la controversia continúa. Las virtudes del alga como alimento moderno son exaltadas por numerosas organizaciones que preconizan la alimentación naturista. Como suele suceder en estos casos, se enumeran tantas bondades que parece que estuviéramos en presencia de un alimento milagroso. La pregunta a formularse es si consumir espirulina es tan beneficioso como se pregona, o puede ocasionar algún daño. Al fin y al cabo… si es ingerida por los dioses, ¡algún efecto sublime debe causar! Los alimentos no convencionales -algunos los llaman exóticos-, como suelen estar fuera de los circuitos comerciales tradicionales, suelen jugar el rol de ángel y demonio al mismo tiempo, de acuerdo con quién lo analice. Sus defensores enaltecerán sus cualidades hasta lo indecible, y sus detractores nos tratarán de convencer de que, si embuchamos un bocado, caerán sobre nuestro organismo las siete plagas de Egipto. Queda claro que las propiedades nutricionales de Spirulina son numerosas: es fuente de proteínas no animales, aporta vitaminas del grupo A y B, es rica en melatonina, hormona que regula el sueño, posee alto contenido en fibras (en especial mucílago) que disminuyen la sensación de apetito y ayudan a reducir el exceso de peso y a controlar la diabetes al mantener la glucosa estable…, solo por mencionar algunas. Luego de leer esto, no quedan dudas de que una dieta con espirulina nos puede transportar casi de inmediato a la inmortalidad.

131 |

Mario L. Vilaró

En la literatura científica existen numerosas referencias sobre el uso de estas algas en diferentes ensayos experimentales con animales. Se está investigando sobre propiedades terapéuticas tales como inmunomoduladores, antitumorales y antimicrobianas. En una publicación aparecida en Current Pharmaceutical Biotechnology, del año 2005, los autores informan que diferentes preparados a base de Spirulina han demostrado tener efecto incrementando la actividad de los macrófagos, estimulando la producción de anticuerpos y citoquinas, regulando el metabolismo de los carbohidratos en enfermos de diabetes, acción antiviral contra los virus herpes, citomegalovirus, influenza y HIV, y una importante función como antioxidante para inhibir la carcinogénesis y la toxicidad hepática. Luego de esto, solo nos queda sacarnos el sombrero ante la sabiduría de los dioses aztecas: mientras los del Olimpo se bañaban en ambrosía para obtener la belleza eterna, los de América detenían el envejecimiento con antioxidantes, ¡todos unos precursores de la ciencia moderna! Sin embargo, no todas son buenas noticias. Si bien es cierto que no se ha descripto que la espirulina produzca toxicidad en el ser humano, existe el riesgo de que pueda hacerlo. La afirmación se basa en el reporte ciertos de efectos adversos observados en consumidores de suplementos nutricionales a base de concentrados de algas. En Alemania, un grupo de investigadores analizó muestras de estos productos y encontró la presencia de bajas concentraciones de microcistinas -hepatotoxinas producidas por otras cianófitas no comestibles. Aunque la concentración tóxica era inferior a la que produce efectos nocivos en el hombre, lo llamativo fue que el 100% de las muestras estudiadas estaban contaminadas con la toxina. Bastaría interrogarse so-

| 132

Sobre microbios y humanos

bre cuáles serían los efectos tóxicos luego de su consumo durante un tiempo prolongado, en especial, si se tiene en cuenta que este tipo de nutrientes se comercializan de manera libre, en forma de comprimidos y como complemento de la dieta habitual. Pero los dioses no contaban con que el hombre, desde su pobre omnipotencia, iba a hacer de las suyas. En un artículo publicado en 2005, por Hongyan Wu y colaboradores, en la revista Applied and Envrionmental Microbiology, los autores encontraron que el incremento de las radiaciones solares, producto de las alteraciones ambientales consecuencia de la actividad humana, y la disminución en la capa de ozono de la atmósfera, ocasionan no solo una disminución en el rendimiento fotosintético de Spirulina, sino que producen importantes alteraciones en su morfología, generando la fragmentación de las hélices que componen los filamentos del cuerpo bacteriano. Se propone que la disposición celular helicoidal constituye un factor de protección contra las radiaciones solares. De acuerdo con sus conclusiones, el futuro de estas cianobacterias se encontraría amenazado, ya que se afectaría notablemente su capacidad de reproducirse. Además se desconoce si podrán sobrevivir a esa presión de selección ambiental, o qué tipo de mutaciones emergerán en su evolución adaptativa. De tal modo que, a más de todos los desastres que anda causando el hombre en el planeta, se agregaría que los dioses aztecas comenzarían a pasar hambre. Esperemos que sobre los simples mortales no se abata un terrible castigo divino causado por la ira de famélicas divinidades. No obstante, se están ajustando los procesos biotecnológicos para el cultivo de espirulina a gran escala. Algunas naciones industrializadas apoyan financieramente este 133 |

Mario L. Vilaró

tipo de emprendimientos en los países en vías de desarrollo, y se avizora que se podría tratar de una interesante fuente de proteínas para las poblaciones carentes de recursos para producir otro tipo de alimentos. En el mundo de las ciencias naturales es notable cómo los sistemas se concatenan y funcionan de manera interdependiente y conjunta. Tanto es así que mientras algunos suponen que la espirulina será el alimento del futuro, otros preconizan que puede llegar a desaparecer por causa de la contaminación ambiental. ¿Será la espirulina el alimento del futuro? ¿Podrá esta simple alga ser útil para paliar el hambre del planeta? Por ahora solo se trata de especulaciones, sin embargo no deja de presentarse como una posible solución para un problema global, cada vez más acuciante. No en vano los dioses aztecas la escogieron como su alimento predilecto. Se ve que tan errados no andaban. Bibliografía consultada: Alain Ballabriga. La nourriture des dieux et le parfum des déesses [A propos d’Iliade, XIV, 170-172]. Mètis. Anthropologie des mondes grecs anciens. 1997, Vol. 12, Num.12, 119-127. Vial Correa Gonzalo. Decadencia y ruina de los Aztecas. Historia. Instituto de Historia, Pontificia Universidad Católica de Chile. Estudios, 1961. O Ciferri. Spirulina, the edible microorganism. Microbiol. Rev. 1983, 47(4):551.

| 134

Sobre microbios y humanos

Khan Z, Bhadouria P, Bisen PS. Nutritional and therapeutic potential of Spirulina. Curr Pharm Biotechnol. 2005 Oct;6(5):373-9. A.H. Heussner, L. Mazija, J. Fastner, D.R. Dietrich. Toxin content and cytotoxicity of algal dietary supplements. Toxicology and Applied Pharmacology. Volume 265, Issue 2, 1 December 2012, Pages 263–271. Hongyan Wu, Kunshan Gao, Virginia E. Villafañe, Teruo Watanabe and E. Walter Helbling. Effects of Solar UV Radiation on Morphology and Photosynthesis of Filamentous Cyanobacterium Arthrospira platensis. Appl. Environ. Microbiol. 2005, 71(9):5004- 5013.

135 |

XI The magic bullet (Sobre el marketing en microbiología y la industria farmacéutica)

El marketing, mercadotecnia en castellano, es el conjunto de principios y prácticas que buscan el aumento del comercio, especialmente de la demanda. También es el estudio de los procedimientos y recursos tendentes a este fin. Sin ser expertos, ni mucho menos, todos sabemos de qué se trata; y en gran medida, muchas veces sin saberlo, lo padecemos y formamos parte de él. ¿Cuántas veces hemos sido víctimas de alguna estrategia de marketing? Y, ¿cuántas veces hemos caído en su trampa y no lo hemos notado? Por más inocentes que podamos ser, cada vez que compramos algo, tenemos la sensación de haber sido presas de algún tipo de táctica para hacernos creer que lo que íbamos a comprar era mucho mejor y mucho más necesario de lo que realmente terminó siendo. Y la cosa es más o menos así. Sin pensar de manera conspirativa, con solo asomar los ojos por encima del agua, al mejor estilo de un cocodrilo, podemos ver que todo está influenciado por diferentes estrategias que apuntan a convencernos de comprar cada vez más cosas que no son imprescindibles. El marketing ha extendido sus redes a casi todos los aspectos 137 |

Mario L. Vilaró

de nuestra vida, incluso a ciertos terrenos en los que puede parecer poco posible que sea así. Viviane Mahler, en su libro Las trampas del marketing, nos dice: “En todas partes, las campañas electorales de los principales partidos ya no tratan de convencer con razones o ideas: se limitan a vendernos una marca”. En otro párrafo del mismo texto leemos: “Los departamentos de marketing de las grandes multinacionales no dejan de inventar nuevos modos de obtener su objetivo supremo: conseguir que compremos”. Lo lamentable es que no solo terminamos comprando objetos materiales, sino cosas tan poco tangibles como ideologías o pensamientos. Y es así que los métodos usados comienzan a transitar por la tenue línea de la ética. No en vano, los grandes gobiernos dictatoriales de la historia disponían de una suerte de “ministerio de propaganda”, con el propósito de difundir, imponer y eternizar sus ideas (la mayoría de los gobiernos democráticos actuales lo hacen, aunque de un modo un poco más sutil, pero no menos efectivo). El padre del marketing moderno, Philip Kotler, lo define como: “un proceso social y administrativo por el cual los grupos e individuos satisfacen sus necesidades al crear e intercambiar bienes y servicios”.

| 138

Sobre microbios y humanos

Mirándolo con ojos suspicaces, podemos decir que el propio Kotler hace marketing con su definición de marketing. Y no se trata de un juego de palabras. Los expertos en el tema realizan estudios de mercado para conocer las necesidades de la gente. Luego, inventan un producto que las cubre. Hasta aquí todo bien. Sin embargo, también sucede, cada vez con mayor frecuencia, que se intenta lograr que un producto o servicio innovador produzca en el consumidor el deseo de adquirirlo, transformándolo de manera perversa en un generador de necesidades. A tal punto que terminamos comprando o consumiendo algo que realmente no necesitamos, aunque creímos que así era. Y allí, en lugar de satisfacer las necesidades de los individuos, como afirma Kotler, se fabrican necesidades inexistentes, que es exactamente lo contrario. Es probable que, luego de leer lo antedicho, más de un lector se encuentre, en este instante, echando una mirada a su alrededor, para ver cuántos de los bienes que posee son realmente necesarios. Algunos notarán que en su entorno disponen de muchas cosas que son prescindibles sin que cambie radicalmente su vida; otros justificarán sus posesiones a base de sus propias necesidades reales y, finalmente, otros tantos respaldarán sus pertenencias avalando necesidades ficticias que el mercado ha creado para ellos, aunque difícilmente lo reconozcan a viva voz. Así de lábil es el alma humana, y los especialistas en marketing lo saben de sobra. Al respecto, la periodista y comentarista literaria especializada, Daniela Chwojnik escribe: “El éxito comercial comienza con una buena idea. Pero en un mundo competitivo como el nuestro no siempre el destello creativo, por más brillante que sea, es suficiente. Lograr que este producto o servicio 139 |

Mario L. Vilaró

innovador produzca en el consumidor el deseo de adquirirlo o de elegirlo frente a otro similar, es obra del marketing… los especialistas en marketing analizan los deseos de los consumidores, y es sobre estos deseos sobre los cuales el bien es inventado. Esto se hace evidente en muchos objetos de consumo masivo actual, tan necesarios para nuestra vida cotidiana y que excedieron nuestras más delirantes fantasías. El marketing es también generador de necesidades. Entonces, ¿compramos o nos venden? El profesional de marketing debe conocer las herramientas que transformen a la segunda opción en la respuesta correcta.” Todo eso no sería tan grave cuando hablamos de objetos materiales, finalmente cada uno hace lo que quiere con su dinero. Ahora, ¿qué sucede cuando nos bombardean con intensas campañas de difusión para inculcar dentro de nosotros tal o cual idea? Es entonces que resultan avasallados nuestros derechos individuales básicos, sin que nos percatemos de ello. Tampoco se trata de cargar las tintas sobre una ideología en particular. Desde que el hombre es hombre, y comenzó a organizarse en comunidades, necesitó de líderes que ejercieran la conducción de los grupos humanos, y esos líderes, con honrosas excepciones que se pueden contar con los dedos de la mano a lo largo de diez mil años de historia humana, tarde o temprano terminaron siendo presa de la seducción del poder. Todos conocemos lo que ocurre cuando el poder se instala en el espíritu humano, y lo difícil que resulta deshacerse de él. No es necesario hacer análisis sociológicos muy profundos para saber de qué estamos hablando. Los dirigentes militares, políticos o religiosos, no importa a qué línea de pensamiento pertenezcan, terminan, tarde o temprano, actuando de la misma forma. Llega el momento

| 140

Sobre microbios y humanos

en que, para mantener el poder, se usan todo tipo de triquiñuelas, entre ellas, una que resulta no tan violenta como el empleo de la fuerza bruta, pero que, a la postre, suele ser tan devastadora como la violencia misma: la imposición de ideologías. No hay nada mejor que vender una ideología para terminar imponiéndola, y para vender una ideología no hay nada mejor que un buen marketing. También se sabido que para hacer un buen marketing, la clave radica en una buena publicidad, y que uno de los recursos publicitarios más usados es el de una frase o eslogan (eslogan: fórmula breve y original, utilizada para publicidad, propaganda política –diccionario de la RAE) que se imponga en el mercado. Es así que nuestra vida cotidiana está invadida por todo tipo de eslóganes que, por simpáticos y pegadizos que puedan resultarnos, apuntan siempre a vendernos algo. No es necesario repasar algunos ejemplos para tomar conciencia de la manera como impactan en nuestras vidas (intente recordar rápidamente cuántas frases publicitarias quedan grabadas en su mente, y no dejará de sorprenderse). En principio, nos parece que este tipo de estrategia es algo reciente, pero desandando los caminos de la historia vemos que se ha recorrido un largo trecho. La pregunta a formularse es si el marketing también alcanza a la ciencia, y a la microbiología en particular. Sería de esperar que la microbiología estuviese al margen de este tipo de cosas; finalmente, su objetivo no es necesariamente vender cosas. Aunque, mal que nos pese, el ser humano siempre tiene algo para vender o comprar.

141 |

Mario L. Vilaró

A principios del siglo XX, la sífilis representaba uno de los principales problemas de salud en el viejo continente. Por esos años, se estimaba que el diez por ciento de los habitantes de los centros urbanos con más de quinientos mil habitantes estaban infectados. En París, solamente, la sífilis causaba unas tres mil muertes anuales. Hasta ese momento no existía tratamiento efectivo contra la enfermedad. Dado el contexto epidemiológico de la época, un sifilítico era condenado social y moralmente, y debía, las más de las veces, padecer en silencio ocultando la pesada carga de un mal despreciado por la sociedad. Todos los medicamentos ensayados habían fracasado y, es necesario decir, existía una bolsa de gatos en la que se mezclaban remedios caseros, drogas usadas para otras patologías, pociones mágicas y penitencias religiosas, que carecían de eficacia médica comprobada y, menos aún, de evidencia científica que avalara su empleo. Fue Paul Ehrlich, en 1909, quien emplea el salvarsán como tratamiento para la sífilis. Se trataba de un derivado del arsénico (arsenamina o arsfenamina). En su origen, el compuesto había sido desarrollado por Pierre Bechamp, en 1863, y surgió de la reacción entre el arsénico y la anilina. La nueva fórmula resultó menos tóxica que el arsénico inorgánico, y se lo bautizó bajo el nombre de Atoxyl. En 1905, Thomas publicó un artículo en el que mostró que el compuesto de Bechamp era útil para el tratamiento de la llamada enfermedad del sueño, por esos años, la principal causa de muerte en África. Ehrlich tomó la idea y se embarcó en el ensayo de diferentes compuestos afines al Atoxyl. El que mejor respondió a sus expectativas fue el preparado llamado 606. Para demostrar su eficacia clínica, Ehrlich empleó conejos infectados con Treponema pallidum, y tras varias se-

| 142

Sobre microbios y humanos

ries de ensayos comprobó que luego del tratamiento habían desaparecido los signos de enfermedad en los animales. Entusiasmado, aunque cauteloso, se contactó con la compañía alemana Farbwerke-Hoechst, especialista en la fabricación de colorantes para la industria textil (es necesario destacar que por ese entonces no existía la industria farmacéutica tal como la conocemos hoy), con el objeto de obtener financiación para continuar los estudios. Tenía intenciones de, siguiendo el método científico, corroborar la eficacia del medicamento y, en especial, constatar la ausencia de toxicidad en el hombre. Farbwerke-Hoechst vio un enorme negocio tras el compuesto 606 (así lo había llamado Ehrlich), e ideó su nombre comercial (Salvarsán: el arsénico que salva) y salió al mercado para comercializarlo. En una estrategia de marketing, similar a la que se usa en nuestros tiempos, y sin esperar los resultados de los ensayos que continuaba realizando Ehrlich, la empresa distribuyó de manera gratuita, entre los médicos, unas 65.000 dosis de salvarsán. Al mismo tiempo, lanzó una campaña de difusión empleando el nombre de “la bala mágica”, para generar un mayor impacto publicitario. El resultado fue impresionante: la droga se impuso en el mercado, al tiempo que la empresa recaudaba enormes ganancias, e inició sus negocios en la rama de la industria farmacéutica (a lo largo de su historia, la firma terminó transformándose en Hoechst, uno de las potencias mundiales en la fabricación de medicamentos del siglo XX). Aunque los médicos y enfermos recibieron la “bala mágica” con los brazos abiertos, no todo fueron rosas. A poco de usarse, empezaron a reportarse efectos secundarios, ocasionados por la toxicidad del arsénico. Ehrlich fue criticado por la comunidad científica y por la policía, que lo acusó, palabras más, palabras menos, de promover la prostitución. Al mismo tiempo, la iglesia combatió al Salvarsán con 143 |

Mario L. Vilaró

el argumento de que “las enfermedades venéreas eran el castigo de Dios a la inmoralidad y no debían tratarse”. Ehrlich retomó sus investigaciones y reformuló el compuesto, por otro mucho más soluble y seguro, que salió al mercado bajo el nombre de neo-salvarsán. No existen registros confiables sobre la real eficacia del Salvarsán, ni de cuántos pacientes curó. Sin embargo, la droga continuó su comercialización y, a fines de 1910, Farbwerke-Hoechst fabricaba catorce mil frascos por día. A pesar de todos los cuestionamientos recibidos, el marketing de la bala mágica continuaba dando en el blanco, por lo menos comercialmente hablando. Otro caso interesante es el de la penicilina. Más allá del relato oficial sobre su descubrimiento, coloreado con algunos matices que pintan a Fleming como una combinación de sabio y héroe que salvó a la humanidad, se pueden encontrar hechos similares a los de la historia de la bala mágica. Es conocido que el hallazgo casual de la penicilina no despertó mucho interés en su comienzo. El mismo Fleming abandonó su estudio tras considerarlo poco significativo. Lejos estaba en su mente la posibilidad de que esa sustancia, elaborada por un hongo banal, se pudiese transformar en un medicamento efectivo y, menos aún, en un éxito comercial. En 1929, Fleming publicó en el British Journal of Experimental Pathology la descripción de un compuesto, capaz de matar las bacterias, que llamó “penicilina notatum”. La publicación pasó inadvertida para la comunidad científica.

| 144

Sobre microbios y humanos

Más de diez años después, fueron Florey y Chain quienes iniciaron una investigación más completa, realizando estudios experimentales con ratones, y promovieron su uso para tratar infecciones humanas. En 1941 comenzaron los ensayos clínicos y recién en 1943 se inició la producción comercial a gran escala. El War Production Board, de los Estados Unidos, se ocupó de asistir a varios laboratorios farmacéuticos para su fabricación (la War Production Board, era una agencia del gobierno de los EE.UU. que supervisaba la producción de todos aquellos productos e insumos considerados estratégicos, durante la Segunda Guerra Mundial). Además del interés por curar las infecciones producidas en el campo de batalla, existía un trasfondo político e ideológico que llevó al gobierno norteamericano a considerar la penicilina como un medicamento de importancia nacional. Los alemanes habían sintetizado las sulfonamidas, y las usaban ampliamente en sus hospitales de campaña, y los aliados carecían de su contrapartida. La penicilina representó un golpe de efecto que no solamente curó heridas infectadas, sino que también significó un avance en el prestigio científico de los americanos. Recordemos que la guerra no solo se libró con armas. La supuesta superioridad nazi, impuesta por el régimen gobernante, debía ser neutralizada en todos los flancos posibles. El gobierno del gran país del Norte financió la fabricación de penicilina, la distribuyó entre los médicos militares que actuaban en el frente de batalla, e impulsó el desarrollo de una campaña publicitaria, en la que se destacasen el gran logro científico americano y el beneficio que representaba para los combatientes. Uno de los laboratorios que advirtió rápidamente el negocio fue Schenley laboratories inc., que salió al mercado con la penicilina Schenley, acompañado de una profusa cam145 |

Mario L. Vilaró

paña de difusión. En esos años, toda la publicidad abordaba, casi de manera exclusiva, la temática bélica, y en una imagen aparecida en la revista Life se muestra un dibujo de un soldado herido, mientras es atendido por un médico militar. El título reza: “Gracias a la PENICILINA… ¡él regresará a casa!”

“¡A partir de un hongo común, el más grande agente curativo de esta guerra!”, agregaba el parágrafo al pie de la imagen. Del texto que prosigue podemos extractar la siguiente frase: “Hace unos años, la producción de penicilina era dificultosa y costosa. Hoy, gracias al sistema de fabricación masiva, usado por laboratorios Schenley, y otras 20 firmas designadas por el gobierno para la producción de penicilina, está disponible en cantidades crecientes, y a un precio progresivamente más bajo”.

| 146

Sobre microbios y humanos

Ello sirvió de punto de partida para que el marketing de la penicilina se extendiese hasta el ciudadano común. En otro afiche ampliamente difundido en publicidad callejera, se lee en letras enormes: “La penicilina cura la gonorrea en 4 horas. ¡Visite a su médico hoy mismo!” Cualquier similitud con el moderno “compre ya, y si no está satisfecho le devolvemos su dinero”, no es pura casualidad. Resulta inevitable hacer un parangón con los tiempos actuales. A pesar de que los mecanismos de control para el desarrollo de nuevos medicamentos son estrictos, a tal punto que el desembarco de una nueva medicina en el mercado debe cumplir normas rígidas y pasar numerosos filtros -tanto científicos como éticos, cuyo cumplimiento demanda varios años-, es inevitable que una sombra de duda se cierna sobre la industria farmacéutica. Finalmente, la mayoría de los grandes laboratorios son empresas multinacionales que buscan su rentabilidad económica. Cabe preguntarse si los eslóganes que suelen esgrimir como herramientas de marketing constituyen el espíritu real que las moviliza o si ocultan, tras ellos, el único objetivo de ganar dinero. Y no es que esté mal ganar dinero, todos lo necesitamos para vivir, pero en dominios tan sensibles como la salud humana, se deberían establecer las prioridades con mayor claridad. Obviamente, ningún laboratorio farmacéutico vendería medicamentos bajo el lema “nos importa más llenarnos de plata que tu salud”, como estrategia comercial sería desastrosa, pero analizando hechos del pasado y del presente, vinculados al tema, hay veces que parecería que la cosa es así.

147 |

Mario L. Vilaró

Si reparamos en los recursos de venta empleados por los laboratorios farmacéuticos, no podemos menos que reconocer que Farbwerke-Hoechst y Schenley fueron pioneros y, como se dice en la jerga del marketing, marcaron tendencia. Los métodos publicitarios se han perfeccionado y apelan tanto a recursos audiovisuales de todo tipo, para convencer al público sobre la eficacia de sus productos, como a otras tácticas algo más sagaces, aunque no menos efectivas. Tanto es así que algunas entidades deontológicas médicas han reglamentado las pautas para hacer publicidad. Si bien es cierto que en todos los aspectos de la vida comercial es necesario evitar la publicidad engañosa (lo que comúnmente llamamos “letra chica”), lo es más aún cuando se trata de salud. No obstante, es conocido que existe un submundo, velado pero influyente, que maneja un negocio de cifras inimaginables, tras la venta de una simple píldora. Diferentes organizaciones, la mayoría no oficiales, se dedican sistemáticamente a poner sobre el tapete grandes negociados con los medicamentos. Se ingresa en un incierto terreno que combina las especulaciones con las conspiraciones, algo que, generalmente, y en el caso de ser verdad, termina siendo bastante difícil de comprobar. Allí se mezclan los detractores de la medicina tradicional con los defensoras de las medicinas alternativas, en instancias bastante controvertidas coloreadas de todo tipo de matices ideológicos, sin que se llegue a una conclusión lo suficientemente clara, para que pueda ser determinante. Cuando decimos que el dinero otorga poder, tras el negocio de la salud hay un poder enorme. La microbiología moderna no es ajena a esa realidad. Todo lo contrario, su vigencia es permanente y creciente. Desde que surgió la penicilina, que en su momento fue pro-

| 148

Sobre microbios y humanos

clamada como el medicamento que daría fin a las enfermedades infecciosas, no han dejado de aparecer en el mercado nuevos agentes antimicrobianos. Lo llamativo es que, con cada nuevo antibiótico que se lanza, y conociendo que los microorganismos tienen la capacidad de desarrollar rápidamente mecanismos de resistencia que los vuelven ineficaces, los laboratorios ponen en marcha enormes y costosas campañas publicitarias para promover su uso de manera prudente, cuando en el fondo aspiran a imponer su producto y venderlo cada vez más. El discurso de “usémoslo poco, para que siga siendo eficaz por mucho tiempo”, se contradice con el de “vendamos mucho para recuperar la inversión y ganar más dinero”, que nadie dice, pero que subyace de manera incuestionable. Es así que implementan actividades científicas con el objeto realzar las virtudes de la nueva droga y estimular su uso racional, al mismo tiempo que plantean a sus vendedores, que actúan bajo el nombre de agentes de propaganda médica, ambiciosos objetivos de venta, impulsados por estímulos económicos más que atractivos para quienes los cumplan. Algo que puede parecer contradictorio, en el mundo de los negocios y el marketing no lo es. El abanico de procedimientos que emplean para vender es amplio y en algunos casos resulta cuestionable. Las historias del salvarsán y la penicilina son ilustrativas sobre los comienzos de la industria de los medicamentos, una industria que, dadas las actuales circunstancias sanitarias del mundo, se perfila como un negocio con proyecciones inagotables. Y allí está la oportunidad, que es excelentemente aprovechada por los industriales: el bien más preciado que tiene el ser humano es su salud, y ante una instancia crítica, está dispuesto a pagar lo que sea por recuperarla.

149 |

Mario L. Vilaró

Llegamos, una vez más, al cuestionamiento sobre cuál es el punto de equilibrio entre lo que necesitamos comprar los que compramos, y lo que nos quieren vender los que venden. Este balance entre consumidor y vendedor toma una dimensión más que delicada cuando de enfermedades se trata. Convengamos que las implicancias que tiene comprar un teléfono celular que realmente no precisamos, y tomar un medicamento que no es absolutamente imprescindible, no son las mismas. En los últimos años ha surgido una corriente científica que apunta a poner blanco sobre negro en todo lo relacionado al tratamiento de los pacientes: la medicina basada en la evidencia. Se trata del empleo de la mejor evidencia disponible en la toma de decisiones sobre el cuidado integral de los pacientes o sobre la asistencia sanitaria. Las mejores evidencias actuales son la información actualizada de la investigación relevante y válida sobre los efectos de las diferentes intervenciones en la asistencia sanitaria, el potencial daño debido a la exposición a agentes particulares, la exactitud de las pruebas diagnósticas y el poder de predicción de los factores de pronóstico. Dentro de ese marco, ni el marketing ni las frases rimbombantes tienen cabida, y la evidencia concreta, avalada por estudios científicos serios e independientes, se impone sobre las tácticas publicitarias. La medicina basada en la evidencia va, poco a poco, ganando espacio y abre una luz de esperanza para poner coto al desmedido mercantilismo farmacéutico. Resulta utópico pensar que en algún momento se llegue priorizar, de manera incondicional, la salud de las

| 150

Sobre microbios y humanos

personas por encima del negocio farmacéutico y que, finalmente, los marchantes de medicamentos comprendan que no todo se puede comprar y vender. Soñar no cuesta nada. Bibliografía consultada: Historia: Paul Ehrlich (1854-1915): Visionario pionero de la hematología, la quimioterapia y la inmunología. Galenus, Revista para los médicos de Puerto Rico, N°25. Nicholas C. Lloyd, Hugh W. Morgan, Brian K. Nicholson, Ron S. Ronimus, and Steven Riethmiller. Salvarsan – The first chemotherapeutic compound. Chemistry in New Zealand, 69(1), 24-27. Viviane Mahler. Las trampas del marketing. Ed. Los libros del Lince, 2009.

151 |

XII Lo que no mata fortalece (Sobre los curiosos métodos que han ensayado los médicos para curar las enfermedades infecciosas) Primum non nocere Repasar la historia de la lucha contra las enfermedades infecciosas es apasionante. Bastaría confeccionar un catálogo de las diferentes opciones terapéuticas empleadas a lo largo del tiempo, para preguntarse cómo hicieron los enfermos para sobrevivir a sus propios médicos. Hipócrates, padre de la medicina, y mentor de un juramento que haría poner los pelos de punta a más de un médico moderno que dedicase algunos minutos a leerlo, decía con respecto al tratamiento de una enfermedad: “A enfermedades extremas, remedios heroicos, excelentes y bien administrados”. Es claro que esta frase, de incuestionable connotación filantrópica, ha sido manejada por algunos galenos como una suerte de licencia para practicar todo tipo de in-

153 |

Mario L. Vilaró

jurias sobre los resignados pacientes que confiaban su salud a la erudición y prudencia del sabio que los iba a liberar de sus sufrimientos. Aunque, ante un tratamiento “heroico”, no quede totalmente claro quién es el héroe. Igualmente, en sus famosos aforismos, Hipócrates sienta las pautas para un remedio heroico: “Lo que los medicamentos no sanan lo cura el hierro; lo que no cura el hierro, el fuego lo cura; lo que no sana el fuego, debe considerarse incurable”. Finalmente, ¿qué otra cosa tenemos los seres humanos que tenga tanto valor como la salud y la juventud? Para colmo de males, ambas se van perdiendo con el paso del tiempo. Antes del surgimiento de la teoría microbiana, las enfermedades infecciosas no eran reconocidas como tales. Dejando de lado las afecciones eruptivas con significativas manifestaciones dermatológicas (viruela, lepra o sífilis), el resto de las patologías eran consideradas más o menos lo mismo y sus causas eran atribuidas a los más diversos orígenes. Solo se había logrado individualizar las fiebres tercianas o cuartanas como males con entidad propia reconocida. Por consecuencia lógica, los tratamientos estaban basados en creencias populares que eran una mezcla de ingredientes variados de los más diversos orígenes, algo de religión y, por qué no decirlo, mucho de magia. Un hecho común, presente en casi todas las culturas humanas, es considerar las enfermedades como castigos divinos a causa de faltas cometidas por los hombres que, al haber cedido a tentaciones de todo tipo, eran penados por

| 154

Sobre microbios y humanos

sus respectivos dioses con diferentes padecimientos físicos. Basta hacer una lectura rápida de cualquier texto que compare diferentes civilizaciones, para caer en la cuenta de que médicos y sacerdotes eran casi la misma cosa. Entonces, las prescripciones curativas debían estar complementadas con plegarias, actitud de recogimiento y reflexión, y un profundo propósito de enmienda, para no volver a fallar y ser pasibles de un nuevo escarmiento. Mirando con ojos modernos esta yuxtaposición entre medicina y religión, podríamos concluir que, ante tanta ignorancia de la ciencia acerca de las causas que producían enfermedad, no estaba del todo mal que se tomasen ciertas precauciones en la calidad de vida y la moral de las personas. De hecho, muchos textos religiosos, incluyendo la Biblia, contienen pasajes en los que se apela a designios divinos para establecer normas sanitarias que hoy serían consideradas como educación para la salud. Este último punto es por demás interesante si lo extrapolamos a la época actual, cuando los avances de la medicina son tan importantes, que se nos da la posibilidad de que, con cierto grado de soltura, solucionemos los males del cuerpo con medicamentos, y dejemos postergado, sine die, el alivio de los males del alma. En un sentido más purista bien podríamos decir “curemos el cuerpo y sigamos pecando, del alma nos ocupamos más adelante”; pero reflexiones de ese tipo no son objeto de estas palabras. Todo eso llevó a que prácticamente cualquier tipo de procedimiento curativo, por descabellado que nos parezca, fuese válido. En su Naturalis Historia, el científico, militar y médico romano Plinio el Viejo, prescribía que el mejor tratamiento para ciertas fiebres era que el enfermo llevase colgada a su cuello una bolsa que contenía un colmillo de 155 |

Mario L. Vilaró

perro de color negro. Claro que nunca aclaró por medio de qué tipo de argucias lograba extraerle el colmillo al perro, y esos detalles de la farmacopea han quedado en el olvido o, quizás, protegidos por el derecho de autor. Dioscorides, médico griego al servicio de Nerón, recomendaba que los soldados usaran chinches de cama y dientes de ajo atados al brazo izquierdo en una bolsita, para evitar las infecciones producidas por las heridas durante la batalla. En el siglo XIII, otro sabio romano llamado Serenus Samonicus perfeccionó el método aplastando varias chinches hasta formar una pasta con dientes de ajo que luego era vertida en una copa de vino. Con ese brebaje, a su decir, lograba detener el avance de las fiebres cuartanas. No existen registros sobre el éxito de estos métodos y, hoy por hoy, es dable pensar que estarían lejos de ser considerados como válidos por la medicina basada en la evidencia. Finalmente, antes de reírnos y burlarnos, si pensamos que en pleno siglo XXI hay personas dispuestas a comer gorgojos para curar el cáncer, caeremos en la cuenta de que, ante situaciones límite, las cosas no han cambiado demasiado. En la Mesopotamia, por ejemplo, la palabra Shêrtu, significaba ira divina, impureza moral, castigo, enfermedad y pecado. En una tablilla de arcilla se ve cómo el médico lavaba una herida con cerveza. Los dolores de muelas eran mitigados con mechones de lana empapados en diversos extractos vegetales. Del mismo modo, en China se aplicaba sobre la infección cutánea la cáscara de soja enmohecida. También utilizaban la medicina preventiva en el caso de la viruela. Para evitar que una persona se contagiara, debía llevar en las fosas nasales, y durante ocho días, pústulas variólicas extraídas de un enfermo.

| 156

Sobre microbios y humanos

El tratamiento de la tuberculosis ocupa un capítulo destacado en la historia de la medicación. La dieta basada en lácteos se lleva gran parte de las líneas escritas al respecto. Se recomendaba tomar leche de vaca, burra o cabra, pero sin dudas la más codiciada por su supuesta eficacia era la leche de mujer que acababa de parir. Una modificación propuesta a la receta láctea fue la de realizar transfusiones de leche de cabra en lugar de beberla. Otras medicaciones sugeridas a lo largo del tiempo fueron: grasa de perro, sangre de cabra, macerado de pulmón de lobo o zorro, jarabe de caracoles, trementina, mirra, arsénico, ozono, ácido sulfuroso, amoníaco, descargas eléctricas, y la poco honrosa cauterización de la periferia anal (amigo lector, no se sienta mal si un gran signo de interrogación se forma en su mente al preguntarse cuáles serían los efectos de este último tratamiento sobre las cavernas pulmonares, pero ¡vaya que era necesario ser valiente para afrontar ese tipo de curaciones!). Como metodología extrema, en casos graves, se propuso la llamada “colapsoterapia”, que consistía en generar un neumotórax en el pulmón enfermo y ocasionar la retracción del órgano para detener el avance de la patología. Los primeros medicamentos antiinfecciosos usados fueron metales y extractos vegetales. El arsénico y el antimonio han sido descriptos como los primeros preparados antipalúdicos en antiguas civilizaciones. El tártaro de antimonio fue un jarabe muy difundido para el tratamiento de las enfermedades pulmonares. La preparación era muy simple, ya que consistía en dejar agriar vino en un recipiente de ese metal. Este medicamento podía también ser usado como veneno, lo que brindaba a los boticarios la posibilidad de curar o matar con solo suministrar la dosis apropiada. Más de un cliente del boticario estaría gustoso de alterar las dosis con el objeto de “curarse” definitivamente de su suegra. A 157 |

Mario L. Vilaró

principios de 1900, el tártaro de antimonio fue administrado por vía endovenosa para tratar la enfermedad del sueño, y aunque no se logró probar su eficacia, luego de la medicación algunos pacientes pasaron al sueño eterno. De todos los metales ensayados como productos terapéuticos, probablemente sea el arsénico el que se lleva las palmas como el más famoso, aunque la historia de los perjuicios que acarreó su empleo permanezca desconocida para muchos. El uso de arsénico contra las enfermedades infecciosas se remonta a fines del siglo XIX. En 1890, Laveran, Mesnil et Thiroux realizan experimentos en el Instituto Pasteur, de cuyas conclusiones surge el empleo de ácido arsenioso para el tratamiento de las tripanosomiasis humanas, aunque sus efectos tóxicos eran importantes. Con el ácido para-aminofenilarsínico, descubierto por Béchamp en 1863, se obtuvieron mejores resultados aunque se demostró que su efecto se producía solo en el estado sanguíneo de la enfermedad. En este aspecto el rol del arsénico en el tratamiento de la sífilis fue preponderante. La evolución medicamentosa de la lucha contra la sífilis es larga y, a los fines de este texto, podríamos decir que rica, si nos es permitido emplear ese término. La sífilis pertenecía al grupo de las llamadas “enfermedades vergonzantes”, ya que sus manifestaciones corporales ponían en evidencia que su portador había incurrido en algunos deslices reñidos con la moral. Ya se reconocía que era un mal transmitido por vía sexual, aunque en 1502 el médico español Juan Almenar afirmó que la enfermedad se transmitía por medio del coito, con excepción de los clérigos, que eran contagiados por el “aire corrompido”. Una honrosa aclara-

| 158

Sobre microbios y humanos

ción para poner a salvo el buen nombre de los religiosos que, por su investidura, debían estar alejados de los placeres carnales y, sin dudas a causa de algún perverso designio satánico, eran los únicos humanos proclives a contagiarse por el aire. Misterios de la ciencia… ¡qué se le va a hacer! Fue menester esperar hasta 1905 para que se revelase la etiología de la sífilis. Los responsables del descubrimiento fueron los alemanes Fritz Schaudinn y Erich Hoffmann, quienes, al observar el espirilo en un condiloma plano, lo llamaron Espiroqueta pallida, y lo clasificaron dentro de los protozoarios. En 1909, Paul Ehrlich desarrolla la bala mágica, con la historia que acabamos de relatar en el capítulo anterior. El salvarsán vino a solucionar los inconvenientes ocasionados por el uso de mercurio como antisifilítico, cuya validez era cuestionada y sus consecuencias a menudo perjudiciales. El calomelano (del griego kalos: bello, melanos: negro) era un ungüento a base de protocloruro de mercurio sublimado, empleado como purgante, vermífugo y antisifilítico. Para curar la sífilis, era necesario cauterizar los chancros con calor y luego aplicarles el ungüento. Pero allí no terminaba la cosa. Si se deseaba un remedio más efectivo, era necesario efectuar inhalaciones de vapores mercuriales encerrado en la llamada “tina del sudor”, en donde literalmente se fumigaba al enfermo. Era de esperar que, ante semejante agresión física, el hecho de sanarse con solo tomar unas pastillas de salvarsán, representara un cambio más que significativo. El concepto de utilizar la labilidad térmica de la espiroqueta prosperó más allá del uso del arsénico. De hecho, los resultados obtenidos con los derivados arsenicales no fueron tan exitosos y, a pesar de las modificaciones químicas que se sucedieron, no se logró eliminar sus efectos tóxicos 159 |

Mario L. Vilaró

secundarios. La idea era incrementar la temperatura corporal para producir la muerte de las bacterias. La hipertermia terapéutica, o el uso de la temperatura para sanar diferentes dolencias, tiene una larga historia que incluso llega hasta la actualidad. Hipócrates afirmaba que la fiebre era un buen aliado para sanar enfermedades. Desde su óptica, el aumento de la temperatura corporal era un mecanismo de defensa del cuerpo. En su teoría de los cuatro humores, sugería que la fiebre era útil para someter a “cocción” al humor que se encontraba desequilibrado y eliminar su exceso. Al estudiar diferentes epidemias que ocurrían en Grecia, observó que los herreros, que trabajaban bajo altas temperaturas, raramente se enfermaban. De allí concluyó que el calor era útil para prevenir y tratar distintos males. A tal punto fue así que dijo: “Dadme una fiebre y sanaré cualquier enfermedad”. Esta creencia dio origen a los baños de hipertermia como alternativa terapéutica. La metodología evolucionó buscando diferentes opciones (baños de sol y de vapor, entre otros). Los médicos Neohipocráticos de los siglos XIX y XX, se apoyaban en la hidroterapia hipertérmica como uno de sus principales recursos curativos. La idea perduró. El médico inglés Thomas Sydenham (1624-1689) afirmaba que la fiebre era el motor de la naturaleza humana, y que servía para “combatir al enemigo”. El alemán Carl von Liebermeister (1833–1901), que realizó estudios sobre la fisiopatología de la fiebre, propuso que, durante una enfermedad, el mismo organismo se ocupaba de

| 160

Sobre microbios y humanos

aumentar la temperatura y mantenerla en niveles elevados, con el objeto de eliminar los microorganismos invasores. De ahí surgió el criterio de que si el cuerpo no producía fiebre de manera natural, había que hacerlo de manera artificial, lo que brindaría una solución para las patologías que no cursaban con temperatura elevada. Se propuso “calentar” al enfermo para curarlo. Esta propuesta cayó como anillo al dedo para el caso de la sífilis ya que, en la mayoría de los casos, los infectados no tenían fiebre. De esa manera no estaba del todo mal causarle fiebre artificial para matar los agentes infecciosos. Entonces… ¿qué mejor que producir fiebre inoculando un microorganismo que la cause? Julius Wagner-Jauregg (1857-1940) fue un médico generalista y psiquiatra austríaco, que trabajó en numerosas áreas de la clínica, para dedicarse finalmente a la psiquiatría. Uno de sus trabajos más relevantes fue el hallazgo de la asociación entre bocio y cretinismo. Hasta el momento se creía que el cretinismo era una enfermedad congénita. Luego de sus estudios, fue él quién sugirió que en áreas endémicas se comenzase a proveer sal enriquecida con yodo, como medida preventiva. Dedicó gran parte de su vida a intentar encontrar la cura a diferentes patologías mentales. Por el año 1887 investigaba el efecto que tenían las enfermedades febriles sobre la psicosis, en particular sobre aquellos que padecían paresia. Observó que algunos pacientes mejoraban de su psicosis luego de haber cursado un proceso febril. Tras haber ensayado diferentes agentes, con el propósito de causar fiebre en sus pacientes, optó por inocularles sangre que provenía de enfermos de malaria, infección que podía controlar con quinina. Los resultados fueron promisorios, y fue el puntapié inicial de la terapia malárica para dismi161 |

Mario L. Vilaró

nuir los efectos de la paresia sifilítica. Lo que a nuestro parecer suena un poco cruento, no lo fue para la comunidad científica, y sus resultados fueron tan bien vistos que Julius Wagner-Jauregg fue galardonado con el premio Nobel de medicina en 1927, por “su descubrimiento sobre el valor terapéutico de la inoculación de malaria en el tratamiento de la demencia paralítica”. Claro que, a poco de generalizarse la terapia, comenzaron los problemas. Los efectos secundarios, algunos bastante graves, no tardaron en aparecer, y la real eficacia de la producción de paroxismos febriles fue cuestionada. Sin embargo, persistió la creencia de que, al aumentar la temperatura del cuerpo, se eliminaban las espiroquetas. La aparición de importantes efectos secundarios con el uso del arsénico (8% de los pacientes presentaban síntomas más o menos graves de envenenamiento), hizo que muchos abandonasen el tratamiento sin lograr una completa curación. Se propuso una terapia combinada. Luego de que los pacientes habían recibido varias inyecciones de salvarsán, se les inoculaba malaria, se les provocaba fiebre y, finalmente, se les volvía a inyectar seis nuevas inyecciones de arsénico, como cierre y con el objeto de eliminar las pocas espiroquetas que se hubiesen podido escapar a semejante terapia. Sin embargo, la inducción de fiebre mediante la malaria era riesgosa, difícil de manejar y bastante agresiva. Se comenzó, entonces, a buscar alternativas para provocar el aumento de temperatura por otra vía. En 1928, el doctor C. A. Neymann, en Chicago, provocó fiebre en varios sifilíticos en estado avanzado, sujetándoles en el pecho los electrodos de un aparato de diatermia. La diatermia fue ideada por el español Celedonio Calatayud

| 162

Sobre microbios y humanos

en 1910. Se basa en el uso de campos magnéticos y eléctricos; el concepto básico era el de generar calor en ciertos tejidos, haciendo circular una corriente eléctrica entre dos electrodos colocados a cierta distancia de la piel. El caso es que algunos de los tratados por Neymann se libraron de los trastornos neurológicos y mentales ocasionados por la sífilis, pero también salieron de la prueba con horribles quemaduras en el cuerpo. Por sugerencia de algunos médicos, los técnicos de la General Electric (¡sí, la misma empresa que fabricaba las heladeras cuando éramos chicos!), idearon un dispositivo para provocar fiebres por medio de ondas cortas de radio. En el Centro Médico de Columbia, de Nueva York, los doctores Hinsie y Blaluck demostraron que la fiebre producida por ondas de radio era tan efectiva como la palúdica para la curación de la sífilis neurológica. A pesar de ello, algunos pacientes también terminaron con quemaduras a causa de las ondas cortas, aunque en menor proporción que los que recibieron la diatermia. El aparato consistía en una especie de ataúd en el que se encerraba al enfermo y se lo comenzaba a bombardear con ondas cortas. A poco de comenzar el proceso, se elevaba rápidamente la temperatura corporal y las personas comenzaban a sudar copiosamente (basta con imaginar un microondas moderno, con la diferencia de que en lugar de un trozo de pollo se metía un ser humano completo, para dar idea de qué se trataba). Posteriormente se agregó un sistema de aireación, lo que permitió que la temperatura aumentase de forma gradual. Mediante el uso de dispositivos termostáticos, se logró dotar a la metodología de un razonable grado de seguridad (es necesario remarcar que hasta que se llegó a una “seguridad razonable”, varios enfermos terminaron prácticamente rostizados).

163 |

Mario L. Vilaró

Luego de que las ondas cortas fuesen consideradas la mejor terapia, se descubrió que no eran tan buenas. Había que calentar a las personas de otro modo. Dayton creó una suerte de caja grande, en la que se acostaba al enfermo con la cabeza fuera. Por medio de tubos, se le inyectaba aire previamente calentado a 43° C. Los médicos quedaron asombrados de cómo el aire caliente aumentaba notablemente los efectos curativos de las sustancias químicas. El tratamiento era el siguiente: calentaban al paciente durante 5 horas a 41° C y luego se le inyectaba arsénico (algo parecido a una receta de cocina pero con “horno moderado”, ¡para que el enfermo quedara “jugoso”!). En un relato de la época, leemos: “Todo el tiempo que el enfermo pasaba en el aparato de fiebre, permanecía acompañado de una enfermera, tomándole el pulso en las sienes. En la parte superior una aguja registraba la temperatura de un termómetro colocado en el recto. Las cinco horas que estaban sometidos a aquella fiebre, las pasaban dormitando, fumando o escuchando la radio. Rodeados de médicos y enfermeras, hallábanse seguros, a dos dedos de la muerte, pues una temperatura superior a 42° durante cierto tiempo, podía acarrear la muerte”. En alguna medida, es cuestionable el mensaje sobre el cierto grado de confort del paciente, en especial si se lo encierra en una caja con elevada temperatura, y se le introduce un sensor en el recto durante varias horas. Nos resulta poco creíble que los enfermos se dedicasen a fumar y escuchar música de manera relajada, con si estuviesen en una soleada playa del Caribe.

| 164

Sobre microbios y humanos

Entusiasmado por el éxito, Dayton comenzó a acariciar un viejo sueño de Ehrlich: curar la sífilis en 24 horas. Era necesario emplear altas dosis de arsénico combinadas con la piroterapia para lograrlo. En un artículo de divulgación publicado en la revista Selecciones del Reader´s Digest en 1942, titulado “Tratamiento de un día para la sífilis”, el médico Paul De Kruif (conocido de los microbiólogos por su libro Cazadores de microbios) hace una entusiasta elogio de la terapia diciendo: “No se ha notado ningún síntoma más de envenenamiento grave u otra secuela perjudicial en los 42 enfermos que se han tratado hasta ahora. En este tratamiento termoquímico pueden cifrar su esperanza los centenares de víctimas que padecen la terrible enfermedad y no reciben tratamiento alguno, o lo reciben inadecuadamente. Hasta tanto se generaliza, las personas que están curándose de acuerdo con el empleado corrientemente, no deben suspenderlo en ningún caso, pues lo exige así su propia conveniencia y la del público”. De la lectura del texto precedente surge el mensaje de que es bueno, pero no tanto como para ser definitivo. Esto nos lleva a creer que, si un sifilítico, luego de ser intoxicado con mercurio, fumigado con vapores de diferentes sustancias, envenenado con arsénico, cocinado a fuego lento, metido en un horno a microondas, quemado con electrodos, e inoculado con malaria, lograba sobrevivir, era inmortal (¡o por lo menos merecía vivir!). Podríamos seguir sumando detalles sobre los distintos tipos de atrocidades que se cometieron (y se cometen) en

165 |

Mario L. Vilaró

nombre de la salud. Sin negar el propósito altruista de los médicos, que en muchas ocasiones son una suerte de santos vivientes, no podemos evitar que un atisbo de duda ensombrezca nuestro espíritu. ¿Cuánto sufrimiento extra se habrán adicionado a los que ya padecían, por la actitud caprichosa y autosuficiente de algunos galenos, que ansiando encontrar la cura para un mal determinado, experimentaban con tratamientos osados e inhumanos? ¿Cuántos remedios heroicos –según la opinión de Hipócrates- habrán sido administrados sin demasiados fundamentos, pero con el afán de descubrir algo que, no solo podría mejorar al enfermo, sino también hinchar aún más el inflado ego de un médico que ansiaba pasar a la fama? Difícil establecer un límite cuando se recorre una línea tan delgada. Citando textualmente el artículo de De Kruif que acabamos de mencionar: “Afortunadamente, unos cuantos médicos norteamericanos, talentosos y audaces, concibieron el proyecto de provocar las condiciones, en absoluta seguridad para el enfermo, de accesos de fiebre artificial”. Es interesante la óptica de De Kruif al llamar “audaces” a aquellos médicos que se animaron a generar nuevas ideas, en particular cuando no eran ellos los que ponían el cuerpo. Sin despreciar todas las iniciativas científicas que llevaron a la medicina al estado de conocimiento actual, la audacia de algunos que suelen perseguir un determinado logro, no debería hacerse en detrimento de otros que suelen padecer las consecuencias nocivas de la osadía médica. Afortunadamente, en nuestros tiempos existen los comités de ética, que evitan que las excesivas aspiraciones

| 166

Sobre microbios y humanos

personales se lleven por delante al objeto principal de todo acto médico: el paciente. Mal que nos pese, tarde o temprano todos terminamos cayendo en manos de un médico y depositando nuestra fe en él, aunque a veces, retrotrayéndonos en el tiempo, podamos pensar que si las enfermedades son un castigo divino, parece que ciertas curaciones, por sus características expiatorias, nos hacen purgar todos nuestros pecados cometidos, y alguno más que podamos cometer en futuras reencarnaciones. Para concluir, y sin ánimo de menoscabar la tarea de los que velan por nuestra salud, nos viene a la memoria una frase que ilustra, basándose en la sabiduría popular del criollo, lo que muchos debemos sentir cuando se nos prescribe algún procedimiento médico, y que resume el sentir de los aceptan, pacientemente, el tratamiento propuesto por la persona en la que hemos depositado nuestro cuerpo y, a veces, nuestra alma: “Naides mezquina salmuera cuando el tajo es en cuero ajeno”. Bibliografía consultada Leitner R, Körte C, Braga M C. Historia del tratamiento de la sífilis. Rev Argent Dermatol 2007; 88: 6-19. Moreno Collado C. El mal venéreo con especial mención sobre la historia de la sífilis. Segunda Parte. Dermatología Rev Mex 1992; 36: 373-379. Paul de Kruif. Tratamiento de un día para la sífilis. Selecciones del Reader´s Digest. Tomo IV, N° 24, pág 36, noviembre de 1942.

167 |

XIII Antibióticos, ¿mitos o realidades? (Sobre la extraña relación de la mitología clásica con los antibióticos) N’abandonnez pas les légendes, elles permettent de terminer l’Histoire. Pierre Nicolle No existe cultura humana que no tenga sus propios mitos. Su estudio ha cautivado a historiadores, pensadores y filósofos de todos los tiempos; y las teorías sobre sus orígenes son variadas. El italiano Gianbattista Vico sostiene en su libro Scienza nuova, publicado en 1725, que los mitos son tentativas imaginarias de resolver los misterios de la vida y el universo, y que, como tales, podrían compararse, en una etapa primitiva del desarrollo humano, a las teorías científicas modernas. La mitología en general, y la griega en particular, está habitada por seres fabulosos que no hacían otra cosa que llevar a un plano ilustrativo las flaquezas del alma humana. Basta con pasearse un poco por el enorme catálogo de dioses y semidioses que frecuentaban el monte Olimpo –la sede oficial de la mitología griega- para reconocer que

169 |

Mario L. Vilaró

sus moradores estaban bastante lejos de ser un dechado de virtudes. Las deidades en cuestión no tenían demasiado empacho en sacar a la luz sus miserias y mezquindades usando, en muchos casos, recursos tan marrulleros, que hoy en día serían cuestionados por poco éticos, incluso en los ambientes de la más baja ralea. Bien podríamos entender que los mitos eran empleados como salvaguarda de la moral de un pueblo porque, al fin, no dejaban de tener un mensaje que calaba en la parte más profunda del espíritu humano. Es así que cualquier recopilación de mitos de cualquier cultura, no es otra cosa que una especie de “manual de buenas costumbres” en el que los mortales se veían reflejados para aprender, a través de leyendas y fábulas, qué es lo que estaba bien y qué lo que estaba mal hacer con sus vidas. La presencia de interminables castigos es algo común en todas las mitologías, en donde vemos a los pecadores condenados a sobrellevar, por toda la eternidad, crueles y denigrantes condenas que terminan por arrebatar lo último a lo que las personas nos solemos aferrar: la esperanza. De ese modo, desesperanzados, innumerables personajes vagan a perpetuidad sin otro horizonte que purgar una pena sempiterna. Pero los escarmientos no venían solos, siempre eran consecuencia de haber infringido alguna ley, cometido una inmoralidad u ofendido a algún dios. Parece ser que los humanos siempre se han sentido seducidos por la posibilidad de ser dioses, omnipotentes e inmortales, lo que en más de una oportunidad los llevó a meter soberanamente la pata y causar molestia a los supremos dominadores del universo. Quizás el mito de Sísifo sea uno de los que llega de manera profunda al lugar más recóndito de ser humano, allí, en ese rincón en el que nos parece que hemos sido abandonados por la buena fortuna y la desesperanza nos sofoca

| 170

Sobre microbios y humanos

hasta dejarnos sin aliento. Al consultar varios textos nos encontramos con diferentes interpretaciones sobre la historia de Sísifo aunque, detalles más, detalles menos, al mensaje es el mismo. Sísifo era un el rey de Éfira – antiguo nombre de Corinto. Entusiasta de la navegación y el comercio, estaba lejos de ser un ejemplo a seguir por los jóvenes. Especulador, mentiroso y cicatero, no dudaba en usar cualquier método para acrecentar su fortuna, llegando incluso a asesinar a quienes se interpusiesen en su camino. Cuenta la leyenda que era tan astuto, que llegó incluso a engañar a la misma muerte –Tánatos-, engrillándola cuando lo vino a buscar. Pero todos sabemos que a los dioses no se los tima fácilmente. Al final de cuentas, terminó como todos los mortales, rindiendo cuentas por las faltas cometidas. La pena a la que fue condenado tenía una singular característica: la desmoralización. Los dioses habían prometido a Sísifo que si lograba remontar una enorme roca, haciéndola rodar hasta la cima de una montaña, quedaría liberado del castigo. Cada vez que Sísifo estaba a punto de lograr su objetivo, la piedra rodaba cuesta abajo y debía comenzar nuevamente. El mito, en este caso, se interna en el abismo del alma humana y desencadena una de las más devastadoras emociones con la que tenemos que convivir: el desánimo. Otro mito, similar en algunos puntos al anterior, es el de La Hidra de Lerna. Ese animal, fantástico si los hay, tenía la particularidad de poseer siete cabezas con las que atacaba y devoraba irremediablemente a sus víctimas, con un aditamento pavoroso: si alguien intentaba cortarle una cabeza, de inmediato le crecían dos más. Basta recordar que una de las doce tareas de Hércules –Heracles para los co171 |

Mario L. Vilaró

nocidos- fue la de matar al monstruo, algo que logró luego de batallar bastante con el engendro al que, luego de cada golpe de espada, no cesaban de crecerle nuevas cabezas. Un detalle a tener en cuenta es que Heracles contó con la ayuda de los dioses para derrotar a la bestia, quienes le proveyeron de una espada mágica que le otorgó el poder de cortar todas las cabezas al mismo tiempo. Pero hablando más de realidades que de mitos, es probable que usted, amigo lector, en este momento se pregunte qué analogía podremos hacer entre estas historias mitológicas y los antibióticos. Sin embargo, si es lector consecuente de estas líneas, sabrá que los hilos conductores que guían el intelecto del autor suelen ser bastante intricados. Sigamos adelante. Nubia era la región situada en el sur de Egipto y el norte de Sudán. Su población se asentaba a lo largo del valle del Nilo. Es una de las civilizaciones más antiguas y su desarrollo se vio fuertemente influenciado por la cultura egipcia, con la que comparten no solo tradiciones, sino también gran parte de su religión. En un reciente estudio arqueológico sobre restos óseos humanos, se demostró que los nubios consumían, de manera regular, tetraciclina, aparentemente con la cerveza. Para determinar eso se usaron sustancias afines al antibiótico que fueron marcadas con fluoresceína, y se revelaron depósitos de la droga en los huesos. Parece ser que la cerveza se había contaminado con bacterias del género Streptomyces. El descubrimiento, realizado por el antropólogo George Armelagos y el médico químico Mark Nelson, fue publicado en el American Journal of Physical Anthropology (1). En el trabajo, el autor explica:

| 172

Sobre microbios y humanos

“Tenemos la tendencia a asociar a las drogas curativas con la medicina moderna. Pero es cada vez más evidente que las poblaciones prehistóricas usaban datos empíricos para desarrollar agentes terapéuticos. No tengo ninguna duda de que sabían lo que estaban haciendo”. El uso de diferentes sustancias, principalmente naturales, para el tratamiento de las enfermedades infecciosas, se remonta muy lejos en la historia. Incluso antes del conocimiento de las verdaderas causales de la enfermedad. En escritos chinos que datan de 1500 años a. C., se relata que los vendajes de heridas, sobre los que había crecido moho, hacían sanar más rápidamente que aquellos que habían permanecido limpios. Los griegos habían comprobado la eficacia de la aplicación de vino, mirra y sales minerales en las heridas de guerra. La Quina, sustancia obtenida de la corteza de los quinos, era usada por los aborígenes para el tratamiento del paludismo. La historia cuenta que, en 1638, a raíz de haber curado una crisis palúdica a la esposa del Virrey de Perú, el Conde de Chinchón, pasó a ser conocida como la Chinchona. En todas las civilizaciones existieron diferentes formulaciones a base de extractos vegetales que fueron usadas, con mayor o menor éxito, para el tratamiento de las heridas infectadas. Del mismo modo, el consumo de distintos tipos de infusiones ha sido usual para tratar supuestos procesos infecciosos sistémicos. Es por eso que resulta difícil establecer el nacimiento oficial de los antibióticos, si lo consideramos desde el punto de vista de su empleo empírico.

173 |

Mario L. Vilaró

Como generalmente ocurre con este tipo de situaciones, el conocimiento empírico de los hechos sirve de sustento para el uso de algunas sustancias con poderes medicinales. Al respecto, Nicholas C. Lloyd, en su artículo “Salvarsán el primer compuesto quimioterápico de la historia”, explica: “Si se la define como al uso de un compuesto específico, descubierto como resultado de una búsqueda sistemática de una cura para una enfermedad específica, la quimioterapia tiene menos de un siglo de antigüedad”. Ya hemos visto que fue Paul Ehrlich, en 1909, quien desarrolla el salvarsán como tratamiento para la sífilis, aunque su uso haya tenido corta vida, se lo puede considerar como el primer medicamento antiinfeccioso de la historia que fue desarrollado e investigado como tal. Fue el propio Ehrlich quien introdujo el término “quimioterapia” en la jerga médica, ya que se usaban sustancias químicas (principalmente colorantes) como medicamentos. El médico alemán Gerhard Domagk consideraba la posibilidad de que ciertos colorantes fuesen captados de manera selectiva por las bacterias, como sucede en la coloración de Gram. De acuerdo con ello, postuló que se los podría usar para destruir microorganismos patógenos. Descubrió que el Rojo Protonsil era muy eficaz como antibacteriano. Tanto fue así, que cuenta la historia que lo probó con su propia hija, afectada de una septicemia severa, y obtuvo un muy buen resultado. La primera comunicación científica sobre el uso de protonsil en humanos fue publicada en 1935, y representó un hito en el tratamiento de las enfermedades infecciosas. En 1939, Domagk recibió el premio Nobel de medicina por su descubrimiento. Análisis posteriores demostraron que el Prontosil se transformaba en un

| 174

Sobre microbios y humanos

compuesto muy sencillo dentro del cuerpo, la sulfanilamida, y se sintetizaron varios derivados que fueron ampliamente usados en medicina. El éxito fue tan resonante que se llegó a decir que el siglo XX pasaría a la historia como el siglo en el que las sulfonamidas derrotaron las enfermedades infecciosas. En el año 1889, M. Vuillemin publicó un trabajo titulado Antiboise et simboise y propuso el término antibiosis cuando se tratara de un fenómeno en el que “una criatura destruye la vida de otra para salvar la propia”. La definición era amplia y se aplicaba a todos los seres vivos. Más tarde, antibiosis fue utilizado por Pasteur y Joubert al tomar nota la acción antagónica in vitro entre microorganismos. Los científicos remarcaron que los bacilos del ántrax crecían rápidamente en orina estéril. Sin embargo, cuando la orina estaba contaminada, no se multiplicaban y morían. En su publicación Charbon et septicemie, intentaba explicar el fenómeno bajo el axioma de “la vida destruye la vida”, e introdujo la idea de que el hecho podría ser usado en la terapéutica. En sus especulaciones, dijeron: “La orina neutra o ligeramente alcalina es un medio excelente para el bacilo…, pero si uno de los microorganismos aerobios corrientes se siembra al mismo tiempo, el bacilo del carbunco se desarrolla solo pobremente y muere más pronto o más tarde. Es un hecho notable que se llegue a observar este mismo fenómeno en el cuerpo, aun en aquellos animales más susceptibles al carbunco, lo que conduce al asombroso resultado de que se pueden introducir con profusión en un animal los bacilos del carbunco sin que se desarrolle 175 |

Mario L. Vilaró

la enfermedad…. Estos hechos tal vez justifican las más amplias esperanzas para la terapéutica”. El vocablo antibiótico, ganó espacio cuando comenzaron a emplearse compuestos originados por microorganismos para tratar infecciones. Aunque se hayan propuesto nombres técnicamente más precisos y ajustados (antimicrobianos, antibacterianos, etc.), el uso de la palabra antibiótico ha persistido tanto en el lenguaje médico como en el popular, y aunque técnicamente no es del todo ajustada, y se presta a confusiones en la interpretación de su verdadero efecto terapéutico, difícilmente pueda ser suplantada por otra. Muchas veces la historia (o los historiadores) suele ser bastante injusta (u olvidadiza) con algunos personajes o hechos del pasado, condenándolos al olvido. Tanto es así, que en la cultura popular se piensa que el nacimiento de los antibióticos comienza con Alexander Fleming y la penicilina, y que hasta ese entonces no existía nada. El caso es que las observaciones sobre la antibiosis son bastante más viejas de lo que se cree. Lister, en 1871, observando una orina que contenía bacterias y levaduras, afirmó que las bacterias “parecían estar en mal estado”. Tyndall al notar que colonias de Penicillium, que habían crecido sobre la superficie líquida de un cultivo bacteriano, había matado las bacterias, supuso que las había asfixiado. En 1888, el microbiólogo francés Charles Bouchard publicó varios artículos que relataban la acción antagónica ejercida por el bacilo piociánico (Pseudomonas aeruginosa) y otras bacterias. En 1889, los alemanes Emmerich et Loew aislaron de dicho bacilo una sustancia que llamaron “piocianasa”, con propiedades bactericidas.

| 176

Sobre microbios y humanos

En 1891, el médico británico Emanuel Klein sugirió que la lucha contra los microorganismos patógenos se podía realizar de varias formas: antagonismo químico de los tejidos sanos, acción germicida de la sangre y jugos tisulares de animales no susceptibles a la multiplicación de bacterias patógenas; antagonismo, entre las bacterias y sus propios productos químicos; antagonismo de una especie y sus productos químicos frente a otras especies. En 1895, el italiano Vicenzo Tiberio marcó la acción antibiótica in vitro de diversos extractos de mohos (Aspergillus, Mucor, Penicillium) enfrentados a diferentes bacterias, y realizó pruebas in vivo en conejos. El médico francés Ernest Duchesne (1874 –1912) es para algunos, el precursor de la terapia con antibióticos; para otros (incluyendo una importante mayoría de microbiólogos clínicos), un absoluto desconocido. En 1896, unos treinta años antes del famoso descubrimiento de Alexander Fleming, Duchesne había tomado nota de la capacidad de algunos mohos del género Penicillium de inhibir el crecimiento bacteriano. Sus observaciones fueron objeto de su tesis doctoral, aunque los resultados del trabajo no se tuvieron en cuenta (probablemente, el texto haya pasado a engrosar la estadística de las tesis que duermen su gloria en los estantes de las bibliotecas universitarias, y que nadie lee). Al mismo tiempo el médico italiano B. Gossio intentó extraer una sustancia antibacteriana a partir de cultivos de Penicillium glaucum, purificando una sustancia cristalina y, en una publicación posterior, Duchesne comunicó que el bacilo de Eberth (Salmonella typhi) era inhibido por Penicillium. No hemos encontrado referencias claras sobre si Fleming estaba al tanto de lo descubierto por sus antecesores. Si bien es cierto que por esos tiempos la comunidad científica era bastante reducida (digamos que prácticamente se 177 |

Mario L. Vilaró

conocían entre todos), la comunicación entre ellos no era del todo fluida. Sin embargo, es probable que alguna información haya tenido. La historia de Fleming se presenta controvertida según los autores. El hecho de que notara la antibiosis en sus placas de estafilococos contaminadas con hongos, instantes antes de tirarlas a la basura, ha sido catalogado por sus defensores como una genialidad, propia de un hombre dotado de enorme capacidad intelectual, preparación académica, curiosidad científica e interés práctico, y como una mera casualidad, por sus detractores. Los biógrafos se contraponen, particularmente en ese punto, y es difícil llegar a una apreciación certera. El hecho es que la publicación de Fleming sobre la penicilina no tuvo buena acogida, y su descubrimiento permaneció ignorado por algo más de diez años. Si otros autores se interesaron en el tema, fue para constatar que la producción de penicilina era muy difícil y que su purificación, imposible, en razón de la inestabilidad de la molécula. El destacado Harold Raistrick, personaje señero de la micología de ese entonces, afirmó que “la producción de penicilina con fines terapéuticos era verdaderamente imposible” (algo de razón tenía, con las posibilidades técnicas disponibles por esos tiempos… ¡eran necesarios 100 litros de caldo de cultivo de hongos para obtener una dosis de penicilina!). Otro científico poco conocido fue el francés René Dubós. Contrariamente a lo que se pudiera suponer, no era médico ni microbiólogo, era ingeniero agrónomo. Luego de finalizar sus estudios en Francia, y de una corta estadía en Roma, se trasladó a los Estados Unidos y comenzó a trabajar en microbiología de los suelos en la Estación Experimental de Nueva Jersey. Realizó estudios sobre los microorganismos que tenían la capacidad de degradar la celulosa.

| 178

Sobre microbios y humanos

De manera simultánea, A. O. Avery, del Instituto Rockefeller de Nueva York, intentaba encontrar alguna sustancia para controlar las neumonías causadas por el neumococo. Avery tomó conocimiento de los estudios de Dubós y trazó una analogía entre la pared de celulosa de las células vegetales, y la cápsula de polisacáridos del neumococo. Se contactó con Dubós y le manifestó su idea. Poco después, el francés se incorporó al grupo de trabajo de Avery, y comenzó a considerar la posibilidad de encontrar un microorganismo que pudiese degradar el envoltorio bacteriano. Realizó diferentes ensayos con muestras de suelo. Dubós sabía de la propiedad que tienen las bacterias de adaptarse a múltiples ambientes y nutrientes, como para justificar las pruebas. Realizó un extracto de la cápsula y lo agregó al medio de cultivo, bajo el principio de que la bacteria que creciese podía utilizar los componentes capsulares como alimento. La mayoría de los microbios ambientales murieron, y solo un pequeño grupo sobrevivió. De allí en más, las investigaciones siguieron por esa línea: si esas bacterias podían usar los componentes capsulares como alimento, deberían producir alguna enzima que la degradase. Consecuentemente, si se la lograse sintetizar y administrar a humanos, la sustancia dejaría a los neumococos desnudos y a merced de los macrófagos. Al mismo tiempo, Dubós amplió sus pruebas a otros Gram positivos, como estafilococos y estreptococos. Finalmente, logró aislar la proteína responsable del fenómeno de lisis capsular en extractos de Bacillus brevis, y la denominó gramicidina en honor a Christiam Gram. Pronto descubrió que en realidad se trataba de dos sustancias mezcladas. Surgió la nueva denominación de tirotricina. Cuando logró separar sus componentes, los llamó tirocidina y gramicidina. Comenzó a realizar ensayos con ratas de laboratorio. Si bien es cierto que el efecto bactericida de 179 |

Mario L. Vilaró

la tirocidina era muy bueno in vivo, no se pudo soslayar un efecto secundario importante: también producía lisis de los glóbulos rojos cuando era administrada por vía parenteral. Su uso se circunscribió a aplicaciones tópicas sobre heridas superficiales, en donde reportaron buenos resultados. Más allá de que la tirocidina no haya prosperado como antibiótico de uso general, su mayor relevancia reviste en el hecho de que significó un importante avance en lo referente a la experimentación de laboratorio para la obtención de nuevas sustancias antimicrobianas. En otras palabras, si las bacterias producían sustancias que eliminaban otras bacterias, solo era cuestión de buscar la adecuada para determinada infección, para abrir las puertas de una posible solución. La búsqueda condujo al descubrimiento de numerosos compuestos con propiedades antibióticas. La lista es enorme, sorprendente y desconocida. A partir de B. subtilis se obtuvieron la subtilina, bacitracina, bacilina, eumicina, liqueniformina y subtilisina. De Bacillus brevis, además de las ya conocidas gramicidina y tirocidina, se sintetizaron la gramicidina S y la colistatina. De otros grupos bacterianos, la piocianina, a-hidroxifenazina, violaceína, prodigiosina, iodinina, diplococcina, actinomicina, actinomicetina, lisozima, estreptotricina, estreptomicina, griseína, proactinomicina, nocardina, litmocidina y estreptina. De origen fúngico, además de la penicilina, se describieron las siguientes drogas: aspergilina, ácido aspergílico, chaetomina, citrinina, claviformina, fumigacina, gliotoxina, ácido k6jico, ácido pencílico, penicilinas, ustina, javanicina, ácido gladiólico, viridina, corilofilina, micoína C, glutinosina, ácido nor-micofenólico, micocidina, polipolina y clitocibina. A partir de algas, líquenes y plantas superiores, la protoanemonina, el ácido nordi-

| 180

Sobre microbios y humanos

hidro-guaiarético, el dicumarol, la tomatina, la puchiina, la pterlgospermina y la quercetina. En el período comprendido entre los años 1945 a 1947, se presentaron 210 trabajos que comunicaron el hallazgo de nuevos compuestos antibióticos de origen natural. Con la fabricación a gran escala de la penicilina, en las postrimerías de la Segunda Guerra Mundial, el mundo occidental rebosaba de optimismo: la derrota del enemigo nazi que asolaba a Europa era cuestión de tiempo, y la de las enfermedades infecciosas, también. Una vez más, como en muchas otras ocasiones en la historia de la medicina, se pensó que se había descubierto la panacea (por lo menos para las infecciones microbianas). Nuevamente es oportuno recurrir a los mitos para que nos expliquen algunas cosas. En un texto anterior nos hemos referido a Asclepio (Esculapio, para los romanos), el dios griego de la medicina. Tuvo dos hijas: Higia y Panacea, y ambas siguieron el camino de su padre. Higia era la diosa de la curación, la limpieza y la sanidad. De su nombre deriva la palabra higiene de nuestra lengua. Su hermana, Panacea (del griego pan: todo, y akos: remedio) ayudaba a su padre a hacer medicinas y tratar a los enfermos. De allí proviene la palabra panacea, como sinónimo del medicamento que puede sanar todos los males. Aunque la búsqueda de la panacea ha sido una de las mecas de los alquimistas, no podemos negar que durante la evolución histórica de los medicamentos, en no pocas oportunidades se han hecho rimbombantes anuncios sobre compuestos medicamentosos que prometían ser una suerte de cura universal. 181 |

Mario L. Vilaró

Algo similar ocurrió con la Penicilina. Su éxito fue tan grande, que se llegó a suponer que, gracias a ella, las infecciones iban a desaparecer. En el año 1947, se informó el hallazgo de la primera cepa de Staphylococcus aureus resistente a la penicilina. Cuando Sísifo llegó a la cima, un estafilococo le desbarrancó la penicilina y… ¡a comenzar de nuevo! El resto es historia conocida, y vivida a diario en cualquier laboratorio de microbiología clínica. La búsqueda de nuevos antibióticos se transformó en una carrera en la que los microbios siempre llevan la ventaja. No vamos a abundar en detalles sobre los innumerables mecanismos que desarrollan los microorganismos para resistir a los antibióticos, pero sí en el reiterado hecho de que, cada vez que un nuevo antimicrobiano sale al mercado, al poco tiempo aparecen gérmenes que generan resistencia. Es decir que el mito de Sísifo se repite de manera eterna en la lucha contra las enfermedades infecciosas. La ciencia sigue atacando a la Hidra de Lerna, como lo hacía Heracles, con el devastador resultado de que con cada nueva droga surgen nuevos mecanismos de resistencia, al igual que de cada cabeza cortada a la Hidra, nacían dos más. Aunque existe una diferencia: los dioses armaron a Heracles con una espada mágica que le permitió cortar las siete cabezas del monstruo de un solo golpe. La industria farmacéutica todavía no ha encontrado la suya. Para concluir, no podemos obviar otro mito ampliamente conocido: el de la caja de Pandora.

| 182

Sobre microbios y humanos

Como suele suceder, existen varias versiones y otras tantas interpretaciones. Epimeteo, hermano de Prometeo –el que había robado el fuego a los dioses- se enamoró de Pandora, la primera mujer creada por Zeus, que bajó a la tierra llevando una caja en la que se encontraban encerrados todos los males. La historia cuenta que Epimeteo, perdido por el amor, abrió la caja y las calamidades comenzaron a dispersarse por la tierra. Asustado se apresuró a cerrar con presteza la tapa dejando en su interior el último de los males: la esperanza. Lo interesante, y en alguna medida cuestionable, es que la esperanza haya sido considerada un mal. Los pobres mortales que transitamos diariamente por esta vida tenemos bien sabido que “la esperanza es lo último que se pierde”. ¿Por qué para los griegos la esperanza era un mal? La explicación tiene varias aristas, incluso algunas interpretaciones de los textos clásicos están bastante sesgadas por la misoginia, pero bien podemos afirmar que el punto en común es que la esperanza se presenta como un obstáculo que nos impide asumir las realidades ineludibles. Ante una situación desafortunada, todos guardamos en el fondo de nuestra caja algo de esperanza. Gracias a ella solemos cometer actos de todo tipo, algunos nobles, otros ruines, pero siempre nos guía el anhelo de revertir lo inevitable. De ese modo, lejos de ser una gracia, se transforma en una rémora que nos carcome el alma en la empecinada búsqueda de algo imposible. Es llamativa la forma como los mitos y leyendas se internan en ámbitos que pueden parecer inesperados, tales como el desarrollo del conocimiento humano. Quienes estimen que esta asociación entre ciencia y mitología carece de 183 |

Mario L. Vilaró

sustento, puede que tengan razón. Aunque vendría bien que antes echasen una mirada a su propio interior, allí donde moran los sentimientos más nobles y los más perversos de cada persona, allí donde el desaliento nos abruma con su implacable realidad, para reconocer que, cada uno de nosotros, en más de una ocasión, ha ido por la vida luchando contar hidras o remontando constantemente piedras que vuelven a caerse, allí en donde la esperanza nos lleva a cometer acciones irracionales y sin sentido. Todos nos hemos sentido alguna vez Sísifo o Heracles aunque, por fortuna, en algún recóndito lugar de nuestro espíritu, nos aguardaba el ligero calor de la esperanza que nos provee la fuerza para seguir la batalla contra nuestros propios monstruos personales, aunque nunca los podamos derrotar. Si no fuese así, no seríamos humanos. Seguramente al final, cuando todas las piedras se hayan desmoronado, cuando la hidra tenga demasiadas cabezas, y cuando la esperanza se haya transformado en un hilo intangible, quizá surja una tenue luz que venga a nuestro auxilio y nos indique el camino a seguir para ayudarnos a aceptar lo irremediable. ¿Serán los antibióticos el último de los males que quedó atrapado en la caja de Pandora de la microbiología? Bibliografía consultada George J. Armelagos,. Bioarchaeology as Anthropology; Archeological Papers of the American Anthropological Association Special Issue: Archeology Is Anthropology; Volume 13, Issue 1, 27–40. 2003.

| 184

Sobre microbios y humanos

Nicholas C. Lloyd, Hugh W. Morgan, Brian K. Nicholson, Ron S. Ronimus, and Steven Riethmiller. Salvarsan – The first chemotherapeutic compound. Zaffiri L, Gardner J, Toledo-Pereyra LH. History of antibiotics. From salvarsan to cephalosporins. J Invest Surg. 2012 Apr;25(2):67-77. Stuart B. Levy. The Antibiotic Paradox: How the Misuse of Antibiotics Destroys Their Curative Powers. 2002. Perseus Publishing. Pouillard J. A forgotten discovery: doctor of medicine Ernest Duchesne’s thesis (1874-1912)]. Hist Sci Med. 2002 Jan-Mar; 36, (1):11-20.

185 |

XIV La única verdad es la realidad (Sobre dogmas que se derrumban y verdades que no son tan verdaderas) Pocas frases tan contundentes como esta. Contrariamente a la creencia popular, su autor no fue un famoso político, ex presidente de la república comúnmente conocido como El General. Aunque probablemente gracias a él es que haya logrado difundirse ampliamente en nuestra sociedad. “La única verdad es la realidad” figura en la obra Ética a Nicómaco de Aristóteles. En el capítulo VII del libro cuarto, “De los que dicen verdad y de los que mienten en palabras o en obras o en disimulación”, Aristóteles aborda el tema de la verdad como una virtud excelsa que debe ser destacada, y al respecto dice: “La mentira, pues, considerada en cuanto mentira, mala cosa es y digna de reprensión, y la verdad buena y digna de alabanza.” Revisar la historia de la ciencia implica encontrar, a menudo, numerosas verdades que en su tiempo tuvieron un 187 |

Mario L. Vilaró

valor casi absoluto y que luego cayeron refutadas por nuevas verdades. No es de extrañar: el avance del conocimiento hace que a diario se cuestionen los conceptos que sirvieron de base para llegar a nuevos descubrimientos, y que conllevan cambios de punto de vista y nacientes caminos para investigar. Podemos arriesgarnos a decir que en ciencia casi no existen verdades irrefutables. Todas las verdades científicas están sujetas a juicio permanente, ya que cuando una está lo suficientemente consolidada, no falta un científico que la cuestione. Nos da la impresión de que los hombres de ciencia andan siempre buscándole la quinta pata al gato, ¡y hasta sueñan con ello! ¿Qué investigador no ha ambicionado con hacer un descubrimiento revolucionario que tire por tierra lo que otros han afirmado con certeza absoluta? El escritor español Manuel Vicent, al respecto de la verdad dijo: “… el que busca la verdad corre el riesgo de encontrarla”. Y he allí el problema: hay veces que la verdad en la ciencia no dura mucho. Podríamos animarnos a decir que tiene fecha de vencimiento, aunque muchas veces no lo sepamos. Un dogma es una proposición que se asienta por firme y cierta y como principio innegable de una ciencia (diccionario de la RAE). Su origen proviene del griego dogma, que significa pensamiento, doctrina; y que a su vez deriva del verbo dokein, opinar. La segunda acepción del diccionario se refiere a la Doctrina de Dios revelada por Jesucristo a los hombres y testificada por la Iglesia, y en la tercera, es el fundamento o puntos capitales de todo sistema, ciencia, doctrina o religión.

| 188

Sobre microbios y humanos

Es interesante destacar que la palabra ciencia está incluida en dos de las definiciones precedentes, lo que nos hace pensar que las ciencias se basan, en gran medida, en dogmas. A todos aquellos que navegan por los mares científicos, y la palabra dogma les pueda resultar un poco incómoda, basta con que se refieran a la primera acepción y piensen en cuántas proposiciones firmes, ciertas e innegables se afirman en su tarea diaria para reconocer que, mal que les pese, trabajan con dogmas. Un dogma es, pues, una verdad innegable y, en gran medida, incuestionable… por lo menos hasta que alguien lo cuestione. En la microbiología han existido, y existen, varios dogmas. Algunos cayeron con el tiempo y fueron reemplazados; otros perduran y se consolidan aún más. Basta con revisar su desarrollo histórico para comprobarlo. Y no es que se trate de verdades caprichosas o sin fundamento, en su momento fueron demostradas con las herramientas disponibles. Desde el momento que a alguien se le ocurrió especular sobre la existencia de microbios, aun sin disponer de los elementos necesarios para demostrar fehacientemente lo que decía, cada afirmación fue hecha bajo el convencimiento cabal de que se trataba de una absoluta verdad. O, por lo menos, la verdad vigente en ese momento. Aristóteles afirmó que existen animales que nacen a partir de ellos mismos sin ser producidos por organismos similares. Jean Baptiste Van Helmont proponía una receta para crear ratas a partir de granos de trigo y una camisa sucia de mujer. De acuerdo con su enunciación, “el sudor humano jugaba el rol de principio vivificante”. Georges Louis de Leclerc, Conde de Buffon, dijo que “las crines de un caballo muerto pueden 189 |

Mario L. Vilaró

transformarse espontáneamente en gusanos”. Claude Perrault no dudó en que “pequeños seres invisibles son el origen de toda vida animal, y esperan el contacto con un sutil licor para hacerlos vivir”. Louis Joblot informó sobre la existencia microscópica de un “animáculo con figura humana con patas y cola” (es importante remarcar que, gracias a ese “descubrimiento”, Joblot fue nombrado miembro de la Academia de Ciencias de París). Todos estos conceptos (solo estamos mencionando algunos a modo de ilustración), por más que nos puedan mover a risa, fueron verdades en su momento y como tal, resultaron inapelables para la ciencia. En la actualidad, las cosas son algo diferentes (o por lo menos eso es lo que nos parece). El avance de las técnicas usadas en la investigación y el uso de una metodología de trabajo común, con reglas estrictas que aseguran la objetividad de los resultados, hace que no se puedan lanzar verdades (o dogmas) a la ligera, sin ser analizadas profundamente por una comunidad científica con estrictos criterios de evaluación y celosa de preservar la integridad del conocimiento. Ello asegura que todo aquello que ve la luz en el mundo del saber, tenga un razonable grado de certeza. En una afirmación bastante osada, y si se quiere extemporánea, se puede alegar que las verdades científicas modernas son más verdades que la de años atrás (o por lo menos, han pasado por un filtro que las seleccionó). Desde ese punto de vista, los dogmas actuales deberían ser más sólidos, o difíciles de rebatir, que los de otras épocas. Los microbiólogos hemos tenido algunos dogmas que perduraron durante mucho tiempo y que, en gran medida, han constituido el fundamento de nuestra tarea profesional. Podemos decir que han sido verdades irrefutables sobre

| 190

Sobre microbios y humanos

las que se han construido líneas de trabajo y se han tomado acciones consecuentes. En microbiología clínica, por ejemplo, uno de los dogmas más usados es “cuando más se usa un antibiótico, más resistencia generan los microorganismos”. Algo que nadie puede negar y que ha sido demostrado de tal modo que no resiste el menor análisis, ¿o sí? Con los microbiólogos nunca se sabe… y con los microbios tampoco. La evolución de la resistencia microbiana a los antibióticos ha seguido un camino vertiginoso y diverso. La emergencia de mecanismos de resistencia inexistentes se ha revelado como la caja de Pandora de la microbiología (tal como acabamos de mencionar en el capítulo anterior), y el fenómeno de la resistencia asociada a múltiples drogas antimicrobianas se ha extendido de manera ubicua (tan ubicua como lo son los microbios) y generalizada. No solo se ha circunscripto al ámbito de los hospitales, sino que cada vez es más frecuente hallar resistencias múltiples en microorganismos aislados a partir de pacientes que no han tenido contacto con instituciones médicas. El principal responsable de ello ha sido el mal uso o sobre uso de antibióticos. Existe copiosa bibliografía que avala lo antedicho, lo que confirma que estamos en presencia de una verdad científica irrefutable, o sea, un dogma. ¿Alguien que trabaja en microbiología clínica puede opinar lo contrario? En la publicación Emergence of antibiotic resistance: need for a new paradigm, los autores cuestionan el dogma ampliamente aceptado en todos los ámbitos de la microbiología. De acuerdo con su opinión, la resistencia a los antibióticos no es algo nuevo y ponen en tela de juicio que la propagación de las resistencias múltiples sea consecuen191 |

Mario L. Vilaró

cia de la actividad humana. Estudios de metagenómica han mostrado la presencia de genes de resistencia en microorganismos que no han estado expuestos a los antibióticos. La revisión bibliográfica demuestra que en microorganismos que provienen del ambiente, de animales salvajes o de seres humanos de lugares aislados del planeta, estos genes están presentes en una proporción que resulta sorprendentemente inesperada. Afirman que no se trata de hallazgos casuales, sino que los organismos multiresistentes representan una parte importante de los individuos de determinadas poblaciones bacterianas. Los autores concluyen que “la emergencia y el aumento de la resistencia a los antibióticos observada en todo el mundo, no puede ser explicada solamente por el incremento en el uso de antibióticos en humanos, ya que involucra un interacción compleja en un ecosistema que comprende comunidades microbianas, antibióticos y genes de resistencia. Ello conduce a un nuevo paradigma en el que la mayoría de los genes de resistencia a los antibióticos, deben ser considerados como genes que existen normalmente en la naturaleza, y emergen a partir de diferentes fuentes y se dispersan en las comunidades bacterianas”. Al mismo tiempo, Kirandeep Bhullar y sus colaboradores informan sobre un estudio realizado en una caverna en Nuevo México. De acuerdo con los autores, el lugar - La caverna de la Lechuguilla - permaneció aislado del medio exterior por más de cuatro millones de años. En un estudio del microbioma de la caverna, se identificaron bacterias que presentaban resistencia a catorce diferentes tipos de

| 192

Sobre microbios y humanos

antibióticos de uso médico frecuente. Incluso se detectaron genes de resistencia a la daptomicina, uno de los antibióticos más recientes del mercado farmacéutico. De acuerdo con el hallazgo, la posibilidad de que esas bacterias cavernícolas hayan estado en contacto con antibióticos modernos es prácticamente nula, por consecuencia, hay que descartar cualquier tipo de presión de selección externa. El proceso evolutivo que han sufrido es absolutamente natural y condicionado por el ecosistema de ese pequeño ambiente cerrado. Entonces… si no había médicos prescribiendo antibióticos, ¿de dónde aparecieron esos genes?... ¿Qué sucedió con nuestro viejo dogma? Como habitualmente ocurre con las verdades científicas, cuando la sombra de la duda se cierne sobre ellas, existen defensores y detractores, pero la duda ya ha sido sembrada. Los simples usuarios de la microbiología, los que hemos basado, durante mucho tiempo, nuestro discurso científico en que el mal uso de antibióticos era la causa de todos los males, vemos que de pronto alguien hace que nuestro enemigo histórico comience a desdibujarse. ¿Acaso el malo de la película resultó ser no tan malo? Quizá deberíamos comprender qué son los mecanismos de resistencia, para poder acercarnos mejor al punto. Un ejemplo claro son las bombas de eflujo. En los últimos años, este tipo de mecanismo ha emergido de manera preponderante en la microbiología clínica y se han descripto numerosas resistencias asociadas a él. La pregunta a formularse es si las bombas de eflujo existían previamente o fueron apareciendo, forzadas por la presión de selección ejercida por los antibióticos. 193 |

Mario L. Vilaró

La primera definición es que los mecanismos de resistencia no existen para amargarle la vida a los microbiólogos e infectólogos; forman parte de la maquinaria metabólica propia y natural de la bacteria. En este caso, si una bacteria no tuviera bombas de eflujo, difícilmente podría vivir. Su función de regulación y excreción es fundamental para la subsistencia y el mantenimiento bacteriano, ya que expulsan sustancias tóxicas intracelulares hacia el medio externo. Son proteínas que pueden excretar tanto sustratos específicos, como un amplio rango de sustancias bastante disímiles entre sí, hasta que su concentración dentro de la célula se encuentre por debajo del umbral de toxicidad. Se trata de un sistema de una eficacia envidiable que funciona permanentemente asegurando la eliminación de todo compuesto que pueda resultar nocivo para la célula. Se estima que el 10% del genoma bacteriano cumple la tarea de transporte de sustancias, y la mayoría son bombas de eflujo. De hecho, algunos especialistas consideran que gran parte de las resistencias intrínsecas de algunos grupos bacterianos a los antibióticos, se debe a este tipo de proteínas más o menos específicas. Solo se trata de que haya una sobre expresión de esos genes, para que el sistema se ponga en marcha y la bacteria se vuelva resistente. Podemos afirmar que, ante el advenimiento de un nuevo antibiótico, no se puede prever con certeza que no haya una bomba de eflujo esperando que llegue al citoplasma para expulsarlo. Esta suerte de “la bacteria se reserva el derecho de admisión de determinadas sustancias”, ha resultado ser de una amplitud insospechada, ya que las bacterias están firmemente dispuestas a “sacar toda la basura afuera”, entre otras cosas, los antibióticos. Se han rastreado los genes que regulan estas proteínas y muchos se remontan a orígenes

| 194

Sobre microbios y humanos

ancestrales, lo que demuestra que siempre estuvieron allí y que el uso de antibióticos no hizo otra cosa que despertarlos de un silente letargo. Nada nuevo bajo el sol, dirán unos; si no fuera por los antibióticos, esto no habría pasado, dirán otros. Otro aspecto a considerar es que si los antibióticos son producidos por microorganismos, y los microorganismos viven en comunidades complejas, es esperable que este juego de secreción de sustancias al medio ambiente genere, necesariamente, una presión de selección favoreciendo la supervivencia de los más resistentes, al más puro modo Darwiniano de selección natural. Entonces sobrevivirán aquellos que posean la estructura genética suficiente para soportar las fuerzas selectivas del medio (léase genes de resistencia a los antibióticos). De tal modo que no se trata de otra cosa que de una expresión de la convivencia entre microorganismos y de las estrategias de adaptación que llevan millones de años. Igualmente, siempre se ha asumido que si se deja de emplear un antibiótico, las bacterias se vuelven sensibles a él. Varias citas de la bibliografía demuestran que esto no ocurre necesariamente así, y que la aseveración es una reducción simplista de un problema mucho más complejo, cuyo abordaje es multifactorial. Nos queda saber si el dogma en cuestión continúa en vigencia o fue derrumbado por genes milenarios. Probablemente la respuesta no la hallaremos en la microbiología, sino en la filosofía. Para saberlo, debemos recurrir nuevamente a Aristóteles y su “justo medio aristotélico”, que no se trata de otra cosa que del equilibrio entre el exceso y el defecto. El “ni tanto ni tan poco” de nuestra sabiduría popular.

195 |

Mario L. Vilaró

La experiencia nos demuestra que, si bien es cierto que la emergencia de la resistencia a los nuevos antibióticos puede ser predicha como un hecho incuestionable, no resulta siempre tan fácil saber de dónde provienen los genes que la regulan y, menos aún, de qué manera se desencadena su expresión fenotípica. La verdad estará, probablemente, en un punto medio en el que todos los factores juegan su rol, en mayor o menor medida, conformando una serie de eventos moleculares relacionados, que todavía no han podido ser explicados en su totalidad. La única verdad es la realidad, y la realidad es que la resistencia a los antibióticos representa un problema ingente en la salud humana, y que deben abordarse todas las tácticas posibles para controlarlo. Que se trate de genes ancestrales o nuevos, es de suma importancia para la comprensión del fenómeno y puede aportar vital información para plantear futuras estrategias de control y prevención, pero tiene poca relevancia para el paciente que se debate entre la vida y la muerte, a causa de un proceso infeccioso originado por un germen multiresistente. En infectología, es un problema cotidiano, y las proyecciones futuras distan mucho de ser halagüeñas. Más allá de que podamos sostener un dogma o cuestionarlo, se trata de una verdad que golpea nuestra puerta. Probablemente la frase que mejor sirva para cerrar este texto sea la escrita por el cantautor Catalán Joan Manuel Serrat, que en una de sus canciones dice: “Nunca es triste la verdad, lo que no tiene es remedio”.

| 196

Sobre microbios y humanos

Bibliografía consultada J. M. Rolain, R. Canton and G. Cornaglia. Emergence of antibiotic resistance: need for a new paradigm. Clinical Microbiology and Infection, 2012, European Society of Clinical Microbiology and Infectious Diseases. Kirandeep Bhullar, Nicholas Waglechner, y cols. Antibiotic Resistance Is Prevalent in an Isolated Cave Microbiome. PLOS ONE Journal Information. Published: April 11, 2012DOI: 10.1371/journal. pone.0034953. M. A. Webber and L. J. V. Piddock. The importance of efflux pumps in bacterial antibiotic resistance. Journal of Antimicrobial Chemotherapy (2003) 51, 9–11.

197 |

XV La culpa no la tiene el chancho… (Sobre los antibióticos usados en animales) La investigación y el uso de antibióticos en medicina veterinaria se remontan aproximadamente a la década del 50 del siglo pasado. El descubrimiento de nuevas drogas antimicrobianas para tratamiento de animales enfermos, corría de manera paralela a lo que ocurría en medicina humana. De hecho, algunas de las drogas que no pudieron usarse en seres humanos fueron de gran utilidad en animales. Particularmente en aquellos que eran criados para el consumo humano. Por ese entonces, ya se avizoraba la necesidad de elaborar alimentos a gran escala. Las proyecciones de crecimiento de la población mundial mostraban que eran inevitables nuevas estrategias para cubrir una demanda creciente de comestibles. Todas las etapas de la cadena productiva alimentaria deberían mejorarse, ya que los agoreros presagiaban que iba a llegar el momento que no habría comida para todos.

199 |

Mario L. Vilaró

En gran parte del planeta, la principal fuente de proteínas para el hombre ha sido fundamentalmente de origen animal. De tal modo, que era necesario optimizar los sistemas de cría, y uno de los principales flagelos eran las pestes que los afectaban. Del mismo modo que las personas eran atacadas por enfermedades infecciosas, los animales eran diezmados por diferentes tipos de patologías, la mayoría de origen microbiano, lo que causaba disminución en el rendimiento y grandes pérdidas económicas. El problema de la sanidad animal había interesado ya a Louis Pasteur. Entre los años 1878 y 1881, desarrolló sistemas de inmunización para prevenir enfermedades como el cólera de los pollos, el ántrax de los corderos, y la erisipela porcina. De hecho, sus trabajos sobre el ántrax aportaron importantes datos para el conocimiento de la fisiología bacteriana y la comprensión de gran parte de los fenómenos inmunológicos. Por ese entonces la microbiología estaba en su era preantibiótica, de modo que se hizo hincapié en la profilaxis con vacunas. Con el hallazgo de los antibióticos, se avanzó en el tratamiento de las epidemias, principalmente avícolas, y se los comenzó a administrar de manera profiláctica. Fue por casualidad que se descubrió que estos medicamentos tenían un efecto secundario tan inesperado como favorable. En el año 1950, Stokstand y Jukes notaron que aves alimentadas con productos de la fermentación de Streptomyces aureofaciens, crecían más rápido y mejor. Lo mismo sucedió con cerdos alimentados con restos de alimentos fermentados. Se identificó que esos alimentos tenían resabios de clortetraciclina. Posteriormente se confirmó esta propiedad utilizando diferentes antibióticos para diversas especies animales, lo que motivó que se generalizase su empleo como promotor

| 200

Sobre microbios y humanos

de crecimiento a dosis subterapéuticas, siendo los más usados las penicilinas y las tetraciclinas. Se demostró que los animales suplementados con drogas mejoraban el llamado “índice de conversión”, que no es otra cosa que animales que crecen más con la misma cantidad de alimento. A medida que aparecían nuevas drogas para el tratamiento en humanos, se probaban en animales, lo que llevó a que algunas fuesen incorporadas a los sistemas de cría intensiva. Como siempre sucede cuando el hombre se mete con los microbios, al poco tiempo comenzaron los dolores de cabeza. Pocos años después se reportó el primer caso de aislamiento de Salmonella resistente a los antibióticos, en un grupo de terneros con enfermedad respiratoria. Eso debería haber encendido la alarma sobre el problema que estaba surgiendo, pero se impuso la rentabilidad económica al sentido común. Fue necesario esperar unos cuantos años hasta que las alarmas se encendieran de manera significativa, alertando sobre la importancia del problema. De allí en más, se declaró abiertamente la puja entre los defensores y detractores de los quimioterápicos en animales (que no era otra cosa que el enfrentamiento entre los intereses económicos y aquellos que comprendieron la magnitud del problema). El uso de drogas para estimular el crecimiento rápido de los animales de cría trajo aparejado, de manera paulatina, una importante presión de selección que condujo a la emergencia de resistencias adquiridas en cepas naturalmente sensibles. La lista de microorganismos que han cambiado su estructura genética es extensa y profusamente documentada, del mismo modo que se han identificado los vectores de transmisión de la resistencia hacia bacterias de impor201 |

Mario L. Vilaró

tancia sanitaria humana. Tal es el caso de los genes de resistencia a la vancomicina en enterococos, que hoy representa un ingente problema de salud, o de la resistencia asociada a fluoroquinolonas en especies de Salmonella. La Organización Mundial de la Salud, a través de la Red Internacional de Autoridades en materia de Inocuidad de los Alimentos (INFOSAN), ha tomado cartas en el asunto, dictando una serie de normativas a las que se deben ajustar para minimizar el impacto del problema. El Dr. Klaus Stöhr, especialista de la OMS, afirma: “El generalizado uso de los antimicrobianos en la agricultura y la ganadería plantea graves preocupaciones, pues algunas de las bacterias resistentes de reciente emergencia en los animales se transmiten a las personas, principalmente por los alimentos de origen animal o por el contacto directo con animales de granja. Tratar las enfermedades provocadas por esas bacterias resistentes en las personas resulta más difícil y costoso y, en algunos casos, los antimicrobianos disponibles no son ya eficaces.” La pregunta que nos surge luego de leer el párrafo anterior es qué tan generalizado está el uso de antibióticos en animales. De acuerdo con la OMS, en Norteamérica y Estados Unidos, el 50% de la producción de antibióticos está destinada a los animales productores de carne y aves de corral. La cría industrializada de ganado ha incrementado notablemente el uso de antimicrobianos. Una razón es su uso profiláctico a niveles subterapéuticos. El hecho se basa en que los animales son criados en espacios reducidos y con alimentación balanceada. Ello lleva a que el hacinamiento aumente

| 202

Sobre microbios y humanos

el riesgo de infecciones generalizadas que, de producirse, generarían importantes perjuicios económicos. La otra causa es su uso como promotores de crecimiento en aves de corral. Para cualquiera que conozca algo sobre el uso de antibióticos en la práctica clínica, el problema resulta más que evidente, y las probables soluciones aparecen, a priori, al alcance de las manos (restricción en las prescripciones, racionalización en el uso, educación a los ganaderos, etc.). Sin embargo, ello no resulta tan evidente y la problemática tiene varias aristas. Los quimioterápicos de uso animal no son considerados, por lo menos formalmente, como drogas: no deben ser prescriptos bajo receta como sucede en el hombre. Legalmente son catalogados como aditivos para piensos, lo que los exime de las regulaciones que rigen para los humanos. Al mismo tiempo, y bajo el mismo marco, tampoco están sujetos a las normas de calidad estrictas durante su elaboración, lo que hace que la eficacia terapéutica pueda tener variaciones y su potencia no sea siempre la misma. De manera concomitante, las campañas publicitarias de las industrias que fabrican los piensos para animales suelen hacer hincapié en los grandes beneficios económicos que reportan sus alimentos fortificados con promotores de crecimiento, sin aclarar en ninguna parte de qué se tratan exactamente esos suplementos. Finalmente, el marco regulador para el uso de este tipo de drogas es sumamente laxo, lo que permite gran flexibilidad en la forma de administración. En este contexto, es necesario aclarar que, a pesar de ser un problema mundial, no todos los países han asumido la misma postura para enfrentar el problema. Mientras algunos han prohibido el uso de los promotores de creci203 |

Mario L. Vilaró

miento (Suecia, 1995) y el estado decidió asumir la disminución en la rentabilidad productiva, ajustando sus políticas económicas para no perjudicar a los criadores de animales, otros, como los Estados Unidos, a través de un informe del Animal Health Institute of America, elaborado en 1998, estimó que suspender el empleo de los suplementos alimenticios, generaría una disminución muy importante en la producción a gran escala de alimentos, que sería imposible de atrapar con otros métodos convencionales (por esos años el informe es tan preciso como contundente: de acuerdo con sus estimaciones, los Estados Unidos necesitarían la friolera de cuatrocientos cincuenta y dos millones de pollos, veintitrés millones de bovinos y doce millones de porcinos para complementar las pérdidas en el rendimiento). En 1999, la Comunidad Europea prohibió el uso de once sustancias promotoras de crecimiento y el empleo de profilaxis antibiótica. Esta medida supone un significativo cambio de actitud en la producción, a gran escala, de alimentos de origen animal. Las drogas de uso veterinario solucionaban, de manera rápida y económica, la mayoría de los problemas sanitarios. Ahora, bajo la nueva normativa, es necesario que se implementen nuevas medidas de vigilancia que incluyen, entre otras, la prevención o reducción del estrés a través de controles de higiene animal, de la calidad de los alimentos que reciben y de las condiciones medioambientales en las que se crían, optimización de la nutrición de los animales, de forma que se mejore su estado inmunológico y se eviten cambios bruscos en las condiciones alimenticias, erradicación de enfermedades, y selección de individuos genéticamente resistentes a enfermedades. Como se puede apreciar, no es una tarea fácil, ya que implica un cambio de las políticas globales para un abordaje integral de la problemática.

| 204

Sobre microbios y humanos

Otro aspecto que no ha sido determinado aún, por lo cual no puede estimarse, es el impacto que produce en el ambiente la eliminación de los metabolitos intermediarios de los antibióticos por medio de las excretas de los animales tratados. Aunque falten datos concretos, es de suponer que no debe ser menor. Sin embargo, sería injusto echarles la culpa solo a los animales (o a los que les dan de comer), en particular porque el hombre tampoco ha sido muy prolijo en el uso de los antimicrobianos en la práctica clínica de la salud humana. Una vez más se comprueba que, en la biología (y en particular, la microbiología), los sistemas se presentan como un castillo de naipes, y que cualquier modificación que se haga en una parte termina, en mayor o menor medida, afectando a las otras. ¿Aprenderemos alguna vez a tomar conciencia de la forma en que cada acción repercute sobre un contexto más complejo, o seguiremos tomando acciones rápidas, buscando resultados inmediatos sin considerar las consecuencias? La historia del desarrollo humano parece decirnos que solemos tropezar de manera reiterada con la misma piedra y, aun así, no aprendemos. Por más esfuerzos que se hagan, parece que las prioridades que establece el hombre no siempre son las más importantes, sino las más urgentes. Parece que todavía nos queda un largo trecho por recorrer, aunque sepamos que el camino se nos estrecha cada día un poco más.

205 |

Mario L. Vilaró

Bibliografía consultada Jorge O. Errecalde. Uso de antimicrobianos en animales de consumo, incidencia del desarrollo de resistencias en la salud pública. ORGANIZACIÓN DE LAS NACIONES UNIDAS PARA LA AGRICULTURA Y LA ALIMENTACIÓN Roma, 2004. W.H.O. Resistencia a los antimicrobianos transferida por animales productores de alimentos. Red Internacional de Autoridades en materia de Inocuidad de los Alimentos. INFOSAN Nota informativa Nº 2/2008. World Health Organization. WHO Global Strategy for Containment of Antimicrobial Resistance. WHO/CDS/CSR/DRS/2001.2.

| 206

XVI Ciencias duras y no tan duras (Sobre cómo el hombre ordena el saber, y lo difícil que resulta ordenar la microbiología) El ser humano siente pasión por ordenar las cosas. Y no se trata necesariamente de que el mundo que lo rodea se encuentre tan desordenado. Todo lo contrario, si hay algo que está perfectamente armonizado, encastrado con precisión milimétrica y sin hiatos, es el entorno natural. Tanto es así, que por momentos tenemos la sensación de que algo o alguien hilvanó con una suerte de hilo mágico todos los elementos de la naturaleza para que cada uno ocupe el lugar que le corresponde y dependa, en gran medida, de los otros para continuar su existencia. Ocurre que al hombre le cuesta entenderlo, ya que la magnificencia del orden universal supera su capacidad de comprensión. De tal modo, debe reacomodar lo que ya está acomodado, para que su humilde intelecto lo pueda comprender. Y de eso se trata, palabras más, palabras menos, la ciencia. De saber qué es lo que sucede a nuestro alrededor y comprender cómo sucede.

207 |

Mario L. Vilaró

A medida que se han ido acumulando los conocimientos científicos, fue necesario clasificarlos de manera que fuesen más comprensibles y respondiesen, si se quiere, a la lógica del pensamiento humano. Es por eso que en la historia de la ciencia encontramos investigadores cuya curiosidad superaba cualquier esquema de pensamiento ordenado, y la ansiedad por saber los sumergía en una suerte de anarquía intelectual, donde alguien podía estudiar con la misma devoción, y de manera simultánea, la estructura interna de la célula más pequeña y la constitución química del planeta más lejano. En otra oportunidad hemos hecho referencia a los superespecialistas del presente que se contraponían con los sabios del pasado, cuya dispersión intelectual era enorme y los campos de interés muy variados. Hoy en día es imposible pensar de manera coherente en el trabajo de un científico que estudia al mismo tiempo diversas ramas del conocimiento. De tal modo se han estructurado las líneas de pensamiento, que alguien que se aparte de ellas es considerado, al parecer de la comunidad científica, poco serio, y su trabajo, casi por definición, menospreciado. Se podría pensar la ciencia como un enorme diccionario enciclopédico, agrupado por temas afines, ordenado por orden alfabético, y dispuesto de tal modo, que facilite la comprensión y la búsqueda rápida de tal o cual dato. Más o menos la cosa se hizo de ese modo cuando se decidió agrupar las ciencias por su objeto de estudio. Era necesario controlar a los científicos descarriados que se lo pasaban haciendo descubrimientos de todo tipo, de manera aleatoria y confusa. Ese principio de ordenamiento constitu-

| 208

Sobre microbios y humanos

ye la base del método científico, que nos condiciona a trabajar e investigar de la misma forma y a guardar determinadas pautas para que los resultados obtenidos sean comparables y reproducibles. Trabajar siguiendo un método sistematiza las ideas y evita, por lo menos en lo relacionado a un trabajo en particular, las dispersiones. El diccionario dice que un diletante es quien cultiva algún campo del saber, o se interesa por él, como aficionado y no como profesional. La palabra, probablemente desconocida para muchos, suele ser empleada por los científicos para descalificar a aquellos que tienden a salirse del molde que la propia ciencia impone. Es a menudo usado como sinónimo de improvisado. Es así que los eruditos suelen medir, con la implacable vara del rigor científico, el trabajo de sus colegas y, llegado el caso, no hesitan en descargar un certero cachiporrazo sobre aquellos que no cumplen las normas de la investigación científica. Si lo contemplamos desde nuestra época, podemos afirmar que la mayoría de los padres de la ciencia actual fueron en gran medida diletantes, ya que los caminos que recorrieron para llegar al conocimiento fueron bastante sinuosos. Sin embargo, esos conocimientos sentaron las bases de la ciencia moderna y, como siempre, deben de ser considerados dentro de su contexto histórico. Sin duda, fueron las universidades las primeras organizaciones que comenzaron a ordenar los conocimientos y su forma de impartirlos (al mismo tiempo, constituyen una de las pocas instituciones que han perdurado a través de lo siglos). En Europa, a principios de la Edad Media, el saber y la enseñanza de la ciencia se encontraban relegados a los monasterios y catedrales (Bolonia, París, Salerno, Córdoba)

209 |

Mario L. Vilaró

y tenían, indudablemente, una fuerte impronta religiosa. Cuando alguna de estas escuelas cardenalicias lograba alcanzar el grado de Studia Generalia, tenía permitido recibir estudiantes de otras diócesis y los títulos que otorgaban tenían validez fuera de ellas. El incremento del saber hizo que las escuelas monacales y cardenalicias fuesen quedando pequeñas, ya que había muchas personas que ansiaban el conocimiento sin ser religiosos ni monjes. La palabra universidad tiene su origen en el latín: universitas, término que se empleaba para designar a cualquier asociación o comunidad orientada a una meta en común. Las primeras universidades buscaron identificarse con mayor precisión y definieron aún más su alcance al llamarse Universitas Magistrorum et Scholarium (asociación de maestros y alumnos), como para que no quedasen dudas de los objetivos que tenían al conformar la institución. Un dato relevante es que las universidades surgen de una necesidad de separarse del carácter religioso que tenía la enseñanza en el ámbito de las escuelas cardenalicias. La sociedad europea de los siglos XI al XIII era dominantemente teocrática; la enseñanza estaba regida por esquemas estrictos planteados por la iglesia y Roma había dejado de ser, esencialmente, la capital religiosa del mundo para transformarse en la capital política. El poder de los sucesivos Papas imponía un integrismo teocrático en todos los ámbitos de la vida cotidiana. El Derecho Civil no existía tal como lo conocemos hoy. Las relaciones patrimoniales y personales se regían por normas que giraban en torno al Derecho Eclesiástico, y aquellos que no profesaban el cristianismo estaban excluidos; se podría afirmar inclusive que carecían de derechos. Fue entonces que en el mismo seno de las escuelas religiosas se sucedían cuestionamientos, debates y disputas por sabios no clericales, quienes impartían algunos concep-

| 210

Sobre microbios y humanos

tos que se salían de la ortodoxia religiosa y la cuestionaban. Era necesario que se crease un ámbito en donde el Derecho Civil fuera independiente de las creencias, y que la ciencia adquiriese independencia de la religión. Los mismos esquemas, planteados en las escuelas cardenalicias de la Edad Media, exceptuaban muchas de las ramas de la ciencia actual. El saber de la Edad Media estaba dividido en dos grandes grupos: las artes liberales y las artes serviles o menores. El primer grupo tenía como propósito ofrecer conocimientos generales, antes que destrezas profesionales u ocupacionales especializadas. Las artes liberales eran siete y estaban divididas en dos ciclos: el Trivium y el Quadrivium, que comprendían la enseñanza de la gramática, la dialéctica, la retórica, la aritmética, la geometría, la astronomía y la música. Como se puede apreciar, el estudiante egresaba versado en un desarrollo intelectual que le permitía hablar con erudición de muchas cosas, pero no estaba capacitado para hacer nada en concreto. Para las actividades prácticas estaban las artes serviles, cuya enseñanza y categorización social eran menores. Basta con echar un vistazo a la oferta académica de cualquier universidad moderna para comprobar cuántos estudios “liberales” y cuántos “serviles” hay, para caer en la cuenta del largo camino que han recorrido la enseñanza y la ciencia. Otro detalle, no menor, es que entre los estudios de la era preuniversitaria no se incluían la biología ni, con excepción de la astronomía, las ciencias naturales. Entre las muchas preguntas que nos surgen, una podría ser considerada como preponderante: ¿dónde estudiaban los médicos de esas épocas? La respuesta sería motivo de una explicación que escapa al objeto de este capítulo.

211 |

Mario L. Vilaró

El alejamiento entre las universidades y la religión permitió una apertura que favoreció enormemente el desarrollo del pensamiento científico. No es erróneo afirmar que la apertura que posibilitó el liberarse de ciertos obstáculos que ponía la religión (en particular las Iglesias Católica y Protestante), constituyó el motor fundamental que impulsó el desarrollo científico. Poco a poco, las universidades fueron ganando autonomía para llegar a la libertad de investigación científica, de enseñanza y de estudio en todas las disciplinas. En 1854, las universidades de Oxford y Cambridge se liberaron de los requisitos religiosos y eliminaron la religión como parte fundamental de la educación. Posteriormente, surgieron institutos de investigación que en un comienzo dependían de las casas de estudio. Ya en el siglo XX, comenzaron a aparecer instituciones independientes cuya financiación poco tenía que ver con lo estrictamente académico. Distintas industrias vieron la potencialidad económica que brindaban algunas líneas de investigación, cuyos resultados podían ser lucrativos. Se crearon fundaciones que financiaron proyectos de investigación y algunos países comenzaron a mirar al desarrollo científico como un área estratégica, en la que no faltaron ribetes políticos y rivalidades ideológicas. El desarrollo del conocimiento estructurado avanzó en áreas tan diferentes y numerosas, que fue necesario organizarlas con el objeto de crear especialidades y ordenar la dispersión de los científicos. Navegar por los tempestuosos mares de los intentos de clasificar el saber humano nos conduce, irremediablemente, a una serie de confusiones que resultan irresolubles para nuestra humilde mente de microbiólogos.

| 212

Sobre microbios y humanos

A los fines ilustrativos, y sin la menor intención de comprender las corrientes filosóficas que movilizaron las diferentes formas de clasificar las ciencias, vamos a enumerar algunas de las líneas de pensamiento más relevantes. Thomas Hobbes (1588-1679) usa el “conocimiento de los hechos” como base para su catalogación, y de allí nace la clasificación en “ciencias histórico-empíricas” y “científico-filosóficas”. Francis Bacon (1561-1626) clasifica las ciencias, a base de lo que llamó “las facultades subjetivas del individuo”, en tres grupos: ciencias de la memoria (como la historia), ciencias de la imaginación (como la poesía y la literatura), y ciencias del entendimiento (como la filosofía). Arthur Schopenhauer (1788-1860) las divide en ciencias puras (teoría del principio del ser y del principio del conocer) y empíricas (teoría de las causas, de las excitaciones y de los motivos). Herbert Spencer (1820-1903) modifica la clasificación anterior, y establece tres grupos de ciencias: abstractas, que son ciencias formales como la lógica y las matemáticas; concretas, ciencias de fenómenos, como la biología, y abstracto-concretas, que participan de las características de las otras dos, como la física. Wilhelm Wundt (1832-1920) tiene en cuenta los objetos y la esfera de la realidad a que pertenecen: mundo, hombre, espíritu, cultura. Surge entonces la clasificación en ciencias reales y ciencias formales. Las reales comprenden las ciencias naturales, de la cultura y del espíritu; las formales o ideales están integradas por las matemáticas. 213 |

Mario L. Vilaró

El alemán Edmund Husserl (1859-1938) es un poco más concreto en su definición, y divide las ciencias en teoréticas –las que se refieren a las ideas- y fácticas –las que se reducen a los hechos. Un detalle significativo es que todos los que se interesaron en la clasificación de las ciencias, fueron filósofos. Sin desmedro de los filósofos…, científicos, lo que se dice científicos, no había ninguno. Parece que andaban muy ocupados con su ciencia como para andar viendo en qué lugar la acomodaban. Mientras los pensadores se devanaban los sesos, intentando encontrarle la punta al ovillo, la ciencia seguía avanzando por caminos paralelos y, casi de manera natural, impulsada por los propios intereses de los científicos, se iba generando una división de hecho mucho más práctica que filosófica. Ello no impide que los grandes científicos no hayan tenido sus cuestionamientos metafísicos. Uno de los más grandes sabios de la historia de la humanidad, Albert Einstein, dice: “La creencia en la existencia de un mundo exterior independiente del sujeto perceptor, es la base de las ciencias naturales”. Quedó claro, ¿no? Pero no os preocupéis, amigo lector, quien escribe tampoco entiende nada de la teoría de la relatividad. A su vez, Max Plank, enuncia que la física está basada en dos teoremas que hablan del mundo real que nos rodea y un mundo real externo que no es directamente cognoscible.

| 214

Sobre microbios y humanos

Paul Tillich, 1886-1965, proponía que las ciencias eran: del pensamiento, reales y espirituales; y Kedrov Spirkin hacía su propia división y agrupaba las ciencias en filosóficas, matemáticas, naturales y técnicas, y sociales. El filósofo contemporáneo Mario Bunge habla del “realismo científico”, y clasifica las ciencias en formales, que tratan sobre entes ideales abstractos o interpretados (lógica y matemática), y fácticas, que se ocupan de las cosas materiales, tanto naturales como culturales (física, química, sociología, economía, etc.). Ahora bien, ¿cómo se clasifican las ciencias? Sin irnos demasiado lejos en el tiempo, y consultando textos más modernos, vemos que la cosa sigue siendo poco clara. Por momentos nos da la impresión de que cada uno de los clasificadores esgrime poderosos argumentos que sustentan su posición, hasta que aparece otro, con otros argumentos igual de poderosos, y propone una nueva modalidad que usa para derrumbar las anteriores. “Cada maestrito con su librito”, decía la abuela desde su sabiduría popular. Podríamos seguir citando a diferentes autores para constatar que, a nuestros incultos ojos, todos tienen su parte de razón y todas las clasificaciones pueden ser objetables, según como se mire. Finalmente irrumpe, en semejante entrevero, una clasificación que no es tal, en el sentido estricto de la palabra, pero que se impuso rápidamente en ciertos ámbitos de la ciencia: la de ciencias duras y ciencias blandas. Si comparamos esta última categorización con las precedentes, no podemos dejar de admirar su economía de palabras y simpleza conceptual. En una primera instancia, parecería que el trabajo intelectual de tantos filósofos, que se esmeraron en

215 |

Mario L. Vilaró

elaborar reconcentrados argumentos para fundamentar sus afirmaciones, queda sepultado por la escueta contundencia de dos palabras que, a priori, tienen poco de académicas: duro y blando. Si analizamos el significado de ambos adjetivos, podremos darnos una somera idea de lo que se quiere significar cuando son aplicados a las ciencias. Las acepciones que tiene la palabra duro, empleado como adjetivo, en el diccionario de la lengua, son numerosas, y aunque todas se refieren a más o menos lo mismo, hay sutiles diferencias que las vuelven más interesantes. Probablemente, la que más se acerca a lo que se desea simbolizar es aquella que dice que algo duro es riguroso y sin concesiones, aunque también explica que es algo difícil de tolerar. Entonces, podríamos decir que una ciencia dura es rigurosa y no está dispuesta a hacer concesiones, aunque también sea, al mismo tiempo, difícil de tolerar. Bastaría con saber qué es lo blando para terminar de comprender el sentido de este tipo de división del saber científico. Por contraposición, ninguna de las acepciones de la palabra blando se ajusta con precisión a lo que se podría aplicar a la ciencia. Difícilmente podríamos convencer a un científico de que está desarrollando una disciplina tierna o suave, sin que se ofenda por sentir que menoscabamos su trabajo. Y allí está el meollo de la cuestión. La conceptualización de ciencias duras o blandas surgió de los propios científicos y fue usada, en gran medida, con un tono peyorativo por parte de los autodenominados “científicos duros”, que menoscababan a los que desarrollaban tareas científicas bajo normas diferentes de las que ellos consideraban correctas. Dicho de una forma menos elegante, los cultores de las ciencias duras tildaron a los de las ciencias blandas de carecer de rigor científico. El enfrentamiento entre duros y blandos no es meramente semántico. Existe un trasfondo mucho más profundo que llevó a algunos duros a plantear que la verdadera ciencia es la que ellos desarrollaban y que

| 216

Sobre microbios y humanos

el resto era pura charlatanería. Curiosamente, los más duros de los duros, los físicos y los matemáticos, basan sus teorías en gran medida en conceptos abstractos, que, además de resultar poco comprensibles para el común de los mortales, poseen una conexión con el mundo material difícil de evidenciar. Sin embargo, sustentan su dureza científica en la formalización matemática de sus teorías y en su poder predictivo. Tanto es así, que por medio de modelos matemáticos teóricos, llegan a demostrar y predecir cosas que no se sabe con certeza si en algún momento van a suceder en la naturaleza (de allí su carácter teórico- predictivo). Un escalón más abajo se ubican las ciencias experimentales (química y biología), que por su naturaleza no se ajustan necesariamente a modelos numéricos, pero que recurren a la experimentación para demostrar sus afirmaciones, cosa que tranquiliza medianamente a los duros, aunque no dejen de reconocer que son ciencias “menos duras” (o más blandas). En último lugar ubican a las ciencias sociales y humanidades. Al respecto, el doctor Juan José Ibañez, en su blog “Un universo invisible bajo nuestros pies”, al referirse a las ciencias históricas como la paleontología y la geomorfología (cuya metodología hace que no siempre sea tan evidente demostrar teorías con experimentos de laboratorio), dice: “No se trata de que los practicantes de las mismas sean necesariamente más chapuceros, sino que se enfrentan a retos mucho más complejos, desde el punto de vista del método científico”. Y el reto más complejo, desde nuestro punto de vista, no es metodológico sino humano, ya que deben convencer a los duros de la ciencia de que lo que hacen tiene rigor científico.

217 |

Mario L. Vilaró

En ese contexto, deberíamos intentar incluir la microbiología en alguna de las categorías precedentes. De hecho, se la puede ubicar en el escalón que ocupa el resto de las ciencias naturales: el de las experimentales. Si bien es cierto que su encastre a los esquemas numéricos no es exacto, el uso de algunos modelos matemáticos suele ser de gran utilidad para predecir acontecimientos, con la salvedad de que rara vez los microbios hacen lo que los científicos queremos: generalmente, nos terminan sorprendiendo con comportamientos inesperados, lo que nos puede llevar a pensar que es una ciencia no tan dura. La inefable plasticidad microbiana, determinada por su enorme velocidad de generación, hace que no resulte siempre tan evidente prever qué es lo que va a suceder (o qué es lo que los microbios van a hacer). En términos generales, a pesar del avance sobre el conocimiento de los microorganismos, sus comportamientos nunca nos terminan de sorprender. Es claro que, para los que pretendemos hacer microbiología seriamente, siempre nos queda el enorme paraguas de la “variabilidad biológica”, bajo el cual nos guarecemos cuando arrecia la lluvia de cuestionamientos que surgen al ocurrir algo inesperado (o no previsto). Es por eso que a veces nos cuesta explicar lo que hacemos, en particular, cuando el objeto de estudio de nuestra ciencia se manifiesta en permanente transformación y toma rumbos impensados. Es por eso que, cuando algunas especulaciones se caen, cuando lo esperable se transforma en inesperado o lo predecible nos termina sorprendiendo, quizá resulte tan difícil encuadrar la microbiología dentro de los esquemas tradicionales de la ciencia. Es por eso, finalmente, que se llega a la conclusión de que poco importa el tipo de

| 218

Sobre microbios y humanos

ciencia que sea la microbiología. Lo más importante es su estudio en sí mismo. Se clasifiquen como se clasifiquen, las ciencias, entendidas como el conjunto del conocimiento humano, constituyen un inconmensurable abanico de áreas de estudio con sus consecuentes matices que, a nuestro entender, en lugar de hacerlas más complejas, las enriquecen. Resulta tan arduo asimilar la forma como un astrofísico puede teorizar y afirmar sobre la caracterización de una estrella ubicada a millones de años luz, como un neurobiólogo puede descifrar los secretos del cerebro humano o un paleontólogo puede reconstruir la morfología y fisiología de un dinosaurio extinguido, a partir de un fragmento de diente fósil, que terminamos imbuidos del fascinante misterio que nos muestra un universo natural ilimitado, que no hace otra cosa que ponernos de cara a la finitud de la mente humana. En su controvertida lucha entre la ciencia y la creencia, el hombre sigue debatiéndose, sin solución concreta, entre los que finalmente entregan su saber a la Fe y lo depositan en manos de Dios, y los que siguen batallando por la senda del racionalismo agnóstico. Sea como fuere, y se crea lo que se crea, podemos sentirnos enormemente afortunados de formar parte, aunque pequeñita, del sublime mundo de la ciencia y decir ¡gracias a Dios que existe la ciencia!, o… ¡por suerte existe la ciencia! Con Dios o sin Dios, por duras, blandas o gelatinosas que puedan ser las ciencias… tampoco es tan importante, en particular estimado lector, si todo lo que acaba de leer fue escrito por un diletante.

219 |

Mario L. Vilaró

Bibliografía consultada Gómez García María Nieves. Las primeras Universidades Europeas: anotaciones sobre sus características diferenciadoras. Revista de ciencias de la educación, ISSN 0213-1269, Nº 3, 1986 , pág. 11-22 Bunge Mario. La ciencia, su método y su filosofía. 1966 Editorial Sudamericana, Buenos Aires. Ibañez Juan José. Ciencias Duras, Ciencias Blandas, Ciencias Sociales y Humanidades. Un universo invisible bajo nuestros pies.http://www. madrimasd.org/blogs/universo/2010/01/31/135123.

| 220

Volver al futuro.

A modo de conclusión La posibilidad de inventar una máquina del tiempo ha sido una fantasía recurrente entre literatos y cineastas. Revisar la temática en series de televisión, libros y películas, resulta por demás interesante, ya que devela la fascinación que el tema ejerce sobre muchas personas. Desde Julio Verne, hasta la saga de Viaje a la estrellas, pasando, entre otros, por una vieja serie de TV en la que unos científicos se metían en un túnel que giraba a tontas y a locas para caer en cualquier momento de la historia de la humanidad (El túnel del tiempo -año 1966), o por numerosos textos de ciencia-ficción, el tema de viajar en el tiempo es omnipresente. De hecho, muchos de ellos han servido de base para especulaciones sobre mundos paralelos, dimensiones desconocidas e, incluso, catastróficas debacles que alteraron el orden universal y crearon un descalabro con consecuencias irreversibles para la humanidad. Un viaje en el tiempo encierra, en sí mismo, una paradoja sobre lo que podría suceder en el futuro si se pudiese hacer un cambio en el pasado o, de manera inversa, lo que

221 |

Mario L. Vilaró

podría sucedernos en el tiempo presente si supiéramos lo que nos va a ocurrir en el futuro. Y no se trata juegos de palabras ni de pura ficción. Los argumentos fantasiosos han dado lugar a reflexiones sesudas y por demás interesantes. Para ser sinceros, la mayoría de nosotros daríamos cualquier bien, por preciado que sea, para poder viajar hacia el pasado y vivir, aunque más no sea por un breve lapso, en tiempos remotos de imperios perdidos, castillos medievales y mundos primitivos infectados de dinosaurios o, por qué no, volver a nuestra infancia en la que los afectos y la inocencia marcaban el rumbo de nuestro pasos. Del mismo modo, siempre resulta por demás seductora la oferta de trasladarnos hacia el futuro para dar rienda suelta a nuestra capacidad de imaginarnos un mundo diferente (y quizá mejor). En la historia de la ciencia, de cualquier rama que sea, el mañana se muestra con un enorme signo de interrogación. Esto ocurre no porque no sepamos qué rumbo va a tomar el conocimiento científico (de hecho, los avances tecnológicos en todas las áreas nos van marcando un camino bien definido), sino porque no sabemos hasta dónde se va a llegar. Revisar el trayecto recorrido durante la adquisición del caudal de conocimiento humano actual nos conduce a una insoslayable verdad: para cada certeza surgen numerosas nuevas incógnitas, y esas incógnitas parecen no tener fin. A tal efecto, se puede llegar a pensar que la exploración del universo depare una cantidad de secretos a develar pero, ¿sucederá lo mismo con el universo microscópico? ¿Se podrá extrapolar la inmensidad de espacio exterior y la posi-

| 222

Sobre microbios y humanos

ble existencia de otros mundos, a la profunda infinitud de un cosmos cada vez más pequeño, si es que esa infinitud existe? ¿Dónde está el límite? ¿Hasta dónde se podrá llegar? ¿Se agotarán alguna vez las incógnitas? Se ha avanzado cada vez más en los intrínsecos secretos de la anatomía y fisiología de las células y, a pesar de todo, nos queda la sensación de que solo estamos mirando por el ojo de la cerradura. A lo largo de la historia de la microbiología, han existido tantos hechos que constituyeron un punto de inflexión y que, en su momento, cambiaron el rumbo de las investigaciones, que nos resulta difícil creer que en algún momento se acaben los retos que tienen que enfrentar los microbiólogos. Vale la pena mencionar algunos, solo para demostrar de qué forma definieron cambios en el pensamiento científico. Uno de los grandes hitos, luego del hallazgo de los microorganismos, fue, sin duda, el descubrimiento de la posibilidad de reproducirlos de manera artificial. El cultivo, con todas sus variantes, significó una explosión que disparó numerosas líneas de investigación para conformar una idea aproximada de la complejidad de la vida microbiana. Poder cultivar microorganismos abrió la puerta para comprender su fisiología y conocer sus requerimientos nutricionales lo que llevó, necesariamente, a intuir su diversidad. El enunciado de los postulados de Koch que, a pesar de algunos cuestionamientos actuales, continúan vigentes, abrió el panorama que aclaró la fisiopatogenia de las enfermedades infecciosas, y sirvió de punto de partida para la elaboración de diferentes tratamientos. 223 |

Mario L. Vilaró

El advenimiento de los virus en el conocimiento del mundo microbiano volvió a agitar las estructuras de la microbiología. La existencia de una forma de vida que escapaba a los esquemas biológicos conocidos, resultó un acontecimiento que obligó a replantear los modelos vigentes y pensar la microbiología de una forma diferente. Y quizá en ese momento los científicos hayan comenzado a formularse cuestionamientos sobre lo que faltaba descubrir o todo lo que el futuro podría deparar y, probablemente, se haya comenzado a tomar conciencia de la dimensión de lo que estaban estudiando. La elucidación de la estructura del ADN generó uno de los cambios más trascendentes que se registran en las ciencias biológicas, y su aplicación práctica, por medio de las técnicas de biología molecular, transformaron la microbiología y los microorganismos en herramientas fundamentales en su desarrollo. Por momentos, los cultores de la ciencia molecular dejaron entrever que todo aquello relacionado con el estudio de las expresiones fenotípicas iba a caer en desuso. Cuando parecía que todo terminaría pasando necesariamente por la genética, la proteómica se insertó de manera lateral con una pujanza que superó las expectativas de los mismos que la desarrollaron, e hizo tambalear nuevamente los cimientos del estudio microbiano. De ese modo, los acuerdos y desacuerdos entre el fenotipo, el genotipo y la proteómica, se sucedieron y se suceden de manera constante, por momentos con un grado de mordacidad poco deseable para los ámbitos de la ciencia.

| 224

Sobre microbios y humanos

Entre los defensores de cada disciplina, con todas sus variantes, existe una sutil pero pertinaz tendencia a menoscabar las otras bajo el supuesto de que la que ellos practican es superior. También es común que suceda que, cada vez que una nueva metodología ve la luz, se disparen entre propios y ajenos todo tipo de especulaciones sobre su potencial futuro. Los recién llegados que desembarcan con su novel tecnología bajo el brazo, aspiran a convencer al resto de la comunidad científica de que van a revolucionar la forma de estudiar los microbios y que todo lo anterior quedará obsoleto. Esta actitud constituye un error de apreciación en muchos hombres de ciencia. Será quizá por un secreto anhelo de pasar a la historia, como los que cambiaron el rumbo gracias a algún descubrimiento revolucionario. En el fondo, tal vez, buscan una suerte de piedra filosofal que perpetúe su nombre para ser inmortalizado por generaciones futuras. Finalmente, por más científicos que sean, en última instancia son humanos, con todo lo que ello implica. Lo más difícil es encontrar el punto de equilibrio entre las pasiones humanas y las realidades objetivas para evitar que ciertos aspectos, no demasiado recomendables del alma humana, salgan a la luz natural de la razón y la terminen empañando. En esta especie de justa tecnológica -e intelectual-, en la que los contendientes esgrimen sus armas para imponer sus derechos científicos, se genera, al mismo tiempo, una carrera para ver quién mejora los resultados, quién perfecciona aún más lo que hicieron otros y quién llega primero. Es inevitable afirmar que la competencia es innata en el ser humano y que, en ciertos ámbitos, no precisamente deportivos, suele exacerbarse hasta límites rayanos con la cordura. 225 |

Mario L. Vilaró

A modo de defensa de los científicos, es válido afirmar que la mayor parte están imbuidos de una curiosidad insaciable de conocimientos que crea, de manera permanente, nuevas inquietudes por saber cada día más. Toto ello ha conducido a que el desarrollo tecnológico aplicado a la ciencia, o mejor dicho, los usos que la ciencia da al desarrollo tecnológico, haya sufrido una vertiginosa explosión en los últimos cincuenta años. De ese modo, cualquier previsión que se haga sobre el futuro, por descabellada que sea, puede resultar probable. ¿Por qué no? Es la pregunta que nos solemos hacer cuando, café de por medio, especulamos sobre lo que podrá suceder con la microbiología dentro de veinte años. Sin ir más lejos, treinta años atrás, la posibilidad de amplificar ADN bacteriano existía solo en algunas mentes señeras, y hoy es un hecho cotidiano en cualquier laboratorio medianamente tecnificado. A su vez, si consideramos que por estos tiempos es posible identificar una bacteria por el análisis del espectro de masa de sus proteínas ribosómicas, calculando su tiempo de vuelo en el vacío, luego de ionizarlas y excitarlas con rayos láser (algo que a muchos de nosotros nos resulta un poco difícil de creer), caeremos en la cuenta de que el futuro se nos vino encima. Si lo que es increíble para muchos resulta real, solo nos queda aventurar un porvenir en el que todo puede ser posible y, al igual que tantas historias de ciencia- ficción, podemos imaginarnos libremente cualquier cosa. Es un hecho recurrente que el conocimiento, en cualquiera de sus ramas, avanza por caminos dicotómicos y paralelos al mismo tiempo, y su diversificación es inconmensurable al punto que, cada vez que el hombre piensa que tiene la situación controlada, no se trata más que de una

| 226

Sobre microbios y humanos

vana ilusión que pronto se desvanece. Llegamos a un punto, entonces, en que el límite está en la imaginación de cada uno de nosotros, y por descabellado que sea lo que imaginemos, existen muchas posibilidades que la realidad termine, tarde o temprano, superando la predicción más delirante. Se establece la condición de que cualquier intento de predecir el futuro es tan válido como inútil ya que, de manera sigilosa, de un momento a otro el futuro llegará a nosotros sin que lo podamos advertir, y lo extraordinario se terminará transformando en habitual. Al respecto, Albert Einstein dijo: “Nunca pienso en el futuro. Este llega lo suficientemente rápido”. Que los científicos son entusiastas de lo que hacen no lo niega nadie, y que ello es el principal motor que ha hecho, y hace, avanzar la ciencia a un ritmo asombroso, tampoco. Si al fervor natural le sumamos la capacidad de imaginar y soñar de cada uno, veremos que las fronteras prácticamente no existen. Sin embargo, al momento de transformarnos en profetas y pitonisas de la ciencia, sería interesante que podamos mantener viva la capacidad de asombro que nos permite soñar. Viéndolo desde otra óptica, ¿qué sería de nuestras vidas si conociéramos, con precisión, qué es lo que nos va a ocurrir el resto de los días que nos quedan por vivir? La interpretación queda en manos de cada lector, y nuestro objetivo no pasa por definir una postura al respecto, sino por sembrar la duda para que cada cual la considere. 227 |

Mario L. Vilaró

A modo de cierre, es oportuno citar la frase del escritor argentino Alejandro Dolina, quien afirmó: “Hay gente que paga para que le adivinen el futuro… yo pagaría para no conocerlo”.

| 228

Premio Nobel, ese oscuro objeto del deseo (Bonus track, un cacho de cultura)

Seamos honestos, quién más, quién menos, de los que discurren por los caminos de la ciencia, no ha fantaseado alguna vez con ser galardonado con un premio Nobel. A priori parece –y es- algo muy difícil de lograr. Soñar no cuesta nada, nos diremos, a modo de consuelo, ante la irremediable realidad de que nuestro anhelo resulta inalcanzable. La palabra premio proviene del latín “praemium” (formada por “prae”: primero, y “emo”: obtener, comprar); obtener algo primero. En su primera acepción, el diccionario de la Lengua Española dice que un premio es una recompensa, galardón o remuneración que se da por algún mérito o servicio. En el tema que nos ocupa, la primera definición es que el Nobel no se gana, se otorga. En un vistazo rápido, podemos llegar a pensar que es lo mismo, mas existe una sutil pero fundamental diferencia. El diccionario nos dice que ganar, en su tercera acepción, es obtener lo que se disputa en un juego, batalla, oposición, pleito. Ganar algo supone una competencia en la que los

229 |

Mario L. Vilaró

rivales son superados por un ganador, o que alguien se esfuerza para lograr un objetivo. Contrariamente, cuando se otorga algo, se lo concede, sin que medie un certamen o contienda para lograrlo. De hecho, un galardón es un premio o recompensa por méritos o servicios, y galardonar es premiar o remunerar los servicios o méritos de alguien. Ganar presume una actitud más activa y, si se quiere, que depende de un determinado esfuerzo para obtenerlo; en cambio, otorgar o galardonar, implica una actitud pasiva, en la que el premiado recibe el premio como reconocimiento por su tarea. Cuando alguien es galardonado por algo, no compite para lograrlo, simplemente es distinguido por otros que consideran pertinente que sea laureado. Esta diferencia es fundamental ya que, expresamente, no existe un concurso para ganar el premio Nobel (concurso: competición, prueba entre varios candidatos para conseguir un premio –RAE). La acotación “expresamente” tiene una validez relativa ya que sabemos que, si hay personas que tienen espíritu de competencia, esos son los científicos. A pesar de que no existan pruebas concretas, suponer que algunos científicos de diferentes áreas compitan obsesivamente por obtener el premio, no suena descabellado. Todo lo contrario, hasta se puede decir que es totalmente esperable que suceda. También es esperable que ninguno reconozca a viva voz que está desesperado por obtenerlo, en este caso, ganarlo. Hecha la aclaración, hagamos un pequeño repaso para ver de qué se trata. Alfred Nobel nació en Estocolmo en 1833. Su padre, Immanuel Nobel, fue un ingeniero que construyó numerosos puentes y edificios, al tiempo que ensayaba diferentes métodos para romper rocas en las minas. Por cuestiones financieras tuvo que abandonar Suecia y emigrar, junto a su

| 230

Sobre microbios y humanos

familia, a Finlandia y, posteriormente, a Rusia, en donde el pequeño Alfred recibió una educación de primera categoría. A los 17 años, Alfred dominaba con soltura, además de su lengua nativa, el ruso, francés, inglés y alemán. Sus intereses eran diversos. Sentía igual atracción por la literatura y la poesía como por la química y la física. La seducción por los explosivos, heredada de su padre por su labor en las minas, se despertó cuando conoció al químico italiano Ascanio Sobrero, inventor de la nitroglicerina. En esos tiempos, la nitroglicerina era estudiada como un posible combustible aunque su gran inestabilidad hacía que su manipulación fuese peligrosa. De regreso en Suecia, continuó sus estudios para estabilizar la nitroglicerina y usarla como explosivo, sin embargo, a causa de los reiterados accidentes, el gobierno prohibió su uso y su experimentación. A pesar de ello, Alfred logró una formulación que convirtió el líquido en una pasta y le dio la forma cilíndrica, que le permitía introducirla en los agujeros que se hacían en las rocas de las minas. Patentó su invento bajo el nombre de dinamita. Al mismo tiempo, inventó un detonador para desencadenar la explosión a distancia mediante el uso de una mecha. La dinamita apareció de manera simultánea con el taladro neumático y las puntas de diamante para realizar perforaciones en las piedras. Esa combinación resultó de una utilidad revolucionaria en la industria minera, y posibilitó que Nobel se enriqueciese. Dotado del alivio que solo la fortuna puede dar, Nobel se dedicó a viajar por el mundo haciendo negocios y desarrollando actividades de investigación de materiales en diferentes laboratorios de Alemania, Francia, Escocia e Italia. Producto de sus desarrollos, a lo largo de su vida, inscribió 355 patentes de diferentes materiales (goma y cuero sintéticos, seda artificial, entre otros). A pesar de todo, se puede afirmar que es principalmente conocido por la dinamita, cuyo poder de destrucción no fue empleado solo 231 |

Mario L. Vilaró

con fines pacíficos. Su vida empresaria dio nacimiento a numerosas industrias y Nobel se transformó en una persona acaudalada. Cuando murió, en 1896, la sorpresa fue máxima al abrir el testamento y constatar que había dejado toda su fortuna para que fuese repartida en premios otorgados a destacados cultores de la física, química, fisiología y medicina, literatura, y un premio especial dedicado a las personas que luchasen por la paz del mundo. En un extracto de su testamento, Nobel especifica que: “los premios deben ser otorgados a aquellos que durante el año precedente hayan aportado el mayor beneficio para la humanidad”. Cinco años después de la muerte de Nobel, en 1901, se entregaron los primeros cinco premios. En 1969, la Fundación Nobel agregó el premio en Ciencias Económicas, en honor a la memoria de Alfred Nobel y su tarea en emprendimientos productivos industriales. A pesar de que no existe en sí el premio Nobel a la microbiología, varios científicos afines a esa rama de la ciencia lo han recibido por sus aportes a la humanidad, en su mayoría vinculados a la salud humana. Por ello, fueron distinguidos en Fisiología y Medicina. Es válido hacer un breve catálogo de los más destacados. En 1901, Emil von Behring, “Por su trabajo en la terapia de suero, especialmente su aplicación contra la difteria, por el que se ha abierto un nuevo camino en el campo de la ciencia médi-

| 232

Sobre microbios y humanos

ca y con ello puso en manos del médico un arma victoriosa contra la enfermedad y la muerte”. En 1905, Robert Koch, “por sus investigaciones y descubrimientos en relación a la tuberculosis”. En 1907, Alphonse Laveran fue premiado “por sus trabajos sobre el rol de los protozoarios como agentes de enfermedades”. Trabajó activamente en Paludismo y Leismaniasis. En 1926, Johannes Fibiger, “Por el descubrimiento de Spiroptera carcinoma”, un gusano que, por ese entonces, fue sindicado como el causante del cáncer. El tiempo demostró lo contrario. En 1927, Julius Wagner, “Por el descubrimiento de la vacuna contra la malaria”. En 1928, Charles Nicolle recibe el Nobel “Por sus investigaciones sobre el tifus y el descubrimiento de las vías de transmisión de la enfermedad”. En 1939, Gerhard Domagk, “Por el descubrimiento de los efectos antibacteriales del Potonsil”. En 1945, Alexander Fleming, junto a Ernest B. Chain y Howard Florey, “Por el descubrimiento de la penicilina y su uso como tratamiento de enfermedades infecciosas”. En 1951, Max Theiler, “Por su trabajo sobre cómo combatir la fiebre amarilla”. En 1952, Selman A. Waksman, “Por el descubrimiento de la estreptomicina, el primer tratamiento contra la tuberculosis”. 233 |

Mario L. Vilaró

En 1954, John Franklin Enders, Thomas Huckle Weller y Frederick Chapman Robbins, “Por el descubrimiento de la capacidad del virus de la poliomielitis para desarrollar en cultivos de varios tipos de tejidos”. En 1958, Joshua Lederberg, “Por sus descubrimientos sobre la recombinación genética y la organización del material genético de las bacterias”. En 1965, André Lwoff, Francois Jacob y Jacques Monod, “Por su descubrimiento sobre la regulación genética de la síntesis de las enzimas y de los virus”. En 1966, Peyton Rous, “Por su descubrimiento sobre los virus inductores de tumores”. En 1969, Max Delbrück, Alfred D. Hershey y Salvador E. Luria, ”Por sus descubrimientos concernientes a la replicación y estructura genética de los virus”. En 1975, David Baltimore, Renato Dulbecco y Howard Martin Temin, “Por sus descubrimientos concernientes a la interacción entre tumores, virus y el material genético de la célula”. En 1976, Baruch S. Blumberg y D. Carleton Gajdusek, “Por sus descubrimientos concernientes a los nuevos mecanismos sobre el origen y diseminación de las enfermedades infecciosas”. En 1997, Stanley B. Prusiner, “Por su descubrimiento de los priones, un nuevo principio biológico de las infecciones”.

| 234

Sobre microbios y humanos

En 2008, Harald zur Hausen, “Por el descubrimiento del papilloma virus humano como causante del cáncer cervical”; y Françoise Barré-Sinoussi and Luc Montagnier, “Por el descubrimiento del virus de inmunodeficiencia humana”. Louis Pasteur nunca recibió el premio Nobel. Cuando se instituyeron, ya había muerto, y la Fundación Nobel tiene por norma no otorgar premios a personas fallecidas. Desde 1901 hasta 2013 se han otorgado quinientos sesenta y un premios Nobel en las diferentes disciplinas. Sobre un total de ochocientos setenta y seis laureados, solo cuarenta y cinco fueron mujeres. En cincuenta oportunidades los premios no fueron entregados, principalmente por causa de las guerras mundiales. El Nobel más joven fue Lawrence Bragg, premio de física en 1915, con solo 25 años. El premiado de mayor edad fue Leonid Hurwicz, premio de economía en 2007, con 90 abriles en su haber. Podemos imaginar que cualquier científico que haya sido nominado debe de haberse sentido altamente honrado al ser informado de la noticia. Del mismo modo, nos resulta difícil suponer que alguien decline recibir tan elevado reconocimiento a su labor. Sin embargo, han existido laureados que lo han hecho. En algunas oportunidades, por convicciones propias, en otras porque no tuvieron más remedio. En el primer caso encontramos al filósofo y escritor Jean Paul Sartre, premio de literatura en 1964, quien en una carta dirigida a la Academia Sueca, declinó el premio bajo el argumento de que tenía por norma rechazar todo tipo de tipo de honores oficiales, ya que los lazos entre el hombre y la cultura debían desarrollarse directamente, sin interme-

235 |

Mario L. Vilaró

diación de las instituciones, al tiempo que fundamentó que, si lo aceptaba, perdería su identidad como filósofo (¡eso es ser consecuente con una línea de pensamiento!). Del mismo modo, el militar y político vietnamita Le Duc Tho, premio Nobel de la paz de 1973, compartido con el secretario de estado de los Estados Unidos, Henry Kissinger, nominado por sus negociaciones para obtener un acuerdo de “alto el fuego” durante la guerra de Vietnam, notificó a la Academia Sueca que no podía aceptar la mención, debido a que “no se había logrado verdaderamente la paz”. En una suerte de “no merezco el premio de la paz porque no la logré”, Le Duc Tho nos da ejemplo de respeto a los valores que muchos políticos deberían seguir. Bastaría pensar que, en el remoto caso de que uno de nuestros políticos vernáculos fuese nominado para el premio, sería poco probable que tuviesen semejante acto de sinceramiento y grandeza, todo lo contario, probablemente se inflarían orgullosamente en sus ajustados trajes y, con falsa cara de humildad acorde con las circunstancias, se pondrían en la cola para sacarse la foto durante la ceremonia de premiación. Pero como los valores y principios individuales no son todo en la vida de una persona, menos aun en la de un científico, otros se vieron obligados a rechazar, a regañadientes, la recepción de tan magno lauro. Adolf Hitler obligó a los laureados alemanes a rechazar sus premios. Richard Kuhn, química 1938, Adolf Butenandt, química 1939 y Gerhard Domagk, medicina 1939, tuvieron que dejar sus apetencias personales en aras de una “causa superior” (donde manda capitán…). Boris Pasternak, premio de Literatura de 1958, aceptó inicialmente el galardón, mas posteriormente, las autoridades de, por ese entonces, la Unión Soviética, lo “invitaron” a rechazarlo.

| 236

Sobre microbios y humanos

Podríamos seguir abundando en detalles curiosos sobre los premiados y, sin intentar convertirnos en un catálogo de chimentos, podemos afirmar que el entorno que rodea la atribución y entrega de los premios, más de una vez ha estado bajo sospecha. Los mecanismos de nominación y selección son realizados por instituciones de alto nivel científico y académico que, a priori, están libres de cualquier tipo de presiones e influencias, y afirman poseer independencia de criterio. Sin embargo, dada la importancia que revisten los premios, cuya trascendencia va mucho más allá del ámbito científico, y suelen ser usados con otros fines, nadie puede afirmar que no se urdan internas que puedan opacar el brillo de la premiación. Repasando la historia, hay veces que son tan difíciles de explicar algunas nominaciones, como justificar algunos “olvidos”. Y, a ese nivel de magnitud, en el que el nombre de una individuo puede quedar inmortalizado por el resto de la historia, nos resulta poco factible creer que no haya personas, instituciones o estados que no estén dispuestos a hacer cualquier cosa, por burda o subrepticia que sea, para obtenerlo (breve comentario: el adjetivo “subrepticio” proviene del verbo subrepción, cuya definición es: ocultación de un hecho para obtener lo que de otro modo no se conseguiría. ¡Más claro imposible!). Más allá de los detalles pintorescos, los premios Nobel han sido objeto de análisis por varios autores. Burton Feldman, en su libro “The Nobel Prize: A History of Genius, Controversy, and Prestige”, se formula la siguiente pregunta: “¿Cada esfuerzo del espíritu humano, en ciencia, literatura o paz, debe ser tratado como una competencia, por elevada que esta sea?”

237 |

Mario L. Vilaró

Uno de los aspectos más relevantes es que un premio Nobel se transforma, de manera instantánea, en una celebridad cuya autoridad es incuestionable a nivel mundial. Es así que el laureado, sea del área que sea, es ungido mágicamente de un aura de sabiduría que lo autoriza a opinar de cualquier cosa, aunque no sea de su competencia. Se asume de hecho que el premiado es una suerte de mente rectora que tiene la capacidad de marcar el rumbo de la humanidad. Sinceramente, ¿quién se atreve a contradecir públicamente, en primera instancia, a un premio Nobel, aunque haya dicho una barbaridad de antología? Nos aventuramos a afirmar que si alguien hiciese eso, de manera instantánea sería desacreditado abiertamente, aduciendo todo tipo de argumentos peyorativos, y menoscabando su opinión, aunque fuera acertada. Finalmente… ¿quién es uno para desautorizar a un premio Nobel? A lo largo de su dilatada carrera, uno de los Nobel más controvertidos ha sido, y es, James Watson, descubridor junto a Francis Crick, de la estructura del ADN. Luego de su genial descubrimiento saltó a una fama mundial, incuestionable por el hecho en sí mismo, pero cuestionable por muchos otros aspectos. Vamos a mencionar algunos de sus comentarios, solo para ejemplificar que muchas veces no es oro todo lo que reluce: “La maldición histórica de los irlandeses no es el alcohol ni la estupidez, es la ignorancia”. “Yo soy inherentemente pesimista acerca de las perspectivas de África, porque todas nuestras políticas sociales se apoyan en el hecho de que su inteligencia (la de los africanos) es la misma que

| 238

Sobre microbios y humanos

la nuestra, cuando todas las pruebas dicen que eso no es así realmente”. Por causa de esta afirmación tuvo que abandonar su puesto de rector emérito y su lugar en la junta directiva del Laboratorio Cold Spring. “Las personas de piel oscura tienen mayor potencia sexual, por eso tenemos el amante latino, pero nunca hemos oído hablar del amante inglés”. “A los comunistas no les gusta la genética, porque la genética implica que a veces en la vida fracasamos porque tenemos malos genes, quieren que todos los fracasos de la vida se deban al sistema”. “Yo creo que ahora estamos en una situación terrible y tendríamos que pagar a los ricos para que tengan hijos. Si existe correlación alguna entre el éxito y los genes, el cociente intelectual bajará si la gente de éxito no tiene hijos”. No quedan dudas de que el descubrimiento de la estructura del ADN revolucionó la biología, y marcó un nuevo rumbo en el conocimiento de los seres vivos. Sin embargo, al repasar los pensamientos de Watson, un manto de inquietud se abate sobre nuestros espíritus. La forma moderna de desdecirse, sin pedir disculpas, de políticos, funcionarios, deportistas y demás personas públicas, es explicar que sus declaraciones fueron “sacadas de contexto”. Aunque todos sabemos que hay frases que, dentro o fuera de contexto, significan siempre lo mismo. Personas más perspicaces, dirán que el descubrimiento de Watson no fue más que un chispazo de genialidad que lo catapultó a la fama. Otros, con mayor afinidad a su línea de pensamiento, una fuerte impronta de determinismo genético y un racionalismo rayano 239 |

Mario L. Vilaró

con la intolerancia, afirmarán que en sus declaraciones no hace otra cosa que decir la verdad sin importarle demasiado las críticas (una suerte de rebelión contra los que siempre son “políticamente correctos”). Mi madre, La Abuela Nena, dirá, desde su sabiduría popular, que “no solo hay que serlo, sino también parecerlo”. Y allí está la clave. La humanidad siempre se ha nutrido de sus líderes. Quién más, quién menos, en algún momento de su vida, necesitó reflejarse en la imagen de otra persona, tan cercana como un padre, o tan lejana como un personaje público, que sirva como un faro que guíe sus pasos. Es por eso que sobre las personas públicas, sea cual fuere el ámbito en el que se desempeñan, pesa la enorme responsabilidad de que muchos puedan tomar sus palabras o actitudes como precepto a seguir. Más aún, si el líder es un premio Nobel, cuya trascendencia mundial encarna la excelsitud en el desarrollo intelectual, sería de esperar la mesura de una actitud reflexiva y prudente, a la impunidad de sentirse en la cima del mundo y desatar todo tipo de escándalos con comentarios precipitados. Por más premios Nobel que sean, deberían, como cualquier hijo de vecino, pensar dos veces antes de abrir la boca. Con más razón si lo que dicen será escuchado, analizado, criticado o valorado, por millones de personas. En el mundo actual, en el que la crisis de valores arrecia, es necesario que surjan referentes que rescaten, de la esencia del ser humano, sus mejores virtudes para que sean imitadas. En este punto, el reconocimiento de la tarea científica y humanitaria debería ser la nave insignia que indique un camino a seguir, y los notables premiados estén acorde a las circunstancias, dejando de lado banalidades, mezquindades y demás actitudes ruines del alma humana. Es lo menos que podemos esperar de ellos, y de todos aquellos que aspiran o compiten por el premio Nobel.

| 240

Sobre microbios y humanos

“Por lo menos, así lo veo yo…” Bibliografía consultada A Nobel endeavour. Editorial, Nature Reviews Microbiology (2010) 8:755 Robert Marc Friedman. The Politics of Excellence:  Behind the Nobel Prize in Science. Times Books/Henry Holt. 2001. Burton Feldman. The Nobel Prize: A History of Genius, Controversy, and Prestige. Página web oficial de la Fundación Nobel: http://www.nobelprize.org/

241 |

Índice Sobre microbios y humanos.................................................... 7 I ¡Agar agar… qué grande sos!............................................ 11 II Alquimistas de bolsillo...................................................... 21 III Cocos escondidos, bacterias envueltas, inquilinos indeseables y otros nombres raros.............................................. 37 IV El Art Attack microscópico............................................... 55 V Viejos son los trapos........................................................... 65 VI Con las manos en la masa................................................ 75 VII Flora normal y académicos oportunistas . ................ 85 VIII El sexo de los ángeles................................................... 99 IX Del microbio vienes y en microbio te convertirás...113 X El alimento de los Dioses................................................123 XI The magic bullet.................................................................137 XII Lo que no mata fortalece..............................................153 XIII Antibióticos, ¿mitos o realidades?............................169 XIV La única verdad es la realidad....................................187

243 |

Mario L. Vilaró

XV La culpa no la tiene el chancho…..............................199 XVI Ciencias duras y no tan duras...................................207 Volver al futuro......................................................................221 Premio Nobel, ese oscuro objeto del deseo.....................229

| 244

Impreso por Editorial Brujas • julio de 2014 • Córdoba–Argentina