Meta, m?todo y mito en ciencia

Citation preview

Andrés Rivadulla

andrés rivadulla meta, método y mito en ciencia

Es catedrático de Filosofía de la Ciencia en la Universidad Complutense de Madrid. Su trayectoria profesional incluye extensos periodos de investigación en universidades extranjeras como Colonia, Fráncfort (en calidad de investigador de la Fundación Alexander von Humboldt) y la LSE de Londres. Sus numerosas publicaciones se reparten entre revistas españolas e internacionales, además de en obras colectivas nacionales y de otros países. Es coeditor de Perspectivas actuales de lógica y filosofía de la ciencia (1994) y Física cuántica y realidad/Quantum Physics and Reality (2002), y editor de Hipótesis y verdad en ciencia. Ensayos sobre la filosofía de Karl Popper (2004). También es autor de Filosofía actual de la ciencia (1986), Probabilidad e inferencia científica (1991), Revoluciones en física (2003) y Éxito, razón y cambio en física (2004), los dos últimos publicados en esta misma Editorial. Su dedicación a la teoría de la ciencia abarca la filosofía general de la ciencia y la epistemología, la historia y filosofía de la probabilidad y la estadística matemática, así como la filosofía e historia de la física teórica.

ISBN 978-84-9879-592-9

9 788498 795929

M e ta , m é t o d o y m i t o en ciencia Andrés rivadulla e

d

i

t

o

r

i

a

l

t

r

o

t

t

a

En Éxito, razón y cambio en física, Andrés Rivadulla dejaba para otro libro el análisis detallado del debate epistemológico. La presente obra cumple ampliamente este propósito. La polémica realismo-instrumentalismo ocupa una parte importante de este texto, en el que se presentan las diferentes corrientes contemporáneas del realismo científico, se analizan sus puntos débiles y se desarrolla de forma histórica y sistemática el instrumentalismo, corriente epistemológica por la que se decanta el autor. Destaca, en particular, la importancia que este otorga a la incompatibilidad interteórica, como argumento que ha de decidir el resultado del debate. Pero este libro es también una obra de metodología de la ciencia. El autor reivindica el papel que el contexto de descubrimiento tiene para una visión completa de la misma, en la que contexto de justificación y de descubrimiento se sitúan al mismo nivel de relevancia. Así, se pone especial énfasis en el peso de la abducción en ciencias observacionales y en ciencias teóricas de la naturaleza, y se propone una forma nueva de creatividad deductiva, la preducción, en el contexto de descubrimiento de las ciencias teóricas. Tras Revoluciones en física y Éxito, razón y cambio en física, este libro cierra una suerte de trilogía en torno a ciencia, historia y filosofía. Las numerosas novedades aportadas en esta obra, tanto en metodología de la ciencia como en epistemología, prometen mantener el interés que la filosofía actual de la ciencia viene suscitando durante las últimas décadas.

Meta, método y mito en ciencia

Meta, método y mito en ciencia Andrés Rivadulla

E

D

I

T

O

R

I

A

L

T

R

O

T

T

A

COLECCIÓN ESTRUCTURAS Y PROCESOS Serie Filosofía

© Editorial Trotta, S.A., 2015 Ferraz, 55. 28008 Madrid Teléfono: 91 543 03 61 Fax: 91 543 14 88 E-mail: [email protected] http://www.trotta.es © Andrés Rivadulla Rodríguez, 2015 Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra solo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos) si necesita fotocopiar o escanear algún fragmento de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 45).

ISBN (edición digital pdf ): 978-84-9879-598-1

«What the new spirit of physics cannot tolerate is a presumption that one idea has to succeed, whatever the evidence». [Lo que el nuevo espíritu de la física no puede tolerar es que una idea deba imponerse a pesar de la evidencia]. (Lee Smolin, The trouble with Physics, 255).

A la memoria entrañable de mis padres

CONTENIDO

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 I. Mejorar la herencia recibida. El pragmatismo, una filosofía a escala humana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 II. Filosofía de la ciencia y ciencia computacional de la ciencia . . . . . 47 III. Del fetichismo de la testabilidad al compromiso con la falsabilidad 75 IV. La abducción en la metodología de las ciencias de la naturaleza . . 87 V. El realismo en el punto de mira . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 VI. El instrumentalismo científico . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 VII. La preducción en el contexto de descubrimiento de las ciencias teóricas de la naturaleza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 Índice de nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 Índice de materias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Índice general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

9

PREFACIO

He aquí un nuevo libro de filosofía de la ciencia. ¿Uno más? Confío en que no. Este trata de pensar la filosofía actual de la ciencia en los comienzos del siglo xxi. Contiene pues numerosas novedades tanto a nivel de la metodología científica como a nivel de la epistemología. Han transcurrido diez años desde la publicación de Éxito, razón y cambio en física, y lo que en aquel momento me parecía imposible ha sucedido. Numerosos problemas y reflexiones nuevas se han venido acumulando. De manera que más que un texto que solo trate de cumplir con el compromiso que adquirí diez años atrás acerca de uno nuevo sobre el debate epistemológico, todo lo que he venido pensando en estos años me permite ofrecer una obra con abundante reflexión metodológica incorporada. De hecho en el libro presente metodología de la ciencia y epistemología tienen igual peso. El contexto de descubrimiento se me ha abierto con toda su rica y variada gama de reflexión filosófica. La metodología de la abducción, que en general se viene reservando para prácticas de enjundia filosófica menor, resulta que constituye una estrategia imprescindible, e incluso definitoria, de toda una variedad de disciplinas científicas, para las que he acuñado el término de ciencias observacionales de la Naturaleza; pero que también juega un papel de primer rango en ciencias teóricas de la Naturaleza, como la física matemática. Por otra parte, me he percatado que el razonamiento deductivo también constituye una herramienta decisiva para el descubrimiento en estas mismas ciencias teóricas de la Naturaleza. Y para su implementación reservo el término de preducción teórica o preducción a secas. El caso es que metidos en el tema de la metodología del descubrimiento científico, me encuentro con que la ciencia computacional de la ciencia me ha ofrecido también la posibilidad tanto de repensar viejos problemas metodológicos como de hacer la propuesta novedosa de sugerir la aplicación de la ciencia computacional del descubrimiento científico a la preducción teórica, y avanzar la hipótesis de la preducción computacional como ayuda al desarrollo teórico, a la creatividad, en física. 11

META, MÉTODO Y MITO EN CIENCIA

Desde un punto de vista epistemológico este libro ofrece además una justificación razonada y madura que explica la preferencia por el pragmatismo en filosofía sobre la base del instrumentalismo en teoría de la ciencia. Y en él justifico sobradamente mi opción por el instrumentalismo, en detrimento del realismo científico, en el debate epistemológico contemporáneo. Pocas fórmulas aparecen en esta obra a pesar de la fuerte presencia en ella de la filosofía de la física. Circula la idea en la literatura angloamericana de que cada fórmula que aparece en un libro de divulgación científica hace disminuir en diez mil el número de lectores. Pero este no es un libro de divulgación científica. Sino de filosofía de la ciencia en toda regla y a veces no es posible evitar ilustrar una reflexión teórica con alguna que otra fórmula. ¡Ojalá que quienes se enfrasquen en la lectura de este libro se aproximen a esa cifra mágica de los diez mil! Que al menos sea el libro de los diez mil lectores. La filosofía de la ciencia en lengua española se lo merece. Pues este texto está destinado a los interesados en esta disciplina, sean filósofos, científicos o curiosos en general, no solo en España, sino por supuesto en Hispanoamérica, y en toda Iberoamérica. Agradezco al Ministerio de Ciencia e Innovación del Gobierno de España la financiación del proyecto FFI2009-10249 sobre Modelos teóricos en ciencia y racionalidad pragmática, en cuyo marco se ha venido elaborando buena parte de este libro. También ha contribuido a su buen término mi participación en la Acción Integrada AIB2010PT-00106 sobre La dinámica del conocimiento en el ámbito de las ciencias sociales: abducción, intuición e invención, así como mi condición de miembro del Grupo Complutense de Investigación 930174 sobre Filosofía del Lenguaje, de la Naturaleza y de la Ciencia. Agradezco a la Universidad Complutense de Madrid la concesión de un semestre sabático durante cuyo disfrute he podido concluir la versión final de este libro. A mis estudiantes les debo bastante más de lo que ellos puedan imaginar. A Virginia le estoy muy agradecido por su apoyo para que este libro viera la luz y por tantas y tantas horas que le debo. Y hago extensivo mi agradecimiento a Editorial Trotta por su excelente disposición a publicar esta obra. El contenido del libro es el resultado de un proceso de maduración durante los últimos años de las ideas que encierra, que he ido perfilando a través de contribuciones en diferentes congresos y universidades de diversas partes del mundo, publicadas en artículos y obras colectivas, muchas de ellas relacionadas en la bibliografía. Se ha beneficiado también, y mucho, de su exposición en mis clases de Filosofía general de la Ciencia y de Filosofía de la Física. Su presentación y defensa públicas me ha permitido refinarlas hasta el punto de que me considero razonablemente satisfecho. Si algún punto queda oscuro o hay alguna laguna estoy a entera disposición del lector interesado para su esclarecimiento. 12

INTRODUCCIÓN

En las profundidades del Universo, orbitando alrededor de una estrella de tamaño mediano situada en el brazo de Orión de la Galaxia, más conocida como Vía Láctea, apenas se adivina desde el espacio exterior la existencia de un pequeño planeta habitado por organismos desarrollados al que sus moradores humanos denominan Tierra. Como no pertenece a la clase de los planetas gigantes o superjúpiteres, el planeta Tierra no es perceptible en el fondo oscuro del cosmos circundante ni por su espectro, ni por la intensidad de su acción gravitatoria sobre su estrella madre, el Sol, o por las modificaciones que puede ejercer sobre su curva de luminosidad, ni por la variación de la velocidad radial del Sol. Pero sí lo sería por algo extraordinariamente excepcional en el Universo, dado el tamaño del planeta: por su actividad electromagnética. Como si fuera una radioestrella, que no es, pues, como digo, se trata de un pequeño planeta, este emite una considerable cantidad de radiación electromagnética en forma de luz visible y ondas de radio, producto de la actividad tecnológica de sus habitantes humanos. Cualquier civilización extragaláctica, o incluso de la propia Galaxia, podría captar esta radiación, como en la película de Robert Zemeckis de 1997 protagonizada por Jodie Foster, Contacto, basada en una novela del mismo título, publicada en 1985, del popular astrofísico Carl Sagan. En esta historia la civilización receptora en cuestión habita un planeta de la estrella Vega (α Lyrae) de la constelación de Lyra, situado a unos 26 años luz de distancia de la Tierra. Esta distancia, astronómicamente corta, se presta perfectamente para la ficción literario-cinematográfica, pues cualquier señal de radio apenas necesitaría 52 años para cubrir el trayecto de ida y vuelta. Con otro planeta de otra estrella situada a distancia mucho mayor que esta el contacto sería imposible. La señal de vuelta podría alcanzar la Tierra cuando la civilización humana actual ya no existiera. 13

META, MÉTODO Y MITO EN CIENCIA

Pero, ¿podría recibirla otra humanidad en la Tierra? Podría, si, para entonces no ocurre lo que indico en Revoluciones en física (p. 244), a saber que «la Tierra, y el resto del sistema solar, habrán desaparecido, engullidos por la gigante roja en que se convertirá el Sol, antes de casi desaparecer, como enana blanca, del Universo visible». Porque lo que es claro es que los actuales moradores inteligentes del planeta, que se autoincluyen dentro del género Homo en la especie sapiens, no han constituido la única humanidad que ha poblado la Tierra. Y por tanto podría no ser la última humanidad que la habite antes de que ocurra lo inevitable. Durante unos pocos miles de años, en el espacio de tiempo correspondiente al final de la última glaciación, Homo sapiens cohabitó Europa juntamente con Homo neanderthalensis. Este no superó la última glaciación, que se inició hace unos 125 mil años y concluyó hace unos 15 mil. No se sabe cuál fue la causa, o cuáles fueron, de su extinción. Pero sí se sabe que se desarrollaron en Europa durante unos 200 mil años, y que seguramente entraron en contacto con Homo sapiens. De hecho Homo neanderthalensis y Homo sapiens podrían haber llegado a cruzarse, no descartándose en la actualidad que nuestra especie comparta un 2,5% del genoma con los neandertales (aunque no los humanos del área subsahariana). Pero, lo que es más interesante, los neandertales no constituyeron la única humanidad, distinta de la actual, que habitó la Tierra en tiempos geológicamente recientes. Otras también lo hicieron: Homo antecessor (Atapuerca, Burgos), Homo heidelbergensis, Homo floresiensis, y Homo denisovanus, que coexistió brevemente con sapiens y neandertal, y que ha adquirido un protagonismo inesperado a finales de 2013, como veremos más adelante, por citar solo las más cercanas en el tiempo. El Hombre de Orce, con una antigüedad de 1,2 millones de años, hallado en la provincia de Granada, podría sumarse a esta lista. Aunque difícil, no es pues impensable que otra humanidad pudiera acabar desarrollándose en el futuro. Es curioso sin embargo que, aparte de una rudimentaria industria lítica, cuyo origen identifica al primer humano, Homo habilis, hace algo menos de 2 millones de años entre finales del Plioceno y comienzos del Pleistoceno inferior, ninguna de estas humanidades anteriores dejó rastro de pensamiento simbólico y abstracto, o sea nada que delatara la existencia de una cultura, si bien en Homo heidelbergensis y Homo neanderthalensis se dan indicios que apuntan a enterramientos, lo que señalaría la existencia de sentimientos ‘humanos’. Las primeras manifestaciones culturales, las pinturas rupestres, son obra de Homo sapiens, aunque tampoco se descarta alguna huella tardía de los neandertales. A Homo sapiens le tocó disfrutar, primero en África, donde se desarrolló hace aproximadamente 200 mil años, y luego en Eurasia, adonde arri14

INTRODUCCIÓN

bó hace unos 40 mil años, del periodo geológico más favorable para el género Homo, y desde luego supo aprovecharlo. Su reciente implantación en Eurasia y su extensión por América hace unos 12 mil años vino acompañada por un desarrollo cultural y social sin precedentes en la historia del planeta. Desarrolló modos de vida social, religiones, economía, arte, y desarrolló ciencia. En los últimos cuatrocientos años, los que median entre Galileo y el primer decenio del siglo xxi la ciencia ha experimentado un desarrollo más que considerable. Si comparamos este periodo con los cuarenta mil años precedentes, comprimidos en un solo día, la Humanidad habría desarrollado la parte más espléndida y exitosa de la ciencia en sus últimos catorce minutos y medio. Esto quizás le hizo concebir la posibilidad de inventar una teoría unificada que lo explicase todo: una teoría que unificase todas las partículas y todas las fuerzas que existen en la Naturaleza. Esta tarea habría pretendido completarla en apenas un minuto y medio. Pero quizás la Humanidad haya corrido demasiado en su último tramo, pues a pesar del reciente descubrimiento de una partícula compatible con el bosón de Higgs —la última predicción por completar del modelo estándar de la física de partículas elementales—, la física teórica contemporánea vive momentos de apuros, como bien señala Lee Smolin (2007). En muy pocos años Homo sapiens aplicó su inteligencia a un manejo intelectual con el mundo, lo que le permitió llevar a cabo tanto una actividad representacional, teórica, como una actividad práctica, tecnológica. Su huella permanecerá eternamente, todo lo que dure el Universo, si este no colapsa, y si, como quiere la ciencia moderna, las ondas electromagnéticas son de alcance infinito. Bueno, esto en el caso de que esta huella electromagnética no quede anulada a tan solo unos pocos años luz de distancia de la Tierra como consecuencia de su interacción con el ruido cósmico de fondo. En cuyo caso los hombres, cualquiera que sea la especie a la que pertenecieren, estarían abandonados a su propia soledad per saecula saeculorum, aislados en su pequeño planeta, perdidos en la infinitud del Universo. El hecho de que en la constelación de Libra, situada a 20 años luz de la Tierra, y en la que en septiembre de 2012, fueran descubiertos dos planetas orbitando alrededor de Gliese 163, no nos hace ser optimistas respecto a la posibilidad de encontrar compañía cósmica. Uno de ellos puede estar en zona habitable, pero probablemente no es de naturaleza terrestre. En general los exoplanetas descubiertos a distancias entre 4 y 42 años luz son demasiado calientes por orbitar muy cerca de sus estrellas. También la sonda espacial Kepler ha descubierto varios planetas rocosos, demasiado calientes para poder albergar vida. El hecho es que no se ha recibido ninguna señal inteligente, que se sepa públicamente. Lo que no significa que sea 15

META, MÉTODO Y MITO EN CIENCIA

imposible que ocurra. Pues aunque estadísticamente la probabilidad de vida inteligente en una galaxia puede ser realmente pequeña (a razón de un planeta habitado por galaxia sería de una cienmilmillonésima), si en el Universo visible se supone que hay alrededor de 200.000 millones de galaxias, con tal de que cada una de ellas albergue su propia Tierra, es fácil colegir el número de planetas terrestres que pueden existir. Otra cosa es que alguna vez entre ellos llegue a haber contacto. Ignorante de estas posibles circunstancias durante prácticamente toda su existencia como especie, e inconsciente del espíritu nietzscheano que las impregna (Nietzsche, Sobre verdad y mentira en sentido extramoral), Homo sapiens desarrolló y sigue desarrollando ciencia, como hemos dicho. Pero desarrolló también filosofía, y en particular filosofía de la ciencia. La filosofía de la ciencia constituye una moderna disciplina filosófica que estudia la ciencia desde puntos de vista lógico, metodológico, epistemológico, ontosemántico, y mantiene estrecha relación con la historia de la ciencia y la sociología de la ciencia. Mientras la ciencia estudia el mundo, la filosofía de la ciencia considera que tanto la actividad científica como sus productos constituyen un dominio de investigación interesante. Pero, ¿qué es la ciencia? Responder a esta pregunta constituye precisamente la tarea principal de la filosofía de la ciencia. Alan Chalmers (1998), que se pregunta qué es esa cosa llamada ciencia, confiesa a la conclusión de su libro que no hay una concepción intemporal y universal de la ciencia y del método científico. Para mí es obvio que no es posible dar una respuesta que no implique ella misma una filosofía de la ciencia. Desde una posición optimista y solemne, incluso pedante, la ciencia constituiría un conjunto de hipótesis racionales provisionalmente admitidas acerca del mundo, obtenidas por aplicación rigurosa de un método propio —el método científico—, agrupadas en distintas disciplinas en función de los diversos aspectos objeto de interés, sometidas al requisito de comunicabilidad y comprobabilidad intersubjetiva, portadoras de una pretensión de conocimiento, o sea de capacidad de descripción, predicción y explicación del mundo, y dotadas de una capacidad de interreducción que las ordena en una dinámica de progreso cognitivo. Desde una posición más modesta, que es la mía, la ciencia sería una actividad teórica y empírica tendente a proponer teorías y/o modelos teóricos, no necesariamente representacionales acerca de partes del mundo, que nos permiten un manejo intelectual y práctico con el mismo. Desde una perspectiva filosófica, la ciencia plantea un número importante de cuestiones que no incumben directamente al científico, porque no son relevantes para la ciencia real: la definición y clasificación de 16

INTRODUCCIÓN

los conceptos científicos y el ‘problema’ de los términos teóricos de la ciencia; la naturaleza y tipos de las leyes científicas; la estructura lógica, evolución y cambio de las teorías científicas; la contrastación empírica de hipótesis y teorías; la explicación científica; el progreso científico; la fundamentación del conocimiento; el significado y la referencia de los términos de la ciencia; el papel de la verdad, la simplicidad y la utilidad; el descubrimiento científico; la lógica de la investigación científica; etc. Estas cuestiones de carácter metodológico, lógico, epistemológico y semántico son las que interesan al teórico de la ciencia, y dan lugar a la filosofía de la ciencia, que se constituye así como una disciplina metacientífica, pues mientras el objeto de la dedicación de la ciencia es el mundo independiente, la teoría de la ciencia se centra filosóficamente en la ciencia misma. La filosofía de la ciencia se interesa pues tanto por cuestiones sistemáticas, o sincrónicas, de la actividad científica, como por aspectos históricos, o diacrónicos, de la misma —el cambio científico—, así como también por la creatividad científica —el descubrimiento científico—, y por cuestiones epistemológicas, como p. e., si la ciencia nos pone en contacto con la realidad. Otra pregunta interesante es si la filosofía o teoría de la ciencia es una disciplina dedicada a describir e identificar la estructura de los productos proporcionados por la ciencia y el denominado ‘método científico’, así como el desarrollo del conocimiento y el descubrimiento científico, o si asume también la tarea de dictar las normas por las que se debe guiar la actividad científica real. Decir que la tarea de la filosofía de la ciencia es la de llevar a cabo una reconstrucción racional de la ciencia, como se sostuvo hasta los años ochenta, constituye un remanente del viejo paradigma formalista en filosofía de la ciencia. Pero como toda reconstrucción racional de la ciencia se hace desde una perspectiva filosófica determinada, o bien es susceptible de recibir una interpretación filosófica particular, parece inevitable que la filosofía de la ciencia no contenga también en parte un componente normativo o prescriptivo. Insistir en el carácter eminentemente empírico o descriptivo de la filosofía de la ciencia, es decir, que la teoría de la ciencia debe tomar la ciencia como dato empírico, y su objeto debe ser tratar de desvelar cómo procede realmente esta, resuelve el problema del normativismo en filosofía de la ciencia. Siempre, claro está que se pueda mostrar que la actividad científica se desarrolla siguiendo fielmente unas pautas predeterminadas acordadas. Lo cual ya es histórica, sociológica y filosóficamente discutible. En 1938, en su libro Experience and Prediction, Hans Reichenbach propuso por vez primera su idea de los dos contextos: de descubrimiento y de justificación, que denotaban dos tipos de prácticas posibles de la filosofía de la ciencia del momento. Aunque como he indicado en Ri17

META, MÉTODO Y MITO EN CIENCIA

vadulla (2008, 118) esta distinción ya había sido anticipada por Popper (1935, § 2), el extraordinario desarrollo de la disciplina en los decenios siguientes auguraba que la primera distinción entre contextos estaba necesitada de ser analizada con más detalle. Es cierto que Javier Echeverría (1995, 58 ss.) propone distinguir también cuatro contextos en la actividad tecnocientífica: de educación, de innovación, de evaluación y de aplicación, una propuesta sin duda interesante. Pero como se refieren a tareas de actuación externa de la ciencia y externa a la ciencia, yo prefiero enfocar mi propia propuesta desde una perspectiva interna de la metodología de la ciencia. Sobre todo por el empeño que en los últimos años he puesto en el contexto de descubrimiento científico, bastante descuidado incomprensiblemente por los filósofos actuales de la ciencia, pero de importancia extraordinaria para una presentación completa de la metodología de la ciencia, para la comprensión justa de lo que debemos entender por método científico. El papel que juega el contexto de descubrimiento científico en la metodología de la ciencia lo vengo enfatizando en los últimos años, poniendo especial interés en la preducción teórica como práctica deductiva de descubrimiento en las ciencias teóricas de la Naturaleza. La imagen de la ciencia ha cambiado mucho desde los orígenes de la filosofía actual de la ciencia en los primeros años treinta del siglo xx hasta nuestros días. La creencia en una ciencia segura, como sistema de proposiciones verdaderas acerca del mundo, que el positivismo lógico del Círculo de Viena proclamaba, fue contestada de forma contundente por su coetáneo el vienés Karl Popper, y muy discutida por el epistemólogo social, también contemporáneo de los vieneses, Ludwik Fleck. A su vez, la concepción racionalista crítica de la ciencia del propio Popper sufriría un considerable desgaste por obra de Willard Quine, Thomas Kuhn, Imre Lakatos y Paul Feyerabend. La concepción estructuralista de las teorías, iniciada en 1971 de la mano de Joseph Sneed adquiriría sobre todo en Alemania, España e Hispanoamérica un eco considerable, y nuevas formas de realismo como el realismo interno de Hilary Putnam a partir de 1981 contribuyeron a reavivar el debate epistemológico, que se vio acrecentado cuando se dio paso a nuevas tendencias neopragmáticas, a partir de ideas de Charles Peirce, John Dewey, William James y Pierre Duhem, entre otros. Un buen ejemplo lo constituye el relativismo evolucionista de Gonzalo Munévar, 1998, y las posiciones antirrealistas de Bastiaan van Fraassen y Larry Laudan entre otros. El realismo científico mantiene no obstante todo el vigor que le imprimiera Popper desde principios de los años sesenta. Hecho público su certificado de defunción por Arthur Fine (1984), el realismo científico parece seguir gozando de buena salud, que le permite, a través de versiones incompatibles, sobrevivir en una situación de desgarro interno entre 18

INTRODUCCIÓN

el realismo científico estructural de John Worrall, Steven French y James Ladyman, y el realismo científico típico de Stathis Psillos (1999, 2009), entre otros. En paralelo a este debate, la física teórica contemporánea: teoría de la relatividad, física cuántica, física atómica, nuclear y de partículas y teorías del todo, mucho más recientemente, ha venido consolidándose durante los últimos decenios como un excelente banco de prueba de varios de los planteamientos epistemológicos y metodológicos más serios. Cabe aquí citar a Popper cuando en (1994a, 112) aseveraba que «la ciencia es capaz de resolver problemas filosóficos y que la ciencia moderna tiene cosas importantes que decirle al filósofo sobre algunos de los problemas clásicos de la filosofía». Este libro pretende mostrar precisamente cómo la física teórica interfiere con la filosofía de la ciencia. Pero también quiere hacer ver que las ciencias observacionales de la Naturaleza imponen su presencia filosófica, de forma que los metodólogos de la ciencia no pueden dejar de tomarlas seriamente en cuenta por mucho más tiempo. Este libro se centra en dos aspectos básicos de la filosofía de la ciencia: la epistemología y la metodología. Pero he preferido no agrupar sus capítulos en dos partes compactas, pues metodología y epistemología tienen muchos puntos de contacto y existen interdependencias entre ambas, como parece razonable. Así que capítulos de uno y otro dominio se intercalan siguiendo una intención clara: sentar bases y progresar en novedad. No obstante nada impide que se puedan leer por separado uno de otro, según el interés del lector. El primer capítulo, más expositivo que analítico, está dedicado a la filosofía de Richard Rorty, una filosofía a escala humana. El pragmatismo rortyano enmarca filosóficamente el tenor instrumentalista que caracteriza a la teoría de la ciencia que presento en este libro. Por otra parte entiendo que una concepción instrumentalista de la ciencia, la física en especial, también redunda en una justificación teórica del pragmatismo rortyano. Este capítulo concluye, de modo que algún lector experto puede quedar sorprendido, con una sección dedicada a la filosofía de la ciencia de Van Fraassen. No pretendo convertir a este en un epígono de Rorty. Pero hay suficientes puntos comunes entre ambos para que la inclusión de Van Fraasen permita cerrar el capítulo de manera coherente con el carácter del libro, una reflexión sobre la filosofía contemporánea de la ciencia. Los tres capítulos siguientes son de marcado carácter metodológico. El capítulo II intenta salvar a la filosofía actual de la ciencia de una situación incómoda. El descuido por parte de los filósofos oficiales de la ciencia del contexto de descubrimiento científico contribuyó a aislar a la teoría de la ciencia del descubrimiento científico computacional. El 19

META, MÉTODO Y MITO EN CIENCIA

objetivo de este capítulo es constatar, primero, este fallo, entonar luego el mea culpa por la parte que me corresponde como filósofo de la ciencia durante los últimos decenios, y finalmente señalar el camino de una posible línea de cooperación futura entre filosofía de la ciencia y ciencia computacional de la ciencia. El capítulo III destaca uno de esos episodios en los que la colaboración entre ciencia y filosofía es más patente. Primero se aproxima a una posición crítica con el falsacionismo popperiano, cuya implicación tenaz con la testabilidad conduce a un fetichismo de la metodología falsacionista. Pero por otra parte este capítulo destaca que el compromiso con la falsabilidad puede llevar incluso a la conclusión que una teoría de la física contemporánea, la teoría de cuerdas, ni siquiera sea considerada científica por ser filosóficamente inviable, por no ser falsable. La aceptación de esta conclusión representa sin lugar a dudas uno de los mayores triunfos de la filosofía (de la ciencia). El capítulo IV tiene como objetivo superar una de las deficiencias más graves de la metodología de la ciencia por la reivindicación del contexto de descubrimiento científico. Esto ocurre vía la rehabilitación del razonamiento abductivo, cuya vigencia extraordinaria se muestra en ciencias observacionales de la Naturaleza, como la paleontología y la geología contemporáneas, pero también por el papel que juega en física teórica. Que la postulación de materia oscura o de energía oscura se haga vía abductiva contribuye a cubrir una seria falta de comprensión de la práctica científica en que la filosofía oficial de la ciencia ha venido incurriendo desde sus orígenes hasta hace pocos lustros. Por otra parte se da razón a los científicos computacionales de la ciencia que afirman que contexto de descubrimiento y contexto de justificación son igualmente relevantes para la ciencia. El objetivo del capítulo V es marcar el papel del realismo (científico) en el debate epistemológico contemporáneo. La presentación de un ‘mapa’ del realismo, con sus diferentes versiones, permite escudriñar primero las distintas opciones antirrealistas frente a los diferentes modos de ser realista. Cuando el capítulo se centra concretamente en el realismo científico se presentan los argumentos a favor del mismo, entre ellos el argumento metaabductivo del no milagro, y los argumentos en contra. El capítulo concluye con un análisis de una versión no típica de realismo científico, el realismo estructural, cuya viabilidad filosófica se cuestiona. El capítulo VI es también de naturaleza epistemológica. Presenta el instrumentalismo científico por una doble vía: a través de la enumeración de algunas de sus tesis características y rastreando su presencia en la historia del pensamiento filosófico-científico de Occidente. La defensa que en este capítulo se hace de la concepción instrumentalista de la 20

INTRODUCCIÓN

ciencia corre naturalmente en paralelo con el rechazo sistemático del realismo científico. El modo de proceder a estos efectos es analizar, primero, el papel que los modelos teóricos juegan en la metodología de la ciencia, para pasar finalmente al argumento más decisivo que nunca se haya presentado contra el realismo científico: la existencia de incompatibilidad interteórica, cuya eficacia argumentativa deja en un segundo plano el papel que en decenios anteriores quiso jugar la tesis de la inconmensurabilidad, que aquí no se trata pues la discuto en Éxito, razón y cambio en física, cap. IV. La existencia de incompatibilidad interteórica es devastadora para la noción de convergencia del realismo científico en cualquiera de sus versiones. El capítulo VII finalmente vuelve de nuevo a la metodología científica, en concreto al contexto de descubrimiento. Pero introduce una novedad aún no atisbada por la filosofía de la ciencia: analizar y presentar vía ejemplos el modo en que el razonamiento deductivo posibilita el descubrimiento científico en, al menos, una ciencia teórica de la Naturaleza como la física matemática. Al respecto presento el término preducción teórica, o simplemente preducción, por la analogía que esta forma de inferencia científica guarda con conceptos ya consolidados como inducción y abducción. El razonamiento preductivo es la implementación del hipotético-deductivo en el contexto de descubrimiento en física teórica. Pero como, además, la inteligencia artificial ha sido capaz de desarrollar modelos computacionales inductivos y abductivos de creatividad, en este capítulo se avanza también la hipótesis de la preducción computacional, que no es sino la idea de que la creatividad en física teórica podría encontrar también las vías de un tratamiento computacional de la preducción teórica.

21

I MEJORAR LA HERENCIA RECIBIDA. EL PRAGMATISMO, UNA FILOSOFÍA A ESCALA HUMANA

1. INTRODUCCIÓN

El interés por la epistemología es creciente tanto en filosofía como en ciencia. Cada vez absorbe más la dedicación de los filósofos académicos y atrae la atención de estudiosos e interesados en general. Y lo mismo sucede entre los grandes científicos contemporáneos desde que con el comienzo de la ciencia moderna el interés por asuntos filosóficos creciera entre ellos. Desde Einstein, por ejemplo, hasta los teóricos de cuerdas, raro es el hombre de ciencia que no ha querido dejar alguna impronta filosófica. El debate epistemológico contemporáneo se centra en la polémica realismo-antirrealismo1. Pragmatistas, empiristas e instrumentalistas se enfrentan a realistas de diversos compromisos, niveles o tendencias, en relación a la cuestión acerca de qué motiva la práctica científica, qué objetivos persigue la ciencia. Emparentado con el instrumentalismo —el hilo conductor de este libro— se encuentra el pragmatismo en alguna de sus versiones. La más jugosa ‘epistemológicamente’, aquella a la que más partido se le puede sacar desde la filosofía de la ciencia, es el neopragmatismo de Richard Rorty. Por ello voy a dedicar este capítulo a hacer una presentación sintética del mismo, que espero que le haga justicia. Siendo el pensamiento rortyano tan rico, tan sutil, inteligente y fascinante, me enfrento a una tarea que no se me oculta que es difícil. Podemos empezar caracterizando el pensamiento rortyano como una tesis negativa: como la negación de que el conocimiento consiste 1. Interpreto la epistemología como la rama de la filosofía de la ciencia enfocada fundamentalmente a este debate. Aunque legítimamente discutible es la interpretación por la que opto en este libro.

23

META, MÉTODO Y MITO EN CIENCIA

en una representación precisa y fidedigna del mundo exterior, como el rechazo de que la ciencia sea un espejo de la Naturaleza. Pero, como es obvio, también podemos presentarlo en forma positiva: el conocimiento sería justificación social de la creencia (Rorty 1980, 170-171). En este segundo sentido la ciencia es el resultado de una práctica conversacional, e.d., social, en lugar de un empeño por reflejar cómo son las cosas en sí, al margen de cómo lo son para nosotros en su relación con las demás cosas. Ahora bien, como esta filosofía, despegada de su tronco fundamental, se enfrenta a grandes líneas del pensamiento de Occidente, parece más atractivo comenzar a exponerla presentando primeramente lo que la filosofía rortyana no es, para luego, en un segundo momento, apuntar a lo que es. La filosofía rortyana niega la capacidad representacionista del lenguaje, recusa el esencialismo ligado a la idea de la existencia de una naturaleza intrínseca de las cosas, se opone a la posibilidad de una correspondencia entre frases y pensamientos con el mundo, es antirrealista desde un punto de vista epistemológico, rechaza la existencia de una objetividad y una racionalidad en sentido fuerte, discrepa de la idea de verdad como correspondencia y como convergencia, y condena el cientificismo exacerbado. Por razones no siempre coincidentes, los filósofos objeto de sus críticas son Platón y Aristóteles, es Kant, es Dilthey, pero es también el positivismo y el neopositivismo, y son Peirce, Putnam y Habermas, entre muchos otros, naturalmente. El resultado de este posicionamiento crítico da lugar a un pensamiento nuevo que ve las prácticas culturales e intelectuales orientadas a objetivos, sin reivindicaciones de hegemonías ni accesos privilegiados, o sea, como prácticas conversacionales democráticas, igualitarias, tolerantes, solidarias y consensuales. Es el pensamiento pragmatista, o mejor dicho neopragmatista, cuyos rasgos generales son una posición instrumentalista acerca del papel que juegan las creencias, un planteamiento nominalista que exalta el valor de las descripciones no privilegiadas, una inclinación al coherentismo que prima la búsqueda de consenso intersubjetivo, una defensa de la razonabilidad de las justificaciones que abomina de posiciones dogmáticas, ultradefensivas y de la santa indignación, y una concepción igualitarista ajena a posiciones hegemónicas, sea de la filosofía, como ‘madre’ de las ciencias, o sea de la ciencia —sobre todo la ciencia natural— como modelo obligado de toda forma de pensamiento. Este neopragmatismo encuentra sus raíces en James y Dewey, en Nietzsche, en Wittgenstein, en Quine y Davidson, pero también en Heidegger, Foucault y Derrida, igualmente entre muchos otros. Aunque hay cientos de posibles citas cargadas de acierto y belleza que podrían resumir en pocas palabras el núcleo del pragmatismo ror24

MEJORAR LA HERENCIA RECIBIDA

tyano, me decanto por la siguiente, quizás porque destila delicadamente la modestia intrínseca en nuestro pensar humano sobre el mundo: «una vez que empezamos a pensar en la investigación como una relación entre organismos y su entorno, antes que como una relación entre seres humanos y algo pavoroso —algo como Verdad o Realidad— ya no necesitamos asustarnos», sentencia Rorty en su «Response to Jürgen Habermas» (Brandom 2000, 62). Sin pretender convertir a Bas van Fraassen en un epígono de Rorty en filosofía de la ciencia es evidente que hay intereses comunes que permiten enlazar filosóficamente a aquel con este. Claramente, las cuestiones relativas a la ciencia y el contacto con la realidad y la representación científica. Esta es la razón por la que concluyo este capítulo con un análisis crítico de la versión más reciente del empirismo de Van ­Fraassen. 2.  LO QUE CONVIENE NO CREER SI QUEREMOS PENSAR SENSATAMENTE

Obligado a enfrentarse a una tradición filosófica muy acendrada, una tradición cuya historia se solapa momento a momento con la cultura de Occidente, no puede sorprender que el pragmatismo de Rorty pueda caracterizarse muy principalmente por aquello que no es, por aquello de lo que discrepa, y a lo que intenta suplantar. Por eso voy a presentar seguidamente sus posiciones de rechazo. Lo que Rorty persigue es contribuir a liberar el pensamiento filosófico de Occidente de todos aquellos fantasmas que se han enseñoreado de él durante dos mil cuatrocientos años, haciéndonos creer durante tanto tiempo que hay una actividad intelectual, la filosofía, que celosamente vigila lo que se debe y no se debe pensar, sustituida posteriormente por la ciencia, como aquella actividad que ha de servir de modelo para toda práctica cultural o intelectual que quiera interactuar ‘cognitivamente’ con el mundo. Lo que Rorty pretende es contribuir a pensar mejor. Para ello nos insta a abandonar la noción de verdad como representación precisa y fidedigna de la naturaleza intrínseca de las cosas y de la forma como el mundo es, y a deshacernos de las teorías de la verdad como ­correspondencia. 2.1.  El representacionismo He presentado el núcleo del pensamiento rortyano como la idea de que el conocimiento no consiste en una representación precisa y fidedigna del mundo exterior, que lo que el conocimiento proporciona no es un reflejo de cómo son intrínsecamente, o en sí, las cosas —o la forma 25

META, MÉTODO Y MITO EN CIENCIA

como es el mundo independiente o incondicionadamente— aparte del lenguaje, al margen de cualquier descripción. Mientras los representacionistas admiten que la idea de que el lenguaje y la mente producen representaciones de la realidad es fértil filosóficamente, el pragmatista niega que la noción de representación sea de alguna utilidad para la filosofía (Rorty 1991, 5): «El antirrepresentacionista [...] niega [...] que sea útil para la explicación elegir entre los contenidos de nuestras mentes o nuestro lenguaje y decir que tal o cual ítem ‘corresponde a’ o ‘representa’ el entorno de una manera que ningún otro ítem lo hace». Desde esta perspectiva representación y correspondencia serían dos términos intercambiables. En su rechazo de que el conocimiento es el resultado de representar la realidad, Rorty se apoya en Davidson, Dewey y Nelson Goodman: «Davidson y Dewey concuerdan en que debemos dejar a un lado la idea de que el conocimiento es el intento de representar la realidad. [...] Goodman está en lo cierto al decir que no hay un Modo en que el Mundo Es y, por lo tanto, que no hay una única manera en que pueda ser fielmente representado» (Rorty 1997, 26-27). O como se expresa en su «Response to Bjorn Ramberg» (Brandom 2000, 376), «Hablar de representar es como hablar de frases verificadas por hechos, y hablar de «isomorfismo estructural» entre mente y mundo. [...] Como dice Davidson, ‘Si prescindimos de los hechos como entidades que verifican frases, deberíamos renunciar también a las representaciones, pues la legitimidad de la una depende de la de la otra’ [«The Structure and Content of Truth», p. 304]». Frente al posicionamiento representacionista, el pragmatista sostiene que el conocimiento es un producto de la justificación social de la creencia, o sea, un producto de la conversación como práctica social y puesto que «la búsqueda de la certeza —aun como una meta a largo plazo— es un intento de escapar del mundo uno debe dejar de preocuparse por si lo que cree está bien fundado y comenzar a preocuparse por si se ha sido lo suficientemente imaginativo como para pensar alternativas interesantes a las propias creencias actuales» (Rorty 1997, 26-27). ¿Por qué no pensar los vocabularios descriptivos como herramientas en lugar de intentos de representar? ¿Por qué no renunciar al empeño de saber cómo son las cosas en sí mismas, y dedicarse en cambio a buscar qué vocabularios descriptivos pueden ayudarnos a conseguir lo que queremos? Pues bien, para Rorty (2002, 106-107) «El pragmatismo introduce la posibilidad de que [...] ningún lenguaje sea más natural que otro, es decir que ninguno esté más cerca de la manera en que son realmente las cosas». Esta posición se enfrenta al representacionalismo de muchos filósofos contemporáneos que conciben el pensamiento y la creencia en tér26

MEJORAR LA HERENCIA RECIBIDA

minos de representación de la realidad, y para quienes, en opinión de Robert Brandom (2000, xiv-xv), la imagen de la realidad es la autoridad a la hora de juzgar la corrección de nuestras representaciones. Para Rorty, piensa Brandom, esto es un remanente cuasi religioso que debería ser borrado. Nuestro entorno causa nuestras creencias, pero no las justifica. 2.2.  El esencialismo Según Rorty el lenguaje es un logro muy sofisticado, desarrollado por los humanos a lo largo de su evolución biológica como especie, que nos permite manejarnos con el mundo, pero no representarlo en el sentido de que sea posible establecer correspondencia con él y por ende alcanzar certeza. El lenguaje no es «un velo interpuesto entre nosotros y los objetos», sino «una manera de enganchar los objetos unos con otros» (Rorty 1997, 55). El lenguaje, en definitiva, lo que nos proporciona son medios o instrumentos para habérnoslas con las cosas. Siendo así, asevera Rorty (1997, 70-71), se hace difícil ser esencialista: «Se vuelve arduo tomar en serio la idea de que una descripción de A pueda ser más ‘objetiva’ o ‘más cercana a la naturaleza intrínseca de A’ que otra. La relación de los instrumentos con lo que manipulan es, simplemente, algo que tiene que ver con su utilidad para un propósito específico, no con la ‘correspondencia’ [...] A menos que uno crea, con Aristóteles, que hay una diferencia entre conocer y usar, que existe un propósito llamado ‘conocer la verdad’ distinto de todos los demás propósitos, no creerá que una descripción de A sea ‘más precisa’ que otra cualquiera. Porque la precisión, como la utilidad, tiene que ver con el ajuste de la relación entre un objeto y otros objetos, con poner a un objeto en un contexto provechoso. La cuestión no pasa por lograr el objeto de manera correcta, en el sentido aristotélico de verlo como es, apartado de sus relaciones con otras cosas». Para el pragmatista, asevera Rorty (1997, 46-48) «no hay una cosa que sea la naturaleza intrínseca, la esencia, de X. De modo que no puede haber algo así como una descripción que se ajuste a la manera en que X realmente es, más allá de su relación con las necesidades humanas o la conciencia o el lenguaje. Una vez que la distinción entre intrínseco y extrínseco desaparece, también desaparecen la distinción entre la apariencia y la realidad y nuestras preocupaciones acerca de si existen barreras entre nosotros y el mundo». Dicho de otra manera, para el antiesencialista «solo podemos preguntar por algo bajo una descripción, describir algo es relacionarlo con otras cosas, y ‘asir la cosas en sí misma’ no es nada que preceda a la contextualización, sino solo un focus imaginarius» (Rorty 1991, 99). 27

META, MÉTODO Y MITO EN CIENCIA

Compete pues a los esencialistas mostrar fehacientemente y más allá de toda duda razonable, que existen esencias o naturalezas intrínsecas de las cosas, y que tenemos medios privilegiados, capacidad de representación precisa y fidedigna, de acceder directamente a ellas. O sea, que cuestiones filosóficas tan manidas como las ‘dicotomías’ «apariencia y realidad», «doxa y episteme», «lenguaje y objeto», «mente y mundo», «fenómeno y noúmeno», «hecho y valor», «esencia y apariencia», «sujeto y objeto», «intrínseco y extrínseco» y tantas otras son pseudoproblemas. «El ‘common sense’ de Occidente sigue estando infectado por la representación griega de que las cosas tienen una esencia y que si pudiéramos conocer la esencia de la humanidad —lo que los hombres y las mujeres son en realidad— también sabríamos finalmente qué hacer con nosotros mismos. A los pragmatistas les gustaría deshacerse de esta idea griega», concluye Rorty (2002, 177-178). 2.3.  El correspondentismo y el realismo El anticorrespondentismo es la posición de que hacemos bien abandonando la idea de que existe una correspondencia entre los enunciados y los pensamientos con el mundo o con la realidad, como pretende el realismo. El realismo concibe la verdad como correspondencia con la realidad, o lo que es lo mismo, con la naturaleza intrínseca de las cosas, con la forma como el mundo es en sí. El pragmatismo, por el contrario, considera que los enunciados solo se conectan con otros enunciados, no con el mundo. Como dice Rorty (1991, 21-22), los pragmatistas «conciben la verdad, según expresión de William James, como lo que para nosotros es bueno creer. Así, ellos no necesitan ni la relación llamada ‘correspondencia’ entre creencias y objetos, ni las habilidades cognitivas humanas que aseguren que nuestra especie es capaz de establecer esta relación». O lo que es lo mismo: «el pragmatista afirma que no hay nada que decir acerca de la verdad salvo que cada uno de nosotros encomiará como verdaderas las creencias que le parezcan bueno creer» (Rorty 1991, 23-24). O, finalmente: «Los pragmatistas aseveran que la noción tradicional de ‘verdad es correspondencia con la realidad’ es una metáfora incomparable y gastada [...] Los pragmatistas concluyen que la intuición de que verdad es correspondencia debería ser extirpada antes que explicada» (ibid., 80). Frente al realismo, o sea, «la idea de que la investigación trata de averiguar la naturaleza de algo en cuanto reside fuera del tejido de creencias y deseos», el pragmatismo sostiene que «no existe algo así como un contexto intrínsecamente privilegiado» (Rorty 1991, 95-96). Así para Rorty «nunca se podrá encontrar una conexión interesante entre el concepto de verdad y el concepto de justificación» (1997, 33), o: «No hay 28

MEJORAR LA HERENCIA RECIBIDA

[...] ninguna razón para pensar que las creencias en mejores condiciones de justificarse sean las más probablemente verdaderas, ni que las menos justificables sean las que con más probabilidad resulten falsas» (1997, 34). Esta es una tesis fundamental de su posicionamiento pragmatista. Se confunden pues quienes «piensan la verdad como algo hacia lo que nos dirigimos, algo a lo que más nos aproximamos cuanta más justificación tenemos» (1997, 35-36). Por ello no hay nada que decir sobre la conexión entre justificación y verdad. Probablemente Rorty no esté pensando en cómo esta falta de conexión entre justificación y verdad afecta a uno de los intentos más serios que la metodología de la ciencia haya llevado a cabo precisamente para establecer tal conexión. Se trata del bayesianismo, la doctrina que suscribe la idea de que, a medida que crece el número de instancias que justifican determinada hipótesis, aumenta la probabilidad de que esta sea verdadera. El bayesianismo, que implementa matemáticamente la noción de la probabilidad inductiva, apoya la idea, criticada por Rorty, de que las creencias mejor justificadas son las más probablemente verdaderas. En Rivadulla (2004, 48-59) he ofrecido razones contra el intento bayesiano de vincular justificación con (probabilidad de) verdad. A continuación voy a ofrecer otro argumento que me parece igualmente concluyente. Se trata de un caso ficticio, un relato virtual de la historia reciente de la ciencia. En su Óptica, 1704, Libro III, Cuestión I, Newton plantea la siguiente pregunta: «¿Acaso no actúan a distancia los cuerpos sobre la luz, y por medio de esta acción doblan sus rayos; y no es esta acción (coeteribus paribus) tanto más fuerte cuanto menor es la distancia?». O sea, Newton plantea la hipótesis de la desviación de la luz por el Sol, sorprendiendo a quienes hoy piensan que se trata de una cuestión puramente relativista. Esto no es nada ficticio. Lo virtual viene ahora: Supongamos 1) que Newton mismo hubiera calculado el valor de esta desviación, llegando a la conclusión de que esta sería de 0,87 segundos de arco (cf. Rivadulla 2003, 220-221), 2) que esta constituyese la primera predicción deducida de la mecánica celeste newtoniana, 3) que Newton hubiese indicado las condiciones observacionales en que esta predicción podría ser comprobada, y que corresponderían a las que Einstein (1917, 67) indicaría para el mismo efecto 230 años después, 4) que en época de Newton estuviera disponible la tecnología que hiciera posible tal comprobación, tal como la había en 1919 cuando Arthur Eddington comprobó la correspondiente predicción Einsteiniana, y 5) que la observación empírica en cuestión se hubiera llevado a cabo. Como el resultado de la comprobación debería haber dado una desviación de la luz por el Sol del orden de 1,7 segundos de arco, o sea, el doble de la predicción de Newton, este se habría visto obligado a consi29

META, MÉTODO Y MITO EN CIENCIA

derar refutada su teoría, pues su primera predicción habría quedado falsada, y quién sabe qué rumbo podría haber tomado la incipiente física teórica. De hecho, una aplicación virtual del Teorema de Bayes a esta situación —virtual porque tal teorema no se conocería sino hasta casi un siglo después de la publicación por Newton de su libro Principios matemáticos de la física— habría dado para la mecánica celeste newtoniana una probabilidad a posteriori cero de ser verdadera. Para el desarrollo de la física fue una gran suerte que esta ficción histórica no fuera real, de modo que la mecánica newtoniana pudo ir acumulando éxito tras éxito durante más de dos siglos. Harto justificada, la creencia de que se trataba de una teoría verdadera se consolidó hasta tal punto de que el determinismo científico se asentó sobre ella. La mecánica newtoniana no se consideraría refutada sino cuando Einstein (1917, 89-90) extendió su certificado de defunción. Lo que significa que una teoría considerada por mucho tiempo harto probablemente verdadera acabó siendo declarada falsa. Esto apoya la idea de Rorty de que es un error establecer una conexión entre justificación y verdad. Pero la mecánica newtoniana podría haber nacido ya muerta, si nuestra historia virtual hubiera sido real, y por tanto sin opciones para justificarse. 2.4.  El convergentismo Para Rorty (1991, 127), la propuesta Peirceana de definir verdad en términos de ‘el final de la investigación’ es un intento desafortunado. El rechazo de la noción de verdad como convergencia se desprende según Rorty (2000, 5, 12) de las posiciones precedentes, antirrepresentacionismo y anticorrespondentismo: «si uno no toma el conocimiento como representación precisa de la realidad, ni la verdad como correspondencia con la realidad, entonces es difícil ser un convergentista». Enlazando las ideas de verdad y justificación y lo que se puede o no se puede conseguir de cada una de ellas, Rorty (2000, 1) sostiene que «lo que los filósofos han descrito como el deseo universal de verdad se describe mejor como el deseo universal de justificación. [...] no se puede aspirar a algo, no se puede pelear por conseguirlo, a no ser que este algo pueda ser reconocido una vez que se tiene. Una diferencia entre verdad y justificación es la que hay entre lo irreconocible y lo reconocible. Nunca estaremos seguros de que sabemos que cierta creencia es verdadera...». ‘Justificación en lugar de verdad’ es uno de los lemas centrales del pensamiento de Rorty. Así aparece con toda claridad cuando Rorty (2000, 1-2) asevera: «por así decir, la verdad es... demasiado sublime para ser reconocida o ambicionada. La justificación es meramente bella, 30

MEJORAR LA HERENCIA RECIBIDA

pero es reconocible, y por tanto capaz de ser buscada sistemáticamente. Con suerte a veces lograremos justificación. Pero en general este logro es solo temporal pues antes o después aparecerán nuevas objeciones a la creencia justificada temporalmente». Una idea muy parecida a esta la he venido defendiendo en Éxito, razón y cambio en física, donde propongo la búsqueda del éxito predictivo en lugar de la verdad como meta de la física. En un diálogo imaginario entre un realista y un instrumentalista arguyo que «la verdad no podemos llegar a conocerla, del éxito, empero, sí somos perfectamente conscientes, cuando lo tenemos, así como del fracaso. Premiemos entonces la búsqueda de éxito en nuestro manejo con la Naturaleza, y abandonemos el romanticismo de la búsqueda de verdad» (Rivadulla 2004, 181). Por cierto, que también el realista Popper, que mantiene que lo que caracteriza a la ciencia como una empresa racional es su convergencia creciente a la verdad, rechaza, al igual que Rorty, la posibilidad de que la ciencia proporcione certeza. De ahí que su realismo científico pueda ser también calificado como conjetural (cf. Rivadulla 1986, 295-301). Que Popper es un realista convergente no puede ser cuestionado. Pero su realismo se frena sensatamente ante la imposibilidad de que podamos alcanzar certeza de la verdad. Rorty (2000, 5, n. 15) añade un argumento más en favor de su rechazo de la idea de convergencia a la verdad, a la que se adhieren Putnam, Apel y Habermas: «El problema con la idea de convergencia al final de la investigación, [...] es que es difícil imaginar un tiempo en el que pareciera deseable dejar de desarrollar nuevas teorías y vocabularios nuevos». Este argumento, que también vengo sosteniendo hace años, equivale a decir que, si alguna vez diéramos con la verdad acerca de un dominio determinado, tendríamos que dar por concluido el proceso de desarrollo conceptual y lingüístico acerca del mismo. Ya no habría nada que añadir sobre el asunto, nada nuevo que decir. Y la verdad acerca del dominio en cuestión permanecería inalterable por los siglos de los siglos hasta la consumación de los tiempos, o sea, entre dos y tres mil millones de años más, que es lo que le queda de existencia a nuestro planeta, y a nuestra especie, o a las especies humanas que puedan sucedernos, si logran desarrollarse hasta el final. Contra Peirce y el ‘realismo interno’ de Putnam, quien mezclando ideas de Peirce y Dewey mantiene una noción de verdad como ‘asertabilidad garantizada en condiciones epistémicas ideales’, Rorty (1997, 23-24) sostiene que «Pragmatistas como Peirce, James y Putnam han dicho que podemos retener un sentido absoluto de ‘verdadero’ identificándolo con la ‘justificación en la situación ideal’: la situación que Peirce denominó ‘la meta de la investigación’. Otros, como Dewey [...], 31

META, MÉTODO Y MITO EN CIENCIA

han sugerido que hay poco que decir acerca de la verdad y que los filósofos deberían limitarse, explícita y autoconscientemente, a la justificación, a lo que Dewey llamó la ‘asertabilidad garantizada’ (warranted assertability). Prefiero la segunda estrategia. Pese a los esfuerzos de Putnam y Habermas por clarificar la noción de ‘situación cognoscitiva ideal’ me parece que esta noción no es más útil que la de ‘correspondencia con la realidad’ o cualquier otra noción que los filósofos han utilizado para proporcionar una glosa interesante de la palabra ‘verdadero’». Lo mejor que le puede pasar a la filosofía es, según Rorty (1998, 2), deshacerse de nociones tales como ‘la naturaleza intrínseca de la realidad’ y la ‘correspondencia con la realidad’. La verdad no es una meta de la investigación. Y en una argumentación que recuerda mucho a Popper, pero de la que extrae la conclusión que este debería haber preferido, de no ser porque Sir Karl es un realista convencido, Rorty (1998, 3-4) afirma: «Una meta es aquello de lo que uno puede saber si se está acercando o alejando. Pero no hay forma de conocer nuestra distancia de la verdad, ni siquiera si estamos más próximos a ella que lo que estuvieron nuestros antecesores. Pues, de nuevo, el único criterio que tenemos para aplicar la palabra ‘verdadero’ es la justificación, y la justificación es siempre relativa a una audiencia». La cuestión para Rorty (1998, 4) es: «¿Cómo sabemos que el mayor poder predictivo y el mayor control del entorno [...] nos aproxima a la verdad, entendida como una representación precisa de cómo son las cosas en sí mismas aparte de las necesidades e intereses humanos?». Pero si la meta de la investigación no es la verdad, si ‘descubrir la verdad’ no es su propósito primordial, ¿Cuál es entonces? La respuesta escueta y lacónica de Rorty (1997, 53) es: «el pragmatismo no cree que la verdad sea la meta de la indagación. La meta de la indagación es la utilidad, y existen tantos instrumentos diferentes como propósitos a satisfacer». 2.5.  El racionalismo y el cientismo Somos los herederos de una retórica tricentenaria acerca de la importancia de distinguir tajantemente entre ciencia y religión, ciencia y política, ciencia y arte, ciencia y filosofía, etc. Esta retórica ha conformado la cultura occidental de tal forma que nos ha hecho ser lo que somos hoy. Así se expresa Rorty (1980, 330-331), que sin embargo concluye: «Pero proclamar nuestra lealtad a estas distinciones no es decir que haya patrones ‘objetivos’ y ‘racionales’ para adoptarlas». ¿Está justificada, sí o no, ‘racional’ y ‘objetivamente’, la instalación en la cultura de Occidente de la idea que ha derivado en algo que po32

MEJORAR LA HERENCIA RECIBIDA

dríamos llamar la ‘tesis de las dos culturas’, pensando en la expresión de Snow? ¿Posee justificadamente la ciencia, sobre todo la ciencia natural, una posición hegemónica sobre el resto de las prácticas culturales e intelectuales? ¿Están las ciencias naturales en especial contacto con la realidad gracias a un acceso privilegiado a ella? ¿Son ellas la única práctica intelectual que nos descubre de manera precisa y fidedigna la naturaleza intrínseca de las cosas, la forma como el mundo es en sí mismo? Precisando la idea con la que iniciamos esta sección, Rorty (1991, 35) señala: «En nuestra cultura, las nociones de ‘ciencia’, ‘racionalidad’, ‘objetividad’, y ‘verdad’ están ligadas entre sí. De la ciencia se piensa que ofrece verdad ‘dura’, ‘objetiva’: verdad como correspondencia con la realidad, la única suerte de verdad merecedora del nombre. [...] Tendemos a identificar la búsqueda de ‘verdad objetiva’ con ‘usar la razón’, y así pensamos las ciencias naturales como paradigmas de la racionalidad. También pensamos la racionalidad como el seguimiento de unos procedimientos dados, o sea, ser ‘metódico’. Así tendemos a usar ‘metódico’, ‘racional’, ‘científico’, y ‘objetivo’ como sinónimos». Este concepto de racionalidad, racionalidad en sentido fuerte del término, «un sentido asociado con verdad objetiva, correspondencia con la realidad, y método, y criterios» (1991, 36-37), es, presiente Rorty, el que anhelan tanto los practicantes de ciencias humanas como el público en general. Nada de extraño, pienso, si en efecto estamos presos en la trampa que la retórica tricentenaria mencionada ha tendido a la cultura de Occidente. Una trampa, un canto de sirena, al que resulta muy difícil sustraerse: «Hay centenares de descripciones útiles de los seres humanos, y ninguna de ellas se puede privilegiar como ‘la imagen científica del ser humano’ o como ‘la imagen filosófica del ser humano’. Pero al parecer es ilimitada la predisposición del público amplio a dejarse engañar por gente que presenta sus tesis como ‘científicas’» (Rorty 2002, 177-178). Frente a esta situación, Rorty (1991, 36-37) propone que «no deberíamos intentar satisfacer este anhelo sino más bien tratar de erradicarlo», por lo que es urgente «evitar la sugerencia de Dilthey de distinguir metavocabularios paralelos, uno para la ciencias del espíritu y otro para las ciencias de la Naturaleza» (1991, 79). En definitiva, de lo que se trata es de «renunciar a la idea de que las ciencias naturales descubren la manera única y determinada en que es realmente el mundo» (Rorty 2002, 102-103). La razón es bien sencilla: «En cuanto empezamos a pensar en términos de descripciones igualmente válidas, la idea de que la naturaleza pueda preferir ser descrita con un vocabulario y no con otro resulta ingenua» (Rorty 2002, 106-107). Si seguimos esta propuesta, entonces el cientismo pierde todo su peso, pues su fuerza reside en que «parte del hecho de que cierto vocabulario descriptivo nos permite predecir y utilizar los poderes causales 33

META, MÉTODO Y MITO EN CIENCIA

de los objetos, y concluye en la afirmación de que ese vocabulario ofrece un mejor entendimiento de dichos objetos que ningún otro» (Rorty 2002, 129). Ahora bien, para Rorty (2002, 102-103) las ciencias «no se distinguen por ningún ‘método de búsqueda de la verdad’ específico. Ni tampoco tienen una relación especial con la realidad de la que no disfruten otras conversaciones (algunas de las cuales, como la jurisprudencia, también llevan a resultados estables y valiosos)». Y añade (2002, 122): «Putnam nos apremia a que renunciemos a la idea de que las ciencias naturales tienen un ‘método’ distintivo2, un método que convierte a la física en un mejor paradigma de la racionalidad que, por ejemplo, la historiografía o la jurisprudencia. En este llamamiento le acompañan filósofos de la física como Arthur Fine, que nos pide que abandonemos el presupuesto de que las ciencias naturales ‘son especiales y que el pensamiento científico no se parece a ningún otro’. Tanto Putnam como Fine ridiculizan la idea de que el discurso de la física está de algún modo más cerca de la realidad que ningún otro ámbito de la cultura». El resultado de la colaboración entre la filosofía post-wittgensteiniana del lenguaje con la filosofía post-kuhniana de la ciencia ha producido en opinión de Rorty (2002, 122) «un desdibujamiento de las fronteras entre las ciencias del espíritu y las ciencias de la naturaleza». Un resultado por el que precisamente yo mismo he abogado en Rivadulla (2010) al mostrar que carece de justificación la idea de que las ciencias de la Naturaleza deben constituir el modelo a seguir por las ciencias humanas y sociales. En su «Response to Jacques Bouveresse», Rorty propone (en Brandom 2000, 151) «crear una cultura en la que la distinción ciencia-poesía no sea explicada en términos de la distinción entre realidad y fantasía, entre «el mundo» y «nosotros», sino más bien [...] en términos de la distinción entre diferentes tipos de necesidades humanas. Esto constituiría un grandioso cambio cultural —tan grande como el que produjo la secularización de la moralidad y de las instituciones sociales— pero que vale la pena intentar». ¡Qué distante Rorty de los planteamientos que, por lo osados, hoy se nos antojan ingenuos de los neopositivistas del Círculo de Viena! La física está pensada para la física, la biología para la biología, y la jurisprudencia para la jurisprudencia. Y ningún vocabulario es hegemónico sobre otro. El progreso en estas disciplinas consiste en hacer cada vez mejor las cosas, o sea, tratar de optimizar lo que, por medio de acuerdos razonados, con ellas nos proponemos y deseamos conseguir. 2. En concreto Hilary Putnam confiesa en su The Many Faces of Realism, 1987: 72: «Para ser franco, mi propio punto de vista es que no existe tal cosa como el método científico».

34

MEJORAR LA HERENCIA RECIBIDA

3.  EL PENSAMIENTO RORTYANO EN POSITIVO

El conocimiento lo entiende Rorty, como ya hemos señalado en las primeras líneas, como una cuestión de conversación y de práctica social, o como ratifica más adelante (1980, 389-390): «estamos en camino de ver la conversación como el último contexto en el que debe ser entendido el conocimiento». Para la perspectiva pragmatista la capacidad predictiva, y no la de aproximación a la verdad, es lo que caracteriza a la práctica social que denominamos ‘ciencia’. Unos cuantos ‘lemas’ al respecto son: «Podemos llamar ciencia a lo que nos permite predecir lo que va a suceder y por tanto influenciar lo que va a ocurrir». O: «la predicción es una condición necesaria para ser colocado en la caja etiquetada ‘ciencia’». Y también: «basta definir simplemente el progreso científico como una habilidad acrecentada para hacer predicciones» (Rorty 1998, 4-5). La idea de progreso a la que se adhiere Rorty es la propuesta por Kuhn: «sirve de ayuda pensar el progreso en la forma que nos instó Thomas Kuhn: como la capacidad para resolver tanto los problemas que resolvieron nuestros antecesores como también problemas nuevos. En este sentido Newton progresó frente a Aristóteles, y Einstein frente a Newton, pero ninguno se acercó a la verdad o a la naturaleza intrínseca de la realidad más que los otros» (1998, 7). En esta concepción coincide Rorty también con Larry Laudan, otro filósofo pragmatista de la ciencia, a quien por cierto no menciona. Ni que decir tiene que esta concepción del progreso científico es la antítesis de la del realismo científico convergente —nada de extraño siendo el anticonvergentismo una de las características principales de la filosofía rortyana— pero sobre este asunto ya vamos a decir bastante en este libro más adelante. El amor a la conversación, es decir, «a comparar las propias opiniones políticas, las teorías científicas o las obras de arte favoritas de uno con las de los demás, y a desembrollar los desacuerdos» (Rorty 2002, 102-103) es lo que sustituye en la filosofía pragmatista al ‘amor a la verdad’. He aquí seguidamente algunas de las características que definen positivamente el pragmatismo: 3.1. Instrumentalismo Ya hemos visto que en la concepción de Rorty el lenguaje no constituye un medio para la representación de las cosas o del mundo. Antes bien el lenguaje es un logro evolutivo que nos proporciona instrumentos «para arreglárnoslas con las cosas» (Rorty 1997, 70-71). ¿Por qué no decir que los vocabularios descriptivos son herramientas en lugar de 35

META, MÉTODO Y MITO EN CIENCIA

intentos de representar?, se pregunta Rorty en (2002, 106-107). El reconocimiento de que el lenguaje, los vocabularios descriptivos, solo nos proporcionan herramientas para tratar con el mundo es lo que nos dificultaba ser esencialistas. Pocas veces encontramos en Rorty una expresión a favor de una posición instrumentalista tan clara como cuando en (2002, 112-113) afirma que «Si las descripciones se consideran pragmáticamente y no representacionalmente, pasan a ser evaluadas tal como evaluamos herramientas y no como evaluamos fotografías. [...] la búsqueda de creencias fiables no es más que una búsqueda de herramientas fiables. Las creencias se evalúan de la misma forma que destornilladores y armas. Las creencias que llamamos ‘ciertas’ son las que parecen más fiables para determinados propósitos que cualquier otra creencia alternativa de las que se han propuesto hasta el momento». Robert Brandom (2000, xiii-xiv) reproduce la idea que tiene Rorty sobre la ciencia, frente al cientismo, en los términos siguientes: «Los vocabularios de las ciencias naturales son herramientas muy exitosas para la prosecución de ciertos propósitos importantes, incluyendo la predicción y el control. Pero para Rorty [...] los vocabularios mejor apropiados para sus propósitos no merecen que se les considere que nos ponen en contacto con las cosas como son realmente en una forma que contrasta con el tipo de «contacto con la realidad» que nos proporcionan otros vocabularios. [...] el objetivo de sus críticas es el cientificismo —la creencia filosófica que toma el éxito práctico de la ciencia como razón para entender que su vocabulario nos pone en contacto más estrecho con la realidad que otros— no la ciencia misma». En opinión de Brandom (2000, ibid.), la alternativa que plantea el pragmatismo de Rorty «frente a una imagen de los vocabularios como representación de cómo son las cosas realmente (una tarea que unos cumplen mejor que otros) es la de los vocabularios como herramientas, empleadas por criaturas naturales en un mundo natural. [...] Diferentes vocabularios nos equipan con creencias que son más o menos útiles en nuestro trato con el entorno en varios aspectos. [...] Nuestras relaciones con nuestro entorno son para Rorty puramente causales, pero no son responsables de la corrección de nuestras afirmaciones sobre cómo las cosas son realmente o sobre cómo las cosas realmente tienen una autoridad sobre las correcciones de nuestras creencias. Confundir estas cuestiones es aprobar lo que Sellars llama ‘el Mito de lo Dado’3». Separándose matizadamente del pragmatismo, el instrumentalismo científico, entendido al modo que vamos a ver más adelante, no con 3. Ver W. Sellars, Empiricism and the Philosophy of Mind, Harvard University Press, Cambridge, MA, reimpr., 1997.

36

MEJORAR LA HERENCIA RECIBIDA

templa la existencia de enunciados del tipo «creo que p». Por tanto no cabe pensar una situación en que se pueda plantear la pregunta acerca de si «creo que p es o puede ser verdadero». El instrumentalismo solo permite expresiones del tipo «considero que tal modelo es mejor que cualquier otro, entre los propuestos actualmente, para los fines perseguidos», y esto, claro está, no tiene nada que ver con la verdad. 3.2. Nominalismo Otro de los rasgos estrechamente ligado a la concepción instrumentalista de Rorty es su posición nominalista, que consiste en una invitación a «reemplazar la noción de una ‘naturaleza intrínseca’ por la de una ‘descripción identificativa’» (Rorty 2002, 124-125). Desde un planteamiento nominalista «entender algo mejor significa tener algo más que decir acerca de ello; ser capaz de engarzar las diversas cosas que se habían dicho previamente de una forma nueva y comprensible. Lo que los metafísicos llaman acercarse más a la verdadera naturaleza de un objeto, los nominalistas lo llaman inventar un discurso en el que se atribuyan predicados nuevos a la cosa anteriormente identificada por predicados antiguos, y luego conseguir que esas nuevas atribuciones sean coherentes con las antiguas de forma que se salven los fenómenos» (Rorty 2002, 124-125). Este es un buen argumento contra la idea kuhniana de inconmensurabilidad. Simplemente no es admisible, contra lo que pretende Kuhn, que los usos del término ‘masa’ en mecánica newtoniana y en mecánica relativista sean inconmensurables entre sí por el hecho de que, como dice Kuhn, ‘masa’ sea ‘convertible con energía’ en esta pero no en aquella. No es leal reprocharle a Newton algo que no podía conocer. A lo que contribuye la teoría de Einstein es a facilitar que nuevos predicados, p. e. ‘convertible con energía’ se añadan a los predicados antiguos identificadores en tiempo de Newton del concepto ‘masa’. Desde luego esto no hace que ambos usos del término ‘masa’ sean inconmensurables entre sí. 3.3. Coherentismo Los pragmatistas son coherentistas, sentencia Rorty (2000, 5). Para él (1991, 106) «Una vez que nos deshacemos de la idea de que la meta de la investigación es la de representar objetos y la reemplazamos por la de que la investigación aspira a hacer coherentes creencias y deseos, entonces... la noción de que solo hay verdad sobre lo que es real queda descartada». O también «El término ‘objetivo’ no es definido por los antiesencialistas en términos de una relación con los rasgos intrínsecos de 37

META, MÉTODO Y MITO EN CIENCIA

los objetos, sino por referencia a la facilidad relativa de lograr consenso entre los indagadores» (Rorty 1997, 48). La perspectiva coherentista se basa en la existencia de comunidades competentes ante las cuales presentar justificadamente nuestras creencias y propuestas, así como promover el acuerdo intersubjetivo entre sus miembros: «si se puede alcanzar acuerdo con otros miembros de una audiencia de este tipo sobre lo que hay que hacer, entonces no hay por qué preocuparse sobre la relación con la realidad» (Rorty 2000, 9). Y en «Response to Jürgen Habermas» (en Brandom 2000, 57-58), Rorty declara: «Para mí, los filósofos que piensan que estamos obligados a la verdad, o que deberíamos valorar la verdad, o que deberíamos tener fe en la verdad, se encuentran comprometidos con una hipóstasis innecesaria y filosóficamente dañina. Esto sucede con los filósofos que se preocupan de si nuestras prácticas de justificación son «indicadoras de verdad» —si los epistemólogos serán capaces de demonstrar alguna vez que la justificación de alguna forma, Dios lo quiera, eventualmente nos llevará a la verdad». El pragmatismo es, reitera Rorty en su «Response to Akeel Bilgrami» (en Brandom 2000, 266), «un intento para que no hipostasiemos el adjetivo ‘verdadero’ y evitemos así tener que preguntar si la ‘verdad’ está o no está ‘al alcance’». 3.4. Razonabilidad La noción de razonabilidad sustituye en el pragmatismo rortyano a la de racionalidad en sentido fuerte, una vez esta ha quedado rechazada por su vinculación con ideas nocivas como verdad, objetividad y método. La razonabilidad, según Rorty (1991, 36-37), «está por un conjunto de virtudes morales: tolerancia, respeto por las opiniones de quienes nos rodean, voluntad de escuchar, confianza en la persuasión antes que en la fuerza. Estas son las virtudes que los miembros de una sociedad civilizada deben poseer para que la sociedad perdure. En este sentido ‘racional’ significa más bien ‘civilizado’ que ‘metódico’. Así construida la distinción entre lo racional y lo irracional no tiene nada que ver en particular con la diferencia entre las artes y las ciencias. Bajo este punto de vista ser racional es simplemente discutir cualquier asunto —religioso, literario, o científico— renunciando al dogmatismo, la defensiva, y la honrada indignación». En este sentido ‘débil’ la racionalidad, o razonabilidad, deja de ser patrimonio exclusivo de las ciencias de la naturaleza. De ahí la propuesta de Rorty (1991, 36-37) de que «deberíamos contentarnos con la segunda concepción de racionalidad, la ‘débil’, y evitar la primera, la ‘fuerte’. Deberíamos evitar la idea de que hay una virtud especial en co38

MEJORAR LA HERENCIA RECIBIDA

nocer de antemano qué criterios hay que satisfacer y en poseer patrones por medio de los cuales medir el progreso». 4.  CONTACTO CON LA REALIDAD Y REPRESENTACIÓN CIENTÍFICA. EL PRAGMATISMO DE VAN FRAASSEN EN FILOSOFÍA DE LA CIENCIA

En los casi treinta años que median entre la publicación de su Imagen científica en 1980 y su último libro, Representación científica, en 2008, Bastiaan van Fraassen ha sido un referente para el antirrealismo en la filosofía contemporánea de la ciencia. La autodenominación de su filosofía ha cambiado entretanto, pasando del empirismo constructivo, con el que se dio a conocer, al estructuralismo empirista de lo que va de siglo veintiuno. El cambio ha sido sobre todo debido al énfasis cada vez mayor que van Fraassen ha venido poniendo en el aspecto estructural, a fin de aportar mayor claridad a la actividad representacional de la ciencia. Pero hay una unidad clara y fuerte en la línea de su p ­ ensamiento. El empirismo constructivo lo caracteriza el propio van Fraassen (1980, 12) como la posición antirrealista según la cual «el objetivo de la ciencia es proporcionarnos teorías empíricamente adecuadas. La aceptación de una teoría solo implica la creencia de que es empíricamente adecuada». Lo que significa que una teoría es empíricamente adecuada es simplemente que ‘salva los fenómenos’, o, lo que es lo mismo, que describe correctamente lo que es observable. «Según el empirismo constructivo —asevera van Fraassen (1980, 197-198)— la única creencia que implica la aceptación de una teoría científica es la de que es empíricamente adecuada, a saber: todo lo que es real y observable encuentra un sitio en algún modelo de la teoría». La ciencia no persigue pues el descubrimiento de verdades acerca de lo inobservable, ya que lo que importa para las teorías científicas es la adecuabilidad empírica, no la verdad o falsedad de lo que puedan decir acerca de lo que hay más allá de los fenómenos observables. En propias palabras de van Fraassen (ibid., 197-198): «La adecuabilidad empírica no requiere verdad. En mi concepción la ciencia solo persigue la adecuación empírica y lo que va más allá de esto no es relevante para su éxito». Que la ciencia solo busque la verdad acerca del mundo empírico, de lo que es real y observable, supone para van Fraassen (1980, 203) «el rechazo decidido de la demanda de una explicación de las regularidades en el curso observable de la naturaleza por medio de verdades acerca de una realidad allende lo que es real y observable, una exigencia que no juega ningún papel en la empresa científica». Ahora bien, los modelos que nos proporciona la ciencia con objeto de ‘salvar’, o, dicho de otro modo, de representar fenómenos concre39

META, MÉTODO Y MITO EN CIENCIA

tos, son entidades abstractas, estructuras matemáticas en el caso de las ciencias teóricas de la naturaleza como la física. La cuestión es entonces cómo tiene lugar este proceso. La respuesta la da van Fraassen (2006 y 2008) en términos idénticos. Para que un modelo sea adecuado o una teoría sea verdadera, el modelo tiene que incorporar los fenómenos observables, o sea la adecuación de un modelo equivale a las condiciones en las que representa de modo preciso su dominio. Por tanto la adecuabilidad empírica de una teoría hace referencia a determinados fenómenos y a cómo estos se relacionan con los modelos matemáticos. Estos modelos son las estructuras de la teoría y se proponen para representar los fenómenos. Así, si el fenómeno se incorpora en el modelo, entonces la teoría es empíricamente adecuada, que incluso sería verdadera si el dominio empírico solo contuviera fenómenos observables. Un modelo de una teoría corresponde a una solución de una ecuación de la teoría. En el caso más simple de que una teoría se reduzca a una sola ecuación, las soluciones de la ecuación serían sus modelos, y las subestructuras empíricas de estos modelos serían los fenómenos empíricos concernidos. O sea, lo misma daría decir que la teoría tiene un modelo que decir que la ecuación en que consiste la teoría tiene una solución. Y esto supone que la teoría representa correctamente el fenómeno. Bas van Fraassen es consciente de los diversos usos, en diferentes contextos, del término ‘modelo’. Así, se queja en (2008, 250), de que «Tal vez hubiera sido mejor que la palabra ‘modelo’ no hubiese sido adoptada por los lógicos para ser aplicada a estructuras que nunca se ofrecieron en la práctica. [...] Pero es demasiado tarde para regimentar nuestro lenguaje a fin de corregir esto, y deberemos ser sensibles al uso en diferentes contextos». Este reproche vale efectivamente para la tradicionalmente llamada concepción estructuralista de las teorías de Joseph D. Sneed. Pero lo mismo se le podría achacar al propio Van Fraassen, quien podría haber tomado para el significado de ‘modelo’ el uso que de este término se hace en física teórica, en lugar de concebir los modelos como soluciones de teorías. La razón está en que no en todas las disciplinas de la física teórica hay teoría. Hay dominios huérfanos de teoría, como por ejemplo en astrofísica o en física nuclear. Los físicos sustituyen la ausencia de teoría por el uso de modelos teóricos: modelos teóricos de atmósferas estelares, modelos teóricos de interiores de estrellas, modelos nucleares, etc. Para la filosofía de las ciencias de la Naturaleza habría sido un alivio contar con un concepto de ‘modelo’ ajustado a su uso en ciencias tan exitosas y tan fundamentales para el desarrollo de la teoría de la ciencia, como la física teórica, por ejemplo cuando hablamos del modelo atómico de Rutherford o de Bohr, o del modelo de campo central en física atómica, o del modelo de capas en física nuclear. Pero también para la economía, etcétera. 40

MEJORAR LA HERENCIA RECIBIDA

En cualquier caso para van Fraassen (2008, 238) los fenómenos observables y los modelos teóricos de la ciencia, que son estructuras abstractas, constituyen los dos polos en torno a los que se desarrolla la actividad representacionista de la ciencia. Los primeros son los sujetos de la representación y los otros el vehículo de la misma. Pero siendo estos, los modelos teóricos, estructuras abstractas o matemáticas —en un sentido no restringido de este término—, la conclusión es que todo lo que conocemos por la ciencia son estructuras. Este énfasis en el carácter estructural del conocimiento científico le lleva a Bas van Fraassen a transitar de su empirismo constructivo inicial hacia un estructuralismo empirista, cuya tesis fundamental es la de que toda representación científica es matemática en el fondo. El estructuralismo empirista se constituye pues como una concepción filosófica acerca de qué o cómo es la ciencia, no sobre qué o cómo es la Naturaleza (van Fraassen 2008, 239) De esta forma van Fraassen se aleja completamente de toda posición realista, pero de tal manera que mientras el empirismo constructivo precedente era declaradamente antirrealista, el estructuralismo empirista final es arrealista. La filosofía de van Fraassen es una genuina filosofía de la ciencia, es decir, una filosofía epistemológicamente aséptica acerca de la ciencia, no una filosofía de la naturaleza. Elude pues el debate epistemológico, evitándolo, evadiéndose de él. Pero esta actitud es indiscutiblemente legítima. «¿Cómo puede una entidad abstracta, una estructura matemática, representar algo que no es abstracto, algo de la naturaleza?». Esta es la cuestión a la que van Fraassen (2008, 240) debe dar una respuesta coherente con su filosofía arrealista de la ciencia. Se trata de un asunto que nos resulta familiar en el contexto de la historia y la filosofía de la física, pues desde Einstein, los grandes físicos teóricos han vuelto una y otra vez sobre ella. Solo la terminología es distinta a la de van Fraassen, pero el fondo de la cuestión sí lo es. Para los físicos teóricos se trata del ‘enigma’ de la eficaz aplicabilidad de la matemática en física. Físicos de la talla de Einstein, Jeans, Dirac, Wigner o Barrow no pudieron sustraerse a la fascinación de este ‘misterio’, y sobre ello reflexiono (Rivadulla, 2004, 65-68 y 2005, 162-167) desde un planteamiento instrumentalista. Mi respuesta era que, como la matemática se aplica en ciencia desde los orígenes mismos del pensamiento filosófico-científico de Occidente, su uso es ‘natural’. Esta posición ciertamente no resuelve el ‘enigma’ en cuesti ón, pero le resta dramatismo a la pregunta. La respuesta que van Fraassen da a la cuestión de cómo una estructura matemática abstracta puede representar algo que nos ofrece la Naturaleza, y que por tanto no es abstracto, se sitúa al margen del debate epistemológico en torno al realismo, pues es arrealista, y me parece muy atractiva. 41

META, MÉTODO Y MITO EN CIENCIA

Es de justicia reseñar no obstante que la pregunta de van Fraassen ya ha sido tratada en filosofía de la ciencia por Gerhard Vollmer (2001), quien se enfrenta a la cuestión acerca de cómo es que la matemática, silente acerca del mundo, puede ser usada tan bien para su descripción. La respuesta de Vollmer es que la matemática es una ciencia de estructuras, que la Naturaleza está estructurada, que estamos adaptados evolutivamente a este mundo estructurado de modo que podemos conocer algunas de estas estructuras y expresarlas por medio de nuestro lenguaje. Esta respuesta sobrepasa empero el marco restringido en que se mueve el estructuralismo empirista de van Fraassen, ya que implica una filosofía de la Naturaleza más allá de una mera filosofía de la ciencia. La posición de Vollmer se puede calificar de realismo metafísico, dados sus compromisos ónticos —la Naturaleza está estructurada— y epistémicos —podemos llegar a conocer estas estructuras— inaceptable desde todo planteamiento pragmatista y empirista acerca de la ciencia. Y es precisamente el realismo metafísico la posición filosófica que van Fraassen rechaza de plano, al igual que hace Rorty. En efecto, según van Fraassen (2008, 242) para el realismo metafísico: 1) «si el modelo matemático representa la realidad lo hace en el sentido de que es una imagen o copia —selectiva a lo más, pero precisa dentro de su selectividad— de la estructura que está ahí»; 2), «hay una única forma esencialmente privilegiada de representar: ‘tallar la naturaleza por sus junturas’» (ibid., 244), y 3) «si no suscribimos esta especie de metafísica y también algo así como una teoría sustancial de la verdad como correspondencia y representación, [...], no podemos dar sentido a nuestra práctica» (ibid., 244). Un planteamiento discutible, superfluo y que se disuelve analizándolo, sentencia van Fraassen. Para hacer frente a esta tarea, van Fraassen (op. cit., 246) entiende la cuestión de cómo una entidad abstracta, una estructura matemática, puede representar algo que no es abstracto, en el sentido de cómo las teorías o los modelos teóricos pueden representar fenómenos cuando estos han sido sometidos a mediciones. En este caso, dice van Fraassen «el modelo teórico y el modelo de datos son ambos estructuras abstractas, con lo que no es difícil entender cómo el último puede ser incorporable en el primero. Un teórico en su escritorio, que compara las ecuaciones de sus teorías con gráficas o funciones de densidad o cosas por el estilo, no es alguien que está en contacto directo con la naturaleza». Esta afirmación de van Fraassen es para mí crucial a la hora de entender cómo el estructuralismo empirista confluye con un pragmatismo, llamémosle científico, de orientación rortyana: la ciencia no especula con un contacto directo con la realidad. Hay no obstante una diferencia apreciable entre van Fraassen y Rorty. Mientras este rechaza de plano la idea de que la mente, la ciencia pueda entrar en contac42

MEJORAR LA HERENCIA RECIBIDA

to con la realidad, van Fraassen elude el problema cuando dice que lo que están en contacto entre sí son el modelo teórico y el modelo de datos. Para aclarar este punto es fundamental entender bien la relación entre modelos teóricos y modelos de datos. Y nada mejor que recurrir a un ejemplo. En Rivadulla (2004, 148-152) analizo los modelos teóricos más relevantes en la historia de la física nuclear desde la perspectiva del papel que juega la existencia de incompatibilidades teóricas en el debate realismo-instrumentalismo en filosofía de la física. (Esta es una cuestión sobre la que vuelvo en este libro y que analizo con especial detenimiento en el capítulo VI, § 6). Ahora solo me interesa indicar que si supusiéramos que un núcleo atómico —formado por N neutrones y Z protones, dando lugar a un número másico A = N + Z de nucleones que se mantienen unidos debido a la interacción fuerte— es algo así como una gota de líquido incompresible, estaríamos hablando del modelo teórico nuclear de gota líquida, cuya ecuación fundamental es la fórmula semiempírica de la masa (FSEM) para la energía de enlace, propuesta por el físico alemán Carl Friedrich von Weizäcker (1912-2007). En varios aspectos la física nuclear proporciona un ejemplo excelente de cómo la teoría científica no entra —ni lo pretende— en contacto directo con la realidad en sí. En primer lugar, el modelo teórico de gota líquida es una herramienta posible, entre otras que también lo son, para manejarnos con los fenómenos nucleares. En segundo lugar, la contrastación empírica de este modelo no tiene lugar directamente con la fenomenología nuclear, sino con modelos de datos. Para ilustrar este punto hagamos el siguiente ejercicio mental: planteemos un sistema de coordenadas, cuyo eje de abscisas corresponde a los números másicos A de los núcleos atómicos, y cuyo eje de ordenadas corresponde a los valores de las diferentes energías de enlace por nucleón B/A (Mega­ electrón voltios, MeV, por nucleón). Como los valores experimentales de las energías de enlace por nucleón en función de los diferentes números másicos de los núcleos son valores discretos, las entradas de estos valores en el diagrama van marcando una curva punteada. Esta gráfica discreta formada por puntos representa un modelo de datos de las energías de enlace por nucleón de los distintos núcleos atómicos con los que vamos experimentando. En este mismo diagrama podemos representar también en forma de línea continua las predicciones correspondientes que se siguen de FSEM. La contrastación empírica del modelo teórico nuclear de gota líquida tiene lugar comparando la curva continua —teórica— con la curva punteada de los valores experimentales, ambas entidades abstractas, y viendo si coinciden o si hay desviaciones significativas y dónde se producen estas en la segunda respecto de la 43

META, MÉTODO Y MITO EN CIENCIA

primera. Así se concluye si el modelo de gota líquida es o no empíricamente adecuado4. Este ejemplo ilustra con meridiana claridad el diagnóstico de van Fraassen (ibid., 252) sobre la relación entre teoría y experiencia (the theory to phenomena relation) como «una incorporación de una estructura matemática en otra. Pues el modelo de datos [...] que representa las apariencias es él mismo una estructura matemática. Se produce ciertamente una ‘contrastación’ de estructuras; pero entre dos estructuras matemáticas, el modelo teórico y el modelo de datos». Además pone de manifiesto cómo es la ciencia, sin entrar en cómo es la Naturaleza, y también proporciona respuesta a la pregunta de van Fraassen (2008, 246): «¿No pierde totalmente el contacto con la realidad una reflexión que se centra en los modelos de datos para evaluar la adecuación ­empírica?». Buscando apurar todos los recursos frente a una posible crítica al estructuralismo empirista, van Fraassen (op. cit., 253) continúa: «¿Cómo podemos responder la cuestión de cómo una teoría o modelo se relaciona con los fenómenos a través de una relación entre modelos teóricos y modelos de datos, ambos entidades abstractas? La respuesta tiene que ser que los modelos de datos representan a los fenómenos. ¿Pero, por qué esto no hace retroceder un paso atrás el problema?». Su postura (op. cit., 258) ante lo que se podría denominar la objeción de la pérdida de la realidad es que, como la única constrastación posible en ciencia es entre modelos de datos y modelos teóricos, la teoría no se contrasta directamente con los fenómenos observables, y por consiguiente «La adecuación empírica no es adecuación pura y simple a los fenómenos, sino a estos en cuanto descritos». Dicho de otra manera «si tratamos de comprobar una afirmación de adecuación, entonces compararemos una representación o descripción con otra —a saber, el modelo teórico y el modelo de datos—» (van Fraassen, op. cit., 259)5. La coincidencia con Rorty, a quien por cierto van Fraassen (2008) no se refiere en ningún momento, es total. Nada tiene de particular pues que para van Fraassen (2006, 545546 y 2008, 259), los enunciados: (A) «la teoría es adecuada a los fenómenos» y (B) «la teoría es adecuada a los fenómenos en cuantos representados, e.d., en cuanto representados por nosotros», sean equivalentes. Y, claro, cómo no, «Que (A) y (B) sean lo mismo para nosotros es una tautología pragmática» que elimina la objeción de la pérdida de 4. J. S. Lilley (2007, Fig. 2.3) ofrece una representación gráfica de esta situación. En ella se observa una discrepancia entre las predicciones del modelo teórico y los núcleos con números mágicos. 5. En el ejemplo que hemos aportado, comparamos las predicciones de FSEM con los datos experimentales correspondientes relativos a los números mágicos.

44

MEJORAR LA HERENCIA RECIBIDA

la realidad. La situación relativa a la cuestión fundamental se resume de manera muy simple: «en un contexto en el que un modelo dado es la representación de alguien de algo, no hay diferencia para esta persona entre la pregunta de si una teoría se ajusta a esta representación y la cuestión de si la teoría se ajusta al fenómeno» (van Fraassen 2006, 546 y 2008, 260). 5. CONCLUSIÓN

El pragmatismo expuesto en este capítulo constituye el trasfondo filosófico en el que se enmarca este libro. Algunas de las afirmaciones que siguen anticipan posiciones y tesis que se justificarán, espero que satisfactoriamente, en el desarrollo del mismo. 1. La práctica científica muestra que la ciencia no entra en contacto directo con la realidad. La existencia de incompatibilidad entre teorías y/o modelos teóricos coexistentes constituye una seria amenaza a todo planteamiento realista en teoría de la ciencia. 2. No se puede justificar que las ciencias naturales proporcionan explicación convincente. Así pues no tienen por qué constituirse en modelos a seguir por las ciencias humanas y sociales. 3. Si una explicación fidedigna no está garantizada, entonces se puede sustituir a la verdad, como meta de la ciencia, por otro objetivo. Aunque también se puede negar que la ciencia persiga un objetivo en absoluto. 4. Esta segunda alternativa conduce a la inactividad. Pero si consideramos que, en lugar de la verdad, lo que la ciencia persigue es el éxito (éxito empírico o predictivo), entonces la actividad científica persiste, si bien guiada por este objetivo modesto. 5. La búsqueda de éxito tiene gran ventaja respecto de la búsqueda de verdad. El éxito, cuando se tiene, se sabe que se tiene. La verdad, si se tiene, no se sabe que se tiene. 6. El logro de éxito, como objetivo de la ciencia, puede ser proclamado como meta tanto paras las ciencias naturales como para las ciencias sociales. 7. Si aceptamos este punto de vista, ambos tipos de ciencias pueden desarrollar autónomamente sus propias metodologías encaminadas al logro del mayor éxito empírico posible. Las ciencias sociales ya no se ven obligadas a mirarse en el espejo de las ciencias naturales. 8. La historia del pensamiento filosófico-científico de Occidente ha estado dominada por la idea de unidad de método: O bien ha dominado la idea de que la inducción es el método científico por excelencia, o bien ha prevalecido la idea de que, siendo este un error 45

META, MÉTODO Y MITO EN CIENCIA

filosófico, el método científico por antonomasia es el del test deductivo de hipótesis. 9. Pero no todas las ciencias naturales se guían por el test deductivo de hipótesis, restringido principalmente a las ciencias teórico-experimentales de la Naturaleza. 10. El problema de Popper no reside empero en la exigencia de falsabilidad, pues es claro que este es un requisito ineludible en física teórica, sino en no haberse percatado que el método científico es mucho más abarcante que la simple demanda de testabilidad deductiva. 11. Queda pues abierta la puerta para una distinción entre Ciencias Observacionales y Ciencias Teóricas de la Naturaleza, y es conveniente explorar qué repercusiones tiene esta distinción para la idea de unidad de método, ahora exclusivamente en el ámbito de las ciencias de la Naturaleza. 12. Un enfoque pragmático-empirista en epistemología es a todas luces el más sensato desde una perspectiva filosófica a escala humana.

46

II FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

1. INTRODUCCIÓN

El origen de la filosofía actual de la ciencia en los primeros años treinta del siglo pasado se vincula con una cuestión que interesó tanto a los miembros del Círculo de Viena como a su antagonista principal, Karl Popper. Se trataba del establecimiento de un criterio de demarcación entre lo genuinamente científico y lo no científico. Como es harto conocido, la primera gran batalla, o quizás la primera serie de escaramuzas en esta disputa, acabó con la victoria de Popper, si bien más por abandono de los neopositivistas del campo de batalla, a lo que contribuyó en no poca medida el propio rechazo de Carnap de su primer ‘absolutismo idealista de lo dado’, que por el éxito de aquel. Aunque no hay que olvidar que Popper cubría su retaguardia escudado en la figura de Albert Einstein. En todo caso el resultado fue que la metodología del racionalismo crítico acabó resultando atractiva para amplios sectores de las ciencias naturales y sociales. Karl Popper es probablemente el filósofo de la ciencia más citados por los científicos. Le sigue muy de cerca Thomas Kuhn. Esta victoria ocultaba empero algunos aspectos filosóficamente discutibles. La afirmación de Popper de que los dos problemas fundamentales de la epistemología eran el de la demarcación y el de la inducción —tal y como refleja el título de su primer libro escrito a principios de los años treinta, previo a la publicación en 1935 de su Lógica de la investigación científica— y el reconocimiento de ambos como las dos caras del mismo problema, resultaba coherente con su postulación del criterio de falsabilidad como criterio de demarcación a partir de la solución negativa del problema de la inducción: la inducción no existe, la probabilidad inductiva es imposible. Por otra parte, como Popper proclama en sendas 47

META, MÉTODO Y MITO EN CIENCIA

notas de 1968 y 1972 a la tercera edición alemana de 1968 y a la correspondiente edición inglesa de su Lógica de la investigación científica, esta solución negativa del problema de la inducción era compatible con una respuesta positiva en la que la metodología crítica de la ciencia se justificaba desde una posición epistemológica de tipo realista: la eliminación crítica de errores en la ciencia aproxima a esta a la verdad, que es su meta. El racionalismo crítico incorporaba al realismo científico y la filosofía popperiana se transformaba en una teoría compacta y coherente de la ciencia. El rechazo de la inducción a favor de una metodología crítica de la ciencia tuvo empero consecuencias muy serias tanto para la propia filosofía popperiana como para la teoría contemporánea de la ciencia. Por otra parte, la defensa por Popper de una posición de realismo científico en epistemología contribuyó de modo decisivo al debate epistemológico, que no solo no ha perdido fuerza desde entonces, sino que se puede afirmar, sin faltar mínimamente a la verdad, que está más vivo y abierto que nunca. En las páginas que siguen cuestionaremos la viabilidad de la propuesta metodológica de Popper, lo que nos permitirá enriquecer notablemente el espectro de lo que llamamos ‘método científico’. Esto sucederá al hilo de la distinción entre contexto de descubrimiento y contexto de justificación, que suele atribuirse con toda justicia a Hans Reichenbach, quien la presentó en su libro de 1938, Experience and Prediction, aunque ya había sido anticipada por Karl Popper en § 2 de su Logik der Forschung, 1935. Para ambos solo el contexto de justificación era relevante para la filosofía de la ciencia. Y a partir de ellos los filósofos de la ciencia descuidaron todo lo que tenía que ver con el contexto de descubrimiento. Ahora bien, el desinterés de la filosofía oficial de la ciencia por este contexto, que afectó en particular a la abducción y también a la preducción como prácticas o estrategias complementarias de la creatividad científica, debe considerarse un grave error. Y eso que una especie de revolución filosófico-científica silenciosa se incubaba y desarrollaba con plena transparencia y publicidad ante los ojos de los filósofos oficiales de la ciencia, que estos fueron incapaces de percibir: la ciencia computacional de la ciencia, la ciencia computacional del descubrimiento científico. En efecto, mientras la filosofía académica de la ciencia se desentendió con la mayor ligereza del contexto de descubrimiento científico, los científicos computacionales vieron en él un filón abierto para el desarrollo de su actividad. Si bien, eso sí, hubieron de transcurrir al menos cuarenta años hasta que la ciencia cognitiva y la inteligencia artificial (IA) empezaran a fijar sus ojos en él. A partir de ese momento se desencadena un vendaval en apoyo del contexto de descubrimiento que tam48

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

poco esta vez los filósofos de la ciencia lo notaron ni siquiera como una ligera brisa. El objeto de la mayor parte de las críticas fue Karl Popper, en alguna ocasión también Hans Reichenbach. Los científicos computacionales acabaron enmendando la plana a los filósofos de la ciencia: el descubrimiento científico está tan sometido a la racionalidad como lo está la verificación (la contrastación empírica). 2.  LA FILOSOFÍA DE LA CIENCIA DE POPPER Y EL TALÓN DE AQUILES DE LA METODOLOGÍA FALSACIONISTA. CIENCIAS OBSERVACIONALES DE LA NATURALEZA

Metodología de la ciencia y epistemología son dos partes normalmente separadas de la filosofía de la ciencia. La primera concierne los aspectos y problemas más característicos de la filosofía de la ciencia, tanto los sincrónicos como los diacrónicos, los sistemáticos como los dinámicos, a saber: la estructura y clasificación de conceptos, la de leyes y teorías, el problema de la demarcación, las teorías de la explicación científica, el debate en torno al método y el desarrollo o cambio científico, el descubrimiento científico, etc. Por su parte la epistemología se centra hoy en día en la dilucidación del debate básico más que bimilenario entre realismo e instrumentalismo, un debate cuyo origen en el pensamiento científico de Occidente se puede situar en el problema de los planetas de Platón, y que sin desmayo ha estado presente en la filosofía occidental en todos estos siglos. A lo largo de este tiempo se han desarrollado múltiples versiones de realismo, desde el esencialismo hasta las versiones contemporáneas más sofisticadas del realismo científico, mientras el polo opuesto ha dibujado una línea de unión difuminada entre instrumentalismo y pragmatismo. Ahora bien, sería incorrecto pretender que metodología de la ciencia y epistemología se han desarrollado durante este tiempo como compartimentos estancos sin relación mutua. Nada más lejos de la realidad. En general, durante su etapa de desarrollo y consolidación hasta los años ochenta, la metodología de la ciencia ha estado orientada por una epistemología más o menos subyacente. En el caso de Carnap, por ejemplo, el neopositivismo (empirismo lógico) ha guiado claramente su metodología de la ciencia, aunque con el devenir de los años su actividad filosófico-científica la centró Carnap en la metodología. En el caso de Kuhn el antirrealismo subyace a sus investigaciones metodológicas, mientras que Lakatos, que apuesta preferentemente por una metodología de los programas de investigación científica, orienta su propuesta desde una perspectiva meliorista que tiende a favorecer a aquellos programas empírica y teóricamente más progresivos. Y mientras la aversión a la metodología encaja perfectamente con el anarquismo epistemológi49

META, MÉTODO Y MITO EN CIENCIA

co en el caso de Feyerabend, en el estructuralismo de Sneed-­StegmüllerMoulines la actividad filosófica parece exclusivamente metodológica, estando en cuestión si hay una posición epistemológica de carácter instrumentalista en el fondo, o si el estructuralismo es susceptible de interpretación realista. Finalmente, para Larry Laudan la metodología de la ciencia se vincula estrechamente con una epistemología pragmatista próxima al instrumentalismo científico. Hay en todo caso un filósofo de la ciencia para quien metodología y epistemología tienen igual peso. Se trata naturalmente de Karl Popper. Popper destacó como metodólogo de la ciencia en los años treinta del siglo pasado. Su falsacionismo metodológico encarna claramente su posición en filosofía de la ciencia, de tan gran influencia en el pensamiento científico de Occidente. Pero incluso en su caso su posición metodológica estuvo motivada originariamente por un planteamiento epistemológico antipositivista, antifundamentacionista, y por poco que se esté al corriente de lo que se cuece en la filosofía actual de la ciencia, por una posición antiinductivista que le acompañará toda su vida. El origen de la filosofía popperiana de la ciencia se sitúa en el marco del debate en torno al criterio de demarcación entre ciencia y no ciencia. Como es sabido, la propuesta de Popper consiste en proponer la falsabilidad como criterio de demarcación y la metodología falsacionista, también conocida como metodología del test deductivo de hipótesis, como práctica científica —teoría del método deductivo de contrastación de hipótesis la denomina en su Lógica de la investigación científica (LIC) § 1—. En esencia esta metodología científica se concreta en la exigencia de pruebas rigurosas, tests severos diseñados con intención declarada de falsar las hipótesis o conjeturas de partida. Es un refinamiento del método conocido como ensayo y error. Popper declara este procedimiento como método característico de la ciencia experimental, aplicable incluso hasta donde sea posible a las ciencias sociales. La aplicación de esta metodología a la generalidad de la ciencia se conoce como metodología crítica y como racionalismo crítico el marco filosófico que la acoge. El problema que en principio afectaba a la metodología crítica de la ciencia de Popper era que el énfasis aparentemente excesivo que este parecía poner en los tests deductivos de hipótesis convertía su metodología científica en una actividad ‘negativa’ centrada en la búsqueda de errores, pero sin más justificación u horizonte que la mera acción de desvelar errores en ciencia. Así, mientras la metodología neopositivista se arriesgaba a convertir la ciencia en una práctica de verificaciones fáciles —es fácil encontrar verificaciones de nuestras teorías, si es eso lo que buscamos, le reprocha Popper—, un falsacionismo ‘contumaz’ corría el riesgo de convertir la metodología científica en una actividad desenfrenada de búsqueda de errores. Faltaba una orientación. La averiguación 50

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

sin más del grado de corroboración de las hipótesis testadas, una medida que no implicaba expectativas de fiabilidad futura, hacía de la metodología de la ciencia una actividad crítica a ciegas. El realismo científico popperiano se encuentra ya de modo incipiente en LIC § 85 —con anterioridad pues a su encuentro con Tarski— donde Popper anticipa la idea, presente en toda su obra filosófica, de que la búsqueda de verdad es lo que constituye el motor de la actividad científica. Pero la conexión de su doctrina epistemológica, el realismo científico, con su metodología de la ciencia, el falsacionismo antiinductivista, y su correspondiente metodológico, la corroboración crítica, la lleva a cabo Popper en 1968, en una nota al final de la tercera edición alemana del año 1969 de LIC, que incluirá también en la de 1972 en su Logic of scientific discovery (LSD). Si bien ambas notas, la alemana de 1968 y la inglesa de 1972, no son idénticas1. Como consecuencia de este encuentro entre metodología y epistemología, la solución negativa de Popper del problema de la inducción —las teorías no son justificables ni como verdaderas ni como probables2— resulta compatible con la solución positiva consistente en que «podemos justificar la preferencia por determinadas teorías a la luz de su corroboración, e.d., del estado momentáneo de la discusión crítica de las teorías competidoras desde el punto de vista de su proximidad a la verdad»3. Imre Lakatos jugó un papel decisivo a la hora de establecer este puente entre metodología y epistemología en la filosofía popperiana de la ciencia. Efectivamente, en esta debía funcionar una especie de ‘principio inductivo’ que conectara su metodología de la ciencia con el realismo convergente. Como indico en Rivadulla (1991, 66), y en esto sigo a Lakatos (1968, § 3.3), «Tal principio no es otro que el supuesto metafísico de que un incremento de corroboración es una señal de aumento de verosimilitud, de aproximación creciente a la verdad. Este principio, 1. Tal nota está ausente en la versión española, pues esta procede de la primera edición inglesa de 1959 de LSD. 2. En la nota de 1972 a la edición inglesa la solución negativa dice «No podemos nunca justificar racionalmente una teoría, esto es, nuestra creencia en la verdad de la teoría o en su probabilidad de ser verdadera». 3. Este texto corresponde a la nota alemana de 1968. Sin embargo en la de 1972 de la edición inglesa Popper se explaya: «A veces podemos justificar racionalmente la preferencia por una teoría a la luz de su corroboración, esto es, del estado presente de la discusión crítica de las teorías competidoras, que son discutidas críticamente y comparadas desde el punto de vista de la determinación de su proximidad a la verdad (verosimilitud). El estado actual de la discusión puede, en principio, ser presentado en forma de sus grados de corroboración. El grado de corroboración no es, empero, una medida de verosimilitud (tal medida tendría que ser intemporal), sino solo un informe de lo que hemos sido capaces de averiguar hasta un determinado momento sobre las afirmaciones comparativas de las teorías competidoras, juzgando las razones disponibles que han sido propuestas en pro y en contra de su verosimilitud».

51

META, MÉTODO Y MITO EN CIENCIA

incorporado por Lakatos a su noción de fiabilidad o credibilidad, facilitaría la estimación del rendimiento futuro de las teorías, su adecuabilidad para la supervivencia, ya que una mayor verosimilitud comporta una mejor capacidad de supervivencia»4. La metodología popperiana de la ciencia sigue el modelo siguiente: 1. Constatación de un problema (P1), 2. Propuesta de una teoría como solución tentativa (ST), 3. Eliminación de errores por medio de la discusión crítica de la teoría (EE), 4. Surgimiento de nuevos problemas a raíz de los pasos precedentes (P2). De dónde procede este planteamiento —del que encontramos una versión p. e. en Popper (1994b: 159)— es una cuestión cuya respuesta exige tomar en consideración el contexto filosófico en el que se desarrolla la metodología popperiana de la ciencia y su epistemología. Veamos. El objeto de la discusión crítica de una teoría es intentar refutarla, o al menos poner en evidencia que no es capaz de resolver un determinado problema que pretende solucionar. El método de la ciencia consiste en buscar hechos que puedan refutar a la teoría, asevera Popper (1945/1966, 260), y a esto es a lo que llamamos ‘testar una teoría’. Más aún, reconoce Popper (1994b, 161): «la discusión crítica justifica la afirmación de que la teoría en cuestión es la mejor disponible, o, en otras palabras, la que más se aproxima a la verdad». O como continúa más adelante: «la idea de verdad (de una verdad ‘absoluta’) juega un papel muy importante en nuestra discusión. Es nuestra idea regulativa principal. Aunque nunca podemos justificar la afirmación de que hemos alcanzado la verdad, a menudo podemos aportar muy buenas razones, o la justificación, de por qué una teoría debería ser considerada que está más próxima a ella que otra». Una idea que se aplica igualmente a las ciencias naturales y sociales. El realismo subyace pues a la totalidad de la ciencia y está en ella desde el inicio mismo de la filosofía popperiana, pues aunque no constituya una tesis explícita en LIC, sin embargo, señala Popper (1983, 81), hay mucho de él allí. Realismo y unidad de método son tesis centrales de la filosofía popperiana de las ciencias. Pero además el realismo justifica también la actitud crítica en ciencia. Es fácil entender entonces que las cuestiones acerca de 1) cómo se justifica la metodología crítica como práctica científica, 2) por qué, y a pesar de que las teorías no pueden verificarse por razones lógicas, debemos buscar su refutación empírica y 3) por qué debemos otorgar nuestra preferencia a una metodología crítica de la ciencia, la metodología del ensayo y el error, de conjeturas y refutaciones, obedecen al hecho de que para Popper buscamos la verdad y la mejor forma de acercarnos a la 4. Según afirma Lakatos (1974: 270 n. 122) la nota de Popper es una respuesta a su artículo de 1968.

52

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

verdad es por eliminación de errores en la ciencia. En definitiva, pues, la actitud crítica en ciencia proporciona los medios metodológicos que mejor se adecúan a la epistemología del realismo científico convergente5. La actitud crítica del camino a la verdad no verificable, la exigencia de falsabilidad concluyente, determina una posición de realismo científico conjetural —las hipótesis o teorías nunca llegan a superar el estatus de meras conjeturas— que señala hacia la falibilidad de la ciencia. Esto lo indica claramente Popper (1945, 375) quien mantiene que «la falibilidad de nuestro conocimiento —o la tesis de que todo conocimiento es conjetural— [...] no puede ser argüida a favor del escepticismo o del relativismo. Del hecho de que podemos errar y de que un criterio de verdad que pudiera salvarnos del error no existe, no se sigue que la elección entre teorías es arbitraria o no racional, que no podemos aprender o aproximarnos a la verdad, que nuestro conocimiento no puede crecer». Popper concibe como falibilismo «el punto de vista, o la aceptación del hecho, de que podemos errar, y que la búsqueda de certeza (o incluso la búsqueda de alta probabilidad) es una búsqueda errónea. Al contrario, la idea de error implica la de verdad como la meta que no podemos alcanzar. Implica que, aunque podemos buscar la verdad, y aunque podamos encontrar verdad (como creo que conseguimos en muchas ocasiones), no podemos tener nunca certeza de que la hemos encontrado». Este punto de vista es plenamente compatible con la recomendación de «que debemos buscar nuestros errores —o, en otros términos, que debemos tratar de criticar nuestras teorías»—. Pues «La crítica parece ser la única forma de detectar nuestros errores y de aprender de ellos de forma sistemática». Sin embargo, desviándose rotundamente de una posición rortyana en la que virtualmente pudiera incurrir, Popper (Addendum 1, § 6, 376) concluye que «En todo esto la idea de aumento de conocimiento —de aproximación a la verdad— es decisiva. Intuitivamente esta idea es tan clara como la idea misma de verdad. Un enunciado es verdadero si se corresponde con los hechos. Está más próximo a la verdad que otro enunciado si se corresponde con los hechos de manera más cercana que el otro». La concepción de Popper sobre la racionalidad científica puede resumirse entonces en los puntos siguientes: 5. Conviene sin embargo señalar, aunque sea a pie de página, que la propuesta de experimentos cruciales con la intención declarada de falsar teorías, de mostrar que son falsas, no es prerrogativa exclusiva del realismo científico, y de rechazo, del racionalismo crítico popperiano. Pues si lo que pensáramos es que un experimento crucial tiene como objeto averiguar de modo riguroso la adecuabilidad empírica de una teoría, es decir, contrastar si la teoría salva los fenómenos, en sentido de Van Fraassen, entonces una concepción no realista de la ciencia, tanto si es meramente empirista, como si es instrumentalista —posiciones epistemológicas en todo caso marcadamente antirrealistas— también postulan una metodología crítica de pruebas severas de las teorías.

53

META, MÉTODO Y MITO EN CIENCIA

1.  Identificación de la actitud crítica con la actitud científica (Popper 1963, 50). 2.  La discusión crítica justifica la afirmación de que la teoría preferida es la mejor disponible, es decir la que se acerca más a la verdad (Popper 1994b, 161). 3. La teoría más ajustada se obtiene por eliminación de aquellas que lo son menos (Popper 1963, 52). 4.  No hay procedimiento más racional que el método de ensayo y error, es decir de conjeturas y refutaciones (Popper 1963, 51). 5.  La creencia en la autoridad de la verdad objetiva es indispensable (Popper 1963, 375). Ahora bien, si el método de conjeturas y refutaciones —que según Popper se aplica indistintamente en ciencias naturales y sociales— se muestra en el hecho de que «Los científicos que participan en la discusión crítica tratan constantemente de refutar la teoría, o al menos su afirmación de que puede resolver sus problemas» (Popper 1994b, 160), surge la duda de si el método científico popperiano no es quizás demasiado estricto. Hilary Putnam (1981, 197-198) se pregunta por ejemplo si una condición necesaria para la aceptabilidad de una teoría es que esta haya superado un test Popperiano, es decir si un enunciado sería racionalmente aceptable, «si y solo si está implicado por una teoría que pueda ser aceptada sobre la base de un test popperiano». Su respuesta (p. 198) es que «tal concepción de racionalidad es demasiado estrecha incluso para la ciencia. Pues excluiría la aceptación de la teoría de Darwin de la evolución por selección natural. [...] La teoría de la selección natural no es altamente falsable; no implica predicciones definidas tales que si resultan equivocadas entonces la teoría está refutada». La cuestión pues es si la filosofía de la ciencia de Popper no adolece de un cierto fetichismo del método, que Putnam (1981, 196 ss.) le reprocha. Popper (1945, 375) reconoce en efecto que la teoría de la evolución de Darwin no es comparable con la teoría de Newton porque carece de leyes universales. Y en (1972a, § 18) afirma que el darwinismo no es una teoría completa. Pero la expresión más clara contra el carácter científico de la teoría de Darwin es su afirmación (Popper 1974a, 136) de que el darwinismo no es una teoría científica, sino una teoría metafísica, porque no es testable. Además en (1974b, 1084) Popper afirma que el darwinismo «tiene muy poco contenido y muy poco poder explicativo, y dista por tanto de ser satisfactorio». Pero contradiciendo a Popper, Hilary Putnam considera que «aceptamos la teoría de Darwin de la evolución por selección natural como lo que Peirce ha llamado una ‘abducción’, o como se ha llamado reciente54

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

mente un inferencia a la mejor explicación6», e.d., «porque proporciona una explicación plausible de una enorme cantidad de datos». Nos enfrentamos pues al siguiente dilema: O bien aceptamos el criterio de demarcación de Popper, con lo que excluimos del dominio científico a la teoría de la evolución de Darwin, y en general a todas las ciencias observacionales de la Naturaleza, como la paleontología y las ciencias de la Tierra —en las que nos centraremos detenidamente más adelante—, o no lo aceptamos, en cuyo caso ampliaríamos el dominio de lo que cae bajo el concepto de ciencia. En este caso rechazaríamos el fetichismo popperiano del método, y con ello la idea de la unicidad del método científico, al menos entendida esta desde la perspectiva de unidad de método en ciencias naturales y ciencias sociales que Popper quiere imprimirle7. Es verdad que Popper (1994, 17) reconoce que las revoluciones Copernicana y Darwiniana fueron claramente científicas «por cuanto cada una de ellas desplazó a una teoría científica dominante: una teoría astronómica dominante y una teoría biológica dominante». Y que en (1982, 56) revisa sus anteriores afirmaciones al admitir que «la teoría original de la evolución [esto es, la teoría de la adaptación, A. R.], es una teoría científica. Es un programa científico de investigación, un programa falsado». Pero incluso si aceptamos que Popper ha modificado sus ideas previas y que en los últimos años se convenció de que el darwinismo, o al menos parte de él, es claramente científico, esto aporta solo la mitad de la solución del problema. Lo que cambió en el punto de vista de Popper es que parte del darwinismo es falsable. Lo que permaneció intocado es el núcleo de su metodología de la ciencia, esto es, la idea de que el test deductivo de hipótesis es el método científico. Y sin embargo las ciencias observacionales de la Naturaleza no aplican el test deductivo popperiano de hipótesis. Veamos. En «Philosophy and Physics» Popper (1994a, 112) había afirmado que «la ciencia es capaz de resolver problemas filosóficos y que la ciencia moderna en alguna medida tiene algo importante que decirle al filósofo sobre algunos de los problemas clásicos de la filosofía». ¿Qué habría pensado Sir Karl si hubiese conocido la siguiente confesión del geólogo John Sclater (2001, 137. Mis cursivas, A. R.)?: «He perdido mi creencia en que los avances en geología ocurren sobre todo como resultado del test de hipótesis. Ni Harry Hess ni Tuzo Wilson testaban hipótesis. Más bien creaban conceptos nuevos a partir de la síntesis de una 6. La abducción o inferencia a la mejor explicación como práctica o estrategia fundamental de descubrimiento científico va a recibir un tratamiento muy completo en el capítulo IV. 7. Discuto ampliamente la tesis popperiana de la unidad de método para las ciencias naturales y sociales en Rivadulla (2012b, 66-72).

55

META, MÉTODO Y MITO EN CIENCIA

información observacional que se imponía pobremente. Ellos pensaban que sus conceptos eran válidos porque explicaban los patrones que reconocían en muy diferentes grupos de datos». Sclater (2001, 138) concluye que «La geología es una disciplina observacional [...] Así, al contrario de la física o la química, la geología no es una disciplina experimental. Los geólogos suelen observar y describir fenómenos antes que realizar experimentos o testar hipótesis». Entre los geólogos el interés por los aspectos metodológicos de su disciplina no es raro. Dan McKenzie (2001, 185-186), uno de los creadores entre 1967 y 1968, juntamente con Robert Parker y Jason Morgan, de la teoría de placas tectónicas, reconoce que la diferencia fundamental entre algunas ramas de la física y las ciencias de la Tierra reside en el hecho de que mientras para las ciencias físicas la experimentación contribuye de manera esencial al desarrollo de nuevas teorías, «el test de hipótesis en su forma estricta no es una actividad familiar para la mayoría de los geólogos», «yo no describiría las actividades de Jason y las mías de 1967 como test de hipótesis». Precisamente la voluntad de destacar la teoría de la evolución de Darwin por selección natural como una de las teorías más exitosas de la ciencia llevó a Hilary Putnam a recuperar la noción Peirceana de abducción. Contra la teoría popperiana de la racionalidad científica, que lleva a rechazar como no científica a la hipótesis darwiniana, Putnam (1981, 198-200) afirma: «Aceptamos la teoría de la selección natural no porque ha sobrevivido a un test popperiano, sino porque proporciona una explicación plausible de un número enorme de datos, porque ha sido fértil al sugerir nuevas teorías y al conectar con desarrollos en genética, biología molecular, etc., y porque las teorías alternativas sugeridas en el presente o bien han sido falsadas o parecen completamente implausibles en términos del conocimiento subyacente. En breve, aceptamos la teoría darwiniana de la evolución por selección natural como lo que Peirce llamó una ‘abducción’, o como se ha llamado recientemente, una ‘inferencia a la mejor explicación’». Naturalmente las ciencias observacionales aplican la contrastación empírica. Esto quiere decir que el test de hipótesis también juega un papel en las ciencias de la Tierra. Así, en relación a la teoría de las placas tectónicas, Sclater (op. cit., 144) afirma que el proceso de descubrimiento en las ciencias de la Tierra procede en tres pasos: «El primero implica el origen del concepto; el segundo, la construcción de un modelo en el que las predicciones pueden ser comparadas con un conjunto de observaciones, el tercero la aplicación del modelo a otro conjunto de datos». Este paso tercero corresponde al test de hipótesis. Pero contrariamente a las ciencias experimentales, como la física, donde el test de hipótesis tiene lugar a través del control experimental de las consecuen56

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

cias deducidas matemáticamente de las hipótesis aceptadas, en las ciencias observacionales de la Naturaleza el test de hipótesis se produce con el hallazgo de una evidencia nueva que confirma o refuta la hipótesis conjeturada. Es lo que se conoce como prueba de evidencia adicional. En la búsqueda de datos nuevos consiste la actividad principal de control de las hipótesis propuestas. En fin, si Popper decidiera mantener un punto de vista coherente con su idea expresada en su artículo sobre las relaciones entre física y filosofía se vería forzado a concluir que su metodología del test deductivo de hipótesis no es generalizable a la totalidad de la ciencia. Aceptar que las ciencias de la Tierra son ciencias observacionales supone admitir la relevancia del método abductivo Peirceano en el descubrimiento científico. Si admitimos la existencia de las ciencias observacionales, cuyo estatus científico viene dado por el mayor peso que en ellas tiene lo que filosóficamente conocemos como contexto de descubrimiento, resulta entonces que el rechazo del mismo no parece justificado. 3.  LA FILOSOFÍA INOFICIAL DE LA CIENCIA FRENTE A LOS ORÁCULOS OFICIALES

El rechazo de la inducción por Popper supuso el de toda metodología interesada por la forma en que las ideas llegan a la ciencia, esto es, el desinterés por el contexto de descubrimiento científico. Entendida la inducción desde las primeras líneas de (1935, § 1) en sentido tradicional como el paso de enunciados singulares a universales, es decir como una inferencia conservadora de la verdad y al mismo tiempo ampliadora del contenido, su rechazo comportaba el de toda forma de razonamiento ampliativo. Tradicionalmente desde Aristóteles la inducción había sido entendida de esta manera, lo que hacía concebir la esperanza de que la generalización inductiva permitiera acceder a, o descubrir, leyes y principios de la ciencia. Es por esta razón que, para Popper, el problema de la inducción se puede formular «como la cuestión sobre cómo establecer la verdad de los enunciados universales basados en la experiencia». Para su rechazo de la idea de aprendizaje inductivo a partir de la experiencia Popper se apoyaba principalmente en David Hume (1711-1776), quien en el Libro I, Parte III, Sección VI, de Treatise of Human Nature sentenciaba: «no puede haber argumentos demostrativos capaces de probar que aquellos ejemplos, de los que no hemos tenido experiencia, se parecen a aquellos, de los que hemos tenido experiencia». Opinión que corrobora en Sección IV, Parte II, de An Enquiry Concerning Human Understanding: «Las dos proposiciones siguientes están muy lejos de ser la misma. He constatado que este objeto siempre ha ve57

META, MÉTODO Y MITO EN CIENCIA

nido acompañado de tal efecto, y Preveo que otros objetos, similares en apariencia, vendrán acompañados de efectos semejantes. Estoy dispuesto a conceder que la una se pueda inferir de la otra. Y de hecho sé que esta inferencia siempre se hace. Pero si se insiste que la inferencia en cuestión procede de una cadena argumentativa, me gustaría que se implementara tal razonamiento. La conexión entre estas proposiciones no es intuitiva. Se requiere un medio que permita a la mente trazar tal inferencia, caso de que proceda por razonamiento y argumentación. Cuál sea este medio, confieso que supera mi capacidad de comprensión, e incumbe presentarlo a aquellos que afirman que existe realmente y es el origen de todas nuestras conclusiones acerca de hechos». Este antiinductivismo de teorías había sido anticipado en el siglo xx tanto por Pierre Duhem (1906, 327 y 334): «Es imposible construir una teoría utilizando un método puramente inductivo», como por Albert Einstein (1936, 276): «No existe un método inductivo que nos conduzca a los conceptos fundamentales de la física». Además la inducción aristotélica había venido siendo ya criticada por Duns Scoto y Tomás de Aquino en el siglo xiii y por Francis Bacon en el xvii (cf. Rivadulla 2004, 34). Para Popper (1959, Addendum, 1972) la solución del problema lógico y metodológico de la inducción consiste en que «Nunca podemos justificar racionalmente una teoría, es decir, nuestra creencia en la verdad de la teoría o en su probabilidad de ser verdadera». Esta solución (negativa) del problema de la inducción fue compartida, entre otros por John Wisdom (1952, 49): «No hay ningún mecanismo racional para pasar de premisas observacionales a una generalización inductiva. Esta hipótesis solo se alcanza por un salto mental». Y el positivista lógico Victor Kraft (1950, 145) sostenía que no existe ninguna inferencia inductiva específica lógicamente legítima de lo particular a lo general. Ha habido no obstante posturas menos radicales en torno a la aplicación metodológica de la inducción. Este es el caso, por ejemplo, de Isaac Newton, quien en la Regula Philosophandi IV de su Principios matemáticos de la física, 16878, mantiene que «las proposiciones obtenidas por inducción a partir de los fenómenos han de ser tenidas, pese a las hipótesis contrarias, por verdaderas o muy aproximadas, hasta que otros fenómenos las hagan más exactas o sujetas a ­excepciones». Y en su Óptica, 1706, Libro III, Parte I, afirma que «aunque los argumentos a partir de observaciones y experimentos por inducción no constituyan una demostración de las conclusiones generales, con todo, es el mejor modo de argumentar que admite la naturaleza de las cosas [...] Si de los fenómenos no surge ninguna excepción, las conclusiones 8. Me parece más ajustado este título que el típico de Principios matemáticos de la filosofía natural.

58

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

pueden proclamarse en general. Pero, si [...] surgiese alguna excepción de los experimentos, habrán de comenzar a proclamarse con las excepciones pertinentes». Podríamos calificar de pragmática la actitud que Newton mantiene respecto de inducción, una vez que admite que las hipótesis inducidas puedan tener excepciones. En su filosofía de la ciencia, la inducción, en ausencia de otra metodología científica pensable en su época, constituía el único método capaz de garantizar el descubrimiento científico. Siglos más tarde, cuando el inductivismo parece gastado por las críticas, los miembros del primitivo Círculo de Viena, deciden optar también por una posición pragmática sobre las posibilidades de la inducción. En el documento programático del Círculo, redactado por Carnap, Hahn y Neurath (1929, 24), leemos: «El método de inducción se puede aplicar, con suficiente fundamento o sin él, allí donde conduzca a resultados fructíferos. La seguridad no la garantiza. Pero la sensatez epistemológica requiere que a una inferencia inductiva solo se le conceda importancia si puede ser comprobada empíricamente». Y lo mismo sucede con Bertrand Russell (1949, 57, edición española), quien aunque admite que «Todas las leyes científicas descansan sobre la inducción», mantiene al mismo tiempo que la inducción por enumeración simple «es una manera muy peligrosa de argumentar», por lo que concluye que la inducción «considerada como un proceso lógico está abierta a la duda, y no es capaz de dar certeza». Tal vez por ello Russell se adhiere a una versión probabilística de la inducción, dada en el esquema siguiente: — Si cierta hipótesis es verdadera, tales y cuales hechos serán observables; — Ahora bien, estos hechos son observados; — Por consiguiente, la hipótesis es probablemente verdadera, que, como veremos más adelante, se asemeja mucho a la abducción de Peirce. La disputa entre posturas radicales antiinductivas y otras más permisivas no fue obstáculo empero para que en la historia de la metodología de la ciencia se encuentren muchos ejemplos de posiciones favorables a la idea de que la inducción juega un papel importante en el descubrimiento científico. Es el caso del método de concordancia y diferencia de Robert Grosseteste, el método de concordancia de Duns Escoto, el de diferencia de Guillermo de Ockham, en la edad media, y de los métodos inductivos de John Stuart Mill en el siglo xix, así como la consideración de la inducción en este mismo siglo en la metodología de la ciencia por Herschel, Spencer, Whewell. Pero resulta también curioso constatar que precisamente en los primeros años treinta del siglo xx, cuando Popper pugnaba por liberar a la filosofía de la ciencia de todo lo que tuviese que 59

META, MÉTODO Y MITO EN CIENCIA

ver con inducción, Hans Reichenbach, fundador en 1928 de la Escuela de Filosofía Empírica de Berlín, defendiese la relevancia de la inducción para el contexto de descubrimiento científico. En efecto, en (1936, 4) Reichenbach mantenía que si la meta de la investigación científica, consistente en el establecimiento de las leyes de los sucesos naturales es alcanzable, entonces lo será por medio del método inductivo. Y en (1938, 383) afirmaba que «Los métodos de inducción [...] serán siempre los métodos genuinos de descubrimiento científico (always will remain the genuine methods of scientific discovery)». Una posición antiinductivista irreductible le llevó a Popper a un rechazo decidido del contexto de descubrimiento científico. La distinción entre el contexto de descubrimiento y el contexto de justificación en la metodología de la ciencia está ampliamente asumida en la filosofía contemporánea de la ciencia. La distinction se atribuye con todo derecho a Hans Reichenbach que la presenta en su libro de 1938 Experience and Prediction, cap. 1, § 1, donde en relación al concepto de reconstrucción racional de la ciencia afirma que «esta corresponde a la forma en que los procesos de pensamiento se comunican a otras personas en lugar de la forma que se ejecutan subjetivamente. Por ejemplo, la forma en que un matemático publica una demostración, o un físico su razonamiento lógico en la fundación de una teoría nueva, corresponderían a nuestro concepto de reconstrucción racional; y la bien conocida diferencia entre la forma en que el pensador encuentra su teorema y la forma de su presentación pública puede ilustrar la diferencia en cuestión. Voy a introducir los términos de contexto de descubrimiento y contexto de justificación a fin de marcar esta distinción. Después tenemos que decir que la epistemología solo se ocupa de la construcción del contexto de justificación». Esta distinción ya había sido anticipada no obstante por Karl Popper en § 2 de su Logik der Forschung, 1935, donde asevera que el acto de concebir nuevas ideas o teorías solo es relevante para la psicología empírica, pero no para el análisis lógico del conocimiento científico. En efecto, según Popper, «la cuestión de cómo se le ocurre una idea nueva a alguien —sea un tema musical, el conflicto en un drama, o una teoría científica— puede ser de gran interés para la psicología empírica, pero es irrelevante para el análisis del conocimiento científico. Este solo está concernido [...] con las cuestiones de la justificación o la validez [...] »De acuerdo con ello voy a distinguir marcadamente entre el proceso de concebir una idea nueva y los métodos y resultados de su examen lógico. En relación a la tarea de la lógica del conocimiento —a diferencia de la psicología del conocimiento— voy a asumir que esta consiste solamente en la investigación de los métodos empleados en los tests sistemáticos a los que cada idea nueva debe ser sometida, si ha de ser tomada seriamente en consideración». 60

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

Opinión que reitera en The Poverty of Historicism, § 29, 1960, donde insiste en que la única cuestión científicamente relevante es: ¿Cómo testó usted su teoría?, mientras que la de ¿Cómo encontró usted su teoría?, quedaba relegada al ámbito puramente privado. No estuvo solo Popper empero en esta postura. Braithwaite (1955, 31) compartió también sus ideas: «Hay problemas históricos tanto en relación a qué causa que el científico individual descubra una idea nueva, como a qué causa la aceptación general de ideas científicas. La solución de estos problemas históricos implica a la psicología individual del pensamiento y a la sociología del pensamiento». Como consecuencia de lo dicho podemos afirmar sobre la inducción, pero también sobre el razonamiento ampliativo en general, lo siguiente: 1. Como inferencia conservadora de la verdad y ampliadora del contenido, la inducción es lógicamente ilegítima, no es un método válido ni para el descubrimiento ni para la justificación científica. 2. Como heurística para la propuesta de hipótesis, que el control empírico se encargará de aceptar (al menos provisoriamente) o rechazar, la inducción es una estrategia del descubrimiento científico. Popper no participó desde luego de la idea de que la inducción podría acabar siendo aceptada como una estrategia de descubrimiento científico. Y retuvo para siempre la opinión de que la metodología de la ciencia consistía en la prueba deductiva rigurosa de las hipótesis y teorías científicas, sin tener para nada en cuenta el proceso por medio del cual estas llegan a la ciencia. Y sin embargo, en los años en que Popper acababa de publicar su Conocimiento objetivo, 1972, un libro en cuyo capítulo 1, «Mi solución del problema de la inducción», desarrolla su postura antiinductivista, Herbert Simon (1974, 330) proclamaba abiertamente la estrecha relación entre la inducción y la resolución de problemas, de la que el descubrimiento científico es un caso particular: «desde una posición lógica los procesos envueltos en la resolución de problemas son inductivos, no deductivos». Más concretamente: «El proceso de solución de problemas es tanto un proceso de acumulación de información como un proceso de búsqueda. [...] Los procesos de uso de esta información para dirigir la investigación son procesos generales de inferencia inductiva. Siendo inductivos no proporcionan certeza sino que solo tienen un valor heurístico en la guía de la investigación y en su eficacia». Pero, ¿cómo es posible mantener que la inducción es una forma de descubrimiento si, pace Hume-Popper, carece de validez lógica?, ¿no será acaso que la reiterada ilegitimidad lógica de la inducción no es decisiva para la filosofía de la ciencia? Una respuesta afirmativa afectaría a la totalidad de las inferencias ampliativas: inducción y abducción. Per61

META, MÉTODO Y MITO EN CIENCIA

fectamente conscientes de la debilidad de las inferencias inductivas y en un razonamiento que recuerda a Popper, Langley et al. (1987, 16-17) mantienen: «Es bien conocido que ninguna generalización cuantificada universalmente puede ser definitivamente verificada por un conjunto finito de observaciones. No solo puede ocurrir que nuevas observaciones echen abajo la verificación sino que nunca ocurrirá que sea única la generalización que se ha encontrado que se ajusta a las observaciones. Otras generalizaciones, conocidas o no, describirán o explicarán los datos tan bien como la que se ha considerado». Pero, frente al rígido planteamiento popperiano de que la inducción simplemente no existe y la probabilidad inductiva es imposible, Langley et al. (1987, 303) mantienen que «No necesitamos ni una garantía de que las soluciones, en forma de leyes, puedan ser encontradas, ni una garantía de que las leyes puedan ser firmemente verificadas». Para ellos (op. cit., 16-17) «El problema del descubrimiento es precisamente encontrar alguna generalización parsimoniosa y consistente con todos los datos (dentro de un criterio de precisión). No se afirma que la generalización ha de sobrevivir a la prueba de evidencia adicional, o que no se encontrará ninguna otra generalización igualmente adecuada para la descripción de los datos originales. [...] Si se encuentra una generalización o explicación que se ajuste a una base de datos razonablemente bien, normalmente será aceptada, por lo menos hasta que se encuentre una nueva ley o explicación o hasta que se encuentren nuevos datos importantes que no se ajusten en absoluto. Cuando se descubren dos o más explicaciones para los mismos datos o para datos parcialmente coincidentes, surgen nuevas tareas para su evaluación relativa y (usualmente) se descubren nuevas leyes que reconcilian las discrepancias. En todas estas circunstancias la primera y vital tarea es descubrir leyes. Mientras esto esté en marcha la existencia de competidores, reales o potenciales, es simplemente irrelevante. La preocupación que la filosofía de la ciencia ha tenido por la certeza y unicidad de las inducciones procede de una concepción equivocada de la naturaleza de la ciencia. [...] Leyes, o supuestas leyes, a menudo serán descubiertas (un momento feliz). Con frecuencia serán refutadas por una evidencia posterior (un momento triste), y a veces tendrán que competir con leyes rivales que explican los mismos datos (un momento de perplejidad)». De ahí que Langley et al., (op. cit., ibid.) mantengan una posición muy definida respecto del ‘problema’ de la inducción: «La función de los procedimientos de verificación no es la de proporcionar a los científicos certezas o unicidades inalcanzables para los descubrimientos, sino informarles de los riesgos que corren cuando se comprometen con hipótesis que han sido descubiertas, así como proporcionarles una guía que pueda aumentar sus posibilidades de hacer descubrimientos relativamente duraderos. 62

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

Ni siquiera a Newton y Einstein se les garantizó más certeza». Desde este punto de vista el dramatismo que Popper trasladó al tema de la inducción parece exagerado. De hecho, el posicionamiento de Langley et al. (op. cit., 303) es demoledor para las posiciones radicales en torno al problema de la inducción: «El proceso de descubrimiento resuelve el problema de la infalibilidad, al igual que los problemas de la certeza y unicidad de las generalizaciones ignorándolos». Langley et al. les enmiendan la plana a los filósofos oficiales de la ciencia, a quienes despojan de su etiqueta de oráculos de la ciencia. Quizás la inducción no sea la gloria de la ciencia. Pero si hemos de tomar en serio los avances en ciencia computacional de la ciencia, como vamos a ver seguidamente, estos hacen patente que, en un sentido insospechado hasta hace relativamente poco tiempo, la inducción sí es el escándalo de la filosofía (de la ciencia). Pues no parece tan execrable como algunos suponían. También Paul Thagard (1988, 27 y 28) señala que el uso de la inducción no puede ir más allá de la producción de reglas para la resolución de problemas y la explicación: «cuando hacemos inducciones no deseamos estar concernidos con la obtención de conclusiones bien garantizadas: lo que deseamos es producir reglas que sean útiles para su uso futuro en la resolución de problemas y la explicación». Esta posición concuerda plenamente con la de Herbert Simon (1995, 175), para quien «Tampoco es verdad exacta la meta realista del descubrimiento. [...] La tarea del descubrimiento es crear teorías que expliquen los datos ‘suficientemente bien’, con la esperanza de que mañana puedan ser explicados mejor. [...] Llamamos descubrimiento a la resolución de un problema si es tanto valioso (y/o interesante) como novedoso. Así pues una teoría empírica del descubrimiento es una teoría de cómo encontrar efectivamente soluciones nuevas y valiosas (o interesantes) de problemas». 4.  CIENCIA DEL DESCUBRIMIENTO FRENTE A FILOSOFÍA DE LA CIENCIA

Una primera reacción ante el abandono del contexto de descubrimiento por parte de la filosofía oficial de la ciencia la ofrece la obra de Hanson Patrones de descubrimiento: «mi interés no es el test de hipótesis sino su descubrimiento» (Hanson 1958, 3). En ella Hanson rehabilita el papel del razonamiento abductivo Peirceano para la lógica del descubrimiento. Pero es a partir de Simon et al. (1962) —donde se postula que el descubrimiento puede ser modelado por medio de procesos de resolución de problemas— que el interés por el contexto de descubrimiento empieza a calar en campos ajenos a la filosofía oficial de la ciencia. La hipótesis de trabajo de Herbert A. Simon (1962, 145-146) y (1966b, 22) es la de 63

META, MÉTODO Y MITO EN CIENCIA

que «el pensamiento creativo es simplemente un caso especial de comportamiento de resolución de problemas». O sea: «que el descubrimiento científico es una forma de resolución de problemas». Antonio Benítez (2011, cap. 8) ejemplifica el planteamiento de Simon en diversos campos, que incluye incluso la resolución de problemas en la vida cotidiana. Concretamente para Simon et al. (1962, 146) la resolución de problemas se implementa a través de programas informáticos diseñados para computadores digitales: «la teoría de resolución de problemas que estamos proponiendo deriva de mecanismos que resuelven problemas de la misma manera que los humanos —mecanismos cuyo comportamiento puede ser observado, modificado y analizado—. La única técnica disponible para construir solucionadores de problemas es escribir programas para computadores digitales; no hay más mecanismos físicos que sean suficientemente complejos». Tales programas, sostienen Simon et al. (op. cit., 145 y 172), «simulan el comportamiento humano de resolución de problemas». En la misma línea Robert Colodny (1966, Introduction) afirma que «Los procedimientos cuasi mecánicos empleados por el hombre en la búsqueda de soluciones a problemas bien planteados pueden ser duplicados por computadores». Y siguiendo la huella de Simon, Langley et al., pp. 5 y 6, reiteran que «los mecanismos del descubrimiento científico [...] pueden ser subsumidos como casos especiales de los mecanismos generales de resolución de problemas», que «el descubrimiento científico es una especie de resolución normal de problemas», y que «La tesis de que el descubrimiento científico es resolución de problemas [...] y que puede ser simulado por una computadora no es completamente nueva» (Langley et al., op. cit., 6). En resumidas cuentas: si el descubrimiento científico es una forma de resolución de problemas, y esta se implementa a través de programas informáticos, entonces el descubrimiento científico se puede llevar a cabo computacionalmente. No obstante Simon (1966a, 15-16) advierte que «los solucionadores humanos de problemas y los programas de computadores que los simulan no buscan la ‘mejor’ solución, sino una solución que sea ‘suficientemente buena’ por algún criterio». ¿Cuál es la actitud de los científicos computacionales, científicos cognitivos e investigadores en inteligencia artificial, frente a la posición de los filósofos oficiales de la ciencia en relación al papel del contexto de descubrimiento en la metodología de la ciencia? Herbert Simon (1966b, 23) reconoce que «La literatura sobre el tema producida por filósofos de la ciencia es menos útil [...] La razón es que los filósofos de la ciencia tienden a dirigirse a los aspectos normativos de la metodología científica más que a los descriptivos. Están más interesados en cómo deberían proceder los científicos, a fin de adecuarse a ciertas concepciones de la lógica, que en cómo lo hacen». No anda Simon nada desencaminado, pues 64

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

Popper (1983, Introduction XXV) mismo confiesa «Como traté de aclarar en 1934 (L.Sc.D., p. 37, y secciones 10 y 11), yo no considero a la metodología una disciplina empírica que deba ser testada tal vez por los hechos de la historia de la ciencia. Sino que es una disciplina filosófica —metafísica— en parte incluso una propuesta normativa. Se apoya ampliamente en el realismo metafísico y en la lógica situacional: la situación de un científico sondeando la realidad desconocida tras las apariencias y deseoso de aprender de los errores». De ahí que considere un error tanto sobre la historia de la ciencia, como sobre su propia metodología de la ciencia, que esta pueda llegar a ser refutada por los hechos de la historia. Independientemente de la defensa de Popper del carácter normativo de su metodología de la ciencia, los científicos computacionales no pierden ocasión de mostrar que el descuido del contexto de descubrimiento científico ofrece un punto flaco en la filosofía oficial de la ciencia. En numerosas ocasiones Langley et al. hurgan en esta herida: «En la filosofía de la ciencia todo el énfasis se pone en la verificación [...] En efecto, entre los filósofos de la ciencia es todavía mayoritaria la opinión de que solo la verificación es propiamente una parte de la investigación, que nada filosóficamente interesante se puede decir del proceso de descubrimiento» (1987, 3). Responsable concreto de esta situación sería Karl Popper: «Desde los años 1930 se ha negado frecuentemente que el proceso de descubrimiento sea un asunto propio de la filosofía. Karl Popper (1961) y otros lo desterraron de la filosofía de la ciencia. Solo desde mediados de los años 1970 ha habido un interés renovado por la naturaleza del proceso de descubrimiento y la lógica subyacente» (op. cit., 13-14). En p. 23 califican de errado el énfasis de la filosofía contemporánea de la ciencia por el test de teorías, como actividad científica quintaesencial. Y en pp. 37-38 reconocen que «hasta muy recientemente la filosofía de la ciencia del siglo veinte estaba centrada casi exclusivamente en el contexto de confirmación; no se prestaba casi ninguna atención al contexto de descubrimiento. De hecho se afirmaba frecuentemente que no podía haber ningún método lógico o teoría del descubrimiento científico; que el descubrimiento era cosa de ‘creatividad’ —la obra libre del espíritu humano creativo—. La tarea de construir una teoría del descubrimiento se traspasaba a los psicólogos». Muchos otros científicos cognitivos se suben a este tren de reproches. Por ejemplo Paul Thagard (1988, 64): «Los críticos de la idea de la Lógica del Descubrimiento mantienen que no puede haber métodos mecánicos para la generación de descubrimientos exitosos». Y entre quienes responsabilizan a Popper del desprecio por el contexto de descubrimiento merece destacar especialmente a Jeff Shrager y Pat Langley (1990, 1): «Mientras los primeros trabajos en la tradición filosófica acentuaron la evaluación de leyes y teorías (p. e., Popper 1965), la re65

META, MÉTODO Y MITO EN CIENCIA

ciente investigación en el paradigma de la ciencia cognitiva9 ha enfatizado el descubrimiento científico, incluyendo las actividades de formación de teorías, inducción de leyes y experimentación». Pero también el propio Herbert Simon (1992, 3), quien tras asumir que «El descubrimiento científico es un tema central de la filosofía de la ciencia y de la historia de la ciencia» critica que «Los filósofos de la ciencia se han interesado principalmente por la verificación (o falsación) de las teorías científicas antes que por el origen de las teorías o los procesos por medio de los que fueron derivadas. En efecto, hasta muy recientemente muchos filósofos de la ciencia negaron que fuera posible una teoría de los procesos de descubrimiento y es probablemente todavía el punto de vista mayoritario en la disciplina (Popper 1961: The Logic of Scientific Discovery)». Y en (1995, 173) Simon se atreve a calificar de concepción popperiana el hecho de que «Hasta muy recientemente muchos filósofos de la ciencia negaron que pudiera haber una teoría del descubrimiento científico o fueron profundamente escépticos sobre esta posibilidad. (Algunos lo son aún) [...] podía haber una lógica de la confirmación pero ninguna lógica del descubrimiento (Popper 1959)». Por último, pero no por fin, en pleno siglo xxi Saso Dzeroski et al. (2007, 3) aún señalan a Popper como responsable del abandono del contexto de descubrimiento por la filosofía oficial de la ciencia: «Muchos análisis del método científico proceden de filósofos de la ciencia que se han centrado principalmente en la evaluación de las hipótesis y han ignorado ampliamente su generación y revisión. Desafortunadamente a lo que nos referimos como descubrimiento reside justamente en estas actividades. Así pues aunque hay una extensa literatura sobre métodos normativos de hacer predicciones a partir de hipótesis, comprobar su consistencia y determinar si son válidas, hay notablemente pocos tratamientos sobre su producción. Algunos (p. e., Popper 1959) han sugerido incluso que son imposibles las explicaciones racionales del proceso de descubrimiento. Unos pocos filósofos (p. e., Darden 2006; Hanson 1958; Lakatos 1976) se han opuesto a esta tendencia y han hecho contribuciones importantes a la materia, pero los mayores esfuerzos provienen de la inteligencia artificial y la ciencia cognitiva». O sea, los científicos computacionales son mucho más conscientes que los propios filósofos de la ciencia del abandono del contexto de descubrimiento y reconocen que el hueco dejado 9. Respecto al propio concepto de ciencia cognitiva y su tarea se manifiestan Langley et al. (1987, Preface) de la forma siguiente: «Nuestro punto de partida y ‘paradigma’ es la psicología contemporánea del procesamiento de la información, o ciencia cognitiva. La teoría actualmente aceptada en este dominio sugiere que los procesos de descubrimiento científico pueden ser descritos y explicados simplemente como casos especiales de procesos de resolución de problemas, de manera estrechamente análoga a los procesos que han sido identificados en otros dominios de resolución de problemas».

66

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

libre por estos acabaron ocupándolo la IA y la ciencia cognitiva. De ahí que Shrager y Langley (1990, 20) aseveren que el modelo computacional de comportamiento científico «ha hecho ya progresos significativos en cuestiones que los filósofos de la ciencia tradicionalmente han ignorado. En particular, este campo ha enfatizado la naturaleza del descubrimiento antes que la evaluación, y ha tratado tanto con los procesos que subyacen a la ciencia como la representación del conocimiento». Desmintiendo a los filósofos oficiales de la ciencia, al menos hasta los años ochenta, los científicos cognitivos no solo han destacado que el descubrimiento científico es una parte importante de la práctica científica, sino que se puede implementar computacionalmente. Y al efecto han desarrollado una ciencia del descubrimiento científico, una teoría computacional del descubrimiento científico (a computational theory of the processes of scientific discovery), que en palabras de Simon (1995, 171-172) «proporciona una base tanto para comprender cómo los científicos humanos hacen descubrimientos como para construir sistemas de descubrimientos que puedan ayudar a los científicos a hacer descubrimientos, en modo interactivo o completamente automático». La existencia de esta nueva disciplina, indica Valdés Pérez (1995, 223), «puede conducir, y de hecho lo hace, a un cuerpo sistemático de conocimiento y por tanto tiene todos los elementos de un campo científico de pleno derecho». Por su parte Jeff Shrager y Pat Langley (1990, Preface) aceptan igualmente que «Estamos siendo testigos del nacimiento de un nuevo campo: el estudio computacional de la ciencia», campo al que también se refieren (op. cit., 20) como «La creciente ‘ciencia computacional de la ciencia’ («the developing computational ‘science of science’»). Y Jan Zytkow igualmente (1999, Abstract) coincide en que «Tras dos décadas de investigación en descubrimiento automático, muchos principios están dando forma a la fundación de una ciencia del descubrimiento. En este artículo vemos la ciencia del descubrimiento como automatización del descubrimiento por medio de sistemas que descubren conocimiento autónomamente así como una teoría de tales sistemas». Herbert Simon está en el origen de la idea de la automatización del descubrimiento científico. Esto es ampliamente asumido por los científicos computacionales contemporáneos. Valga como ejemplo la cita siguiente de Saso Dzeroski et al. (2007, 8): «La idea de que uno podría automatizar el descubrimiento de conocimiento científico tiene una larga historia que se retrotrae a los escritos de Francis Bacon (1620) y de John Stuart Mill (1900). Sin embargo, el tratamiento moderno de esta tarea vino de Herbert Simon, quien propuso considerar el descubrimiento científico como un ejemplo heurístico de resolución de problemas». ¿Cómo repercuten estas reflexiones sobre la viabilidad de una ciencia del descubrimiento científico automático en la vieja concepción de 67

META, MÉTODO Y MITO EN CIENCIA

Popper y Reichenbach de la prevalencia del contexto de justificación respecto del de descubrimiento? Pues bien, según Langley et al. (1987, 38-39) «el científico tiene razones para lo que hace cuando genera teorías nuevas como cuando testa las que ya ha encontrado. La eficacia (‘racionalidad’, ‘logicidad’) del proceso de descubrimiento o generación es tan susceptible de evaluación y crítica como lo es el de verificación». O sea, contexto de descubrimiento y contexto de justificación están a la par. Tanto monta, monta tanto. Naturalmente el mérito de haber mostrado el camino de la lógica del descubrimiento científico se lo atribuyen Langley et al., op. cit., p. 44, a Herbert Simon: «En 1958 (año en que apareció el libro de Hanson Patterns of Discovery), Newell, Shaw, y Simon, en «The processes of creative thinking» (publicado en 1962) arguyeron que el descubrimiento podía ser modelado por una variedad de procesos de resolución de problemas, como los análisis de medios-fines. Simon elaboró este argumento en «Scientific discovery and the psychology of problem solving» (1966), y en 1973 se propuso dar una respuesta afirmativa a la pregunta ‘¿Tiene lógica el descubrimiento científico?’»10. Que estos procesos de descubrimiento científico además son racionales se debe según Langley et al., op. cit., p. 47, a que «Los descubrimientos científicos raramente emergen de una búsqueda aleatoria de ensayo y error; los espacios de búsqueda son demasiado vastos para esto. La racionalidad consiste para un científico en usar los mejores medios disponibles —la mejor heurística— para ajustar la búsqueda a proporciones manejables [...] Este es el concepto de racionalidad que es relevante para el proceso creativo y para la resolución de problemas en general, y es este tipo de racionalidad del que se ocupa una teoría normativa de la creatividad y el descubrimiento científico». Contra la opinión mantenida pues en filosofía oficial de la ciencia de que los procesos de descubrimiento y de justificación, pertenecen a contextos separados entre sí, Langley et al. sostienen «que estas dos clases de procesos están mucho más íntimamente conectadas de lo que se sugiere en la literatura de la filosofía de la ciencia», que «los procesos de descubrimiento y de confirmación no son separados y distintos» (Langley et al., op. cit., 5 y 57). Posición que corrobora el propio Simon (1995, 174): «el descubrimiento y la verificación no son actividades separadas —la primera completada antes de que comience la otra— sino 10. Es curioso que Popper, que rechaza de plano la posibilidad de una lógica del descubrimiento científico, titulase la edición inglesa de 1959 de su Logik der Forschung (Lógica de la investigación científica) como Logic of Scientific Discovery (Lógica del descubrimiento científico). A este hecho se refirió con sarcasmo Larry Laudan (1984, 173) diciendo que «Karl Popper escribió un libro llamado Lógica del descubrimiento científico que niega la existencia de ningún referente para este título».

68

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

que están estrechamente entremezcladas desde el comienzo de la búsqueda». Esto equivale a una desautorización, en parte al menos, de la filosofía oficial de la ciencia. No solo es importante pues el contexto de descubrimiento científico, sino que incluso existe una ciencia del descubrimiento que se ocupa del desarrollo de sistemas capaces de producir descubrimientos de modo automático. La estrecha relación entre esta moderna ciencia del descubrimiento y la ya veterana filosofía de la ciencia permite considerar al contexto de descubrimiento científico como el eslabón que las une a ambas. De esta conexión la filosofía oficial de la ciencia no puede sino resultar beneficiada, si es capaz de reconocer la existencia del tratamiento computacional o automatización del descubrimiento. Ello posibilitaría que los filósofos de la ciencia recuperen el terreno perdido ante los científicos computacionales en el tratamiento del descubrimiento científico. Algo se mueve ya en esta dirección en la filosofía oficial de la ciencia. Robert Nola y Howard Sankey (2007, 23-25) relatan las posibilidades que el programa bacon ofrece para la lógica del descubrimiento científico y señalan que «la afirmación de que no hay métodos de descubrimiento no puede ser simpliciter generalmente verdadera y necesita cualificación». Más vale tarde que nunca. 5.  LA IMPLEMENTACIÓN COMPUTACIONAL DEL DESCUBRIMIENTO CIENTÍFICO

Decir que un descubrimiento científico tiene lugar computacionalmente equivale a afirmar la existencia de métodos, sistemas o programas, que facilitan su implementación. Que estos descubrimientos merecen tal nombre —científicos— lo aclaran Saso Dzeroski et al. (2007, 1): «La investigación en descubrimiento científico computacional aspira a desarrollar sistemas computacionales que producen resultados que serían considerados descubrimientos si un científico humano hiciera los mismos». En consonancia con su tesis de que la creatividad científica constituye un caso especial de resolución de problemas Herbert Simon, (1962, 145-146) venía sosteniendo desde hacía ya varios lustros que «Si queremos considerar la compleja resolución humana de problemas como creativa, entonces [...] ya existen programas exitosos para mecanismos de resolución de problemas que simulan a solucionadores humanos de problemas, y son conocidas algunas de sus características generales». En línea con él Robert G. Colodny (1966, Introduction) también mantiene que «las computadoras modernas [...], en combinación con modernos lenguaje de programación, [...] hacen posible dar cuenta de los principales mecanismos del tratamiento de la información en la resolu69

META, MÉTODO Y MITO EN CIENCIA

ción humana de problemas. Los procedimientos cuasi mecánicos empleados por el hombre en la búsqueda de soluciones a problemas bien formulados pueden ser duplicados por computadoras». Y Langley et al. (1987, Preface) sostienen que la ciencia cognitiva acepta que los programas de ordenadores «simulan procesos humanos de pensamiento a la hora de hacer descubrimientos científicos». Por eso para ellos «Nuestro método de investigación será construir un programa de computadora (realmente una sucesión de programas) capaz de hacer descubrimientos científicos no triviales y cuyo método de operación se base en nuestro conocimiento de métodos humanos de resolución de problemas —en particular, el método de búsqueda heurística selectiva» (op. cit., 5)—. Y Saso Dzeroski (2007, 10) reitera que «El descubrimiento científico computacional se centra en la aplicación de métodos computacionales que automatizan las actividades científicas, como la de encontrar leyes a partir de datos observacionales». Dicho de otra manera: «Los métodos computacionales de descubrimiento científico deberían ser capaces de inferir conocimiento a partir de pequeños conjuntos de datos». La automatización del descubrimiento persigue la producción de leyes a partir de datos observacionales. La ciencia computacional del descubrimiento científico se basa pues en el desarrollo de sistemas computacionales que en sus comienzos fueron capaces de reproducir, replicar, simular o redescubrir importantes leyes de la historia de la ciencia. Tales sistemas o programas, escritos generalmente en lisp o en prolog, aparecen en los años sesenta del siglo pasado y desde los setenta ya están consolidados. Vistos desde la perspectiva del siglo xxi, y teniendo in mente el conjunto de programas colectivamente llamados bacon, Saso Dzeroski et al. (2007, 8) afirman de ellos que aplican «inducción de leyes descriptivas guiada por datos y demostrada en ejemplos históricos. En conjunto proporcionaron la primera evidencia insoslayable de que el descubrimiento científico computacional era realmente posible». «La primera tarea en descubrimiento computacional se centró en reconstrucciones de la historia de la ciencia que fueran consistentes con teorías de la cognición humana ampliamente aceptadas. Esto constituía una estrategia apropiada pues estos ejemplos permitían a los investigadores testar sus métodos en problemas relativamente simples, cuyas respuestas eran conocidas» (op. cit., 9). El objetivo de Langley et al. (1987, 5) es contribuir a la comprensión del fenómeno del descubrimiento científico. «Este libro —señalan en (1987, 20)— se va a ocupar principalmente de la inducción de teorías descriptivas y explicativas a partir de datos». La herramienta que desarrollan para llevar a cabo su tarea es el programa bacon, capaz de producir descubrimientos científicos por inducción a partir de bases de datos empíricos. De él dicen Shrager y Langley (1990, 10): «bacon [...] se centró 70

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

en la inducción de leyes numéricas a partir de datos experimentales». Y Thagard y Nowak (1990, 28) afirman: «el programa bacon toma valores numéricos como entradas y genera ecuaciones que se ajustan a esos valores». Sobre el carácter netamente inductivo de bacon se expresa también Herbert Simon (1992, 8): «Una serie de programas computacionales, llamados colectivamente bacon, ha simulado exitosamente el proceso por el que un número sustancial de leyes importantes de la química de los siglos dieciocho y diecinueve fueron inducidas a partir de datos». Así, a partir de datos puramente observacionales bacon ‘descubre’ inductivamente la Tercera Ley de Kepler. Pero también las leyes de Black de la temperatura de equilibrio, la ley de conservación del momento y otras. Sobre el interés de bacon como programa de descubrimiento automático guiado por datos se expresa también Herbert Simon (1995, 177): «bacon es una interesante teoría de descubrimiento precisamente porque (1) es un programa extremadamente simple, y sin embargo (2) es capaz de descubrir muchas de las leyes más importante de la física y la química que fueron halladas en los siglos xviii y xix, no usando más conocimiento que los datos usados por los descubridores originales, y no disponiendo de ningún conocimiento teórico del dominio de descubrimiento. Se puede decir que el proceso de bacon se asemeja estrechamente al proceso que los científicos humanos han usado en un número importante de casos históricos en los que no se disponía de ninguna teoría que guiase la búsqueda de leyes: de ahí ‘descubrimiento guiado por datos (data-driven discovery)’». Paul Thagard (1988, 2) contribuye también por su parte, desde la filosofía computacional de la ciencia, a la aplicación de la inteligencia artificial en los procesos de descubrimiento: «se pueden desarrollar planteamientos filosóficos más ricos de resolución de problemas científicos, descubrimiento y justificación, haciendo uso de los recursos de la inteligencia artificial que los que son posibles con las técnicas tradicionales de la lógica y la teoría de conjuntos. [...] Espero mostrar que un enfoque computacional ofrece ideas y técnicas de representación y uso de conocimiento que sobrepasan las empleadas normalmente por los filósofos». Para ello Thagard (1988, 15) desarrolla el programa pi —‘Procesos de Inducción’— el cual «implementa en el lenguaje de programación lisp un modelo general de resolución de problemas e inferencia inductiva [...] Lo presento como una ilustración de cómo interactúan representación y proceso y cómo puede empezar a desarrollarse en el marco computacional un planteamiento general integrado del descubrimiento científico y la justificación», cuya actividad central es, cómo no, resolución de problemas (p. 19). Y, subiéndose al tren de los científicos que rechazan la separación entre el contexto de descubrimiento y el de justificación, que ya hemos tra71

META, MÉTODO Y MITO EN CIENCIA

tado en la sección precedente, Thagard (op. cit., 51) insiste en que «Una descripción de la simulación de pi del descubrimiento y la justificación de teorías mostrará cómo el descubrimiento y la justificación se combinan, lo que requiere un rechazo de la tajante distinción de Reichenbach entre una lógica de la justificación y una psicología del descubrimiento». Llama la atención en esta cita que el centro de las críticas de Thagard no sea Popper sino Reichenbach. Las culpas están repartidas, pues. Frente a quienes desde la filosofía oficial de la ciencia se oponen a la existencia de una lógica del descubrimiento científico Thagard (op. cit., 64) mantiene que «las técnicas de descubrimiento de pi son mecánicas en un sentido débil —se implementan en un programa de computadora—». Y que aunque «Estamos de acuerdo con los críticos de la idea de una lógica del descubrimiento de que no hay ningún algoritmo para hacer descubrimientos que garantice soluciones a problemas de explicación», «podemos mantener no obstante que el proceso de descubrimiento es algorítmico, emplea muchos algoritmos, como los que se implementan en pi, que favorecen pero no garantizan la generación de soluciones». Es pues un hecho plenamente aceptado que el descubrimiento científico es posible por medio de máquinas. Así lo reconoce también Jan M. Zytkow (1996, 299-300) para quien «Una de las direcciones más importantes en el descubrimiento por máquinas ha sido la automatización del descubrimiento científico», donde «las máquinas descubridoras pueden ser definidas como sistemas de computadora que autónomamente persiguen conocimiento». Diferentes nombres se usan para describir el descubrimiento científico computacional: machine discovery, auto­ mated discovery, computer-made discovery, computational dis­covery, ­computer-aided discovery, etc., y sus correspondientes traducciones al español. Conviene sin embargo no desatender la advertencia de Pat Langley (2000, 3-4, 14) de que «Aunque el término descubrimiento computacional sugiere un proceso automatizado, una inspección más estrecha de la literatura revela que el desarrollador o usuario humano juega un papel importante en todo proyecto exitoso». De manera que «la perspectiva más común es que los sistemas de descubrimiento deberían ayudar a los científicos en lugar de reemplazarlos», o sea, concluye Langley (2000, 14): «No pretendemos que nuestras herramientas computacionales reemplacen a los científicos sino más bien que les sirvan de ayuda». 6.  EL ROBOT CIENTÍFICO

La meta última de la teoría de la automatización científica es el diseño de robots capaces de producir autónomamente conocimiento. Jan Zytkow (1995, Abstract) lo anuncia como una utopía: «La construc72

FILOSOFÍA DE LA CIENCIA Y CIENCIA COMPUTACIONAL DE LA CIENCIA

ción de un robot descubridor puede ser considerada como el último éxito del descubrimiento automático» y se imagina este artefacto como «un sistema de descubrimiento automático [...] similar en capacidades a descubridores humanos. Realizaría experimentos, percibiría sus resultados y construiría teorías a partir de datos empíricos. Revisaría teorías a la vista de nuevos experimentos y continuaría este proceso indefinidamente». No obstante, admite que «La gran visión de un robot tan capaz como descubridores humanos aún pertenece al dominio de la ciencia ficción, y muchos cuestionan su viabilidad. [...] Esta gran visión estimula ciertamente la imaginación y sirve como plan maestro para mucha de la investigación en descubrimiento» (Zytkow 1995, 254). Qué es un robot científico lo entienden también King et al. (2009, 85) como «un sistema implementado físicamente de automatización de laboratorio que explota técnicas del campo de la inteligencia artificial para ejecutar ciclos de experimentación científica». Este robot «origina automáticamente hipótesis para explicar observaciones, diseña experimentos para testar estas hipótesis, hace correr los experimentos usando robótica de laboratorio, interpreta los resultados y vuelve a repetir el ciclo». Y, además, un robot científico es tan capaz y completo como un científico humano: «Como los experimentos se conciben y ejecutan automáticamente por computadora, es posible captar completamente y cuidar digitalmente todos los aspectos del proceso científico». Finalmente, reconociendo la advertencia de Pat Langley, que recogimos al final de la sección precedente, King et al. (2009, 88) sostienen que «La idea es desarrollar una vía que capacite a equipos de científicos humanos y científicos robots para trabajar juntos». Apenas quince años después de la visión utópica de Zytkow, Ross D. King et al. (2009) han sido capaces efectivamente de desarrollar un robot científico, al que han bautizado con el nombre de Adam —tal vez por ser el primero de su especie— para ser empleado en el campo de la biología experimental. Adam, aseveran King et al. (2009, Abstract), «ha generado automáticamente hipótesis genómicas funcionales sobre la levadura Saccharomyces cerevisiae y las testa experimentalmente haciendo uso de automatización de laboratorio. Hemos confirmado las conclusiones de Adam por medio de experimentos manuales». Poner a Adam en condiciones para llevar a cabo su tarea requirió, según confirman King et al. (op. cit., 85-86) «(i) un modelo lógico comprehensivo que codificara el conocimiento del metabolismo de S. cerevisiae [...] expresado en el lenguaje de programación lógica Prolog; (ii) una base general bioinformática de datos de los genes y proteínas implicados en el metabolismo; (iii) software para abducir hipótesis sobre los genes que codifican las encimas, usando una combinación de software bioinformático estándar y bases de datos; (iv) software para 73

META, MÉTODO Y MITO EN CIENCIA

deducir experimentos capaces de testar las consecuencias observacionales de las hipótesis (con base en el modelo); (v) software para planificar y diseñar los experimentos, [...] (vi) software de automatización de laboratorio para ejecutar físicamente el plan experimental y guardar los datos y metadatos en una base de datos relacional; (vii) software para analizar los datos y metadatos (generar curvas de crecimiento y extraer parámetros); y (viii) software para relacionar los datos analizados con las hipótesis; por ejemplo se requieren métodos estadísticos para decidir sobre la significación». Habiendo mostrado que el descubrimiento puede ser automatizado, para King et al. (2009, 88) lo que queda por determinar son los límites de la automatización. 7. CONCLUSIÓN

He aquí una serie de conclusiones que se siguen de lo expuesto en este capítulo: 1. La insistencia de Popper en el test deductivo de hipótesis queda en evidencia en la metodología de las ciencias observacionales de la Naturaleza, que no lo aplican, y en las que lo sustituye la prueba de evidencia adicional. 2. La desatención al contexto de descubrimiento por la filosofía académica de la ciencia, del que empieza a recuperarse lentamente, le ha supuesto un retraso importante en su desarrollo. La ignorancia de la abducción y el desconocimiento del descubrimiento computacional son dos pesos que lastran su puesta al día. Este capítulo está pensado para tomar conocimiento del segundo y tratar de superar esta deficiencia. En relación a la ignorancia de la relevancia del razonamiento abductivo en la metodología de las ciencias observacionales de la Naturaleza, los capítulos que siguen intentan llenar esta laguna. 3. Contexto de descubrimiento y contexto de justificación son dos aspectos complementarios de la metodología científica. Inseparables y con igual rango de importancia. 4. La posibilidad computacional de llevar a cabo inducciones reduce el dramatismo de Popper en relación al problema de la inducción y a las inferencias ampliativas en general, dando la razón a quienes han mantenido históricamente una posición no dogmática respecto al papel que estas juegan en la metodología real de la ciencia. 5. La colaboración entre teoría de la ciencia y ciencia computacional de la ciencia se perfila como un campo interesante de investigación filosófica.

74

III DEL FETICHISMO DE LA TESTABILIDAD AL COMPROMISO CON LA FALSABILIDAD

1. INTRODUCCIÓN

En el capítulo anterior he cuestionado la viabilidad del método popperiano para ser considerado legítimamente El Método de la ciencia por antonomasia, y he introducido la duda de que tal vez carezca de aplicación general o universal. Pero en modo alguno he sostenido que ha perdido todo su interés y eficacia. De hecho, en el presente capítulo me importa reivindicar la metodología popperiana de la ciencia, por el servicio que presta a la filosofía contemporánea de la física. En particular su criterio de falsabilidad, decisivo a la hora de determinar si una teoría pertenece legítimamente a la física teórica o no. En un libro breve, pero no por ello menos interesante y fecundo, tanto para la divulgación física como para la filosofía de la ciencia, Sobre la teoría de la relatividad especial y general, Albert Einstein (1917, 69) afirma que «El sino más hermoso de una teoría física es el de señalar el camino para establecer otra más amplia, en cuyo seno pervive como caso límite». Estas palabras de Einstein me sirvieron de punto de partida para enfrascarme en el capítulo IV de mi Éxito, razón y cambio en física con una de las cuestiones más relevantes de la metodología de la física teórica para la filosofía de la ciencia, en particular para el problema de la inconmensurabilidad entre teorías, a saber, la de la existencia de casos límite en física. La importancia teórica y filosófica de la idea de Einstein de interreducción fue inmediatamente reconocida tanto por físicos como por filósofos de la ciencia, especialmente Karl Popper, como ilustro en el capítulo mencionado de mi libro anterior. En esta línea, en uno de los libros de divulgación a los que nos tiene acostumbrados, El universo en una cáscara de nuez, del año 2001, en el capítulo 7, Stephen Hawking utiliza la metáfora de las muñecas 75

META, MÉTODO Y MITO EN CIENCIA

rusas, cada una de las cuales representa un nivel de comprensión teórica de la Naturaleza, como alegoría de la idea einsteiniana de reducción interteórica. Me alegra recordar esta idea de Hawking, porque dos años antes, en un coloquio para Humboldtianos de España y Portugal, celebrado en septiembre de 1999 en la Universidad de la Coruña, presenté una ponencia, en alemán, titulada «La Matrioshka como metáfora del progreso téorico en la física», con la que trataba de ilustrar la idea einsteiniana de incorporación de teorías antiguas en el seno de teorías nuevas como casos especiales de estas. El propio Hawking sugiere también esta misma metáfora, cuando en su Historia del Tiempo (p. 215), habla de «cajas dentro de cajas» para denotar sucesiones de teorías cada vez más refinadas. Este es el asunto que, a través de la idea de unificación, da pie en el capítulo presente para acabar reconociendo la importancia que la noción popperiana de falsabilidad tiene en filosofía de la física. 2.  UNIFICACIÓN EN FÍSICA TEÓRICA Y FALSABILIDAD EN TEORÍA DE LA CIENCIA

La unificación es la meta más apreciada en física. Esta es la tesis de Lee Smolin (2007, 18). La unificación, asevera Smolin, es el motor del progreso científico. Además, una buena teoría unificada debe ofrecer predicciones que nadie antes habría pensado hacer, pero, lo que es lo más importante: «las predicciones tienen que ser confirmadas experimentalmente» (p. 20) Esto es lo que distinguía precisamente, a principios de los años ochenta del siglo pasado, al Modelo Estándar de la Física de Partículas Elementales (MEFPE)1, la teoría explicativa de partículas y fuerzas, excluida la gravitación, y también a la Teoría General de la Relatividad. Ambos fueron capaces de resistir todo tipo de pruebas. ¡Precisamente el requisito que Popper exige a toda teoría para ser considerada científica! Veamos el párrafo siguiente: «En ciencia, para que una teoría sea creída, debe hacer una predicción nueva, y distinta de las predicciones de teorías previas, de un experimento aún no realizado. A fin de que este experimento sea significativo debemos estar en condiciones de conseguir un resultado que discrepe de la predicción. Cuando este es el caso, decimos que una teoría es falsable —susceptible de ser mostrada falsa—. La teoría también tiene que ser confirmable: tiene que ser posible verificar una predicción nueva que solo ella hace. Solo cuando 1. Este Modelo es el resultado completado en 1973 de la unión del de WeinbergSalam y de la Cromodinámica cuántica (QCD). Para Smolin (2007, 62) es el gran orgullo de los físicos. Un esquema muy completo de MEFPE lo presenta Brian Greene (2001, n. 1, cap. 1).

76

DEL FETICHISMO DE LA TESTABILIDAD AL COMPROMISO CON LA FALSABILIDAD

una teoría ha sido testada y los resultados concuerdan con ella la ascendemos a los niveles de las teorías verdaderas». La historia de la física es ciertamente la historia de grandes unificaciones: la de masa inercial y masa gravitacional, así como la Gran Síntesis newtoniana de fenómenos terrestres y celestes; la unificación por Maxwell de los campos eléctricos y magnéticos; la unificación de espacio y tiempo, masa y energía por la teoría especial de la relatividad de Einstein, así como de gravedad y geometría, aceleración y gravitación por la teoría general de la relatividad; la unificación de ondas y partículas por la mecánica cuántica, y la de partículas y campos por la teoría cuántica de campos; la Gran Unificación de quarks y leptones (electrones y neutrinos) por SU(5) de Howard Georgi y Sheldon Glashow; la unificación de electromagnetismo y fuerza débil por Weinberg-Salam; la unificación de fermiones y bosones (materia y fuerzas) por la teoría de la Supersimetría; la unificación de la gravedad y demás fuerzas, todas las partículas y todas las fuerzas de la Naturaleza (muchas más de las observadas), por la Teoría de Supercuerdas, según la cual las cuatro fuerzas y todas las partículas materiales son estados resultantes de las vibraciones de cuerdas. No todos los intentos de unificación dieron sus frutos empero. Por ejemplo SU(5) hay que considerarla un intento fallido. Refutado, en sentido de Popper. La idea de la Gran Unificación, dice Smolin (2007, 63-64) «no consistía solo en unificar las fuerzas, sino en inventar una simetría que transformara a los quarks [las partículas regidas por la fuerza fuerte] en leptones [las partículas regidas por la fuerza electrodébil]». Y tenía a su favor nada menos que «SU(5) explicaba todas las predicciones del modelo estándar, y, todavía más, hacía predicciones nuevas». En concreto, una de estas predicciones era que los quarks deberían poder transformarse en electrones y neutrinos «porque en SU(5) quarks, electrones y neutrinos son manifestaciones diferentes del mismo tipo subyacente de partícula». El problema que planteaba esta predicción es que como los quarks están confinados componiendo hadrones (neutrones y protones) y mesones, y no se encuentran en estado libre, la desintegración de un quark implicaría, p. e., la de un protón, con lo que los protones dejarían de ser partículas estables. Claro está, sería terrible para la estabilidad del cosmos que los hadrones y mesones se descompusieran con una tasa significativa de desintegración. Así que, como el cosmos es razonablemente estable, la desintegración de los protones debería ser muy lenta: una tasa, dice Smolin, del orden de 1033 años. Pero resulta que la edad actual del Universo es de unos 1010 años. Luego tendríamos que esperar aún mucho tiempo para constatar la desintegración de un protón. Como no disponemos de tanto tiempo —para dentro de 1020 años no quedará rastro de nuestro sistema solar— debemos ingeniár77

META, MÉTODO Y MITO EN CIENCIA

noslas para comprobar la hipótesis de la desintegración de los protones. Veamos cómo Gerard ‘t Hooft (2001, 193-194) resuelve el problema: «Nadie tiene la paciencia de esperar 1030 años (nuestro universo tiene ‘solamente’ alrededor de 1010 años de vida). Sin embargo, si se toman 1030 protones juntos se podría esperar que, por término medio, se desintegraran varios de ellos. Una piscina de tamaño mediano puede acomodar fácilmente 1032 protones en forma de agua y, hoy en día, se pueden construir aparatos suficientemente sensibles para detectar la desintegración de un simple protón. [...] No se ha podido identificar con certeza ninguna desintegración de un protón. [...] El modelo SU(5) de Georgi-Glashow está acabado». Esta conclusión la corrobora Lee Smolin (2007, 63-64): «Hemos esperado lo suficiente para saber que la gran unificación SU(5) es falsa». Claro, que como dice Smolin, si a uno le resulta difícil digerir que esta teoría pueda ser falsa, entonces puede añadir más simetrías y partículas de forma que haya más constantes que ajustar y conseguir que la desintegración de los protones se convierta en un evento tan raro como se quiera. «Así se puede salvar a la teoría del fracaso experimental» (Smolin, op. cit., 65). Pero no parece muy elegante. Una situación parecida se da en supersimetría, una teoría que postula que para cada fermión, por ejemplo, un electrón, existe un bosón —una partícula con espín 0—. A este bosón supercompañero se le da el nombre de superelectrón, y, por brevedad, se le llama selectrón. Se trata de una forma de unificación de bosones, que son las partículas encargadas de transmitir fuerzas, y fermiones que son partículas materiales. Bueno, por la misma razón que debería haber selectrones, debería haber también squarks, sneutrinos, y, en general, sleptones, y debería haber también fotinos, que son los fermiones supercompañeros de los fotones, que son bosones. Es decir, cada partícula debería tener una partícula simétrica, eso sí, hasta ahora desconocida. La confirmación de la supersimetría, señala Brian Greene (2001, 416), «sería un hito importante para la teoría de cuerdas». O «Su confirmación experimental constituiría una prueba irrefutable, aunque circunstancial, para las cuerdas». Y finalmente, «Desde luego, podemos ser aún más optimistas y esperar que durante la próxima década [...] los conocimientos sobre la teoría de cuerdas progresarán lo suficiente para que se pueda hacer predicciones detalladas sobre las superparejas antes de su esperado descubrimiento. La confirmación de estas predicciones sería un hito monumental en la historia de la ciencia». Ahora bien, el problema es, señala Smolin, que ningún experimento ha evidenciado en más de treinta años la existencia de superparejas, tal como Supersimetría preconiza. Bueno, no hay problema: Se puede explicar por qué ninguna superpartícula ha sido observada nunca en 78

DEL FETICHISMO DE LA TESTABILIDAD AL COMPROMISO CON LA FALSABILIDAD

ningún acelerador. Basta complicar la teoría añadiendo más constantes ajustables de forma que resulte prácticamente imposible observar experimentalmente las predicciones de la teoría. Sigue sin parecer elegante. Smolin (2007, 68-71) es muy rotundo al respecto: «esta maniobra hace a la teoría difícil de salvar pues se puede explicar siempre cualquier resultado negativo ajustando las constantes». Y como concluye más adelante (pp. 78-79), la supersimetría «Es el tipo de teorización que no puede fallar ya que cada discrepancia con los datos puede ser eliminada retorciendo ciertas constantes». Y, lo que es más importante para la metodología de la física, «el hecho de que la supersimetría no cumple todo lo que esperábamos sugiere que sus proponentes se sitúan fuera en un limbo muy lejos del tronco fuerte de la ciencia empírica». O sea, la estrategia de inmunización de una teoría frente a su inminente falsación es una posibilidad, no muy elegante desde luego, de hacer ciencia. Esta estrategia podría ser considerada legítima empero si, como Popper sugiere, la introducción de hipótesis ad hoc al objeto de salvar momentáneamente del fracaso a teorías seriamente amenazadas, contribuyese a incrementar su falsabilidad, es decir a hacerlas más falsables, más sensibles al fracaso. La falsabilidad de una teoría, es decir, la vulnerabilidad empírica de una teoría es, para Popper, la garantía de su cientificidad. En su primera publicación filosófica «Un criterio del carácter empírico de los sistemas teóricos», aparecida en la revista Erkenntnis, número 3, en 1933, y reimpresa como Apéndice *I en su Lógica de la investigación científica, Karl Popper, parafraseando a Einstein2, mantiene que «En cuanto las proposiciones de una ciencia se refieren a la realidad, tienen que ser falsables, y si no son falsables es que no se refieren a la realidad». O sea, para que un enunciado sea genuinamente empírico, y por tanto científico, tiene que poder ser mostrado falso, si lo es. Dicho en términos más técnicos: para que una teoría sea considerada genuinamente científica, no es admisible que la clase de sus posibilidades de falsación sea vacía (cf. Rivadulla 2004, 92). Este es el criterio popperiano de demarcación entre ciencia y no ciencia que tan famoso ha hecho a Sir Karl. Así, cuanto más falsable, e.d., más vulnerable empíricamente es una teoría, tanto mejor. No tiene nada de extraño pues, que imbuido de un espíritu popperiano indudable, Lee Smolin (2007, 237) refiriéndose a esa gran esperanza de la física teórica contemporánea, la gravedad cuántica, sostenga: «Sería maravilloso tener una predicción real de una teoría cuántica de la gravedad y luego que se muestre que es falsa por una observación inequívoca. La única cosa mejor que esto sería que el experimento confirmara la predicción. En ambos casos estaríamos haciendo ciencia real».

2. Cf. Rivadulla (2004, cap. III § 1).

79

META, MÉTODO Y MITO EN CIENCIA

Y si la falsabilidad es un desiderátum en metodología de la ciencia, ¿por qué habría de estar prohibido contribuir a incrementar la falsabilidad de una teoría ya en peligro? A lo mejor resultaría que, aumentando el número de prohibiciones que la teoría le impone a la Naturaleza, la teoría se salva. Y a lo peor sucede que, haciendo esto, la teoría definitivamente fracasa. Curiosamente estas dos circunstancias se dieron en el siglo xix en el contexto de la mecánica celeste newtoniana. El astrónomo Urbain Le Verrier (1811-1877) usó dos veces el mismo tipo de hipótesis ad hoc —la existencia de un planeta aún no conocido— para explicar anomalías en las órbitas de otros, y así salvar a la mecánica celeste newtoniana de una falsación inevitable. En uno de los dos casos la estratagema tuvo éxito. Fue cuando predijo en 1845 la existencia del planeta Neptuno cuya interacción gravitacional con Urano explicaría las irregularidades observadas en la órbita de este. El 24 de septiembre de 1846 el astrónomo alemán Johann Gottfried Galle (1812-1910) localizó a Neptuno a menos de un grado de diferencia de la posición predicha por Le Verrier. Pero Le Verrier también había constatado el avance ‘anómalo’ del perihelio de Mercurio. Para explicar este fenómeno en el marco newtoniano, postuló ad hoc la hipótesis de la existencia de un planeta desconocido, situado entre el Sol y Mercurio, al que le dio el nombre de Vulcano. Su inexistencia hirió de muerte a la mecánica celeste newtoniana, pues la explicación teórica de este fenómeno la dió finalmente Albert Einstein al deducir en el contexto de la teoría general de la relatividad la fórmula aplicable al cálculo del perihelio de todos los planetas, que en el caso particular de Mercurio daba el valor hallado cien años antes por Le Verrier3. En ambos casos, pues, Le Verrier, recurrió al uso de hipótesis ad hoc. ¿Era legítima esta estratagema? Indudablemente, sí. Pues por medio de ella crecía la falsabilidad de la mecánica celeste newtoniana, es decir, aumentaba su sensibilidad, susceptibilidad o vulnerabilidad empírica, al añadir una predicción nueva que podía comprobarse observacionalmente o no. Popper aprueba pues el uso de hipótesis ad hoc, siempre que con ellas se consiga incrementar la falsabilidad de una teoría. Sir Karl (1935, §§ 6, 20) justifica la introducción en ciencia de hipótesis auxiliares ad hoc con el objetivo indicado. Las estratagemas ad hoc seguidas en gran unificación y supersimetría se alejan empero claramente de este objetivo, por lo que no son tolerables en ciencia: como señala Smolin, alejan a la física teórica de la ciencia empírica en lugar de consolidarla más firmemente como actividad científica genuina.

3. Sobre este hecho histórico ver Rivadulla (2003, 216-217 y 2004, 101-102).

80

DEL FETICHISMO DE LA TESTABILIDAD AL COMPROMISO CON LA FALSABILIDAD

3.  LA TEORÍA DE CUERDAS ENTRE LAS CUERDAS

Llegados a este punto no debo aplazar más una incógnita que intencionadamente he creado un par de páginas antes, y que a más de uno no le habrá pasado por alto. Y es que el autor de la cita, que he incluido al comienzo de la sección anterior, que comienza con el párrafo «En ciencia, para que una teoría sea creída, debe hacer una predicción nueva, y distinta de las predicciones de teorías previas, de un experimento aún no realizado», aunque lo parezca muchísimo, no es Popper. Podría encontrarse ciertamente en algún libro de Popper, el propio Popper podría haberla escrito. Pero su autor es Smolin (2007, Introduction, xiii). Vamos a encarar entonces el que podríamos denominar problema de la cientificidad de la teoría de cuerdas. Brian Greene (2001) y Lee Smolin (2007) presentan de forma divulgativa la historia de la teoría de cuerdas, teoría supersimétrica de cuerdas, o simplemente de supercuerdas. El detonante de la misma son unas ideas de Gabriele Veneziano en 1968 sobre la interacción fuerte. Pero es en 1970 cuando Leonard Susskind y otros desarrollan un modelo de cuerda unidimensional, que reemplaza a las partículas elementales y se presenta como teoría unificada, ya que todas las partículas y todas las fuerzas —las cuales, según el Modelo Estándar de la Física de Partículas Elementales, son transportadas por bosones— son modos de vibración de una cuerda fundamental. Brian Greene (2001, 166) considera un hecho crucial de la teoría de cuerdas que «los diferentes modelos vibratorios de una cuerda fundamental dan lugar a diferentes masas y cargas de fuerza». Además, el gravitón, la partícula intermediaria en la interacción gravitacional encajaría perfectamente dentro de este modelo. Así pues, al incluir a la gravedad, cosa que MEFPE no lograba, la teoría de cuerdas se afianzaba como una teoría del todo. La primera versión de la teoría de cuerdas recibe el nombre de teoría bosónica de cuerdas (cf. Greene 2001, 203), pues todos los modelos de vibración de la cuerda fundamental tienen espín entero, con lo que no hay modelos de vibración fermiónicos4. Entre 1984 y 1986 (Greene 2001, 161) se produce la ‘primera revolución’ en teoría de cuerdas al incorporar la supersimetría, lo que permite el desarrollo de modelos de vibración fermiónicos. No obstante esta incorporación se produce de cinco maneras distintas, lo que da origen a cinco teorías diferentes de supercuerdas. La gran esperanza de la teoría de supercuerdas la proporciona la propuesta de Edward Witten en 1995 de una teoría M, se 4. En su Historia del Tiempo, Stephen Hawking (1988, 205 ss.) hace también una breve presentación de la historia de la teoría de cuerdas hasta la fecha de la publicación de su libro.

81

META, MÉTODO Y MITO EN CIENCIA

gún la cual las cinco teorías de cuerdas serían duales. A decir de Greene (p. 339) «la teoría M proporciona un sustrato unificado para llevar las cinco teorías de cuerdas a un marco común». Esta produce la ‘segunda revolución’. La teoría M, cuyo misterioso nombre aún nadie es capaz de interpretar de modo definitivo, añade empero un problema al de encontrar sus ecuaciones completas y exactas: exige once dimensiones. No obstante, si la esperanza es lo último que se pierde, Brian Greene (2001, 418-419) ofrece un excelente ejemplo de este dicho pues afirma que «mediante la teoría de supercuerdas y su evolución para dar lugar a la teoría M ha surgido finalmente un poderoso y convincente marco en el que se fusionan la mecánica cuántica, la relatividad general, las fuerzas nucleares fuerte y débil y la fuerza electromagnética». No soy ningún iniciado en teoría de cuerdas. Pero simpatizo tanto filosóficamente con Smolin que apuesto por él. Por ello voy a presentar toda una serie de problemas que he creído constatar en el amargo, sistemático y concienzudo reproche de Smolin (2007) a esta teoría. Son los siguientes: Problema 1: Como teoría fundamental que pretenda ser consistente con la teoría de la relatividad y la mecánica cuántica, en su primera versión la teoría de cuerdas sin supersimetría predecía, entre otras cosas, que el espacio debía tener veinticinco dimensiones, que deberían existir los taquiones, partículas que se mueven a velocidades superiores a la de la luz, y que no debería haber fermiones, y por tanto no debería haber ni quarks, ni electrones, etc., o sea no existiría el mundo tal como lo conocemos. Una teoría acerca del mundo, pero sin mundo. Problema 2: La teoría supersimétrica de cuerdas, ahora ya sin taquiones, postula un universo de nueve dimensiones espaciales, pero también más partículas y más fuerzas de las que han podido ser observadas, debido a la existencia de supercompañeros de bosones y fermiones, no detectados en experimentos, y de las fuerzas (desconocidas hasta el presente, por lo menos) que incorporan a la teoría. Problema 3: Esta teoría adolece de una grave falta de unicidad. Smolin es devastador al respecto: en los años noventa había una lista de cientos de miles de versiones diferentes de la teoría de cuerdas. Ante el problema de dar cuenta de la recién descubierta energía oscura, Brian Greene (2001, 251) se pregunta, para el caso de que las observaciones indiquen que el valor de la constante cosmológica es distinto de cero, si la teoría de cuerdas puede proporcionar una explicación de esta eventualidad, y añade: «Si los especialistas en teoría de cuerdas son capaces de superar este desafío —que aún no lo son— esto aportaría una prueba irrebatible en apoyo de la teoría». Se trata por cierto, de la segunda vez 82

DEL FETICHISMO DE LA TESTABILIDAD AL COMPROMISO CON LA FALSABILIDAD

que Greene afirma que un descubrimiento constituiría una prueba irrebatible de la verdad de la teoría de cuerdas. La primera, lo vimos unas líneas más arriba, tenía lugar en relación con el descubrimiento experimental de partículas superparejas predichas por supersimetría, y por tanto por la propia teoría de supercuerdas. Pues bien, según Smolin, en los últimos años noventa, el número de teorías de cuerdas que optaban por dar un valor positivo de la constante cosmológica, compatible con las observaciones, ascendía a la friolera de 10500. Lo que en definitiva, además de constituir un absurdo, podía entenderse como una forma de salvar a la teoría de la falsación. La conclusión de Lee Smolin es demoledora y desalentadora para las expectativas que en ella deposita Brian Greene: la teoría de cuerdas se acomoda a cualquier resultado experimental, por lo que ni puede ser refutada ni confirmada (Smolin 2007, xiii-xiv y 158-159). Problema 4: No existe una teoría de cuerdas completa y coherente. Es más, señala Smolin (2007, xiv-xv), esta teoría no se ha escrito, desconocemos cuáles son sus principios fundamentales, por lo que en realidad no sabemos en qué consiste. Además, según la propuesta de Edward Witten, la nueva teoría de cuerdas, llamada teoría M, de la que solo propuso el nombre —algo así como el título de un libro con sus páginas en blanco— debería tener una dimensión espacial más, o sea diez. Once en total, incluyendo la dimensión temporal. Pronto la teoría cedió paso a la teoría de branas, de membranas. Problema 5: Para Einstein, la geometría del espacio y el tiempo es dinámica, no está fijada de una vez por todas, por eso la teoría general de la relatividad es una teoría independiente del trasfondo. Una teoría supersimétrica de cuerdas es incompatible con un espaciotiempo que evoluciona en el tiempo, a veces incluso dramáticamente, como inmediatamente después del Big Bang o en las proximidades del horizonte de sucesos de un agujero negro. No siendo pues una teoría independiente del trasfondo, no es un candidato apropiado para una teoría cuántica de la gravedad. Esto afecta en particular a la teoría M, que debería ser independiente del trasfondo, por lo que esta no es realmente una teoría, sino más bien una conjetura frustrante (Smolin 2007, 82, 145-147, 184, 239). La conclusión la ofrece Smolin mismo de forma devastadora en la introducción de su libro, p. xvii: «Si los teóricos de cuerdas están equivocados [...] Si las nuevas dimensiones y simetrías no existen, entonces contaremos a los teóricos de cuerdas entre los mayores fracasos de la ciencia, como aquellos que continuaron trabajando con epiciclos ptolemaicos mientras Kepler y Galileo avanzaban. La suya será una advertencia sobre cómo no hacer ciencia, sobre cómo no permitir que la 83

META, MÉTODO Y MITO EN CIENCIA

conjetura teórica supere los límites de lo que puede ser argumentado racionalmente que se está empezando a fantasear». Nada tiene de extraño pues que el número de detractores de la teoría de cuerdas entre los físicos punteros no sea pequeño. Richard Feynman, citado por Smolin (2007, 125), le reprocha popperianamente a la teoría de cuerdas que no intente testar sus ideas, y que ‘cocine’ una explicación para todo lo que choca con los experimentos. También Sheldon Glashow, igualmente citado por Smolin, acusa popperianamente a los físicos de supercuerdas de no haber hecho la más mínima predicción experimental. Más demoledor se muestra Daniel Friedan, quien citado también por Smolin (op. cit., 193-194), reconviene popperianamente a la teoría de cuerdas no ofrecer «explicaciones del conocimiento existente del mundo real y que no puede hacer predicciones concretas [...] La teoría de cuerdas carece de credibilidad como candidata a teoría de la física». Por su parte Gerard ‘t Hooft (2001, 214 y 215) dice literalmente, refiriéndose a la teoría de cuerdas, que «no tenemos teoría en absoluto», «yo no llamaría ‘teoría’ a la teoría de cuerdas sino más bien ‘modelo’ o, ni siquiera eso, solo conjetura». Stephen Hawking (2002) muestra sin embargo un moderado optimismo, pero el propio Leonard Susskind (2009, 359-360), defensor de la teoría, reconoce que «La teoría de cuerdas se descubrió por accidente y su desarrollo procedió a trompicones. En ningún momento tuvimos un conjunto global de principios o un pequeño conjunto de ecuaciones definitorias. Incluso hoy consiste en una malla interrelacionada de hechos matemáticos que se han mantenido unidos con notable consistencia, pero esos hechos no llegan a ser un conjunto compacto de principios como el que caracteriza la teoría de la gravedad de Newton, la teoría de la relatividad general y la mecánica cuántica». Y el entusiasta de la teoría de cuerdas, Brian Greene se ve obligado a reconocer (2001, 34, 162 y 311) que «las matemáticas de la teoría de cuerdas son tan complicadas que, hasta ahora, nadie conoce ni siquiera las ecuaciones de las fórmulas exactas de esta teoría. Lo que sí es cierto es que los físicos conocen únicamente unas aproximaciones de dichas ecuaciones, e incluso estas ecuaciones aproximadas resultan ser tan complicadas que hasta la fecha solo se han resuelto parcialmente». Y «Tan solo determinar cuáles son las ecuaciones ha resultado ser tan difícil que, hasta ahora, se han deducido únicamente versiones aproximadas de las mismas. Por este motivo, la teoría de cuerdas ha quedado limitada al cálculo de soluciones aproximadas para ecuaciones aproximadas», y también «las ecuaciones de la teoría de cuerdas son tan complicadas que nadie conoce su forma exacta. Algunos físicos han conseguido tan solo escribir versiones aproximadas de las ecuaciones. Son estas ecuaciones aproximadas las que hacen que una teoría de cuerdas difiera significativamen84

DEL FETICHISMO DE LA TESTABILIDAD AL COMPROMISO CON LA FALSABILIDAD

te de otra. Y son también estas ecuaciones aproximadas las que, en el contexto de cualquiera de las cinco teorías de cuerdas, producen numerosas soluciones, un cuerno de la abundancia lleno de universos no deseados». Y en pp. 416-417, considera que el obstáculo teórico más importante a superar por la teoría de supercuerdas es el de «conseguir una formulación completa de la teoría de cuerdas/teoría M en la que no intervengan las perturbaciones». 4. CONCLUSIÓN

Resumo a modo de conclusión los reproches que Smolin (2007) le hace a la teoría de cuerdas: «no hay ni una sola predicción que pudiera ser confirmada o falsada por medio de un experimento realizable» (p. 128), «no hay ninguna posibilidad real de confirmación o falsación definitiva de una sola predicción suya por medio de un experimento realizable» (p. 179), «no existe ninguna posibilidad de falsar la teoría —probar que es falsa— por medio de un experimento u observación que discrepe de las predicciones de la teoría» (p. 193). A la vista de lo expuesto cabe concluir que la teoría de cuerdas es filosóficamente inviable, pues no satisface el requisito imprescindible de cientificidad: no es falsable. Esto constituye para mí un ejemplo fantástico de la extraordinaria fertilidad de las relaciones entre ciencia y filosofía, y de la vigencia indiscutible de la filosofía de la ciencia, del triunfo de la filosofía.

85

IV LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

1. INTRODUCCIÓN

En el segundo periodo de la filosofía actual de la ciencia, a partir de mediados del siglo pasado, Charles S. Peirce se deja notar tímidamente de la mano de Norwood Russell Hanson (1958, 85-86), quien se refiere a él en su condición de traductor del término aristotélico apagogué como abducción o retroducción. La inferencia de Kepler del carácter elíptico de la órbita de Marte constituiría un caso paradigmático de abducción. La filosofía de la ciencia del último siglo se centró en buena medida en la discusión en torno al problema de la inducción —como hemos visto en la Sección 3 del Capítulo II— relegando a la abducción al olvido o la ignorancia, con la temprana excepción de Hanson. La controversia Popper-Carnap de los años cincuenta en torno a la lógica inductiva, la contribución de Reichenbach al problema de la probabilidad de las hipótesis, y la incesante campaña antiinductivista de Popper, quien con especial insistencia se empeñó en mostrar la imposibilidad de la probabilidad inductiva, llenaron buena parte de la actividad de los filósofos de la ciencia del siglo pasado. La situación de la abducción en la metodología de la ciencia hasta entrados los años ochenta del siglo pasado es de completo abandono. La propia palabra abducción está ausente en toda la obra de Popper, así como prácticamente en obras sobre Popper. Por citar un caso reciente: en los tres volúmenes dedicados a rememorar, analizar, y homenajear su obra, Karl Popper. A Centenary Assessment, editados por I. Jarvie, K. Milford y D. Miller (2006), no existe la menor referencia a la abducción, aunque el volumen II incluya varias discusiones críticas de diferentes aspectos del problema de la inducción. El propio nombre de Peirce —de quien Popper tuvo conocimiento en 1952— apenas aparece en la 87

META, MÉTODO Y MITO EN CIENCIA

obra de Sir Karl. Así, en su «Tercera comunicación sobre el grado de corroboración», 1958, Apéndice *IX a Lógica de la investigación científica, Popper solo menciona que Peirce ha suscitado la cuestión del peso de la evidencia. Y en El desarrollo del conocimiento científico, 1963, p. 226, p. 231 n. 17 y p. 240, Popper se refiere a él con brevísimas menciones en relación a la idea de verdad como principio regulativo, a la idea de aproximación a la verdad, etc. En el volumen 2 de su Postscript a LIC, y solo en el Prefacio de 1982, Peirce es mencionado entre paréntesis por Popper con relación al determinismo, al igual que en Conocimiento objetivo, 1972, capítulos VI y VIII. La ausencia de menciones de Peirce es total tanto en Sociedad abierta como en La miseria del historicismo. Este olvido resulta tanto más extraño cuanto que Medawar (1974) sostiene que Peirce, juntamente con William Whewell y Claude Bernard, anticipa la idea popperiana de que la ciencia siempre comienza con problemas e hipótesis. Y Eugene Freeman y Henrik Skomilowski (1974) aseveran que incluso la noción popperiana de falsación había sido anticipada ya por Peirce (CP, 1.68 y 1.120). Se trata de artículos recogidos en el libro de Schilpp La filosofía de Karl Popper. En la época de eclosión de la filosofía actual de la ciencia, Carl Hempel omite también toda referencia a Peirce tanto en Filosofía de la ciencia natural, 1966, como en Aspectos de la explicación científica, 1965. Rudolf Carnap solo le menciona una vez en Fundamentos filosóficos de la física, 1966, capítulo 26, juntamente con Dewey, como miembros de la corriente pragmatista. Y Ernest Nagel sí se refiere a Peirce varias veces en La estructura de la ciencia, 1961, pero solo en relación al instrumentalismo, la estadística y el operacionalismo. Por su parte, los filósofos de la segunda mitad del siglo xx Kuhn, Lakatos y Feyerabend no le prestan tampoco atención a la abducción, y otro tanto sucede con Wolfgang Stegmüller en su magna obra Problemas y resultados de la teoría de la ciencia y la filosofía analítica. Aún hoy en el siglo  xxi la entrada ‘abducción’ no siempre aparece en todos los diccionarios de filosofía de la ciencia. No obstante, a pesar del olvido por buena parte de la filosofía oficial de la ciencia, la abducción ha visto compensada su relegación por la aplicación sistemática que de ella se hace en las ciencias de la Naturaleza desde los inicios mismos del pensamiento científico de Occidente hasta nuestros días. Por citar unos pocos ejemplos: — Desde la astronomía antigua hasta Copérnico y Kepler la historia de la ciencia es la de sucesivas hipótesis geométricas propuestas abductivamente para dar cuenta de los movimientos planetarios. — Una de las más celebradas implementaciones de la abducción es precisamente la propuesta de Kepler del carácter elíptico de la órbita de Marte (Peirce, CP, 1.72, 1.73, 1.74; Hanson 1958, 84-85). 88

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

— La postulación por Ernest Rutherford del modelo atómico planetario en 1911 sobre la base observacional de la dispersión de partículas alfa por una placa delgada de oro, experimento llevado a cabo por sus colaboradores Geiger y Marsden en 1910, es igualmente un ejemplo espléndido de razonamiento abductivo. — Un caso particularmente interesante de abducción es la afirmación de Alfred Lothar Wegener (1880-1930) de la hipótesis de la deriva continental en su El origen de los continentes y de los océanos (1915). — La hipótesis de Charles Darwin acerca de la selección natural en El origen de las especies, 1859, fue propuesta también de modo abductivo en base de la abundante evidencia biológica y fósil disponible (cf. Putnam 1981, 197-198). No resulta nada de extraño, pues, que la abducción empiece a atraer la atención de filósofos contemporáneos de la ciencia, que ven en ella una metodología de descubrimiento científico, al mismo tiempo que una inferencia a la mejor explicación. Es el caso de Josephson (1994), Magnani (2001), Flach y Kakas (2000), Aliseda (2006) y otros, a los que cada vez más se suman nuevos filósofos de la ciencia. Para L. Magnani (2001, 17-18), «La abducción teórica es el proceso de inferencia de ciertos hechos y/o leyes e hipótesis que hacen plausibles algunas frases, que explican o descubren algún fenómeno u observación (eventualmente nuevo); es el proceso de razonamiento en el que se forman y evalúan hipótesis explicativas». Charles S. Peirce (CP, 5.171) sostenía que «La abducción es el proceso de formación de una hipótesis explicativa. Es la única operación lógica que introduce una nueva idea». La idea de abducción la introduce poco a poco en un proceso que posiblemente abarca entre 1866 y 1907. Está justificado pues incluir a la abducción peirceana en el contexto de descubrimiento científico: «La abducción consiste en estudiar hechos e inventar una teoría que los explique» (CP, 5.145). La forma del argumento abductivo es, para Peirce (CP, 5.189), la siguiente (compárese con la forma que asume la inducción para Russell en la Sección 3 del capítulo II): El hecho sorprendente, C, es observado; Pero si A fuera verdadera, por supuesto se daría C; Luego hay razón para sospechar que A es verdadera. El carácter sorprendente de los hechos observados es una constante de naturaleza pragmática que vamos a encontrar en todos los ejemplos que veremos más adelante de abducciones de hipótesis en las más diversas ciencias de la naturaleza. 89

META, MÉTODO Y MITO EN CIENCIA

A partir de mediados de los años sesenta, por obra de Gilbert Harman (1965, 88-89; 1968, 165), la abducción se identifica con inferencia a la mejor explicación. Y en adelante esta descripción sustituye ampliamente al término original de Peirce. Paul Thagard (1978, 77) reconoce por ejemplo que «inferencia a la mejor explicación consiste en aceptar una hipótesis sobre la base de que proporciona una mejor explicación, frente a hipótesis alternativas, de la evidencia. Argumentamos a favor de una hipótesis o teoría aduciendo que se trata de la mejor explicación de la evidencia». Y John R. Josephson (1994, 5) afirma que «La abducción, o inferencia a la mejor explicación, es una forma de inferencia que va de datos que describen algo a una hipótesis que mejor explica o da cuenta de estos datos. Así pues la abducción es una forma de inferencia formadora de teoría o interpretativa». Las abducciones comparten con las generalizaciones inductivas según Josephson (1994, 13) que «Son inferencias ampliativas; esto es, al final de un proceso abductivo, habiendo aceptado una mejor explicación, podemos tener más información que antes. La abducción trasciende la información de sus premisas y genera nueva información que de ninguna manera estaba codificada allí previamente». Y las abducciones discrepan de las deducciones en que «Las deducciones son conservadoras de la verdad, mientras que se puede decir que las abducciones exitosas son productoras de verdad». La abducción es pues la forma de razonamiento por medio de la cual se selecciona tentativamente como la más razonable aquella hipótesis o modelo, de entre los que compiten entre sí, que, a criterio del investigador, mejor compatibilidad muestra con los datos disponibles. Se trata en todo caso de una explicación tentativa, es decir, falible, de los datos, por lo que hay que asumir que datos nuevos —prueba de evidencia adicional— puedan aparecer en detrimento de la explicación conjeturada, lo que haría razonable su revisión o su sustitución por una nueva que sea compatible tanto con los datos antiguos como con los nuevos. Como desde un punto de vista rigurosamente lógico la abducción no es más que una forma maquillada de la falacia de la afirmación del consecuente, la naturaleza epistémica de una hipótesis abducida no deja de ser nunca falible. En todo caso la abducción es una forma de inducción razonable. Ambas, inducción y abducción son formas de inferencias ampliativas. A pesar de su declarado antiinductivismo, y de su desprecio del contexto de descubrimiento, como en tantas otras ocasiones encontramos un precedente interesante del argumento abductivo en Popper (1963, 232) cuando explicita toda una paleta de situaciones en las que estaría legitimado decir que una teoría T2 se corresponde con los hechos mejor 90

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

que otra teoría competidora T1: cuando T2 hace afirmaciones más precisas, susceptibles de resistir pruebas más rigurosas; o cuando explica más hechos o más detalladamente; o cuando supera las pruebas ante las que T1 fracasó; o cuando sugiere pruebas nuevas, insospechadas desde el punto de vista de T1, y las supera; o cuando pone en relación problemas hasta entonces inconexos, etc. Para Popper esto basta para permitir una inferencia ampliativa —de tipo abductivo— del éxito a la verosimilitud, a la proximidad a la verdad. Aunque el propio Sir Karl no estuviera dispuesto a reconocerlo así. En realidad la abducción constituye una forma de descubrimiento muy usada en la metodología de la ciencia como los casos de Galileo, Kepler y Darwin ponen de manifiesto. El razonamiento abductivo fue usado efectivamente por Galileo y Kepler a favor de la teoría copernicana, así como por Charles Darwin a favor de su propia teoría de la evolución de las especies por selección natural. Entre los copernicanos, más allá del reconocimiento de los valores predictivos y estéticos del sistema copernicano, Kepler (1596, 1992, 76-77. Mis cursivas, A. R.) se enfrenta a quienes «pretendían que era posible que las hipótesis copernicanas fuesen falsas y sin embargo pudieran seguirse de ellas, como de auténticos principios, los verdaderos ‘fenómenos’. »[...] Pues, si se objeta que tanto se puede ahora como se podía antes decir lo mismo sobre las tablas y las hipótesis antiguas, a saber, que dan cuenta adecuada de los ‘fenómenos’, aunque aquellas fueron rechazadas como falsas por Copérnico, y se podría responder a Copérnico con el mismo argumento: esto es, que aunque dé una explicación magnífica de las apariencias, sin embargo se cae en el error respecto de las hipótesis. Respondo, en primer lugar, que las hipótesis antiguas no dan explicación alguna de muchos aspectos principales. Por ejemplo, desconocen las causas del número, cuantía y tiempo de las retrogresiones y por qué se ajustan como lo hacen con la posición y movimiento medio del Sol. Puesto que en todas estas cosas aparece en Copérnico un orden maravilloso, es preciso que también exista una causa de ello. [...] no pueden ser falsos los principios de Copérnico que continuamente logran dar explicación de tantos fenómenos, explicación desconocida para los antiguos en tanto que derivada de dichos principios». Por su parte Galileo (1983, 77 y 78. Mis cursivas, A. R.) intenta librar de escándalo la idea de que la movilidad de la Tierra es una verdad de facto y no una simple hipótesis instrumental acerca del acuerdo de los movimientos celestes observados con los cálculos astronómicos. En respuesta a quienes sostienen que «Copérnico, como astrónomo, únicamente sostuvo ex hypothesi el movimiento de la Tierra y la inmovilidad del Sol, por cuanto permitía salvar mejor las apariencias celestes y convenía mejor a los cálculos de los movimientos planetarios, sin que 91

META, MÉTODO Y MITO EN CIENCIA

en ningún momento tuviese tal hipótesis por verdadera en la naturaleza», Galileo asevera que «Copérnico se dispuso, [...], a investigar cuál podría ser en realidad el sistema del mundo, no ya pensando en la pura comodidad del astrónomo, cuyos cálculos habían sido satisfechos, sino para llegar a dilucidar tan importante problema de la filosofía natural, en el convencimiento de que si se habían podido salvar las simples apariencias con hipótesis falsas, mucho mejor podría hacerse de la mano de la auténtica constitución del universo. Provisto de un gran número de observaciones verdaderas y exactas acerca del movimiento de los astros [...], Copérnico se aplicó infatigablemente al descubrimiento de dicha constitución; entonces, inducido por la autoridad de autores antiguos tan numerosos como ilustres, procedió a considerar la hipótesis del movimiento de la Tierra y de la inmovilidad del Sol. [...] después de largas observaciones, y de rigurosas demostraciones, ese sistema le acabó pareciendo tan acorde con la armonía del universo que quedó plenamente convencido de su verdad. Así pues, no propuso esta hipótesis para satisfacer las exigencias del astrónomo puro, sino más bien para plegarse a la necesidad de la naturaleza». Con una filosofía de la ciencia semejante Charles Darwin escribe en relación a su propuesta evolucionista: «Difícilmente puede admitirse que una teoría falsa explique de un modo tan satisfactorio, como lo hace la teoría de la selección natural, las diferentes y extensas clases de hechos antes indicadas. Recientemente se ha hecho la objeción de que este es un método de razonar poco sólido; pero es un método utilizado al juzgar los hechos comunes de la vida y ha sido utilizado muchas veces por los más grandes filósofos naturalistas (El origen de las especies, cap. XV, Recapitulación y Conclusión). A fin de mostrar el funcionamiento de toda inferencia abductiva, que es la forma propia de descubrimiento en ciencias observacionales de la naturaleza, voy a recurrir seguidamente a la paleoantropología, cuya metodología presenta los rasgos característicos de toda ciencia eminentemente empírica: hechos sorprendentes, abducciones, coexistencia de hipótesis incompatibles, prueba de evidencia adicional, revisión de hipótesis, etcétera. En las ciencias observacionales de la Naturaleza, paleontología y geofísica por ejemplo, la explicación científica procede básicamente por abducción o inferencia a la mejor explicación. Podríamos pues afirmar que estas son el reino de la abducción y que constituyen un excelente banco de pruebas —pero no solo ellas— para el análisis de la metodología del descubrimiento científico.

92

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

2. PALEOANTROPOLOGÍA

La paleoantropología debe su origen como ciencia al descubrimiento en 1856 en una cueva en Feldhofer, Neanderthal, de unos fósiles de homínidos, que cinco años más tarde se identificaron como pertenecientes a una especie diferente a la nuestra. A esta especie nueva se le dio el nombre de Homo neanderthalensis. Desde entonces la ciencia de la evolución humana ha crecido rápidamente a medida que se descubrían fósiles de homínidos cada vez más antiguos, de los que Sahelanthropus tchadensis, descubierto en 2001, también conocido como Toumaï, constituye el antecesor común más antiguo hasta ahora encontrado de homínidos y chimpancés. Para la metodología de la ciencia la paleoantropología se ajusta al esquema de ciencia empírica típica: descubrimiento de hechos sorprendentes, propuesta de hipótesis explicativas, revisión de hipótesis a la luz de datos nuevos, lo que se conoce como prueba de evidencia adicional, abducción de nuevas hipótesis, etc. Es algo que los paleoantropólogos tienen muy asumido. En efecto, en un artículo sobre la comparación de los genomas de neandertales y humanos modernos James Noonan et al. (2006) afirman que «Nuestro conocimiento de los neandertales se basa en un número limitado de restos y artefactos a partir de los cuales debemos hacer inferencias sobre su biología, comportamiento y su relación con nosotros». Por su parte el español Carlos Lorenzo (2005, 103) señala que «La continua revisión de los esquemas evolutivos genera mucha desconfianza sobre la solidez de las explicaciones que se ofrecen en evolución humana. Pero hemos de tener en cuenta que los árboles filogenéticos son únicamente hipótesis evolutivas que se construyen sobre una base empírica que cambia constantemente. Lo normal es que ante nuevos datos dichas hipótesis se contrasten y si es necesario se modifiquen». Así pues, la paleoantropología: 1.  siguiendo el esquema abductivo de Peirce, parte de la existencia de hechos sorprendentes, como p. e. el descubrimiento en 1978 cerca del parque nacional del Serengeti en Tanzania de las pisadas de Laetoli, impresas hace 3,6 millones de años por tres individuos de Australopithecus afarensis. Este descubrimiento aportó una prueba importante a favor de la hipótesis de la bipedestación de los miembros de esta especie. Por su parte los sorprendentes descubrimientos entre 1994 y 1995, en la Sierra de Atapuerca, Burgos, llevaron a postular la existencia de una nueva especie, Homo antecessor, cuya existencia retrasó inicialmente la presencia en Europa del género Homo desde los 500 mil años a los 800 mil; 2. revisa continuamente hipótesis previamente aceptadas a la luz de datos nuevos, como la de Laitman-Lieberman de que los neanderta93

META, MÉTODO Y MITO EN CIENCIA

les no hablaban. Comparando dos huesos fósiles hioides conocidos de neandertales con otros dos del Pleistoceno medio descubiertos en la Sierra de Atapuerca, los miembros del equipo de Atapuerca afirman que «los hioides neandertales caen bien dentro de la moderna distribución humana, y que todos los fósiles de Homo son claramente diferentes de A. afarensis y de los simios africanos» (cf. Ignacio Martínez 2007, 4-5); 3.  asume la cohabitabilidad de hipótesis incompatibles sobre el origen de nuestra especie: la hipótesis multirregional de Franz Weidenreich frente a la hipótesis Out of Africa; 4.  reconoce que a veces los datos empíricos disponibles son insuficientes para llevar a cabo abducciones. Así, no hay base empírica suficiente para afirmar si Australopithecus garhi, que vivió hace 2,5 millones de años, precedió a Homo habilis en la producción de instrumentos líticos. Tampoco la hay para poder afirmar si Sahelanthropus tchadensis y Ardipithecus ramidus eran homínidos bípedos. Los descubrimientos en Atapuerca se prestan perfectamente para ilustrar las ideas precedentes. En julio de 1994, en el nivel 6 de la denominada Trinchera Dolina, en un estrato de unos 25 centímetros, Aurora Martín encontró 80 restos fósiles de homínidos y unos 200 útiles líticos del técnicamente conocido como Modo 1 —muy primitivo—. Su datación determinó que este registro pertenecía a finales del pleistoceno inferior, o sea, que debían tener una antigüedad de unos 800 mil años. Se trataba pues de un descubrimiento sorprendente —primera característica peirceana—, pues según la hipótesis entonces vigente los homínidos más antiguos conocidos en Europa occidental pertenecían a la especie Homo heidelbergensis, a los que se les atribuía una antigüedad de unos 500 mil años y que sería el antecesor común de Homo neanderthelensis y Homo sapiens. Esta evidencia nueva llevó a la conclusión de que los restos encontrados debían corresponder a una especie nueva. Para Arsuaga y Martínez (2006, 300): «En los fósiles de la Gran Dolina se observan rasgos primitivos en la dentición y otras partes del esqueleto, lógicos teniendo en cuenta que los fósiles tienen unos 800 mil años. En fósiles europeos posteriores no se encuentran ya estos caracteres arcaicos, razón por la que los humanos de la Gran Dolina no se consideran de la misma especie que fósiles como la mandíbula de Mauer, que tiene una edad de aproximadamente 500 mil años». Resumidamente, el razonamiento que llevó a los paleoantropólogos españoles a hipotetizar que se encontraban ante una especie nueva de homínido, desconocida hasta entonces, fue el siguiente: 1.  En primer lugar, una nueva sorpresa: el descubrimiento en 1995, también en TD6, de parte del esqueleto facial de un individuo joven, al que se bautizó como Chico de la Gran Dolina. Lo sorprendente de este 94

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

individuo es que ni mostraba los rasgos primitivos de Homo ergaster, ni los rasgos derivados de Homo heidelbergensis, heredados por sus sucesores neandertales, sino que, como afirma Bermúdez de Castro (2002, 29) «la cara de aquel juvenil resultó ser idéntica a la de Homo sapiens en todos y cada uno de los rasgos examinados». Por otra parte, su capacidad de unos 1000cc, es considerablemente mayor que la de los tres cráneos mejor conservados de Homo ergaster. Esto constituía una razón poderosa para excluirlo de esta especie. 2.  Como tampoco podía tratarse de un espécimen de Homo erectus, una línea evolutiva procedente de Homo ergaster que se encuentra fundamentalmente distribuida en Asia, en Israel con una antigüedad de 1,4 millones de años y en Dmanisi, Georgia, con 1,8 millones de años de antigüedad, Bermúdez de Castro (2002, 33) concluye: «El neurocráneo y la mandíbula de TD6 nos permitían reconocer a un homínido distinto de las formas europeas y africanas del pleistoceno medio y superior, pero con evidentes conexiones evolutivas entre ambas. Todo ello combinado con aquella cara juvenil, definitivamente moderna. En suma, estábamos ante una forma de homínido con personalidad propia, nunca antes descrito en la literatura científica». 3.  En resumidas cuentas, solo podía tratarse pues de una nueva especie, que Bermúdez de Castro (2002, 35) propuso denominar Homo antecessor, una «especie antecesora común de la línea evolutiva que en Europa conduce a los neandertales (Homo neanderthalensis) y de la línea evolutiva que en África conduce hacia las poblaciones modernas (Homo sapiens)». Y aunque fuese una hipótesis arriesgada, como reconoce recientemente Ignacio Martínez, del equipo de investigadores de Atapuerca, en El País Semanal de 17 de agosto de 2014, p. 33, su propuesta era, desde un punto de vista metodológico, netamente abductiva. El análisis filosófico de nuevos descubrimientos en un yacimiento diferente de la misma Sierra de Atapuerca, La Sima de los Huesos, por el equipo de paleoantropólogos españoles de Atapuerca, juntamente con científicos del Instituto Max Planck de Antropología Evolutiva, permite reforzar la idea de la metodología abductiva de la ciencia paleontológica. En su artículo publicado en Nature el 5 de diciembre de 2013, estos investigadores dieron a conocer un hecho absolutamente sorprendente: el resultado del análisis del ADN mitocondrial del Fémur XIII, hallado en sendas excavaciones en 1994 y 1999, muestra que el genoma mitocondrial del individuo al que perteneció el citado fémur está estrechamente relacionado con el del Hombre de Denisova, una población del sureste de Siberia perteneciente a épocas geológicamente recientes, pues cohabitó la tierra con neandertales —parientes suyos— y 95

META, MÉTODO Y MITO EN CIENCIA

Homo sapiens. Ambas poblaciones —la de Atapuerca, de hace 400 mil años, y la de Denisova, de hace 40 mil años— pertenecen pues indudablemente al mismo linaje evolutivo. El análisis del ADN mitocondrial del Fémur XIII se pudo comparar con el ADN de los denisovanos. Este ya era conocido desde 2010 a partir de los análisis de un registro fósil disponible: la falange de una mano y un molar. También se pudo comparar con el de los neandertales. El ADN mitocondrial, a diferencia del ADN nuclear, solo se hereda por parte materna, o sea, de abuelas a madres, y de estas a hijas y nietas, por lo que el linaje se interrumpe cuando una descendiente no da a luz a una hija. Y como este ADN no se recombina, es posible que puedan existir al mismo tiempo varios linajes mitocondriales en una misma población. Por el contrario, el ADN nuclear procede de ambos progenitores —padre y madre—, hereda por tanto el de los ancestros, y se traslada a los descendientes. En el caso del Fémur XIII solo ha sido posible, por lo menos hasta hoy, analizar el ADN mitocondrial, menos deteriorado. Lo asombroso del descubrimiento fue que el individuo cuyo fémur ha sido recuperado vivió en Atapuerca hace 400 mil años, y, como dicen Arsuaga et al. (2013), «el hecho de que el ADN mitocondrial de la Sima de los Huesos muestre un antecesor común con los denisovanos y no con los neandertales es sorprendente por el hecho de que los fósiles de la Sima de los Huesos muestran características derivadas de los neandertales». Por otra parte el análisis del genoma nuclear de los denisovanos indica que estos constituyen un grupo hermano de los neandertales. O sea, que la población de la Sima de los Huesos, de la que disponemos de un registro fósil de 28 individuos, está filogenéticamente emparentada vía ADN mitocondrial con los denisovanos, una población que habitó el sureste de Siberia hace unos 40 mil años, y no con los neandertales, como sería de esperar a la vista del hecho de que comparte rasgos anatómicos comunes. Para Ewen Callaway (2013), los expertos están desconcertados. Y para Arsuaga et al. (2013), en las últimas líneas de su artículo: «la secuencia de ADN mitocondrial establece un vínculo inesperado entre los denisovanos y el registro fósil europeo occidental del Pleistoceno Medio». Para dar cuenta de este resultado a todas luces sorprendente, los paleoantropólogos barajan cuatro hipótesis. La primera hipótesis que plantean Arsuaga et al. (2013) es que los homíninos1 de la Sima de los Huesos pudieran estar relacionados estrechamente con los antecesores 1. Los homíninos —un término moderno— solo incluyen a los primates bípedos que caminan de forma erguida, a diferencia de los homínidos en general, que incluyen a primates bípedos, entre ellos a Homo, Australopiteco y Parántropo, así como a los grandes simios.

96

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

de los denisovanos. Pero esta hipótesis parece improbable «porque la presencia de los denisovanos en Europa occidental indicaría un extenso solapamiento territorial con los antecesores de los neandertales, lo que plantearía la cuestión de cómo ambos grupos podrían divergir genéticamente mientras se solaparían en su distribución espacial. Además, [...] la especie de la Sima de los Huesos es tan antigua que probablemente precede a la separación poblacional entre denisovanos y neandertales». La segunda hipótesis es que «los homíninos de la Sima de los Huesos constituyen un grupo distinto de neandertales y de denisovanos que posteriormente quizás contribuyeron al ADN mitocondrial de los denisovanos». Sin embargo, añaden los expertos, «este escenario implicaría la emergencia de varios rasgos neandertales en un grupo no relacionado con los neandertales». La tercera hipótesis sería que «los homíninos de la Sima de los Huesos puedan estar relacionados con la población ancestral de neandertales y denisovanos. Considerando la edad de los restos de la Sima de los Huesos y su incipiente morfología neandertal, este escenario nos parece plausible, pero requiere explicar la presencia de dos linajes mitocondriales profundamente divergentes en el mismo grupo arcaico, uno que reaparece en los denisovanos y otro que se fijó en los neandertales, respectivamente». Finalmente, la cuarta hipótesis posible es que «un flujo de genes procedente de otra población homínina transfirió el ADN mitocondrial denisovano a la población de la Sima de los Huesos o a sus ancestros. Este grupo homínino podría haber contribuido también al ADN mitrocondrial de los denisovanos en Asia». En consecuencia, «más de un linaje evolutivo puede haber existido en Europa durante el Pleistoceno medio». Para Arsuaga (2013), la hipótesis creíble es que «en la época de la Sima de los Huesos algunos individuos (el Fémur XIII para empezar) o incluso algunos grupos familiares fueran portadores de un genoma mitocondrial de linaje arcaico, no neandertal, que terminaría por desaparecer, quedando solo el de los neandertales. [...] Y también pudiera ser que hubiera más de un tipo humano viviendo y evolucionando en Europa y parte de Asia: los antepasados de los neandertales y ‘los otros’, y que se cruzaran entre ellos. De este modo llegaría a la población de la sima y a los antepasados de los denisovanos un genoma mitocondrial de tipo antiguo». En todo caso, desde un punto de vista metodológico, volvemos a encontrar en paleoantropología un espléndido ejemplo de cómo el procedimiento de abducción por eliminación de hipótesis va perfilando una hipótesis nueva que se aventura como la mejor explicación, por el momento, de los datos empíricos disponibles.

97

META, MÉTODO Y MITO EN CIENCIA

3.  GEOLOGÍA 1: DEL MODELO DE CONTRACCIÓN A LA DERIVA CONTINENTAL

La geología científica moderna inicia su andadura de la mano del geólogo austríaco nacido en Londres, Eduard Suess (1831-1914). El centenario de su muerte brinda la ocasión para sintetizar sus ideas centrales en geofísica, que abrieron las puertas a la gran contribución de Lothar Wegener. Suess había observado que la glossopteris —un helecho— se encontraba en registro fósil en Sudamérica, África y la India, correspondiente al carbonífero y el pérmico, que son las dos etapas finales del Paleozoico o Era Primaria, así como al Triásico, la etapa inicial del Mesozoico o Era Secundaria. La explicación que Suess ofreció de este descubrimiento fue que los continentes actuales debieron estar unidos hace unos 300 millones de años formando un supercontinente, al que denominó Gondwana. La hipótesis del supercontiente Gondwana encajaba dentro de un modelo de Tierra, conocido como modelo de contracción de la Tierra, o modelo de granada seca2, con el que Eduard Suess entendía que lograba dar cuenta de la formación de montañas, continentes y océanos. Si bien ya había sido anticipado por el francés Léonce Elie de Beaumont (17981874) y por el norteamericano James Dwight Dana (1813-1895), entre muchos otros (cf. Oldroyd 1996, cap. 8, n. 7). Oldroyd (1996, 176) expone el desarrollo de Suess en La faz de la Tierra de la manera siguiente: «A medida que se enfriaba, el material fundido del interior de la tierra se contraería y entonces una parte sólida de la corteza podría colapsar en el espacio circundante. En tal situación habría fuerzas laterales actuando desde las partes no colapsadas sobre las colapsadas, que ocasionarían los grandes avances de las cordilleras». Y Naomi Oreskes (2001, 4-5) continúa la descripción del modelo: «Con la persistencia del enfriamiento los continentes originales se volvieron inestables y colapsaron para formar la próxima generación de fondo oceánico y lo que antes era océano se convirtió ahora en terreno seco. En el curso de la historia geológica habría un intercambio continuo de tierra y mar, un reajuste periódico de las masas terrestres. »La intercambiabilidad de continentes y océanos explicaba un número de otras observaciones geológicas sorprendentes como la presencia de fósiles marinos en tierra [...] y la extensa interfoliación de sedimentos marinos y terrestres en el registro estratigráfico». 2. La estética de una granada seca es sin lugar a dudas mejor que la de una manzana seca, que tiene muy mal aspecto. Por eso prefiero esta traducción de «drying apple model».

98

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

Pero como Alfred Lothar Wegener (1880-1930) se encargó de mostrar en su El origen de los continentes y de los océanos, había tres hecho que cuestionaban la viabilidad del modelo de contracción de Suess. Esto le llevó a Wegener a proponer un nuevo modelo, la teoría movilista de la deriva continental, que no solo daba cuenta de los tres hechos recalcitrantes, sino que se mostró mucho más acorde con nuevos descubrimientos geofisicos. Pero antes de entrar a exponer la teoría movilista de Wegener, resumamos en sus propias palabras los tres hechos que refutaban a la teoría de la contracción de Suess: 1.  «Fue sobre todo el descubrimiento de los mantos de corrimiento de los Alpes, lo que hizo aparecer cada vez más inadecuada la explicación del origen de las montañas por contracción. [...] Puesto que la anchura actual es de unos 150 kilómetros, se deduce que aquí se ha encajado un fragmento de corteza de 600 a 1200 kilómetros» (Wegener 1983, 21). 2.  «la suposición básica [...] de la teoría de la contracción (a saber, que la Tierra se está enfriando) ha quedado en entredicho tras el descubrimiento del radio. Este elemento, cuya desintegración genera calor continuamente, [...] si el interior de la Tierra contuviese igual cantidad de radio, el calor producido debería ser incomparablemente mayor que el transportado hacia el exterior. Pero esto significaría que la temperatura de la Tierra tenía que elevarse continuamente. [...] [actualmente habría que considerar, A. R.] un estado de equilibrio entre la producción de calor radiactivo del interior terrestre y su emisión al exterior. [...] En todo caso, se puede concluir que estas nuevas consideraciones privan a la teoría de la contracción de todo su apoyo» (Wegener 1983, 22). 3.  «A través, sobre todo, de medidas de gravedad, la Geofísica nos ha permitido llegar a la idea de que la corteza terrestre flota en equilibrio hidrostático sobre un sustrato denso y viscoso: a este estado se le llama isostasia. La isostasia no es otra cosa que un equilibrio hidrostático regido por el principio de Arquímedes, por el que el peso de un cuerpo sumergido es igual al peso del fluido desalojado» (Wegener 1983, 23-24). La conclusión de Wegener (1983, 26 y 30) es: «La suposición de que la situación relativa de los bloques continentales no ha cambiado [...] debe ser falsa: los continentes deben haberse movido», «esto quiere decir que hubo conexiones entre los continentes actualmente separados, pero no intercontinentes que luego se hundieron; y que hay permanencia, pero no de cada océano o continente individual, sino del área de los continentes y del área de las cuencas marinas en su conjunto». Las observaciones sobre las que se basa el razonamiento abductivo que llevó a Wegener a la hipótesis de la deriva continental las indica él mismo: «La averiguación y prueba de los desplazamientos continentales 99

META, MÉTODO Y MITO EN CIENCIA

relativos [...] ha tenido lugar de forma puramente empírica, es decir, a través de la totalidad de datos geodésicos, geofísicos, geológicos, biológicos y paleoclimáticos [...] Este es el método inductivo que las ciencias naturales están obligadas a emplear en la gran mayoría de los casos»3. Ni que decir tiene que si Wegener habla de ‘método inductivo’ es porque por razones obvias no podía conocer la existencia de un ‘método abductivo’. Como la enumeración y detalle de estos datos ocupa la mayor parte de su libro, los resumo brevísimamente a continuación: 1) Datos geodésicos: Estos proporcionan evidencia de la separación de Europa y América, en particular del desplazamiento de Groenlandia hacia el Oeste, a partir de medidas astronómicas, de emisiones de radio y radiotelegráficas. 2) Datos geofísicos: Parten del supuesto de que la teoría de la isostasia es compatible con la teoría movilista. Teniendo en cuenta el rebote finoescandinavo, hecho del que afirma que empezó a producirse hace 15 mil años y alcanzó su máxima velocidad hace 7 mil con una elevación de 1 metro cada diez años, Wegener (1929, 49-50) asume la citada compatibilidad en los términos siguientes: «toda la teoría de la isostasia descansa sobre la idea de que la capa situada por debajo de la corteza tiene un cierto grado de fluidez. [...] es evidente que no existe razón alguna para que esta movilidad se produzca únicamente en la vertical y no puedan darse movimientos en la horizontal». 3) Datos geológicos: Estos datos apoyan rotundamente la teoría de Wegener (1929, 63 y 76): «La comparación de las estructuras geológicas a uno y otro lado del Atlántico proporciona pruebas rigurosas a nuestra teoría de que este océano representa una descomunal fractura ensanchada, cuyos bordes estuvieron en el pasado en contacto directo o muy próximos». Así, «los plegamientos de las montañas del Cabo y de las sierras de Buenos Aires, la concordancia de las rocas eruptivas, los sedimentos, las direcciones e innumerables particularidades de las grandes mesetas gneísicas de Brasil y África, los plegamientos armoricanos, caledónicos y algónquicos y las morrenas frontales diluviales forman en conjunto [...] una impresionante demostración de que nuestra teoría [...] es correcta». 4) Datos paleontológicos: La constatación de que el registro fósil de Glossopteris se encuentra en Australia, Antártida, Sur de la India, África central y Patagonia y que Mesosaurus se distribuye en el sur de África y Sudamérica le lleva a Wegener (1929, 94) a «suponer una antigua gran extensión de tierra firme que uniera los continentes meri­ dionales». 3. Página 167 de la edición inglesa de 1966 publicada en Dover, The Origin of Continents and Oceans.

100

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

5) Datos paleoclimáticos: La paleoclimatología es una disciplina muy apreciada en la actualidad por las informaciones que proporciona de la historia de la Tierra. Ya Wegener (1929, 118) la usó: «Las islas Spitzberg tienen en la actualidad un duro clima polar, pero en el Terciario Inferior (cuando Centroeuropa estaba situada en la zona lluviosa ecuatorial) crecían en ellas bosques con mayor número de variedades que las que se encuentran hoy en Europa central». La conclusión que Wegener (1929, 132) extrae de esta fabulosa acumulación de datos es que «estas observaciones se han convertido en uno de los argumentos más convincentes a favor de la teoría movilista». Una hipótesis que solo puede afirmarse si asumimos que pretende ofrecer la mejor explicación posible de los datos en cuestión. Naomi Oreskes (2001, 3. Mis cursivas, A. R.) resume también el carácter abductivo del razonamiento de Wegener: «Los patrones paleontológicos y el ajuste del rompecabezas podrían ser explicados si los continentes hubieran migrado a través de la superficie terrestre, juntándose a veces, separándose otras. [...] La deriva continental explicaría también el cambio paleoclimático si los continentes se desplazaban a través de zonas climáticas diferentes y la circulación oceánica resultaba alterada por la distribución cambiante de tierra y mar, mientras que la interacción de las masas terrestres separándose proporcionaría un mecanismo para el origen de montañas, volcanes y terremotos». 4. GEOLOGÍA 2: DE LA DERIVA CONTINENTAL A LA TECTÓNICA DE PLACAS. EL AJUSTE DE PIEZAS EN EL ROMPECABEZAS DE DATOS GEOFÍSICOS

La hipótesis de la deriva continental podía ser verdadera, pero ni era toda la verdad ni nada más que la verdad. La pregunta por la causa de la movilidad de los continentes era insoslayable. La tectónica de placas, es decir, la hipótesis de que la litosfera consta de placas que se mueven sobre la astenosfera constituida por materiales plásticos ofrece desde 1968 la respuesta ampliamente aceptada. Esta hipótesis puede ser abducida ella misma sobre la base de numerosos datos nuevos, interpretaciones e incluso predicciones confirmadas. A continuación resumo la historia de los acontecimientos que llevaron a la teoría de la tectónica de placas. Aunque el rebote finoescandinavo ofrecía una buena base empírica para la teoría de la deriva continental, con tal de admitir que el movimiento de los continentes no tenía por qué ser exclusivamente vertical sino que también podría producirse lateralmente, esta teoría se enfrentó a voces discordantes, entre las que se hallaba la del geofísico, astró101

META, MÉTODO Y MITO EN CIENCIA

nomo, estadístico bayesiano y filósofo de la ciencia británico Harold Jeffreys (1891-1989), para quien el modelo movilista sería imposible, toda vez que la propagación de las ondas sísmicas sugería la idea de una corteza sólida y rígida. Hubo pues que esperar a que nuevos datos permitieran completar un nuevo modelo de Tierra sobre base empírica más sólida. Estos fueron los siguientes, en un proceso que cubrió el periodo entre 1955 y 1968: 1)  Entre los años cincuenta y principios de los sesenta se produce la constatación de la llamada deriva polar aparente, así como del desplazamiento del fondo marino, a lo que contribuyeron, entre otros, Harry Hess (1906-1969) y Robert Dietz (1914-1995). La deriva polar aparente consiste en que son los continentes los que se han desplazado realmente, pues los polos mantienen, excepto en las épocas de inversión magnética, sus posiciones más o menos fijas. Las inversiones de polarización magnética consisten en que el polo norte magnético se sitúa próximo al sur geográfico, y viceversa. 2)  Aunque en los años veinte del siglo pasado Motonari Matuyama había encontrado que durante el Pleistoceno (hace unos 10 mil años) el campo magnético de la tierra había cambiado su polaridad, hasta principios de los años sesenta no se estableció una cronología de las épocas de polaridad normal e inversa de este campo magnético. 3) El descubrimiento en 1959 de la dorsal oceánica con su valle central sugirió la idea de que «El fondo marino estaba separado en el centro con los dos lados moviéndose aparte y que las rocas a ambos lados preservaban un patrón simétrico de los cambios periódicos del campo magnético de la Tierra» (Oreskes 2001, 23). Esta posibilidad llevó a plantear la hipótesis, conocida como modelo Vine-Matthews, de que «si el fondo marino se expande cuando el campo magnético de la Tierra se invierte, entonces los basaltos que forman el fondo oceánico preservarán estos eventos en forma de una serie de ‘franjas’ paralelas de rocas magnetizadas en posición normal e invertida» (Oreskes 2001, 22-23). La confirmación de esta hipótesis tendría lugar en 1967-1968. 4)  Las dorsales oceánicas están formadas por una doble cresta a lo largo de la cual se extiende una profunda fosa a través de la que surge el material plástico que renueva continuamente los fondos oceánicos. Xavier Le Pichon (2001, 201-224. Mis cursivas, A. R.) se expresa del modo siguiente, respecto al «perfil de anomalía magnética ‘mágica’ obtenido en la cresta del Pacífico Sur»: «La presentación del perfil mágico en la AGU4 asombró a todo el mundo. El perfil de 600 millas (1.000 kilómetros) de longitud revelaba una simetría perfecta con respecto al eje de la 4. Presentado por Jim Heirtzler en la American Geophysical Union el 27 de abril de 1966.

102

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

cresta oceánica central. Además, podía ser interpretada simple y perfectamente con el modelo de extensión del suelo marino, usando la cronología de inversiones del campo magnético de la Tierra obtenido por el joven grupo paleomagnético Lamont (dirigido por Neil Opdyke) midiendo la polaridad magnética de los núcleos oceánicos sedimentarios [...] De repente la balanza de fenómenos explicados o sin explicación por la hipótesis de la extensión del fondo marino pareció positiva y acceptable sin reservas serias a todo científico familiarizado con el cuadro completo». 5)  Tuzo Wilson (1908-1993) por su parte «comprendió que las zonas de fractura que desplazaban la cresta Atlántica central [...] proporcionaba un test claro de la idea de que los dos lados de la cresta se separaban como bloques sólidos» (Oreskes 2001, 25). 6)  Finalmente en 1967-1968 Daniel McKenzie, Robert Parker, y Jason Morgan, establecieron independientemente el modelo de placas tectónicas, según el cual los movimientos de la corteza había que interpretarlos como rotaciones de un sólido rígido sobre una esfera. Xavier Le Pichon (2001, 216) confiesa su participación en la confección final del modelo: «Una vez verifiqué la rigidez de las placas, como Morgan y McKenzie habían hecho para el Atlántico y el Pacífico, di el nuevo paso que consistía en combinar los movimientos de las placas a fin de obtener el primer modelo predictivo cuantitativo global. Hallé que solo se podía obtener una solución única usando seis placas [...] Este modelo de seis placas daba cuenta de la mayor parte de la sismicidad del mundo, como Bryan Isacks y sus colegas mostrarían después. Incluso ahora se me hace difícil olvidar la excitación extraordinaria el día que comprendí que mi modelo de seis placas funcionaba, y que podría dar cuenta ciertamente como primera aproximación, del amplio patrón geodinámico». En fin, en el modelo dinámico desarrollado, la litosfera, que es la capa rígida formada por la corteza y parte del manto superior, de un espesor de entre 70 y 150 km, descansa y se desplaza sobre la astenosfera, situada entre los 150 y 180 km de profundidad, que es la parte inmediatamente inferior, viscosa y plástica, del manto. Posteriores observaciones y análisis de los fondos oceánicos han añadido nuevas pruebas a la hipótesis de la extensión del fondo marino: no hay sedimentos marinos con antigüedad superior a 180 millones de años, siendo los más viejos los que se encuentran más alejados de las dorsales oceánicas, e.d., cerca de los bordes continentales. Estos forman también las capas de sedimentos más gruesas, mientras que las más delgadas se encuentran cerca de las dorsales. Una vez obtenida por abducción la respuesta a la pregunta por la causa de la deriva continental, la dinámica de las placas tectónicas, la si­ guiente pregunta es la de la causa de los movimientos de estas placas 103

META, MÉTODO Y MITO EN CIENCIA

mismas. Aquí la abducción ya no puede proveer de hipótesis, y la postulación libre y razonable de modelos teóricos compatibles con principios aceptados de la física se convierte en la única herramienta de la creatividad científica. El medio observacional de que se sirven los geofísicos para la postulación de modelos del interior de la Tierra es la tomografía sísmica. Dos modelos o hipótesis se postulan como las más razonables: el modelo convectivo y el modelo de fuerzas en los bordes de las placas. El primero sostiene la existencia de células convectivas en el manto que transportan materiales calientes de la astenosfera hacia la superficie, saliendo parte de ellos para la construcción de fondo marino. Al enfriarse las células convectivas se hacen más densas y descienden favoreciendo el fenómeno de la subducción y por consiguiente la extensión del fondo marino. El segundo modelo hace especial hincapié en que es el empuje del material que fluye a través de las dorsales oceánicas el máximo responsable de la subducción. Además la propia subducción arrastraría consigo a la placa litosférica. Si hay una verdad en todo este asunto, lo más razonable hoy por hoy parece ser asumir una combinación de ambas hipótesis, a saber: convección cum arrastre. 5.  FÍSICA

Hasta ahora he mostrado ejemplos de abducciones que han contribuido al impresionante desarrollo de ciencias observacionales de la Naturaleza tan características como la paleoantropología y la geología. En esta sección y en la siguiente voy a presentar algunos ejemplos de inferencias a la mejor explicación, unos pocos de los muchos que existen en física teórica, inclusive la astrofísica teórica y la cosmología. Ya Paul Thagard (1978, 77-78) reconocía que «Uno de los grandes avances en la historia de la química fue el desarrollo de Antoine Lavoisier de la teoría de la combustión del oxígeno, que sustituyó a la teoría basada en la sustancia hipotética del flogisto». Como también que «Otros ejemplos de argumentos a la mejor explicación, esta vez en física, hay que buscarlos en la historia de la teoría ondulatoria de la luz. [...] en una serie de artículos posteriores a 1815 Augustin Fresnel atacó a la teoría corpuscular arguyendo que la teoría ondulatoria explicaba los fenómenos de la reflexión y la refracción por lo menos tan bien como lo hacía la teoría corpuscular, y que había otros hechos, que involucraban difracción y polarización, que solo la teoría ondulatoria podía explicar simplemente. [...] Luego la teoría ondulatoria debería ser inferida como la mejor explicación». Otros ejemplos de abducción o inferencia a la mejor explicación en física son los siguientes. 104

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

5.1. La base empírica de la hipótesis corpuscular de la luz: Efectos fotoeléctrico y Compton En los años 1887 y 1888 Heinrich Hertz y Wilhelm Hallwachs ya tenían conocimiento del efecto fotoeléctrico, e.d., de la emisión de electrones cuando los electrodos por los que fluye electricidad son iluminados con luz de una frecuencia determinada. El paradigma sobre la luz entonces dominante era incapaz de dar una explicación satisfactoria de este fenómeno. En uno de sus artículos de 1905, Albert Einstein sugirió que si los fotones tienen energía E = hν , como postulaba Planck, entonces un fotón con frecuencia ν que choque con un electrón le cede a este toda su energía, una parte de la cual la usaría el electrón para escapar, mientras que el resto lo asimilaría en forma de energía cinética. El efecto Compton consiste en la difracción de la luz por electrones. Una reconstrucción de este fenómeno como una colisión relativista entre un fotón, que es una partícula de masa nula, y un electrón en reposo, sugiere como mejor explicación la hipótesis de que la luz tiene naturaleza corpuscular. 5.2.  La invariancia de la velocidad de la luz La base empírica para la abducción por Einstein de la hipótesis de la invariancia de la velocidad de la luz en el espacio vacío la proporcionó el resultado negativo del experimento de Michelson-Morley de 1887, en el que sorprendentemente no se observó ningún desplazamiento en las franjas de interferencia del interferómetro. El propósito del experimento era averiguar si la velocidad de la luz dependía de la dirección de propagación. Contrariamente a lo esperado, si la hipótesis del éter estacionario fuera correcta, no se observaba ninguna diferencia en la velocidad de la luz en las direcciones paralelas y perpendiculares al movimiento de la Tierra. Como es bien conocido se ofrecieron dos respuestas diferentes para la explicación de este resultado negativo. La primera la dieron de manera independiente George Fitzgerald y Hendrik Lorentz, y sugería una contracción de la longitud de los cuerpos en la dirección de su movimiento. La segunda, de Einstein, fue la constancia de la velocidad de la luz con independencia de la dirección de propagación y del estado dinámico del observador, que prevaleció.

105

META, MÉTODO Y MITO EN CIENCIA

5.3. El descubrimiento de los electrones y la propuesta de Rutherford del modelo atómico planetario para átomos hidrogenoides La propuesta de Rutherford de un modelo planetario para átomos hidrogenoides culmina el proceso de descubrimiento de los electrones y marca el comienzo de la física atómica. Aunque la primera hipótesis sobre la naturaleza corpuscular de la electricidad se retrotrae a Michael Faraday en 1833, es en la segunda mitad del siglo xix cuando los experimentos llevados a cabo por Julius Plücker, 1858, Johann Wilhelm Hittorf, 1869, William Crokes, 1876, y Jean Baptiste Perrin, 1895, sugirieron que los rayos catódicos estaban formados por partículas con carga eléctrica negativa. En 1881 Hermann von Helmholtz aventuró la hipótesis de que la electricidad consistía en átomos de electricidad, y en 1891 George Johnstone Stoney dio el nombre de electrón a la unidad de carga eléctrica que era transportada por un ion monovalente. Entre 1896 y 1898, E. Wiechert, P. Zeeman, W. Kaufmann, J. J. Thomson, P. Lenard y W. Wien calcularon experimentalmente la relación carga/masa de los electrones. Joseph John Thomson dio un paso adelante en su libro Electricity and Matter, 1904, en el que propuso un modelo de átomo. Conocido metafóricamente como modelo de bizcocho de pasas —o como modelo de chirimoya, como prefiero decir yo—, permitía explicar el enlace químico, así como la radioactividad de átomos inestables. Pero como Hans Geiger y E. Marsden mostraron, el modelo de Thomson era incapaz de explicar el experimento de dispersión de partículas alfa, átomos de Helio doblemente ionizados, núcleos de Helio, pues. La mejor explicación del hecho experimental de que la mayoría de las partículas alfa atravesasen una delgada lámina de oro, mientras que solo unas pocas eran rechazadas, era suponer que las partículas rechazadas chocaban con concentraciones masivas de carga eléctrica positiva. Y como esto solo era posible en el supuesto de que la totalidad de la carga eléctrica positiva del átomo estuviera concentrada en una pequeña región del espacio en el interior del átomo, que los electrones deberían rodear a gran distancia, un modelo atómico planetario pareció ofrecer la mejor explicación del experimento. Esta fue la opción de Ernest Rutherford en 1911. 6. GRANDES ABDUCCIONES EN FÍSICA TEÓRICA

El término gran abducción lo tomo aquí prestado de Stathis Psillos (2009), si bien con un significado diferente. Psillos lo usa para designar la abducción de segundo orden que apoya la tesis epistemológica de que el realismo científico ofrece la mejor explicación del éxito de la ciencia, y 106

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

por tanto que es razonable pensar que el realismo científico es verdadero. Sobre este tema discutiremos ampliamente en el capítulo V. El uso que yo le doy a esta expresión en esta sección solo refiere el hecho de que hay abducciones en física que introducen ideas particularmente importantes, como son las que presento seguidamente. No es que las que hemos visto en la sección precedente sean menos importantes, pues incluso alguna de ellas podría pasar a este nuevo apartado. Simplemente las que incluyo aquí me parecen más impactantes, y algunas de ellas de una modernidad indiscutible. 6.1.  La termodinámica fenomenológica En su autobiografía intelectual, Albert Einstein (1992, 35) confiesa estar convencido que la termodinámica clásica —también llamada fenomenológica— es la única teoría universal que nunca sería refutada empíricamente: «Una teoría es tanto más impresionante cuanto mayor es la simplicidad de sus premisas, cuanto más diversas sean las cosas que conecta entre sí y cuanto más amplio sea su ámbito de aplicación. De ahí la honda impresión que ejerciera sobre mí la termodinámica clásica. Es la única teoría física de contenido general de la que estoy convencido que, en el marco de aplicabilidad de sus conceptos básicos, jamás será derribada (a la especial atención de los escépticos por principio)». Como el espíritu con el que están escritas estas Notas autobiográficas es ‘necrológico’5, Einstein no ve necesario justificar su afirmación ‘lapidaria’. ¿Se debe esta opinión a —o quizás precisamente a pesar de— el origen genuinamente empírico, inductivo, preferiblemente abductivo, de la termodinámica clásica6? Sorprendentemente, la metodología científica de Einstein es genuinamente deductiva: Deducir conclusiones a partir de postulados generales o principios, de forma que «en tanto no se descubran los principios que sirven de base para extraer deducciones, el hecho empírico individual no tiene valor para el teórico» (Einstein 1914, 196-197). No hay un método sistemático, señala Einstein, que garantice el establecimiento de tales principios de partida, y su posición metodológica es marcadamente antiinductivista, como he procurado dejar claro en Rivadulla (2004, 36-38). Extraña entonces que la termodinámica fenomenológica no se atenga al modelo metodológico einsteiniano. En efecto para Kerson Huang (1983, 3) «La termodinámica es una teoría fenomenológica de la materia. Como tal extrae sus conceptos directamente de los experimentos».

5. Es una broma que Einstein se permite en p. 35 de su Notas autobiográficas. 6. Su denominación de fenomenológica precisamente refiere a este origen.

107

META, MÉTODO Y MITO EN CIENCIA

Un ejemplo de esto es que «El fundamento experimental de la primera ley es la demostración de Joule de la equivalencia entre calor y energía mecánica» (p. 7). Y por lo que respecta a la segunda ley Huang asevera que «Su fundamento experimental es common sense». En la misma línea de pensamiento, para Malcolm Longair (1984, 115-116) «Las dos leyes de la termodinámica [...] son notables por el hecho de que no son más que hipótesis razonables formuladas como resultado de la experiencia práctica. Son sin embargo hipótesis de máxima autoridad. Es importante acentuar que no hay forma de probar las leyes de la termodinámica —son simplemente expresiones de nuestra experiencia común de las propiedades térmicas de la materia y la radiación—». En el contexto de la física española Antonio Aguilar Peris (1989, 1) considera que las leyes termodinámicas son generalizaciones de resultados experimentales acerca del comportamiento macroscópico de la materia, y que no se deducen matemáticamente: «La termodinámica es una disciplina que, como la mecánica clásica o el electromagnetismo, está basada en un número reducido de postulados básicos o axiomas a partir de los cuales, por razonamientos lógicos, se deducen las leyes que gobiernan los fenómenos caloríficos, objeto principal de esta ciencia. Estos principios no pueden demostrarse por razonamientos matemáticos. Toda su validez descansa en la experiencia». Y en plena comunión de ideas con Einstein, Aguilar Peris (1989, 2) mantiene que «La validez de sus ecuaciones descansa en la creencia de que los fenómenos físicos cumplen hoy, y seguirán cumpliendo siempre, los llamados principios termodinámicos, extraídos de nuestra experiencia en el mundo macroscópico en que vivimos». El propio Aguilar (pp. 13-14) relata las circunstancias históricas que permitieron dar los primeros pasos para el desarrollo de la termodinámica. Una serie de experiencias llevadas a cabo entre finales del siglo xviii y los primeros decenios del xix permitieron establecer la relación entre calor y trabajo mecánico. Así, según refiere, en 1799, en las London Philosophical Transactions Benjamin Thomson (1753-1814), conde Rumford, «hizo notar que el concepto de calórico7 era irreconciliable con el hecho de que las limaduras producidas al tornear un cañón tuviesen una temperatura superior a la primitiva». En efecto, mientras trabajaba para el ejército bávaro observó que en la perforación de cañones de guerra estos se calentaban, y midiendo la capacidad calorífica del bloque metálico y la de las virutas desprendidas comprobó que era la misma; comparó el peso de los cuerpos en sucesivos estados caliente y frío para medir el 7. El calórico se concebía como una sustancia material invisible, contenida dentro de los cuerpos, que no podía crearse ni destruirse, pero que los cuerpos calientes —cuerpos con mucho calórico— podían cederla a los más fríos —cuerpos con menos calórico—.

108

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

peso de calórico disipado, pero constató que el peso era el mismo. Por su parte, Humphry Davy (1778-1829) en 1799 «estudia la conversión de trabajo en calor frotando entre sí dos trozos de hielo y demuestra la no conservación del calórico, ya que este se creaba por fricción». El resultado es la constatación de que el calor no es una sustancia, calórico por ejemplo. Julius Robert Mayer (1814-1878) postula en 1842, en un artículo titulado «Observaciones sobre las fuerzas de la naturaleza inanimada», el principio de conservación de la energía y calcula el equivalente mecánico del calor, es decir el valor en julios de 1 caloría. En una fábrica de papel midió el aumento de temperatura de la pulpa contenida en una gran vasija al ser removida por un mecanismo accionado por un caballo girando en círculo; de esta manera relacionó la cantidad de calor con el trabajo producido por la acción del caballo. Finalmente, entre 1845 y 1847 James Prescott Joule (1818-1889) estableció definitivamente la equivalencia entre calor y trabajo, dando por concluida la teoría del calórico. La llamada experiencia de Joule consistió en hacer caer a través de una polea un peso unido con un dispositivo que, en su arrastre agitaba unas paletas sumergidas en agua; el calor producido por la fricción aumentaba la temperatura del agua de tal manera que 4,185 joules de trabajo equivalían al calor contenido en una caloría. Esto puso de manifiesto que calor y trabajo no eran sino dos manifestaciones diferentes de la energía8, que la conversión de trabajo en calor pone de manifiesto la conservación de la energía, y que el calor era un resultado del movimiento. La experiencia de Joule evidencia que el calor absorbido por el sistema como consecuencia del trabajo realizado sobre él se emplea en incrementar la energía interna del sistema. Estas experiencias producen cada una de ellas, y todas en conjunto, la refutación empírica de la teoría del calórico. Una refutación que comparte rasgos con la que llevará, en el ámbito de la protoquímica, al rechazo de la teoría del flogisto (cf. Rivadulla 2012a, § 3). El desarrollo más importante de la termodinámica —nombre acuñado por William Thomson (Lord Kelvin)— es obra del físico alemán Rudolf Julius Emmanuel Clausius (1822-1888), autor del principio que lleva su nombre, según el cual el calor no puede pasar espontáneamente de un cuerpo frío a otro caliente. En 18509 Clausius presenta la expresión formal del primer principio de la termodinámica como dU = dQ – dW, que afirma que el cambio en la energía interna del sistema corresponde 8. Allard (1988, 314-316) relata brevemente la historia de «el equivalente mecánico de la unidad de calor»; Longair (1984, § 6.2) presenta también el origen de la primera ley de la termodinámica, y Kuhn (1959) lleva a cabo un riguroso estudio de las condiciones y protagonistas que permitieron el desarrollo simultáneo del principio de conservación de la energía en termología, en particular el trabajo con máquinas. 9. Cf. Jou (1987, 24).

109

META, MÉTODO Y MITO EN CIENCIA

al calor añadido al sistema, menos el trabajo realizado por este sobre el entorno. Se trata obviamente de la Ley de conservación de la energía, y pone claramente de manifiesto la imposibilidad de existencia de un móvil perpetuo de primera especie, es decir la imposibilidad de construir un móvil perpetuo que produzca trabajo sin consumir al menos una cantidad equivalente de energía. Desde un punto de vista metodológico Aguilar Peris (1989, 65) reitera que «El primer principio de la termodinámica no puede demostrarse analíticamente, pero la evidencia experimental y la imposibilidad de construir el móvil perpetuo de primera especie confirman su validez y se acepta como una ley de la Naturaleza [...] sin ningún tipo de restricción». La base del Segundo Principio de la Termodinámica se encuentra en la obra del físico francés Nicolás Léonard Sadi Carnot (1796-1832) titulada Réflexions sur la puissance motrice du feu et sur les machines propes à développer cette puissance (1824)10, motivada por el rendimiento de las máquinas térmicas. Según Carnot, la producción de trabajo se debe, no a un consumo real de calórico, sino a su transporte de alta a baja temperatura, de un cuerpo caliente a un cuerpo frío. En tanto disciplina fenomenológica, o empírica, desde un punto de vista metodológico la termodinámica clásica no sigue desde luego el modelo deductivo característico de la física matemática, según el cual las leyes y principios fundamentales de la teoría se deducen matemáticamente a partir de primeros principios, siguiendo la ruta metodológica que Albert Einstein marcase para la física teórica. Sus leyes o principios proceden por abducción, son el resultado de un salto o acto creativo que partiendo de la experiencia culmina en la teoría. La termodinámica no procede deductivamente a partir de primeros principios. En esto coinciden todos los físicos. Ahora bien, una vez establecida, la termodinámica no funciona menos deductivamente que otras ramas de la física. 6.2.  La materia oscura Recuerdo que, cuando niño en noches de verano contemplaba el firmamento, me sentía sobrecogido por el fascinante espectáculo que me ofrecía la Vía Láctea. Hoy la contaminación lumínica generalizada hace imposible el espectáculo. No sé si llegué entonces a preguntarme cuántas estrellas habría en el cielo. Claro que, para mí, y todos los chicos de mi edad, la inmensidad del firmamento se reducía al Camino de Santiago. Que no era poco. Ahora sé que el Universo es mucho mayor, que la Vía Láctea, Camino de Santiago, o simplemente la Galaxia, no es sino 10. Versión española: Reflexiones sobre la potencia motriz del fuego, Alianza, Madrid, 1987. Kuhn (1960) analiza el trabajo de ingeniería térmica precedente.

110

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

una de los millones de galaxias que pueblan el Universo, y que este tuvo un inicio, y que quizás no tenga un final. El astrónomo holandés Jan Hendrik Oort (1900-1992) ha jugado un papel un importante en la historia de la astrofísica. En 1950 propuso una teoría sobre el origen de los cometas, y su nombre se asocia a la región de cometas que rodea al sistema solar, la nube de Oort. También calculó por vez primera el número de estrellas que alberga nuestra Galaxia, teniendo en cuenta la distancia del Sol al centro de la misma. Este número sería de unos cien mil millones de Soles, que no refleja empero el número total de estrellas que hay en ella, pues en el exterior de la órbita solar queda un número no despreciable de estrellas. También, examinando en 1932 el efecto Doppler11 de los espectros de estrellas de la Vía Láctea encontró que estas se movían más rápidamente de lo que se esperaba. Un año después el suizo Fritz Zwicky (1898-1974), midiendo las velocidades de galaxias del Cúmulo de Coma observó el mismo fenómeno. La mejor explicación que encontraron para estas observaciones —una clara inferencia abductiva— es que debería haber más masa de la observada, materia oculta pues, o como Zwicky, la llamó, y así es conocida desde entonces, materia oscura. La existencia hipotética de materia oscura plantea empero un problema para la física teórica. En efecto si recurrimos a la polifacética Tercera Ley de Kepler (cf. Rivadulla 2004, 142), una especie de comodín en astrofísica teórica, la velocidad orbital de las estrellas alejadas del núcleo de la Galaxia debe comportarse como vorb ∝ d −1, o sea, decrece con la distancia. Esto es lo que debemos encontrar observacionalmente, si nos atenemos a la versión newtoniana de la Tercera Ley de Kepler, y por tanto a la mecánica newtoniana. Para conocer la velocidad de rotación con la que una estrella gira circularmente alrededor del centro de una galaxia los astrónomos construyen lo que denominan curvas de rotación galáctica. Lo que se espera, si tomamos en serio la versátil Tercera Ley de Kepler es que, a partir de una determinada distancia al centro de la galaxia, y a medida que las estrellas se sitúan cada vez más lejos del mismo, la curva se desplome hasta límites de velocidades muy pequeñas. En los años setenta, representando gráficamente las curvas de rotación de varias galaxias, los astrofísicos encontraron que las curvas de las velocidades de rotación de estrellas alejadas de sus centros galácticos respectivos se mantienen sorprendentemente casi planas, en lugar de desplomarse hasta casi cero. Las observaciones revelan pues que, a grandes distancias del centro galáctico, la velocidad orbital de las estrellas es aproximadamente constante, vorb= const., que no disminuye con la distancia en la medida espe 11. Cf. Rivadulla (2003, 155 ss.).

111

META, MÉTODO Y MITO EN CIENCIA

rada. Por tanto, la primera conclusión es que la Tercera Ley de Kepler, y por tanto la mecánica celeste newtoniana, quedan refutadas. Ahora bien, en lugar de concluir que la mecánica newtoniana es falsa, que la evidencia observacional la refuta directamente, la comunidad astrofísica argumenta de la manera que Vicent J. Martínez (2004, 225-227) expone de una forma que podemos considerar representativa del modo de pensar de los astrofísicos enfrentados a problemas de este tipo: «una curva de rotación plana V(R) = constante, corresponde a un crecimiento lineal de la masa con el radio, M(R) ∝ R. Es decir, la masa en el interior de una esfera de radio R tiene que seguir creciendo para distancias grandes del núcleo, pero esta masa no se observa. Por este motivo, el descubrimiento de que las curvas de rotación son planas implica que tiene que existir materia oscura en los halos de las galaxias espirales [...], es decir, materia no luminosa y, por tanto, que no se detecta con telescopios. La acción gravitatoria de esta materia es la responsable de que las curvas de rotación se tornen planas». En mi opinión este modo de argumentar ofrece un ejemplo excelente de inferencia a la mejor explicación. No se trata de una mera hipótesis ad hoc que intente salvar a toda costa de la refutación a la mecánica newtoniana. La hipótesis de la materia oscura contribuye a incrementar su grado de falsabilidad: si M aumenta, para un d dado, la velocidad orbital tiene que ser mayor, lo que es compatible con que, a partir de una distancia determinada, la velocidad orbital sea aproximadamente constante, e.d., no disminuya. Se supone que la materia oscura mayoritariamente no es bariónica12, siendo candidatos las WIMP (Weakly Interacting Massive Particles). Su existencia tiene consecuencias importantes para el destino del Universo, pues si solo hubiera materia oscura a añadir a la materia bariónica ordinaria, entonces parece que el Universo tendería a colapsar por interacción gravitacional. Lo interesante del caso es que a la vista de las observaciones disponibles el universo no solo está en expansión, sino en expansión acelerada. A este asunto dedico la sección siguiente. «La ciencia es inconcebible sin teoría». Con estas palabras, recogidas en la página 17 de Éxito, razón y cambio en física, comienza propiamente mi libro, dedicado a la filosofía de la física. En honor de los físicos hay que decir que la gran mayoría de ellos no se contentan solo con desarrollar teoría, sino que tratan de contrastarla empíricamente. Sobre todo, si, en el caso que estamos considerando, la introducción, digamos ad hoc, de la hipótesis de la existencia de materia oscura contribuye a 12. La materia bariónica es la materia ordinaria formada por quarks. Los nucleones, e.d., protones y neutrones, constituidos por quarks son una muestra paradigmática de materia bariónica.

112

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

incrementar la falsabilidad de la mecánica celeste newtoniana. Así entre los físicos actuales los hay que andan a la caza de materia oscura. Según informaciones13 de Samuel Ting, investigador principal del AMS (Alpha Magnetic Spectrometer), este aparato, lanzado por el Endeavour el 16 de mayo de 2011 y acoplado a la Estación Espacial Internacional, ha observado en el sistema solar un flujo continuo de positrones procedentes posiblemente de colisiones entre partículas de materia oscura. Los científicos no descartan empero que tales positrones procedan de pulsares. Nuevos datos deberán aportar elementos de juicio para dirimir la cuestión de cuál de los dos miembros de la disyuntiva se confirma, ya que los actualmente disponibles no son concluyentes. Lo que decidirá la cuestión es que el valor de la energía de los positrones eventualmente procedentes de colisiones de partículas de materia oscura está limitada. Así, si se constata la existencia de este límite superior de energía, tendremos evidencia empirica a favor de la existencia de materia oscura misma. Pero si lo que se observa son partículas con energía superior a este valor límite, entonces se entenderá que la fuente de positrones son pulsares. Cualquiera que sea lo que las observaciones lleguen a determinar, el caso es que la hipótesis abductiva de la existencia de materia oscura está tan fuertemente arraigada entre los físicos que parece justificada una inversión multimillonaria en este proyecto. 6.3.  Expansión acelerada del Universo y energía oscura En 1998 observaciones de supernovas lejanas situadas a unos 4.300 megaparsec —1 parsec equivale a 3,26 años luz— mostraron que estas aparecen más alejadas de lo que se esperaría si el Universo solo contuviera materia, ya que la atracción gravitacional frenaría la expansión. Esta evidencia empírica constituye una prueba más de la expansión del Universo. La expansión del Universo es un resultado previsto empero por la teoría especial de la relatividad, y las primeras confirmaciones del mismo son obra de Vesto Melvin Slipher y Edwin Powell Hubble en el primer cuarto del pasado siglo xx, como refiero en Rivadulla (2003, cap. III, § 9). Ahora bien, el descubrimiento de 1998 no solo refrenda la hipótesis de que el Universo se está expandiendo, sino que lo está haciendo aceleradamente. Este descubrimiento les valió a los astrofísicos Saul Perlmutter, Brian Schmidt y Adam Riess el premio Nobel de Física de 2011. Precisamente uno de los protagonistas de esta historia, el australiano Brian Schmidt, en un reportaje en El País, del domingo 28 de abril de 2013, afirmaba rotundamente: «La constante cosmológica, que Ein 13. Procedentes de spaceflight.com/news de 5 de abril de 2013.

113

META, MÉTODO Y MITO EN CIENCIA

stein llamó su mayor error, podría ser mi mayor descubrimiento». Honrando a Einstein, sostenía que «Hay muchas explicaciones alternativas, miles de ellas, pero su constante cosmológica es la mejor y la más simple». Obviamente, la postulación de la existencia de una energía oscura asociada a la constante cosmológica de Einstein constituye una muestra elocuente de inferencia a la mejor explicación, es el resultado de una propuesta abductiva. A fuer de ser honestos, es importante hacer notar que esta hipótesis de expansión acelerada del Universo como consecuencia de una forma de energía asociada a la constante cosmológica ya la contempla el formalismo de la teoría general de la relatividad. Supongamos, en efecto, una galaxia de masa unidad que se encuentra en los bordes del Universo, que asumimos esféricamente simétrico, 4 de densidad ρ , radio R y masa M = π R 3 ρ . Las ecuaciones de Fried2 3  = d R denota aceman de la TGR —cf. Rivadulla 2003, 237, donde R dt 2 2 d R M = −G 2 + Λ ( R) a la leración— permiten deducir la aceleración dt 2 R que la galaxia está sometida. Si asumiéramos ahora que la masa de la galaxia es m, multiplicando por m a derecha e izquierda, tendríamos la expresión de una fuerza a ambos lados de la ecuación. El primer sumando de la derecha es desde luego la fuerza newtoniana atractiva —como lo muestra el signo negativo— e inversamente proporcional al cuadrado de la distancia. El segundo sumando pone de manifiesto la existencia de una fuerza repulsiva —dado su carácter positivo— proporcional a la distancia, asociada con la constante cosmológica de Einstein. Esta es la que sugiere la existencia de una energía oscura responsable de la expansión acelerada del Universo. El apoyo teórico que la teoría general de la relatividad le presta a la idea de energía oscura refuerza el acierto de la postulación abductiva de esta hipótesis. Harto interesante es que en España, en una fecha relativamente temprana como 1948, José Rubí, general de ingenieros de la armada, y profesor de la Escuela Especial de Ingenieros Navales, dedica el parágrafo 93, «Las nebulosas y la expansión del Universo», de su libro Nociones de física atómica a «la hipótesis de la expansión del Universo», que explica en los términos siguientes: «La interpretación mecánica de esta hipótesis se funda en la existencia de una fuerza repulsiva universal, inversamente proporcional a las distancias entre masas, que coexiste con la gravitación atractiva, inversamente proporcional al cuadrado de aquellas distancias. Según el orden de estas, predomina una de aquellas fuerzas o se equilibran entre sí. Cuando las distancias son pequeñas, puede más la gravitación y se concentran las masas. A medida que las 114

LA ABDUCCIÓN EN LA METODOLOGÍA DE LAS CIENCIAS DE LA NATURALEZA

distancias crecen, pero no mucho, se equilibran ambas fuerzas y se estabilizan las nebulosas. Cuando las distancias son muy grandes, la repulsión predomina, las nebulosas se separan, el efecto Doppler observado se justifica y la expansión del Universo se hace comprensible» (1949, 296). Anima pensar que hace trece lustros había en España personas perfectamente al tanto de los desarrollos teóricos más recientes. Sigamos ahora a Smolin (2007, 208-209), quien nos invita a combinar el radio del Universo, R, con c, la velocidad de la luz en el vacío. Dos formas particularmente fructíferas de hacerlo son, primero, R/c, que dimensionalmente es tiempo, y nos da el valor aproximado de la edad actual del Universo. La otra combinación es c2 / R, que es una aceleración. Pero no se trata de una aceleración cualquiera, ¡sino de la aceleración a la que se está expandiendo el Universo! Lo asombroso del caso, según Smolin, es que este valor de aceleración es pequeñísimo: 10-8 centímetros por segundo al cuadrado. Esta aceleración es tan pequeña, que, efectivamente, al cabo de 108 segundos, o sea: 3,17 años, la velocidad adquirida por el Universo será de 1 cm/s. Ahora bien, ¡en 1011 años la velocidad será de 312.500 km/s, con lo que habrá superado la velocidad de la luz! O sea, cuando el Universo hubiera alcanzado los cien mil millones de años de edad, e.d., hubiera multiplicado por diez su edad actual, su aceleración habría superado la velocidad de la luz en el vacío. Como esto está prohibido, antes de alcanzar esta edad la energía oscura deberá dejar de actuar y la expansión del Universo se producirá, a partir de entonces, a velocidad uniforme, inferior a la de la luz en el vacío. La energía oscura no puede acelerar indefinidamente la expansión del Universo. Actualmente se acepta un Modelo Cosmológico Standard en el que a la energía oscura le correspondería alrededor de un 73%, a la materia oscura alrededor de un 23% y solo el 4% restante correspondería a la materia ordinaria, fundamentalmente bariónica. 7. CONCLUSIÓN

No parece necesario añadir mucho más a lo expuesto en este capítulo sobre la importancia que concedo al razonamiento abductivo en la metodología de las ciencias de la Naturaleza. Si los filósofos de los años treinta del siglo pasado no se hubieran obcecado con su rechazo del contexto de descubrimiento científico y las generaciones siguientes no los hubieran seguido ciegamente, la filosofía de la ciencia habría progresado adecuadamente en este campo, en el que con el devenir de los años acumuló un retraso considerable. Para ello solo habría hecho fal115

META, MÉTODO Y MITO EN CIENCIA

ta prestar mayor y mejor atención a la historia de la ciencia de los últimos 2.400 años. En descargo de la filosofía oficial de la ciencia deseo creer que esta desatención puede deberse a que se trata de una disciplina filosófica aún joven. Confío en este capítulo haber contribuido a reforzar la imagen de la filosofía académica de la ciencia.

116

V EL REALISMO EN EL PUNTO DE MIRA

1. INTRODUCCIÓN

En las líneas finales de mi Éxito, razón y cambio en física (2004), aludía al debate más que bimilenario entre realismo e instrumentalismo, un debate que calificaba de inconcluso, y cuyo análisis postergaba para otro libro. Entretanto nuevas opciones epistemológicas en ambos campos contrapuestos —realismo y antirrealismo— han visto la luz, y ello facilita mi tarea. En este capítulo, y en el próximo, intento cumplir el compromiso que contraje. Metodológicamente parece procedente comenzar con un planteamiento crítico del realismo, pues es en relación con él que se produce el desmarque de las posiciones genéricamente cobijadas bajo el nombre de antirrealismo, en particular del instrumentalismo, mi posición epistemológica, cuya presentación dejo para el capítulo siguiente. Tras mi apuesta por el pragmatismo de Rorty en el capítulo I, no se puede esperar aquí sino un posicionamiento rigurosamente crítico, y, espero, bien argumentado, a favor de la opción antirrealista. A la espera de lo que considero el argumento más devastador contra el realismo científico, la tesis de la incompatibilidad interteórica, que desarrollo en el capítulo próximo, en el presente muestro con lealtad los desvelos e inquietudes de la familia epistemológica realista que cuenta con una legión de seguidores en ciencia y filosofía. La opción por una posición epistemológica determinada, realista o antirrealista, tiene gran importancia cultural. Afecta a lo que pensamos que la ciencia puede o no puede ofrecer, y a lo que podemos esperar de ella. El debate en torno al realismo, la cuestión más candente de la filosofía contemporánea de la ciencia, no es pues un asunto meramente académico. Afecta a nuestra manera de entender el mundo y a nuestro modo de estar e interactuar con él. 117

META, MÉTODO Y MITO EN CIENCIA

2.  UN MAPA DEL REALISMO CONTEMPORÁNEO

Para empezar voy a presentar directamente un esquema de las familias realistas, una especie de árbol genealógico del realismo en el que cada entrada nueva supone un compromiso ontoepistémico creciente: desde la afirmación, que casi todo el mundo estaría dispuesto a asumir sin mayores reparos, de que hay un mundo independiente de ser percibido, a la afirmación, de fuertes compromisos epistémicos y ontológicos, de que es posible lograr una conceptualización completa y correcta del mundo real. Este esquema no puede reunir todas las familias de realismo que se han podido ofrecer a lo largo de la historia, ni tampoco lo pretende. Ni siquiera que todos los realistas se sientan representados aquí. Pero para la filosofía de la ciencia puede resultar útil, ya que, aun siendo incompleto, no es descabellado. Una advertencia final: La presentación de las diferentes posiciones epistemológicas en este mapa no sigue un orden cronológico o histórico necesario. Osadas hipótesis filosóficas se anticipan a veces a lo que podría ser una ordenación lógica natural de asunción creciente de compromisos filosóficos. Realismo ontológico:

Existe un mundo real independiente

↓ Realismo epistemológico:

Podemos tener conocimiento de él

↓ Realismo científico:





Este conocimiento trasciende lo meramente observable ↓ ↓

Realismo científico típico:

Las entidades teóricas refieren empíricamente (Realismo de entidades) ←





Las teorías científicas pueden ser verdaderas (Realismo de teorías)

Realismo estructural: Las verdades son de estructuras





Nuestro conocimiento es de estructuras y no de los objetos mismos (Realismo estructural epistémico)





Realismo metafísico:

Existe una conceptualización correcta y completa del mundo real

118

Lo que hay son estructuras (Realismo estructural óntico)

EL REALISMO EN EL PUNTO DE MIRA

3. REALISMOS Y ANTIRREALISMOS PASO A PASO

Las reflexiones que siguen a continuación se ocupan con aspectos controvertidos de una visión ampliamente sostenida de la ciencia, el realismo científico, según la cual esta es una actividad orientada a la descripción, explicación y predicción. Esquemas parecidos se encuentran en Theo Kuipers (2000, 3-8), y en cierta medida también en Antonio Diéguez (1998, 79 ss.; y 2005, 252-253). Para analizar esta cuestión podemos plantear, en orden de complejidad ontoepistémica creciente, las siguientes preguntas, de cuyas respuestas se van desgranando una a una diferentes posiciones epistemológicas: P1.- ¿Existe un mundo real independiente de ser percibido? (R1A) Respuesta afirmativa a P1: realismo ontológico (R1N) Respuesta negativa a P1: idealismo P2.- En caso de R1A, ¿podemos tener conocimiento del mundo real? (R2A) Respuesta afirmativa a P2: realismo epistemológico (R2N) Respuesta negativa a P2: escepticismo P3.- En caso de R2A, ¿este conocimiento acerca del mundo real puede ir más allá de lo meramente observable? (R3A) Respuesta afirmativa a P3: realismo científico típico. Las teorías científicas maduras ofrecen descripciones y explicaciones razonablemente fiables del mundo y sus términos teóricos han de ser tenidos en cuenta seriamente a la hora de identificar los objetos que lo pueblan. Una posición característica de realismo científico típico sería el realismo convergente de Hilary Putnam de los años setenta (cf. Rivadulla 1986, 306-307), cuyas tesis son: 1) los enunciados de la ciencia son verdaderos o falsos, aunque a menudo no sepamos cuál es el caso, 2) existen las cosas designadas por las entidades teóricas, y una explicación natural del éxito de las teorías es que constituyen descripciones parcialmente verdaderas, y 3) si una teoría T1 hace predicciones falsas en determinadas áreas, para que la teoría sustitutoria T2 tenga posibilidades de ser verdadera, entonces T1, juzgada desde T2, debe ser aproximadamente verdadera. Con carácter general se pueden dar las siguientes respuestas críticas al realismo convergente de Putnam. A 2) se le podría responder: Putnam asume que una explicación natural del éxito de las teorías es que estas constituyen descripciones parcialmente verdaderas, o sea que solo si una teoría es al menos parcialmente verdadera, entonces es exitosa. Este razonamiento de Putnam supone el argumento meta-abductivo del no milagro, según el cual si las teorías no fuesen, al menos, aproximada119

META, MÉTODO Y MITO EN CIENCIA

mente verdaderas, entonces sería un milagro que fueran empíricamente exitosas1. Ahora bien, y esto hace sospechoso al argumento, una teoría podría ser perfectamente exitosa, aunque no fuera verdadera. Por ejemplo, todo parece indicar que la mecánica newtoniana (MN) no es verdadera, pero ello no implica que no haya sido y continúe siendo exitosa en innumerables aplicaciones. Respecto a 3) la respuesta sería la siguiente: Putnam mantiene que si descartamos T1, porque hace predicciones falsas, a favor de T2, entonces T2 debe aceptar a T1 como aproximadamente verdadera, si ella misma desea tener posibilidades de ser verdadera, toda vez que no contiene las predicciones falsas que T1 implicaba. De esta manera Putnam parece sugerir que, llegado el caso, T2 podría implicar consecuencias falsas que harían recomendable su sustitución por otra teoría T3, que, desde su punto de vista, considerase a T2 como aproximadamente verdadera. Y así en adelante. Bueno, esta es la idea de convergencia que está implícita en todo realismo científico. Es cierto que esto suena plausible a primera vista: todas las teorías nuevas consideran a las precedentes como aproximadamente verdaderas: falsas, pero con un grado dado de verosimilitud. ¡Craso error, pues no se tiene en cuenta que hay mucho más que mera generosidad para con las teorías desplazadas! Y es que, por lo menos hasta el presente, teorías sucesivas suelen ser mutuamente incompatibles, como el caso paradigmático de MN y TR (teoría de la relatividad), entre otros, pone de manifiesto. Si bien, por el momento, dejo en suspenso este argumento hasta que lo trate con mayor detenimiento en el próximo capítulo. Continuando con la presentación del realismo científico encontramos la caracterización poco sofisticada de J. R. Brown (1994, 81), que distingue tres ingredientes del realismo científico: 1.  Las teorías son verdaderas o son falsas, y lo que las hace verdaderas o falsas es algo que existe de modo completamente independiente de nosotros. 2. Llevamos a cabo elecciones racionales (aunque falibles) entre teorías rivales. 3.  La ciencia persigue la verdad. Richard Boyd (1993, 518-519. Mis cursivas, A. R.) mantiene por su parte que «En casos de revoluciones científicas el hecho de que la teoría siguiente se parezca a la anterior en algunos aspectos importantes proporciona parte de la evidencia en apoyo de la última teoría, y esta consideración evidencial solo tiene sentido desde el punto de vista de que 1. Me detengo precisamente a analizar el argumento del no milagro hacia el final de la Sección 4 de este capítulo.

120

EL REALISMO EN EL PUNTO DE MIRA

lo que está implicado es la sustitución de una teoría aproximadamente precisa y bien confirmada por otra teoría aún mejor básicamente con el mismo campo. »Este último punto se puede expresar de otra forma: ciertamente en el caso del desarrollo de la teoría de la relatividad, la anterior teoría newtoniana tuvo un papel heurístico valioso en el desarrollo de la segunda. La mecánica newtoniana proporcionó una guía valiosa para la construcción de una teoría nueva que daba cuenta de hechos nuevos y sorprendentes. Lo que el enfoque presente de la epistemología científica dicta es la conclusión de que la enormemente probable explicación del valor heurístico de una teoría en una situación como esta es la de que sus términos refieren (o denotan parcialmente); que esto es verdadero en aspectos importantes; y que por esta razón puede servir como guía para la formulación de otra teoría aún más aproximadamente verdadera con el mismo campo relevantemente, esto es, una teoría en la que muchos términos conservan sus primeros referentes. Fracasa pues el argumento típicamente positivista de distinguir entre una teoría como aproximadamente verdadera de una que meramente proporciona una forma heurísticamente valiosa de enfrentarse a hechos. En todas las situaciones... la única explicación plausible del valor heurístico de una teoría es que sus términos refieren y que esta es aproximadamente verdadera en aspectos importantes». En el planteamiento de Boyd, la verdad o verosimilitud de una teoría explicaría su éxito instrumental. Por su parte Stathis Psillos (1999, xix) caracteriza el realismo por medio de las tres tesis siguientes: 1. Onto-metafísica: existen en el mundo géneros naturales independientes de la mente. 2. Semánticas: 2.1.  las teorías científicas son descripciones susceptibles de ser verdaderas o falsas tanto sobre la parte observable como sobre la no observable de sus dominios; 2.2.  los términos teóricos de las teorías científicas refieren; 2.3.  las afirmaciones teóricas de las teorías científicas no son totalmente reducibles a afirmaciones acerca de observables. 3. Epistémica: estamos justificados a creer que las teorías científicas maduras, empíricamente exitosas y bien confirmadas, son aproximadamente verdaderas, y que las entidades postuladas por ellas habitan el mundo. El argumento general a favor del realismo científico es el argumento meta-abductivo del no milagro, a saber: el realismo es la única filosofía que no hace del éxito de la ciencia un milagro. Inicialmente propuesto 121

META, MÉTODO Y MITO EN CIENCIA

por Smart y Maxwell en los años sesenta, fue popularizado por Hilary Putnam (1975, 73). (R3N) Respuesta negativa a P3: instrumentalismo, empirismo constructivo, relativismo evolucionista. Una forma radical de instrumentalismo afirmaría que ni tiene sentido considerar que las entidades teóricas refieren, ni, menos aún, que las teorías son constructos susceptibles de ser considerados verdaderos o falsos. Una forma matizada (o moderada) de instrumentalismo aseveraría que las teorías no son productos susceptibles de ser considerados verdaderos o falsos, pero que respecto de la referencia de las entidades teóricas no se debe hacer una afirmación general, debiéndose proceder caso por caso. Así, mientras un instrumentalista no radical podría considerar aceptable que los electrones existen, dada la variedad de propiedades que la física ha ido revelando de (o atribuyendo a) los mismos desde hace ya un siglo, la entidad teórica conocida como función de onda asociada a una partícula, al menos para la mecánica cuántica ortodoxa, es decir, no bohmiana, solo es una herramienta para el cálculo. Un pragmatista contemporáneo proclive al instrumentalismo es Larry Laudan (1998, 37 y 40). Para él: «La verdad [...] es solo uno de entre los varios valores que los científicos buscan fomentar. Tampoco es primus inter pares de estos valores cognoscitivos. [...] Las teorías científicas no son creencias verdaderas (menos aún creencias verdaderas justificadas) y tampoco la evaluación de una teoría científica es principalmente la evaluación de si es verdadera, ni la aceptación de una teoría científica es la aceptación de esa teoría en cuanto verdadera». Laudan (1990, 28-29) sostiene que la condición para que exista progreso no es que la teoría última contenga a su predecesora como un caso límite, sino que sea predictivamente más exitosa. En particular, sostiene que «El pragmatista está principalmente interesado en si una teoría constituye una guía fiable para el futuro. Por esta razón él concede el mayor peso a teorías que han pasado tests rigurosos que a teorías, que, aunque tal vez resuelvan muchos problemas, ha pasado pocos tests genuinos». Kyle Stanford (2006, 193-194) es prácticamente el único filósofo contemporáneo de la ciencia que defiende abiertamente una posición instrumentalista. En una actitud que él mismo califica de instrumentalismo epistémico de teorías, afirma que «nuestras mejores teorías científicas son herramientas o instrumentos que guían nuestro compromiso práctico con el mundo mejor que descripciones literales y/o adecuadas de partes del mundo, por otra parte inaccesibles». Más concretamente asevera (op. cit., 195) que «lo que supone ser un instrumentalista so122

EL REALISMO EN EL PUNTO DE MIRA

bre una teoría particular es creer las predicciones empíricas y las recetas para la intervención que la teoría ofrece, pero no la descripción de alguna parte de la naturaleza en que se fundan estas recomendaciones pragmáticas». Por su parte, el empirismo constructivo sostendría que una respuesta afirmativa a P3 no se puede sostener más allá de toda duda razonable. De forma que lo que cuenta es si las teorías son empíricamente adecuadas. Su representante más característico es Bastiaan van Fraassen. Para este el objetivo de las teorías es salvar los fenómenos, e.d., describir y predecir lo observable. Según van Fraassen (2002, 198-199), «La meta [que persigue la ciencia, A. R.] es solo construir modelos en los que los fenómenos observables pueden ser incorporados. (Lema: La meta es adecuación empírica). Incluso en el caso de éxito perfecto, no todos los elementos de los modelos necesitan tener elementos correspondientes en la realidad. [...] Si un modelo del mundo solo necesita salvar los fenómenos no necesita en absoluto corresponder a nada como un todo. Su éxito es completamente independiente de si todos los fenómenos forman parte de un objeto, el mundo». Sobre este autor (y sobre Arthur Fine) se manifiesta Cartwright (1994, 162. Mis cursivas, A. R.) del modo siguiente: «Van Fraassen y Fine recomiendan una creencia en la adecuabilidad empírica completa de la teoría, con énfasis en completa. Brevemente, la creencia en la adecuabilidad empírica completa de una teoría le compromete a uno con un conjunto abierto de contrafactuales que se siguen de la teoría, pero no con la verdad de la teoría. Es este compromiso abierto el que da cuenta de nuevas predicciones, justifica la aplicación de la teoría en dominios no comprobados, y produce leyes empíricas más allá de las ya conocidas. La teoría es pues para Fine y van Fraassen como un pasaje de inferencia válida [...] pero sus afirmaciones no deben ser tomadas seriamente como descripciones del mundo». Finalmente, el relativismo evolucionista de Gonzalo Munévar se basa en el punto de vista darwiniano de que las formas de pensamiento dependen de la evolución biológica, la cual depende también de las condiciones físicas y de la historia geológica de nuestro planeta. Una larga serie de adaptaciones a un conjunto no menos variado de circunstancias ambientales ha creado una estructura cerebral que, juntamente con una historia social determinada, ha producido un modo de pensamiento. Pero el resultado de la combinación de las historias natural y social podría haber sido otro. De ahí que Munévar (1998, 10-11) asevere que «la relatividad conceptual en la comprensión del universo, la ausencia de un marco de referencia absoluto, destruye la afirmación de que los puntos de vista científicos se corresponden con la realidad, y de que conseguirán siempre, o al menos podrán, aproximarse a esta correspondencia 123

META, MÉTODO Y MITO EN CIENCIA

(la aproximación requiere convergencia). No tenemos ninguna garantía para hacer este tipo de afirmaciones, porque sería arbitrario decir que los puntos de vista desarrollados en un marco de referencia se corresponden con las formas como las cosas son realmente —ya que puede haber otros marcos de referencia igualmente buenos—». El argumento general a favor del antirrealismo científico es la metainducción pesimista de Larry Laudan (1984, 226, 230, 244): el rechazo de teorías exitosas en la historia de la ciencia debe llevarnos a esperar que incluso nuestras mejores teorías presentes llegarán a ser abandonadas en algún momento. En varios pasos, la base del argumento es la ­siguiente: 1) «Puede haber (y ha habido) teorías altamente exitosas algunos de cuyos términos centrales no refieren». O «parte del éxito histórico de la ciencia ha sido éxito mostrado por teorías cuyos términos centrales no referían». 2) «Un realista nunca desearía decir que una teoría era aproximadamente verdadera, si sus términos centrales erraban la referencia (if its central terms failed to refer)». 3) «Una teoría puede ser empíricamente exitosa aunque no sea aproximadamente verdadera». El propio Popper, adelantado contemporáneo del realismo científico, anticipa una forma de meta-inducción pesimista cuando en (1979, XVIII) recurre a la revolución einsteiniana en apoyo de la idea del carácter conjetural o hipotético de las teorías científicas: «En los años veinte comprendí lo que la revolución einsteiniana significó para la epistemología: Si la teoría de Newton, que estaba rigurosamente testada, y que se había corroborado mejor que lo que un científico nunca pudo soñar, se reveló como una hipótesis insegura y superable, entonces no había ninguna esperanza de que cualquier teoría física pudiese alcanzar más que un status hipotético». Curiosamente, el argumento que le sirve a Popper para apoyar una forma de realismo conjetural (cf. Rivadulla 1986, cap. IX, § 1), lo usa Laudan como base de la (por el momento) más fuerte posición antirrealista. P4.- En caso de R3A, ¿este conocimiento allende lo observable supone asumir que las teorías científicas son, al menos, aproximadamente verdaderas y que sus entidades teóricas refieren empíricamente? (R4A) Respuesta afirmativa a P4: realismo de teorías. Según esta doctrina podemos tener razones para creer que las teorías científicas maduras pueden ser efectivamente verdaderas. Tal afirmación se basa en una inducción optimista. Su representante más característico sería Karl Popper (juntamente con Philip Kitcher, Lawrence Sklar, Steven Weinberg, 124

EL REALISMO EN EL PUNTO DE MIRA

y en general todos los realistas científicos típicos), y la analizaremos separadamente con detalle en la sección próxima. (R4N, 1) Primera respuesta negativa a P4: realismo de entidades. Sus representantes más característicos serían Ian Hacking y Nancy Cartwright. Y pueden ser considerados instrumentalistas moderados o rea­ listas parciales. En (1983, 91) Cartwright asevera: «El razonamiento causal proporciona buenas razones para nuestra creencia en entidades teóricas [...] Una explicación de un efecto por una causa tiene un componente existencial, no solo un ingrediente extra opcional». Análogamente Ian Hacking (1996, 291): «El trabajo experimental proporciona la mejor evidencia para el realismo científico. Esto no se debe a que ponemos a prueba hipótesis acerca de entidades. Más bien es porque las entidades que en principio no pueden ser ‘observadas’ se manipulan regularmente para producir nuevos fenómenos y para investigar otros aspectos de la naturaleza. Son herramientas, instrumentos para hacer y no para pensar. [...] Cuando se consigue usar el electrón para manipular otras partes de la naturaleza de una manera sistemática, el electrón ha dejado de ser un ente hipotético o inferido. Ha dejado de ser teórico y se torna experimental». La conversión de Hacking al realismo experimental de entidades se produjo tras tener conocimiento de un experimento en que diminutas bolas de niobio cargadas eléctricamente eran ‘rociadas’ con positrones o con electrones, según las necesidades del experimento. Esto le convenció de la existencia real de tales partículas. Anjan Chakravarty (1998, 406) interpreta que «El realismo de entidades mantiene que las entidades referidas en teorías científicas son constituyentes verdaderamente existentes del mundo natural». Pero, ¿qué implica que estas entidades, los positrones en particular, sean ‘reales’? Hilary Putnam (1999, 91) afirma al respecto: «Naturalmente, no quiero decir que los positrones no sean reales; pero creer que los positrones son reales tiene un contenido conceptual únicamente porque tenemos un esquema conceptual —un esquema sumamente singular, un esquema que no comprendemos plenamente, pero aun así un esquema exitoso— que nos permite saber qué decir acerca de los positrones, y cuándo los podemos considerar como objetos que pueden rociarse y cuándo no. El intento de Hacking de establecer una neta diferencia entre hecho y teoría, y de decir que se debe ser realista en la confrontación con los hechos y no realista en la confrontación con las teorías, se derrumba precisamente por la compenetración entre hecho y teoría. Como habría podido afirmar James, la palabra ‘positrón’ no es una copia de la realidad, sino más bien un ‘símbolo’, y es la teoría la que nos instruye acerca del uso del símbolo. De nuevo, la teoría y el he125

META, MÉTODO Y MITO EN CIENCIA

cho (el rociado de los positrones) no son separables ni siquiera con la imaginación». Hilary Putnam atribuye (ibid.) a Ian Hacking que «deberíamos ser no realistas respecto de las teorías (las cuales, según él, no son más que instrumentos de cálculo) y realistas respecto de lo que podamos ‘manipular’». Propongo visualizar esta idea en el caso del experimento de dispersión de partículas alfa de Rutherford: Aceptar la existencia de partículas alfa, que podemos manejar, así como de electrones y de carga eléctrica positiva, y aceptar la consecuencia abductiva del experimento, a saber, que existe un núcleo atómico en que se concentran las cargas positivas, que repelen a las partículas alfa, así como la existencia de electrones que circularían en orbitas estacionarias a gran distancia del núcleo, es decir, asumir la existencia de las entidades teóricas referidas por estos conceptos, no implica aceptar que el modelo atómico planetario de Rutherford sea verdadero. No obstante, aceptar el realismo de teorías obliga a aceptar el de entidades. Pues no tendría sentido admitir que una teoría es (al menos) aproximadamente verdadera, sin asumir la existencia de las entidades postuladas por ella. Pero, desde luego, esta imagen no está libre de la advertencia de Putnam acerca de la compenetración o no separabilidad entre hecho y teoría. (R4N, 2) Segunda respuesta negativa global a P4: el realismo científico estructural. Esta doctrina acepta la preservación de estructuras a través de revoluciones científicas. Ello supuestamente permite evitar tanto el argumento de la meta-inducción pesimista de Laudan (pues la verdad en ciencia sería acerca de estructuras y no de teorías y/o entidades), como que el éxito de la ciencia parezca milagroso. Precisamente John Worrall (2008, 290) afirma que «El realismo estructural supone que la estructura matemática de una teoría puede reflejar globalmente la realidad sin que cada uno de sus componentes refiera a un elemento separado de esta realidad; y reconoce que la indicación de que la teoría refleja la realidad es exactamente el tipo de éxito predictivo que motiva el argumento del no milagro. Esto le puede parecer a alguno un realismo de juego de manos, pero es la forma más fuerte de realismo compatible con la historia del cambio teórico en ciencia». Los representantes actuales más característicos de esta corriente son John Worrall, Steven French y James Ladyman. Si bien hay dos posiciones enfrentadas en el seno del realismo científico estructural: la forma epistémica, según la cual nuestro conocimiento es de estructuras, y la forma óntica o metafísica, según la cual lo único que hay —lo único que realmente existe— son estructuras. Sobre esta forma de realismo vamos a tratar en particular en la próxima Sección 5. 126

EL REALISMO EN EL PUNTO DE MIRA

P5.- Las posiciones afirmativas respecto a P4 suscitan finalmente la pregunta: ¿Puede llegar a existir una conceptualización correcta y completa del mundo real? (R5A) Respuesta afirmativa a P5: realismo metafísico. Esta doctrina asume la existencia de un mundo estructuralmente ya hecho, para cuyo conocimiento los seres humanos estamos capacitados. Sus tesis serían: 1) el mundo es independiente de toda representación particular que tengamos de él, 2) existe un mundo ‘ya hecho’, con esencias o estructuras incorporadas, 3) es posible singularizar una correspondencia particular entre la ciencia y la realidad y 4) es posible una descripción completa y correcta de la forma que es el mundo. (R5N, 1) Respuestas negativas a P5: Primera, el realismo crítico de Mario Bunge (1973, 86) y Raimo Tuomela (1973, 7). Prematuramente anticipado, este representa una versión sofisticada de realismo científico. Con el realismo metafísico comparte el realismo crítico la tesis ontológica de la existencia y la cognoscibilidad de las cosas en sí, pero diverge de él en las tesis siguientes: 1.  Las cosas en sí son cognoscibles, si bien parcialmente y por aproximaciones sucesivas, antes que exhaustivamente y de una vez. 2.  El conocimiento de una cosa en sí procede justamente de la teoría y el experimento. 3.  Este conocimiento fáctico —e.d., no empírico o sensible— es hipotético antes que apodíctico, y por consiguiente corregible y no final. 4.  El conocimiento de una cosa en sí, lejos de ser directo y pictórico, es indirecto y simbólico. El conocimiento de una cosa no constituye pues una ‘copia’ suya, lo que se debe al hecho de que este conocimiento se obtiene ante todo por medio de teorías. Las tesis semánticas de este realismo son: 1.  Los predicados teóricos de las teorías científicas refieren generalmente objetos fácticos exteriores y representan aspectos suyos. 2.  El significado de los términos teóricos viene determinado en general por la teoría o teorías en que aparecen. Para el realismo crítico los conceptos científicos representan aspectos, considerados relevantes, de objetos físicos realmente existentes. Esta representación empero no es pictórica ni directa, sino hipotética, incompleta, indirecta y simbólica. Pero esta es la forma en que la ciencia refiere la realidad (Bunge 1972, 187). Y aunque el significado de un término sea contextual, es decir, relativo a una teoría, su referencia puede permanecer invariante a pesar de que un cambio teórico comporte un cambio de significado (frente a alguna versión radical de la tesis de la inconmensurabilidad, por cierto). Bunge coincide pues con Hilary Put127

META, MÉTODO Y MITO EN CIENCIA

nam en que la estabilidad de la referencia en el cambio teórico garantiza la convergencia a la verdad. (R5N, 2) Segunda respuesta negativa a P5: el realismo interno o pragmático de Putnam. El realismo metafísico, es caracterizado por Putnam como una doctrina filosófica según la cual (a) se supone que el mundo es independiente de toda representación particular que tengamos de él, y (b) existe una descripción completa y verdadera de la forma como es el mundo. Esta concepción, que Putnam identifica con la teoría de la verdad como copia, determina que un enunciado es verdadero si concuerda con hechos independientes de la mente, y requiere la existencia de un mundo ya hecho, un mundo con una estructura incorporada. De modo claramente rortyano o pragmatista, la tesis de Putnam (1982, 4) reza: «No tenemos nociones de la ‘existencia’ de cosas o de la ‘verdad’ de enunciados que sean independientes de las versiones que construimos y de los procedimientos y prácticas que dan sentido a hablar de ‘existencia’ y ‘verdad’ en estas versiones... Postular un conjunto de objetos ‘últimos’ [...], cuya ‘existencia’ es absoluta, no relativa a nuestro discurso, y una noción de verdad como ‘correspondencia’ con estos Objetos Últimos es simplemente revivir toda la empresa fallida de la metafísica tradicional». O sea, que si las propiedades del mundo son siempre relativas a una teoría, si no es posible decir cómo es el mundo independientemente de una teoría, entonces, asevera Putnam (1978, 133), no es posible considerar las teorías como descripciones del mundo. Las propiedades del mundo son relativas a una teoría. Y como no podemos trascender el lenguaje es difícil entender qué puede querer decir que las teorías son ‘descripciones del mundo’. Siguiendo una tradición pragmatista —criticada empero por Rorty— Putnam entiende verdad como idealización de aceptabilidad racional. Hablamos como si hubiera condiciones epistémicas ideales y llamamos ‘verdadero’ a un enunciado capaz de ser justificado en tales condiciones. Asumido por Putnam que verdad no es conformidad con la forma en que las cosas son en sí mismas, que verdad no es correspondencia con un mundo ‘ya hecho’, sino aceptabilidad racional idealizada, se plantea la cuestión acerca de qué es aceptabilidad racional. La respuesta consiste en que, para que una teoría sea racionalmente aceptable, ha de mostrar virtudes tales como eficacia instrumental, coherencia, comprehensión y simplicidad funcional. Estamos interesados en la coherencia, simplicidad y eficacia de nuestras teorías, porque estas son propiedades de toda teoría buena. En estas reflexiones se asienta el realismo interno de Putnam que sostiene: 1. el rechazo de la fantasía metafísica de la existencia de un 128

EL REALISMO EN EL PUNTO DE MIRA

mundo ‘ya hecho’, con objetos autoidentificadores, estructuras ‘incorporadas’, esencias, etc., un mundo que permitiera singularizar una correspondencia particular entre lo que está ‘dentro’ de la mente y tales objetos; y 2. verdad es justificación en condiciones epistémicas ideales. El realismo interno tropieza empero con la dificultad de que si verdad, referencia y significado son internos al lenguaje, entonces resulta problemático discriminar entre teorías en competencia acerca de un mismo problema o dominio. Finalmente, redefinir verdad como aceptabilidad racional en condiciones epistémicas ideales aplaza, pero no evita, la decisión de prescindir del realismo, una vez asumida la imposibilidad de aceptar las teorías como descripciones del mundo. Me adhiero pues a las críticas de Rorty a Putnam. 4.  EL REALISMO CIENTÍFICO. ARGUMENTOS METAMETODOLÓGICOS A SU FAVOR

La teoría de la verdad como correspondencia parte de Aristóteles y fue retomada modernamente, según Karl Popper (1972, cap. VIII, secc. 4), por el lógico Alfred Tarski, quien rehabilita la idea de que verdad es conformidad con los hechos. Para Popper, según esta teoría de la verdad como correspondencia, «una frase es verdadera si concuerda, o se corresponde, con los hechos o con la realidad» (Popper 1979, xxii-xxiii). A pesar de la imposibilidad lógica de justificar como verdaderas las teorías empíricas (¡problema lógico de la inducción!), la concepción de que la verdad es la meta de la ciencia es la posición del realista científico Karl Popper, para quien (1994b, 173-174) «La ciencia persigue la verdad o la aproximación a la verdad, por muy difícil que sea aproximarse a ella, incluso con éxito moderado». La posición de Popper refleja una calma tensa entre dos actitudes filosóficas incompatibles: el pragmatismo y el realismo. La opinión que a Hilary Putnam le merece la obra de Tarski es completamente opuesta a Popper: Tarski solo habría proporcionado un método para construir definiciones de «verdadero en L», donde L es un lenguaje formalizado, definiciones que obedecen al principio de equivalencia —ya formulado por Frege—, según el cual afirmar que un enunciado es verdadero equivale a expresar el enunciado mismo. Esta es una tarea puramente formal, y en cuanto tal «La obra de Tarski es filosóficamente neutral; esto es por lo que no constituye una reivindicación de la teoría de la verdad como correspondencia» (Putnam 1978, 83). Así pues, para Putnam, afirmar que la ciencia pretende descubrir la verdad constituye una aseveración puramente formal. De acuerdo con su posición filopragmatista acerca de la verdad Putnam (1981, 129-130) sos129

META, MÉTODO Y MITO EN CIENCIA

tiene que «la afirmación de que la ciencia intenta descubrir la verdad solo puede significar que la ciencia trata de construir una imagen del mundo que, en el límite ideal, satisface ciertos criterios de aceptabilidad racional [...]; las metas de la ciencia reciben un contenido material solo a través de los criterios de aceptabilidad racional implícitos en ella. En pocas palabras, estoy diciendo que la respuesta a la posición [...] de que la única meta de la ciencia es descubrir la verdad [...] es que la verdad no es la última línea: la verdad recibe ella misma la vida de nuestros criterios de aceptabilidad racional, y estos son los que tenemos que mirar si deseamos descubrir los valores que están realmente implícitos en la ciencia». En cualquier caso, el realismo científico de Popper está en clara oposición al esencialismo, una doctrina según la cual la ciencia trata de dar una explicación última por esencias. Popper considera que el esencialismo se halla en franca oposición con los métodos de la ciencia moderna, pues, aunque hacemos todo lo posible por encontrar la verdad, somos conscientes de que nunca podemos estar seguros de haber dado con ella. Lo más que podemos conseguir es un cierto progreso, si somos capaces de determinar cuál es la mejor de las teorías que compiten entre sí; pero esto no evita que estas sigan conservando su carácter hipotético o conjetural. En ciencia pues no hay conocimiento en el sentido de Platón y Aristóteles, ya que no existen razones suficientes para creer que se ha alcanzado la verdad. Lo máximo que se puede conseguir en ella es una información acerca de las diferentes hipótesis competidoras que proponen soluciones diferentes a problemas comunes, así como sobre su comportamiento frente a las pruebas a que son sometidas con la intención de falsarlas. Para Popper una interpretación esencialista de la teoría newtoniana de la gravitación implicaría que las leyes del movimiento describen la naturaleza. El problema es que esta concepción impide el planteamiento de cuestiones fructíferas, como la de si tal vez no pudiéramos explicar la gravedad deduciendo la teoría newtoniana, o una buena aproximación suya, de una teoría más general que fuese independientemente testable. Para Popper pues la creencia en esencias tiende a crear obstáculos al planteamiento de problemas nuevos y fructíferos. No obstante, aunque antiesencialista la actitud realista de Popper queda claramente de manifiesto cuando señala: «aunque yo no creo que podamos describir nunca una esencia última del mundo por medio de nuestras leyes generales, no dudo sin embargo que tratamos de penetrar cada vez más profundamente en el mundo, o como podemos decir también, en propiedades del mundo cada vez más esenciales o profundas» (Popper 1972, cap. V). Rechazado el esencialismo, ¿cuál es la actitud de Popper en el debate realismo-instrumentalismo? Popper (1994b, 174) expresa el núcleo 130

EL REALISMO EN EL PUNTO DE MIRA

de este debate de la manera siguiente: «¿Son las teorías científicas nada más que instrumentos, o como yo sugiero, no deberían ser consideradas como intentos por encontrar la verdad acerca de nuestro mundo, o por lo menos intentos por aproximarnos a la verdad?». Una idea nuclear del realismo científico popperiano es la siguiente (cf. Popper 1963, cap. 3, secc. 6): «Las teorías son nuestras propias invenciones, nuestras propias ideas [...] Pero algunas de estas teorías son tan atrevidas que chocan con la realidad: son las teorías testables de la ciencia. Y cuando chocan, nos percatamos de que hay una realidad: algo que nos dice que nuestras teorías están equivocadas. Esto es por lo que el realista tiene razón». Esta idea de las teorías como invenciones la reitera Karl Popper (1982a, 42-43): «Veo nuestras teorías científicas como invenciones humanas —redes diseñadas por nosotros para captar el mundo—. [...] Las teorías no son solo instrumentos. Buscamos la verdad: testamos nuestras teorías con la esperanza de eliminar aquellas que no son verdaderas. De esta forma podemos lograr mejorar nuestras teorías —incluso como instrumentos—. A saber: construyendo redes cada vez mejor adaptadas para capturar nuestro pescado, el mundo real». Y en (1994b, 175-176) Popper sostiene que tiene sentido decir que una teoría constituye una mejor aproximación a la verdad que otra teoría competidora: «Hay muchos ejemplos en física de teorías competidoras que forman una secuencia de teorías tales que las últimas parecen ser aproximaciones cada vez mejores a la verdad (desconocida). »Por ejemplo, el modelo de Copérnico parece ser una mejor aproximación a la verdad que el de Ptolomeo, el de Kepler, una mejor aproximación que el de Copérnico, la teoría de Newton una aproximación aún mejor, y la de Einstein todavía mejor». Que la búsqueda de verdad es la idea regulativa de la ciencia lo sostiene Popper desde LIC, § 85 en toda su obra. Por ejemplo en 1994b, 161: «En el mejor de los casos la discusión crítica justifica la afirmación de que la teoría en cuestión es la mejor disponible, o, con otras palabras, la que más se acerca a la verdad. [...] comparando las teorías intentamos hallar la que consideramos que se acerca más a la verdad (desconocida). Así pues, la idea de verdad (de verdad ‘absoluta’) juega un papel muy importante en nuestra discusión. Es nuestra principal idea regulativa. Aunque nunca podemos justificar la afirmación de haber alcanzado la verdad, con frecuencia damos razones muy buenas, o justificación, de por qué una teoría debería ser considerada que está más próxima a ella que otra». Las coordenadas en que se sitúa el realismo científico de Popper son pues, por una parte, una actitud antiesencialista y antiinstrumentalista, y por otra, un intento de hacer compatible un realismo de convergencia a la verdad con la tesis pragmatista de imposibilidad de acercarnos a la 131

META, MÉTODO Y MITO EN CIENCIA

verdad. ¿Cuáles son, pues, los criterios en virtud de los cuales sería posible determinar si una teoría se aproxima a la verdad más o mejor que otra? ¿Algo más que el balance predictivo? ¿En qué se basa la idea de que las teorías científicas no son más que meros instrumentos adecuados para la intelección del mundo? ¿En su adecuación empírica? ¿En su precisión predictiva? Según Popper (1963, 232), que desconozcamos a qué distancia nos encontramos de la verdad, no evita que podamos afirmar que una teoría B está más próxima a ella que otra teoría competidora A. Y para ello contamos con los criterios siguientes que son la base de la inducción optimista popperiana: cuando B resiste pruebas más severas; o cuando explica más hechos o más detalladamente que A; o cuando supera las pruebas ante las que A fracasó; o cuando B sugiere pruebas nuevas, impensables desde el punto de vista de A, y las supera también; o cuando B es capaz de poner en relación fenómenos hasta entonces dispersos, etcétera. Ahora bien, parafraseando a Hume en la Sección IV, Parte III, de su Ensayo sobre el entendimiento humano, podríamos concluir que las dos proposiciones siguientes están lejos de ser iguales: Constato que esta teoría es empíricamente adecuada, y preveo que es aproximadamente verdadera. De lo uno no se sigue lo otro. Lo que no vale en lógica (la inducción), no puede valer en epistemología. Dicho lo cual ello que no impide reconocer que la inducción optimista popperiana anticipa claramente una posición asumida por los realistas científicos contemporáneos en forma de abducción o inferencia a la mejor explicación. Hay claramente un atisbo del argumento del no milagro en la inducción optimista de Popper. En la historia de la ciencia encontramos una decidida defensa del realismo de teorías ya entre los averroístas italianos de los siglos xv y xvi en su rechazo de la astronomía ptolemaica —marcadamente instrumentalista— y en favor de la teoría aristotélica de las esferas homocéntricas, claramente realista. Además de las contribuciones de Alessandro Achillini en 1494 y de Girolamo Fracastoro en 15352, en 1536 Giovanni Battista Amico3, citado por Duhem (1908, 50), afirma: «Eudoxo, Calipo y Aristóteles trataron de reducir los diferentes movimientos no uniformes que muestran los cuerpos celestes a esferas homocéntricas, tal como la Naturaleza sanciona. Por otra parte, Ptolomeo y quienes siguieron su método trataron de reducir estos mismos movimientos a excéntricas y epiciclos, a pesar de la Naturaleza. [...] Si, pues, la Naturaleza no cono 2. Cf. Rivadulla (2003, 39-40). 3. En un opúsculo titulado De motibus coporum coelestium iuxta principia peripatetica sine excentriis et epicyclis, publicado en Venecia.

132

EL REALISMO EN EL PUNTO DE MIRA

ce ni epiciclos ni excéntricas, posición adoptada de manera plenamente apropiada por Averroes, [...] nos corresponde rechazar estas esferas. Lo que hacemos gustosamente a la vista de que los astrónomos atribuyen a los epiciclos y excéntricas ciertos movimientos [...] que, al menos en mi opinión, no pueden pertenecer a la quintaesencia». Francesco Capuano de Manfredonia había publicado en 1495 un comentario a Theorice nove planetarum Georgii Purbachii con el objetivo de probar empíricamente —o sea, recurriendo a las apariencias— la verdad de las hipótesis ptolemaicas. Citado por Duhem (op. cit., 53) Capuano, usando una forma de razonamiento abductivo, asevera que «los principios de la astronomía se infieren a posteriori y de los sentidos; habiendo notado y observado el movimiento y demás accidentes de un planeta, uno concluye demostrativamente [...] que este tiene una excéntrica o bien un epiciclo. El principio de esta demostración es [...] el movimiento observado, como se puede ver por la forma en que el Almagesto siempre procede. Antes de postular la excéntrica y el epiciclo, este libro describe el movimiento de los planetas, en base de numerosas observaciones hechas en tiempos diferentes y por distintos astrónomos. Pero además uno encuentra ciertos tipos de estricta demostración matemática, pues, una vez postuladas las esferas y sus movimientos, los objetos observables pueden ser inferidos demostrativamente». Por el contrario, cuando el dominico Silvestre de Prierio publica en Milán, en 1514, In novas Georgii Purbachii theoricas planetarum commentaria, asevera en relación a las órbitas atribuidas al Sol por Purbach y Regiomontano, que «ellos no prueban que las cosas sean de esta manera, y quizás afirman que tampoco es necesario. [...] Así pues, se supone que el Sol tiene tres órbitas; pero esto no se demuestra, sino que se postula a fin de salvar las apariencias que se observan en los cielos». Entre los físicos contemporáneos el realismo científico goza de gran simpatía. Steven Weinberg (1998, 48 y 51) por ejemplo mantiene, en forma que podría ser perfectamete rubricada por el propio Sir Karl, que «La tarea de la ciencia consiste en aproximarnos a la verdad objetiva. [...] Lo que nos empuja hacia delante en el trabajo científico es precisamente el sentido de que ahí fuera hay verdades por descubrir, verdades que, una vez descubiertas, pasarán a formar permanentemente parte del conocimiento humano». Y, firme en su realismo científico, Weinberg (2003, 208) reitera: «Hemos visto la ciencia de la óptica y la ciencia de la electricidad fundirse en la época de Maxwell en lo que ahora llamamos electrodinámica y, en años recientes, hemos visto la electrodinámica y las teorías de otras fuerzas de la naturaleza fundirse en el moderno modelo estándar de partículas elementales. Esperamos que en el siguiente paso hacia de133

META, MÉTODO Y MITO EN CIENCIA

lante en física veremos la teoría de la gravedad y todas las diferentes ramas de la física de partículas elementales fluir juntas hacia una sola teoría unificada. [...] Y cuando hayamos descubierto esta teoría, será parte de una descripción verdadera de la realidad». Claro que en esta posición epistemológica se reconoce también al realista Albert Einstein (1992, 77): «La física es un esfuerzo por aprehender conceptualmente la realidad como algo que se considera independiente de ser percibido». Quien inicia su conocido artículo de 1935, con la siguiente manifestación de fe realista: «Una consideración seria de la teoría física debe tomar en cuenta la distinción entre la realidad objetiva, que es independiente de toda teoría, y los conceptos físicos con que la teoría opera. Se entiende que estos conceptos corresponden a la realidad objetiva, y por medio de ellos nos imaginamos esta ­realidad». En la filosofía actual de la ciencia Philip Kitcher (2001, 135-136) asevera, a la manera de Popper, que la meta epistémica pura más obvia de la ciencia es la verdad, y de forma inequívocamente realista, describe cómo los científicos practican la ciencia al modo que dicta el realismo científico típico: «Los científicos descubren cosas acerca de un mundo que es independiente de la cognición humana; formulan enunciados verdaderos, usan conceptos que se ajustan a las divisiones naturales, desarrollan esquemas que aprehenden las dependencias objetivas» (p. 181). Y frente a quienes, como Larry Laudan, sostienen la tesis de la metainducción pesimista, Kitcher (2001, 135-136) en una manera que recuerda al realismo convergente de Putnam, ofrece el siguiente razonamiento, que es un ejemplo excelente de inducción optimista: «Siempre que en la historia de la ciencia ha habido en un campo de estudio una secuencia de teorías T1,…,Tn [...] tal que para cada i, Ti+1 se ha considerado superior a Ti, entonces, para cada j mayor que i+1, Ti+1 parece más cercana a la verdad que Ti desde la perspectiva de Tj [...]. Así, podemos esperar que a nuestros sucesores nuestras teorías les parecerán más cercanas a la verdad que las teorías de nuestros predecesores». Y siguiendo el ejemplo de Popper (1994b, 175-176), que hemos citado unas páginas antes, Kitcher no se resiste a presentar también su cadena de teorías que entiende que convergen linealmente a la verdad. Así, afirma, que la teoría ondulatoria de Fresnel estaba más cercana a la verdad que la teoría corpuscular de Brewster, o que en la historia de la química, Lavoisier mejoró a Priestley, Dalton a Lavoisier, y Avogrado a Dalton. (Pero, como Popper, y en general todo el realismo convergente, Kitcher tampoco cae en la cuenta de que lo usual es que las teorías que se suceden sean incompatibles entre sí. O sea, descuida el hecho históricamente recurrente de la incompatibilidad interteórica, del que me ocu134

EL REALISMO EN EL PUNTO DE MIRA

paré en el capítulo siguiente. No entro a considerar aquí si los ejemplos que él pone sucumben a este hecho). Desde una posición próxima al inductivismo optimista de Kitcher, Lawrence Sklar (2000, 87-88) mantiene también que «Nosotros no creemos ahora que en el futuro creeremos que nuestras mejores teorías actuales serán verdaderas. Pero sí que podemos creer ahora, y con buenas razones, que ahora estamos autorizados a creer que nuestras teorías presentes están ‘en la vía de la verdad’ y que en el futuro serán contempladas como ‘habiendo estado en la dirección correcta’». Más concreto que los anteriores, Theo Kuipers (2000) ofrece una explicación novedosa de la idea de aproximación a la verdad consistente en que la ciencia progresa por revisión del dominio de aplicación de las teorías, lo que puede ocurrir o bien por restricción o bien por ampliación del dominio en cuestión. Así, la ampliación exitosa de nuevos dominios de aplicación de la mecánica newtoniana ofrecería un buen ejemplo de acumulación de verdad por ampliación del dominio. El problema es que ni el éxito empírico de la mecánica celeste newtoniana, incluso allí donde tiene lugar una ampliación de su dominio de aplicación, constituye ningún indicador de su proximidad a la verdad, ni tampoco lo es el que esta vea restringido en ocasiones su dominio de aplicación, Pero sobre este asunto voy a tratar más adelante con detenimiento, cuando analice el papel que los modelos teóricos juegan en la metodología de la ciencia. Dejo pues en suspenso mi juicio final sobre la interesante propuesta de Kuipers. Una defensa reciente del realismo científico típico la ofrece Stathis Psillos (2009). Se trata de una versión altamente optimista, pues niega que pueda haber límites en el conocimiento de la Naturaleza. Psillos combina el realismo ontológico, que afirma la existencia de un mundo exterior independiente, con el realismo científico que asevera que incluso las estructuras inobservables del mundo son cognoscibles, de forma que no existe ninguna separación entre lo que puede ser conocido y lo que no puede serlo. Para ello se adhiere —como Popper— a la concepción tradicional de verdad como correspondencia con la realidad y rechaza tanto una concepción epistémica de la verdad como la idea de verdad como adecuabilidad empírica. El realismo optimista de Psillos se apoya en el argumento del no milagro (ANM/NMA) de Putnam-Boyd que es el que sostiene al argumento metametodológico de la Inferencia a la Mejor Explicación (IME/IBE), una abducción de segundo orden o gran abducción a favor del realismo científico, como la teoría filosófica que mejor da cuenta del éxito empírico de las teorías. Como Stathis Psillos (2009, 68) reconoce, el papel que la abducción juega a nivel metodológico como «el tipo de inferencia que autoriza la aceptación de una hipótesis H como verdadera sobre 135

META, MÉTODO Y MITO EN CIENCIA

la base de que es la mejor explicación de la evidencia», no tiene nada de extraño que postule también el argumento del no milagro como un argumento característico a favor del realismo científico. El argumento de Putnam-Boyd del no milagro fue inicialmente propuesto por J. J. Smart y Grover Maxwell en los años sesenta. Este argumento afirma, en palabras de Richard Boyd (1984, 43), que «Si las teorías científicas no fueran (aproximadamente) verdaderas, sería milagroso que proporcionaran predicciones observacionales tan precisas». Que se trata de un argumento abductivo se ve claramente: 1. Las teorías científicas maduras hacen predicciones observacionales precisas. 2.  Pero si fueran (al menos aproximadamente) verdaderas una gran capacidad de predicción precisa sería lo esperado. 3.  Luego hay razones para sospechar que lo son, y por tanto que no es milagroso que sean tan precisas predictivamente. Aplicado al realismo científico como teoría filosófica, el argumento del no milagro fue popularizado por Hilary Putnam (1975, 73): «El argumento positivo en favor del realismo es que es la única filosofía que no hace un milagro del éxito de la ciencia», y en (1978, 18) «el argumento realista típico contra el idealismo es que este hace un milagro del éxito de la ciencia». Ilkka Niiniluoto (1999, 436) reconoce explícitamente que el realismo científico ha sido defendido por medio de un argumento abductivo de no milagro. Y que el realismo científico se apoya en una meta-abducción optimista, una inferencia de segundo orden a la mejor explicación, pues tiene lugar a nivel metacientífico, lo ha dejado meridianamente claro Paul Thagard (1988, 150): 1.  La verdad es considerada una propiedad de las teorías científicas. 2.  Pero aceptar el realismo supone que se puede decir que las teorías científicas son verdaderas. 3.  Luego no hay razón para no ver que la verdad es una propiedad de una teoría metafísica como el realismo. Esta gran abducción, o abducción de segundo orden, constituye la Inferencia a la Mejor Explicación (IME/IBE) del realismo científico como la teoría filosófica que mejor da cuenta del éxito empírico de las teorías, y se apoya en el argumento del no milagro (ANM/NMA) de Putnam-Boyd. Pero, como no podía ser de otra forma, un argumento fuerte a favor del realismo tiene que venir contrarrestado por un argumento también fuerte en contra. El argumento más fuerte en contra del realismo científico —ya lo hemos visto— es la metainducción pesimista de Laudan, según el cual como teorías tenidas en algún momento por verda136

EL REALISMO EN EL PUNTO DE MIRA

deras acaban siendo consideradas falsas, entonces no hay ninguna garantía de que las teorías tenidas por verdaderas en el presente vayan a seguir siendo aceptadas como tales en el futuro. A falta de un argumento mejor contra el realismo científico, la metainducción pesimista de Laudan ha sido tenida como su mayor amenaza. Pero existe una aún mayor, poco considerada por los filósofos de la ciencia, que proporciona una refutación concluyente del realismo científico. Se trata de la existencia de incompatibilidad entre teorías, una constante en la historia de la ciencia, fácilmente constatable en la física teórica. La idea es que si teorías sucesivas o coexistentes son incompatibles entre sí, entonces no hay ninguna esperanza de que la ciencia converja a la verdad y de que la teoría —el pensamiento teórico— pueda ser la morada, el hábitat de la verdad. Es la base de mi posición instrumentalista claramente rortyana. Psillos (2009, 48) reprocha a los autores originales de ANM no haber enfatizado suficientemente la relevancia de las predicciones nuevas. Estas predicciones, si son incorporadas en teorías sucesoras, garantizan, opina Psillos (pp. 70-72), la continuidad teórica y por tanto la convergencia en el cambio teórico, por lo que juegan un papel especialmente relevante por su resistencia a la inducción pesimista. Ellas aportan una imagen dinámica de la ciencia, según la cual «las teorías mejoran a sus predecesoras, explican su éxito, incorporan elementos bien asentados y llevan a una descripción mejor confirmada (y, según la evidencia actual, más verdadera) de la estructura profunda del mundo» (p. 83). Ahora bien, como el desarrollo científico muestra, entre las múltiples predicciones de una teoría, unas son acertadas y otras no. Las primeras contribuirían a aproximar la teoría a la verdad, mientras que las otras la alejarían de ella. Así, si nos fijamos en la mecánica celeste newtoniana las predicciones, y posteriores descubrimientos, del cometa Halley y del planeta Neptuno constituyen logros extraordinarios. Pero las predicciones fallidas acerca de la existencia de un planeta, Vulcano, entre el Sol y Mercurio, del propio perihelio de Mercurio, o de la desviación de la luz por el Sol constituirían fracasos clamorosos de la teoría. ¡El éxito empírico no es garantía de aproximación a la verdad ni de probabilidad de verdad, por lo que no se ve cómo nuevas predicciones, incluso verificadas, podrían representar una seria objeción contra la metainducción pesimista de Laudan! Por otra parte, tampoco es legítimo afirmar que exista una continuidad entre la mecánica celeste newtoniana, la teoría general de la relatividad y la todavía no formulada teoría cuántica de la gravitación.

137

META, MÉTODO Y MITO EN CIENCIA

5.  EL REALISMO ESTRUCTURAL, ¿ÚLTIMA OPCIÓN DEL REALISMO CIENTÍFICO?

Los filósofos de la ciencia, apenas conscientes de la seria amenaza que la existencia de incompatibilidad interteórica representa para la sostenibilidad del realismo científico, siempre han considerado a la metainducción pesimista de Laudan el mayor reto al que este puede enfrentarse. Con objeto de hacerle frente y así poder mantener un realismo científico defendible, un grupo de filósofos de la ciencia, con John Worrall a la cabeza, descubrieron en Henri Poincaré una forma de realismo susceptible de presentarse como una tercera vía entre el débil realismo científico típico y las diferentes formas de antirrealismo. La propuesta de John Worrall (1989), inspirada en Poincaré, se denomina realismo estructural. La cuestión es entonces si el realismo estructural es la tercera vía, o sea, si hay una forma razonable de realismo científico capaz de superar las dificultades del realismo científico típico. Para responder a esta pregunta encaro directamente las que considero que son sus dos tesis centrales, que en Rivadulla (2010a) he denominado —y critico— los dos dogmas del realismo estructural. A saber: 1)  Las estructuras teóricas son las que describen el mundo. (En oposición al realismo científico típico, que mantiene que las teorías científicas maduras son aproximadamente verdaderas y sus términos teóricos refieren empíricamente). 2)  El cambio científico preserva las estructuras de las teorías precedentes. Mi apelativo de dogmas de estas dos tesis se debe al hecho de que en­ tiendo que no son sostenibles con argumentos racionales. El primer dogma del realismo estructural se resume en la tesis de John Worrall (1989, 123) de que el éxito empírico de las teorías científicas maduras se explica bajo el supuesto de que las ecuaciones matemáticas de las teorías describen o representan relaciones en el mundo. En términos similares se expresa Anjan Chakravarty (1998, 497) cuando afirma que las estructuras de las teorías físicas representan correctamente relaciones en el mundo. El argumento del no milagro es, supuestamente, el mejor a favor del realismo. Pero, si, según el realismo estructural, son estructuras teóricas y no enunciados los que describen la realidad independiente, el realismo científico no se vería afectado por la reserva mental de que, después de todo, la ciencia es cosa de milagro. La segunda tesis o dogma del realismo estructural, que afirma que existe retención de estructuras en el cambio de teorías, previene, presuntamente, contra la metainducción pesimista, que ha sido hasta el momento el mayor reto al que se ha enfrentado el realismo científico típico. 138

EL REALISMO EN EL PUNTO DE MIRA

La razón sería bien simple: si hay retención de estructuras con el cambio de teoría, la ciencia es una actividad convergente. Mi posición general respecto al realismo estructural es que este no constituye la esperada tercera vía. Mis argumentos principales, que he expuesto en Rivadulla (2010a, §§ 3, 4) continúo considerándolos muy serios, a la espera de presentar el de la incompatibilidad interteórica, que me parece determinante contra cualquier forma de realismo científico, típico o estructural. Por ello seguidamente solo voy a destacar algunas ideas centrales en el debate con el realismo estructural. 5.1.  Primera tesis (dogma) del realismo estructural Worrall pretende que la mejor explicación del éxito empírico de nuestras teorías físicas maduras reside en el hecho que las ecuaciones matemáticas de estas describen o representan relaciones que se dan en el mundo. Esto constituye sin lugar a dudas un argumento a la mejor explicación. Pero, si esto es así, ¿qué diferencia hay con el recurso al argumento del no milagro en que se apoya el realismo científico típico? Además, previamente, el realista estructural debe justificar más allá de toda duda razonable que las ecuaciones matemáticas de las teorías describen realmente relaciones que se dan en el mundo. El problema del realismo estructural no se reduce a lo dicho. Existe en el seno de esta corriente una versión denominada realismo estructural óntico, cuya tesis metafísica, defendida por French y Ladyman (2003) es la de que todo lo que hay es estructura. Esto no es una licencia literaria. Esta es la tesis filosófica de esta familia de realismo estructural: Lo único que hay son estructuras, y esto equivale a relaciones sin relata. Esta tesis es difícilmente asumible, tanto desde posiciones realistas como antirrealistas. Chakravarty (1998) la cuestiona. Stathis Psillos (2009) la rechaza, y Bastiaan van Fraassen (2007, 60) la ridiculiza. Si pretende allanar el camino del realismo estructural, la versión óntica lo lleva a un callejón sin salida. 5.2.  Segunda tesis (dogma) del realismo estructural Esta tesis la mantiene John Worrall (1989, 20) para quien «La regla en la historia de la física parece ser que, cuando una teoría sustituye a una predecesora, que sin embargo ha gozado de genuino éxito predictivo, entonces actúa el ‘principio de correspondencia’. Este requiere que las ecuaciones matemáticas de la teoría antigua reemerjan como casos límite de las ecuaciones matemáticas de las nuevas». Para encarar esta tesis voy a presentar dos situaciones posibles. Primera: cuando hay retención de estructura ¿hay siempre paso al lími139

META, MÉTODO Y MITO EN CIENCIA

te? Y segunda: cuando hay paso al límite ¿hay siempre preservación de estructura? La primera cuestión está en estrecha relación con mi concepto de explicación teórica, que he propuesto en Rivadulla (2004, cap. II) y reitero en (2005, 169): «Un constructo físico recibe una explicación teórica cuando puede ser deducido matemáticamente en el marco de otro constructo más general». La idea es que las ecuaciones, relaciones o estructuras que se retienen o preservan en todo cambio teórico a lo que contribuirían es a mostrar que las teorías superadas reciben una explicación teórica por parte de las teorías nuevas. Aceptado esto, la cuestión que se plantea es si por regla general —como parece desprenderse de la afirmación de Worrall— las explicaciones teóricas requieren situaciones de paso al límite. Es bien sabido que para Einstein (1917, 69) la meta de toda teoría física es apuntar al establecimiento de una teoría más comprehensiva en cuyo seno aquella sobreviva como un caso límite. Y como me place hacer notar con frecuencia, Karl Popper (1982b, 29-30) llegó a arriesgar su realismo científico cuando admitió que «la teoría de Einstein ha mostrado que la de Newton [...] puede ser sustituida por una teoría alternativa de mayor alcance y relacionada con ella de forma que todo éxito de la teoría newtoniana lo es también de ella... Así, para mí esta situación lógica es más importante que la cuestión acerca de cuál de las dos teorías constituye la mejor aproximación a la verdad». Ahora bien, no entraba en la filosofía de Einstein que toda explicación teórica implique una situación de paso al límite. Esto se observa con claridad cuando Einstein (1927, 227) describe la relación entre Kepler y Newton: «Newton solo tenía ante sí las leyes empíricas de Kepler sobre el movimiento planetario, deducidas de las observaciones de Tycho Brahe y esas leyes exigían explicación. [...] Es bien cierto que estas leyes brindaron una respuesta completa a la pregunta de cómo se mueven los planetas en torno al sol... Pero estas normas no aportan una explicación causal. Son tres reglas lógicamente independientes que no revelan ninguna conexión interna entre sí». De este texto se desprende que las leyes de los movimientos planetarios de Kepler son explicables en el contexto de la mecánica celeste newtoniana. Pero esta explicación teórica no requiere la aplicación de ningún paso al límite. Otros ejemplos de explicación teórica sin principio de correspondencia, que detallo en Rivadulla (2010a, 13-14), son la explicación electromagnética de Boltzmann de la ley de Stefan de la radiación de un cuerpo negro, así como la explicación de Bohr de la fórmula empírica de Balmer en el marco de la física cuántica primitiva, etc. Estos son casos evidentes de retención de estructura sin principio de correspondencia, o sea sin que tercie ningún paso al límite. 140

EL REALISMO EN EL PUNTO DE MIRA

La cuestión que debo enfrentar ahora es la inversa, o sea, si cuando se dan casos límite, hay por regla general preservación de estructuras. Para ello las relaciones entre mecánica newtoniana (MN) y teoría de la relatividad (TR), y entre mecánica clásica (MC) y mecánica cuántica (MQ) ofrecen situaciones privilegiadas de análisis. Un ejemplo típico en el mejor espíritu einsteiniano es el caso sencillo de obtención de la fórmula de la energía cinética de una partícula, E=1/2mv2, a partir de la fórmula de la energía cinética relativista E=γmc2-mc2, donde γ=(1-v2/c2)-1/2, previo paso al límite v/c→0. Y, por lo que respecta a la relación entre MC y MQ, el Principio de Correspondencia de Bohr determina que, en el caso de valores muy grandes del número cuántico n, la física cuántica se convierte en clásica. El ejemplo más sencillo lo ofrece la física atómica de Bohr, donde el momento angular del electrón es L=nh —en expresión semiclásica, L=mvr=nh—. La conservación del momento angular determina que n y h varían inversamente, con lo que si n crece, entonces h→0, y obtenemos el valor clásico del momento angular. Ahora bien, en ambos casos tropezamos con los siguientes problemas conceptuales: 1.  El límite v/c→0 equivale matemáticamente a c→∞. ¡Pero en TR c es constante y finito! Se trata del segundo postulado de la teoría especial de la relatividad, un principio sacrosanto que impone un límite a la propagación de la luz en el vacío, y por ende a cualquier señal en la Naturaleza. 2.1.  Si en una ecuación mecánico-cuántica tomamos el límite h=0, entonces, ¡dado que en física cuántica h es constante y finita, pero distinta de cero —otro principio inviolable de la física teórica—, entonces la fórmula en cuestión deja automáticamente de ser una fórmula cuántica! 2.2. En 1900 Lord Rayleigh y James Jeans hallaron que la densidad de energía radiada por un cuerpo negro viene dada por E (ν , T ) = (8πν 2 / c 3)k B T , fórmula sobre la que volveremos en la Sección 5 del capítulo VI. Esta misma expresión reaparece tomando en la Ley de Radiación de Planck el límite h=0, con lo que a primera vista parecería que nos encontramos aquí con un caso típico de retención de estructura. El problema es que la energía total diverge claramente: Integrando en la expresión anterior para todas las frecuencias resulta claramente que E tiende a infinito. Ahora bien, la experiencia contradice esta posibilidad, por lo que a esta situación Paul Ehrenfest la denominó catástrofe del ultraviolesta. 2.3.  Si la tesis estructuralista de retención de estructuras con el cambio teórico fuera verdadera, la Ley de Rayleigh-Jeans formaría parte de la Ley de Radiación de Planck, de la que se sigue tomando el límite h=0. Pero entonces: 141

META, MÉTODO Y MITO EN CIENCIA

2.3.1. la Ley de Radiación de Planck también estaría refutada, y 2.3.2.  como la Ley de Radiación de Planck recibe a su vez una explicación teórica en el marco de la mecánica estadística cuántica de BoseEinstein, entonces esta también resultaría refutada, y así sucesivamente. Estos ejemplos cuestionan seriamente la segunda tesis, o dogma, del realismo estructural de que las estructuras de la teoría antigua reemergen como casos límite de las ecuaciones matemáticas de las nuevas. 6.  EL CISMA DEL REALISMO CONTEMPORÁNEO. REALISMO CIENTÍFICO TÍPICO VS. REALISMO ESTRUCTURAL

El realismo estructural es un adversario epistemológico del realismo científico típico. El realismo científico contemporáneo se halla inmerso en un cisma muy serio. No tiene nada de extraño, pues, que Stathis Psillos (2009) haya entrado en la controversia entre ambos posicionándose en contra del realismo estructural, del que cuestiona que constituya una forma genuina de realismo científico. Haciendo gala de su gran capacidad para establecer distinciones filosóficas finas, Psillos (2009, 130) distingue en el seno del realismo estructural (SR) entre un realismo estructural restrictivo (RSR), cuya tesis central sería la de que en el mundo hay algo, llamémosle X, más que mera estructura, que sin embargo no puede ser conocido, y un realismo estructural eliminativo (ESR), según el cual en el mundo no hay nada más que estructura, o sea, que todo lo que hay es estructura. El carácter eliminativo de ESR reside en que «solo se puede conocer estructura, ya que no hay otra cosa que conocer» (p. 134). Así mientras RSR apuesta por la existencia de X, pero niega su cognoscibilidad, ESR lo que niega es la propia existencia de X. Ambas formas del realismo estructural serían rechazables. Psillos (2009, 134) entiende que RSR no es suficientemente realista ya que se centra solo en la cognoscibilidad de estructuras puramente formales pero no se compromete con la tesis de que el mundo tiene una naturaleza definida. El fallo de ESR reside por su parte en que «implica la tesis ontológica errónea de que, para existir, las estructuras no requieren individuos, así como la tesis epistémica equivocada de que estas estructuras pueden ser conocidas independientemente de (algún conjunto de, pero no alguno particular de) individuos que las instancian» (p. 135). Pero además, para Psillos (ibid.) SR en su conjunto constituiría una tesis epistemológica muy humilde, en realidad una descripción muy sobria «del hecho de que ha habido mucha continuidad estructural en el cambio teórico». Si SR no insistiera en la distinción de principio entre la 142

EL REALISMO EN EL PUNTO DE MIRA

estructura cognoscible del mundo y un escurridizo (o incluso inexistente) X, SR sería perfectamente compatible con el realismo. El rechazo por Psillos del realismo estructural es susceptible de recibir la aprobación de todo filósofo antirrealista de la ciencia. No obstante Psillos mismo, como realista científico típico que es, no cuestiona que las estructuras teóricas representan el mundo, ni tampoco que haya retención de estructuras en el cambio teórico. El rechazo de ambas tesis vaciaría de contenido realista al propio realismo estructural, que dejaría de ser una postura realista, ni siquiera modesta. 7. CONCLUSIÓN

Serias dudas sacuden y graves amenazas se ciernen sobre el realismo científico. Dudas que proceden de su propio interior: la posibilidad de ser realista de entidades pero instrumentalista acerca de teorías, o la de ser un realista estructural en flagrante oposición al realismo científico típico. Por no hablar, claro está, de la posición antirrealista dominante de la metainducción pesimista de Laudan. La herencia epistemológica de Popper es, cuando menos, controvertida. Y aunque el realismo estructural fracase en su empeño de convertirse en la vía que salve al realismo científico de sus propios demonios, esto no parece suficiente para resucitarlo. Una amenaza aún más grave se cierne sobre él: la espada de Damocles de la incompatibilidad interteórica. Los realistas científicos han pasado por ella de puntillas, evitando hacer saltar la gran pregunta. Por ello este capítulo se ha centrado en presentar las versiones contemporáneas del realismo científico, enmarcándolo en su contexto epistemológico, y señalando solo hacia el argumento más devastador en su contra, que compite tenazmente con la metainducción pesimista de Laudan y la tesis de la inconmensurabilidad de Kuhn. Pero para presentarlo adecuadamente, para discutir la tesis de la incompatibilidad interteórica, es necesario enmarcarla en un contexto epistemológico adecuado, el del instrumentalismo, al que dedico el capítulo siguiente.

143

VI EL INSTRUMENTALISMO CIENTÍFICO

1. INTRODUCCIÓN

El instrumentalismo científico es una doctrina filosófica con menor presencia, compacidad y transparencia que su rival epistemológico, el realismo científico. Por eso en las dos secciones siguientes voy a avanzar en primer lugar las que considero que son sus tesis fundamentales mínimas, para trazar seguidamente algunos rasgos generales de su historia. Con ello no pretendo ser completo, ni mucho menos exhaustivo en ambas cuestiones. Estas ocupan una buena parte de este capítulo, con diferencia el más extenso del libro. Ahora bien, no deseo basar mi defensa del instrumentalismo en una mera retrospectiva histórica, aunque esta llegue hasta el presente. Por eso, a partir de la Sección 4 me centro en el análisis del papel que los modelos teóricos juegan en física como fuente importante de dilucidación de la disputa realismo-instrumentalismo a favor de este. Pero el argumento de mayor calado para concluir definitivamente el debate lo presento al final, en la Sección 6, donde sostengo que la existencia de incompatibilidad interteórica socava de modo concluyente la viabilidad del realismo científico al hacer evidente la imposibilidad de convergencia. Realismo e instrumentalismo son posiciones radicalmente antagónicas en filosofía de la ciencia. El fracaso del realismo le deja expedito al instrumentalismo el camino de la epistemología. 2.  TESIS DEL INSTRUMENTALISMO CIENTÍFICO

Como acabo de decir, las tesis que presento a continuación no pretenden ser la verdad, ni toda la verdad del instrumentalismo. Pero sí espero 145

META, MÉTODO Y MITO EN CIENCIA

que la mayor parte de filósofos interesados en la teoría de la ciencia estén de acuerdo en que son ampliamente representativas de esta corriente epistemológica. Dicho de otra manera: confío en que lo sean todas las que están, aunque tal vez no estén todas las que son. Igualmente espero que el desarrollo del capítulo responda a las cuestiones que plantea la lista. Las tesis en cuestión son las siguientes: 1.  Las teorías científicas son herramientas o instrumentos diseñados para manejarnos predictivamente con, o intervenir en, la Naturaleza y facilitar el descubrimiento científico. 2.  No reflejan o describen directamente el mundo, no son ‘espejo de la Naturaleza’, sino constructos meramente sintácticos que facilitan nuestro trato con, y nuestras inferencias acerca de, el mundo. Esto se observa con particular claridad en los modelos teóricos de la física. 3.  El instrumentalismo sostiene que podemos hacer un buen uso práctico de las proposiciones teóricas sin necesidad de creer lo que dicen sobre el mundo. Coincido con Stanford (2006, 193-194) en este aspecto epistémico del instrumentalismo científico. 4.  El éxito empírico no es indicador, ni menos aún, garantía de verdad, proximidad a la verdad (verosimilitud) o probabilidad de verdad de los constructos teóricos de la ciencia: hipótesis, teorías o modelos teóricos. 5.  Representación fidedigna, explicación, comprensión y, en definitiva, conocimiento del mundo, no están al alcance de la ciencia teórica. 6.  La teoría —el pensamiento o construcción teórica— no es el ámbito, el hábitat, el recinto, el refugio o la morada de la verdad. Lo cual no excluye que las ciencias no busquen, y a veces logren, verdades acerca de hechos y faciliten el descubrimiento científico. 7.  La verdad es inalcanzable a nivel teórico. Afirmar la verdad de las teorías o demás constructos teóricos equivaldría a admitir que la conceptualización del dominio concernido por la teoría, cuya verdad se afirmara, estaría concluida y por tanto cerrada para siempre. 8.  La verdad es innecesaria a nivel teórico. Concuerdo con Laudan que, para que una teoría sea empíricamente exitosa (lo único que podemos saber con certeza, si lo es) no necesita ser verdadera. 9.  Salvar los fenómenos por medio de constructos teóricos lo más simple posibles es el objetivo de la teorización científica. Dicho de otro modo: la meta de la ciencia es el éxito empírico en la predicción, el descubrimiento o la intervención en la Naturaleza. 10.  Respecto a las entidades teóricas vale lo que afirmo en Rivadulla (2004, 20-21): «Probablemente una respuesta general sobre si las entidades teóricas tienen referentes reales o si también son meras herramientas para el cálculo, resulta demasiado arriesgada, y la prudencia aconseja analizar caso por caso. Así, es difícil cuestionar la existencia 146

EL INSTRUMENTALISMO CIENTÍFICO

de electrones, después de que la física haya determinado su carga, su masa, su espín, etc. Pero respecto de la entidad función de onda asociada a una partícula, seguramente lo más razonable es asumir que se trata de una herramienta conceptual diseñada para el cálculo, para la predicción». 11.  En cualquier caso, afirmar la existencia de una determinada entidad no aporta ninguna ganancia teórica: podemos continuar la tarea de teorización científica independientemente de si la entidad en cuestión existe o no realmente, mientras que la afirmación taxativa de su existencia comporta el riesgo de equivocarnos. 12.  No obstante, la ciencia es inconcebible sin teoría. La teoría —el pensamiento o construcción teórica— es el modo más eficaz para manejarnos científicamente con el mundo, y para intervenir en él. No es pues eliminable ni evitable. 13.  Tampoco es prescindible ni renunciable, y por el mismo motivo, el recurso de la ciencia a la postulación de entidades teóricas, independientemente de nuestra confianza o desconfianza en su carácter denotador de elementos de la realidad. 14.  A pesar de su naturaleza instrumental, ni las teorías ni los términos teóricos son eliminables de la ciencia. 3.  EL INSTRUMENTALISMO EN LA HISTORIA

Aunque distinga claramente el método del físico, propio de Aristóteles, cuyo objetivo es captar la naturaleza de los cuerpos celestes, del método del astrónomo, que atiende únicamente a salvar los fenómenos, Pierre Duhem (1908)1 no denomina literalmente a esta segunda concepción como instrumentalista. Este término tampoco aparece, referido a las teorías científicas, en su Théorie Physique de dos años antes. La última frase de Duhem (1908, 117) se aproxima al máximo a una definición del instrumentalismo, y casi roza, pero sin hacerlo, la propia introducción del término: «A pesar de Kepler y Galileo, hoy creemos, con Osiander y Bellarmino, que las hipótesis de la física son meros artificios matemáticos diseñados para el propósito de salvar los fenómenos»2. Karl Popper (1963, cap. 3, 99 n. 6), conocedor de la obra de Duhem, asocia el instrumentalismo con la tesis de que las teorías deben salvar los fenómenos. 1. Citaré por la edición inglesa de University of Chicago Press, 1969, reed., 1985. 2. En la edición francesa original se dice efectivamente «les hypothéses de la physique ne sont que des artífices destinés à sauver les phénomènes». Por tanto mi traducción española, a partir del texto inglés, de las hipótesis físicas como ‘artificios’ es ajustada a la intención de Duhem.

147

META, MÉTODO Y MITO EN CIENCIA

Salvar los fenómenos es, desde luego, una tarea que el instrumentalismo considera propia de la ciencia teórica. Aunque no es exclusiva de él. El empirismo constructivo de Van Fraassen también la vincula a la para él exigible adecuabilidad empírica de las teorías científicas. El término ‘instrumentalismo’ lo introdujo, al otro lado del océano, John Dewey, quien en (1925, 73) atribuye a William James que «para él los conceptos y las teorías no eran más que instrumentos que pueden servir para instituir hechos de una manera concreta». No sería empero correcto atribuir a James y Dewey una posición instrumentalista elaborada; su postura es, naturalmente, pragmatista. Frente a la idolatrización de la ciencia, John Dewey (1929, 194 de la edición española, A. R.) sostiene que «el criterio del conocimiento radica en el método empleado para asegurar consecuencias y no en las concepciones metafísicas acerca de la naturaleza de lo real». La aparición del término ‘instrumentalismo’ en la filosofía actual de la ciencia es una cuestión inquietante. Por muy sorprendente que pueda parecer, en la popularización de este término el realista científico Karl Popper es su portavoz más insistente. En 1949, en su artículo «Towards a rational theory of tradition», publicado en The Rationalist Annual, Popper (1963, cap. 4, 131) reconoce el carácter instrumental de las teorías: «Nuestras teorías científicas son instrumentos por medio de los cuales tratamos de llevar orden al caos en que vivimos para hacerlo racionalmente predecible». Y en 1953, en su «Note on Berkeley», Popper (1963, cap. 6, 173) asocia positivismo e instrumentalismo con las figuras de Berkeley y Mach: «un positivismo o instrumentalismo Berkeliano o Machiano, [...] ha llegado a ponerse de moda». Pero no es hasta 1956 en «Three views concerning human knowledge», publicado en Contemporary British Philosophy que Popper (1963, cap. 3, 101 y 111), define claramente el instrumentalismo como la concepción que «las teorías no son más que instrumentos» o «reglas de cálculo». O también: «El instrumentalismo puede ser formulado como la tesis de que las teorías científicas —las teorías de las llamadas ciencias ‘puras’— no son más que reglas de cálculo (o reglas de inferencia), fundamentalmente del mismo carácter que las reglas de cálculo de las llamadas ciencias ‘aplicadas’». Y en 1957, en «Philosophy of Science: a Personal Report», publicado en British Philosophy in Mid-Century, Popper (1963, cap. 1, 62-63) define de nuevo el instrumentalismo como «la interpretación de las teorías científicas como instrumentos o herramientas (instruments or tools)»3 prácticas para los propósitos de predicción de eventos f­ uturos». 3. Ambos nombres se utilizan indistintamente en la actualidad para referirse a la concepción de las teorías desde la perspectiva instrumentalista.

148

EL INSTRUMENTALISMO CIENTÍFICO

A finales de los años cincuenta del siglo pasado la noción de instrumentalismo del realista científico Karl Popper es tan clara que, en el volumen I de su Post Script, Popper (1983, 111-112) ofrece la definición de instrumentalismo por la que aparentemente nos guiamos todos los filósofos de la ciencia: «Entiendo por instrumentalismo la doctrina de que una teoría científica como la de Newton, Einstein o Schrödinger debería ser interpretada como un instrumento, y nada más que como un instrumento, para la deducción de predicciones de eventos futuros (especialmente mediciones) y para otras aplicaciones prácticas; y más especialmente, que una teoría científica no debería ser interpretada como una conjetura genuina sobre la estructura del mundo, o como un intento genuino de describir ciertos aspectos de nuestro mundo. La doctrina instrumentalista implica que las teorías científicas pueden ser más o menos útiles y más o menos eficientes; pero niega que puedan ser verdaderas o falsas, como enunciados descriptivos». En nuestros días, frente a las actitudes realistas en ciencia, Stephen Hawking (2002, 59) sostiene que «Desde la perspectiva positivista no podemos determinar qué es real. Todo lo que podemos hacer es hallar qué modelos matemáticos describen el universo en que vivimos». Y en una entrevista a El País del 13 de abril de 2005, Hawking afirmaba: «Una teoría es tan solo un modelo matemático para describir las observaciones, y no tiene derecho a identificarse con la realidad, sea lo que sea lo que esto signifique. Podría ser que dos modelos muy diferentes lograran describir las mismas observaciones: ambas teorías serían igualmente válidas, y no se podría decir que una de ellas fuera más real que la otra». Por otra parte, Paul Dirac (1997, 11), para quien lo único que persigue un físico es comparar los datos obtenidos de las teorías con los datos experimentales y ver si concuerdan, afirma que «Uno de los rasgos básicos de la naturaleza parece ser que las leyes físicas fundamentales se describan por medio de teorías matemáticas de gran belleza y potencia, requiriendo niveles matemáticos elevados para entenderlas». Parece difícilmente aceptable que las teorías sean descripciones de la realidad, si lo que las motiva es algo ajeno a la intencionalidad de representación, como son la belleza o la simplicidad. Pero Dirac (1997, 5 y 12) insiste: «Schrödinger [...] trataba de encontrar una teoría elegante que describiera los acontecimientos atómicos [...] obteniendo una ecuación muy hermosa que describe los procesos atómicos, a la que se denomina la ecuación de onda de Schrödinger. [...] Schrödinger descubrió su ecuación de onda [cuando buscaba] una ecuación dotada de belleza matemática». El debate milenario entre realismo e instrumentalismo en teoría de la ciencia tiene su origen con el comienzo mismo de la actividad teórica 149

META, MÉTODO Y MITO EN CIENCIA

y filosófica de occidente, hace 2.400 años. Una primera intencionalidad instrumentalista puede ser atribuída a Platón (427-347), quien, según Duhem (1908, 5), planteó a los matemáticos de su época la siguiente cuestión: «¿Qué movimientos circulares, uniformes y perfectamente regulares hay que asumir como hipótesis para salvar el movimiento aparente de los planetas?». El carácter instrumentalista de este problema de los planetas de Platón es subrayado por Duhem (1908, 5-6), aunque sin utilizar el calificativo en cuestión: «El objeto de la astronomía está definido aquí con la mayor claridad: la astronomía es la ciencia que combina movimientos circulares y uniformes, a fin de obtener un movimiento resultante como el de los astros. Cuando sus construcciones geométricas han asignado a cada planeta una trayectoria conforme a su órbita visible, la astronomía ha logrado su objetivo, porque sus hipótesis han conseguido salvar las apariencias». Pierre Duhem (1908) refiere la cadena informativa que engarza históricamente el conocimiento de la pregunta de Platón expuesta líneas arriba. En su Historia de la astronomía, Eudemo, discípulo de Aristóteles recoge la pregunta. Sosígenes la pasa a Simplicio (siglo vi d.C.), quien la incluye en su In Aristotelis quatuor libros de Coelo commentaria. Como en esta pregunta está el germen de la disputa instrumentalismo/realismo, podemos considerar con toda justicia que es a partir de ella misma como podemos situar también el origen de la filosofía de la ciencia. La contribución más importante de Ptolomeo (100-178) a la astronomía la constituye el Almagesto. En esta obra Ptolomeo (Libro XIII, H 532) afirma —de forma inequívocamente instrumentalista— que el astrónomo debe esforzarse al máximo para que las hipótesis más simples concuerden con los movimientos de los astros, pero que este debe adoptar las que más le convengan, si falla el criterio de simplicidad: «En la medida de lo posible uno debería intentar ajustar las hipótesis más simples a los movimientos celestes, pero si esto no resulta exitoso [uno debería aplicar hipótesis] que sí se ajustan». Ya en Libro III, H 201, consideraba Ptolomeo «un buen principio explicar los fenómenos por medio de las hipótesis más simples». Ante la posibilidad de dar cuenta de un mismo fenómeno por medio de hipótesis distintas, Teón de Esmirna, matemático y astrónomo griego del siglo ii, afirma, refiriéndose a Hiparco de Rodas4, que, si bien la existencia de dos hipótesis matemáticas —la excéntrica y la epicíclica— acerca del movimiento del Sol no repugnaba a la razón, no por ello Hiparco se admiraba menos de que coincidiendo ambas accidentalmente 4. Citado por Duhem (1908), nota 9, de su Liber de Astronomia cum Sereni fragmento. Duhem continúa la discusión suscitada en op. cit., pp. 9 ss.

150

EL INSTRUMENTALISMO CIENTÍFICO

solo una concuerda con la naturaleza de las cosas. Ante la imposibilidad de decidir si era la hipótesis de la excentricidad la que implicaba la epicíclica, o a la inversa, Teón de Esmirna concluye que, cualquiera que sea la hipótesis adoptada, las apariencias quedan salvadas, ya que los planetas describen accidentalmente o bien un círculo alrededor del centro del universo, o bien una excéntrica o bien un epiciclo. Esta interpretación instrumentalista de la astronomía debió hacer escuela, pues el ya mencionado Simplicio, neoplatónico del siglo vi, refiere5, a través de Gemino, la postura del estoico griego Posidonio (135-51) en su libro Meteorología: «el astrónomo pregunta, por ejemplo, por qué el sol, la luna y demás astros errantes parecen moverse irregularmente. Tanto si uno asume que los círculos que estos describen son excéntricos, como que cada uno de ellos es arrastrado por la revolución de un epiciclo, cualquiera de ambas suposiciones salva la aparente irregularidad de su movimiento. Consiguientemente, el astrónomo debe mantener que los fenómenos observados pueden ser producto de cualquiera de estos modos de ser, y su estudio práctico del movimiento de los astros habrá de conformarse con la explicación que ha presupuesto». El neoplatónico ateniense Proclo Diadoco (410-485), quien en Hypotyposes ou représentations des hypothèses astronomiques6 discute la teoría astronómica de Ptolomeo, afirma que lo único real son los complejos movimientos de los astros, mientras que las explicaciones ptolemaicas son abstracciones existentes solo en la mente del astrónomo: «Entre estas hipótesis las hay que salvan las apariencias por medio de epiciclos, otras por medio de excéntricas, mientras que otras lo hacen a través de esferas compensadoras vacías de planetas». Por su parte Simplicio, citado por Duhem (1908, 23), defiende que «El objetivo es averiguar por medio de qué hipótesis seremos capaces de salvar las apariencias. No hay ninguna razón pues para asombrarse de que diferentes astrónomos traten de salvar las apariencias a partir de hipótesis diferentes. »Los contemporáneos de Eudoxo y Calipo adoptaron la hipótesis de las ‘esferas compensadoras’; [...] los astrónomos que siguieron propusieron la hipótesis de las excéntricas y los epiciclos. Partiendo de estas hipótesis, los astrónomos tratan de mostrar que todos los cuerpos celestes poseen un movimiento circular y uniforme, que las irregularidades manifiestas [...] son solo aparentes, no reales. »Para salvar estas irregularidades, los astrónomos imaginan que cada astro posee varios movimientos a la vez, movimientos a lo largo de 5. Simplicio, In Aristotelis physicorum libros quatuor priores commentaria 2, ed. Diels, Berlín, 1882, pp.291-292. Citado por Duhem, op. cit., p. 11. 6. Halma (ed.), París, 1820. Citado por Duhem en op. cit., pp. 19-21.

151

META, MÉTODO Y MITO EN CIENCIA

excéntricas y epiciclos, o bien apelando a esferas homocéntricas con la Tierra. Pero una explicación conforme con los hechos no implica que las hipótesis sean reales y existan». Tomás de Aquino, citado por A. Elena (1985, 77-78), mantiene también en su Comentario al De coelo de Aristóteles que «Las hipótesis formuladas no tienen por qué ser necesariamente verdaderas; aunque de hecho puedan salvar los fenómenos observados, no por ello habrá que decir que son verdaderas, pues las apariencias celestes acaso podrían explicarse por medio de otros procedimientos aún no atisbados por los hombres» (II,12,17; pp. 186-187). Y en la Summa theologica reitera que «en astronomía, excéntricas y epiciclos se justifican por el hecho de que su suposición nos permite salvar los fenómenos observados en relación a los movimientos celestes. Ahora bien, esta no es una demostración suficiente, puesto que quizá se podría dar cuenta de los mismos por medio de otra hipótesis (I,32,1,2; vols. II-III, 167-168). Durante los siglos xv y xvi cohabitan diferentes paradigmas astronómicos7 con sus correspondientes filiaciones realistas e instrumentalistas. Muy conocida es la posición de Andreas Osiander, autor de un prefacio, anónimo en la edición de 1543 del De Revolutionibus de Copérnico (1543), titulado «Al lector sobre las hipótesis de esta obra», sobre las que se manifiesta del modo siguiente: «no es necesario que estas hipótesis sean verdaderas, ni siquiera que sean verosímiles, sino que basta con que muestren un cálculo coincidente con las observaciones». Y, refiriéndose a la astronomía, añade Osiander: «Está suficientemente claro que este arte no conoce completa y absolutamente las causas de los movimientos aparentes desiguales. Y si al suponer algunas, y ciertamente piensa muchísimas, en modo alguno suponga que puede persuadir a alguien [de que son verdad] sino tan solo para establecer correctamente el cálculo». Finalmente, entre los humanistas, Giovanni Pontano (1426/14291503), autor de De rebus coelestibus libri XIV (1512), citado por Duhem (1908, 55), considera ridículo asumir que los astros están insertos en sus esferas y son transportados por ellas como por carros, y que si estos son visibles como consecuencia de la solidificación de la materia celeste, se pregunta cómo es que las esferas, que también son materia celeste solidificada no lo son. Su respuesta es: «Estas no son visibles, porque en realidad no existen. El pensamiento solo las ve como intentos por comprender o enseñar. Pero en el cielo no existen tales líneas e intersecciones. [...] Los círculos, los epiciclos, y todos los supuestos de esta naturaleza deben ser considerados como imaginarios, pues carecen de existencia real en el firmamento. Han sido inventados e imaginados

7. Cf. Rivadulla (2003, 38-39).

152

EL INSTRUMENTALISMO CIENTÍFICO

para facilitar la comprensión de los movimientos celestes y mostrarlos a nuestra vista». Este es el punto de vista del también humanista francés Jacques Lefèvre d’Étaples (1450-1536), discípulo del Cusano, quien en su Introductorium astronomicum, theorias corporum coelestium duobus libris complectens (París, 1503) defiende el carácter ficticio de las explicaciones de los astrónomos, cuyo objetivo es proporcionar una mera imagen de los movimientos de los cuerpos celestes. Por su parte, Francesco Patrizzi, citado por A. Elena (1985, 103-104), resalta en su Nueva filosofía del Universo (1587) los errores heredados de los astrónomos: «Todos los esfuerzos y fatigas de los astrónomos estuvieron dedicados, y aún lo están, a —como se suele decir— salvar los fenómenos. [...] [No] es cierto que el cielo arrastre consigo a los astros y los haga girar. Se equivocan todos los filósofos y astrónomos que enseñaron que los astros están engastados al cielo como los nudos a una tabla». Y el español Sebastián Izquierdo se une en su Pharus Scientiarum (1659) a lo que parece una concepción instrumentalista ampliamente asumida de salvar los fenómenos como tarea de la astronomía: «Como esto es así, vean los astrónomos de qué manera los orbes celestes están constituidos, de modo que estos fenómenos puedan salvarse»8. Sobre el instrumentalismo de Ptolomeo, Galileo (1983, 80-81) comenta por su parte: «Ptolomeo, antes de proceder a dar cuenta de las apariencias, supone —no como astrónomo puro, sino como auténtico filósofo (siendo en los filósofos en quienes se inspira)— que todos los movimientos celestes son circulares y regulares (es decir, uniformes), que el cielo tiene forma esférica, que la Tierra está ubicada en el centro de la esfera celeste, que ella misma es esférica y perfectamente estática, etc. A continuación se ocupa de las irregularidades observadas en los movimientos y las distancias de los planetas, aparentemente contrarias a las primeras suposiciones naturales admitidas, y recurre a una segunda clase de supuestos cuyo objetivo es poder explicar (sin tener que abandonar las suposiciones previas) las evidentes irregularidades observadas en los movimientos planetarios y en sus acercamientos y alejamientos con respecto a la Tierra. Para ello introduce algunos movimientos, también circulares, pero cuyo centro no es ya el de la órbita terrestre: tales círculos son las excéntricas y los epiciclos. Es de estas segundas suposiciones de las que cabe decir que son utilizadas por el astrónomo a fin de satisfacer sus cálculos, sin comprometerse en modo alguno a afirmar que sean verdaderas en la naturaleza». 8. «Quae cum ita sint, videant Astronomi, quo pacto orbes coelestes constituendi sint, ut haec phenomena possint salvari» (PS II, 271, 58). Citado por Fuertes Herreros (1996, 251, n. 69).

153

META, MÉTODO Y MITO EN CIENCIA

Claro que no es esta la posición de Galileo, quien reivindicando a Copérnico, concluye: «Veamos ahora dentro de cuál de estas dos clases de hipótesis inscribe Copérnico la del movimiento de la Tierra y la inmovilidad del Sol: no hay duda [...] de que la considera entre las primeras suposiciones, necesarias en la naturaleza». Ya sabemos las consecuencias que tuvieron para Galileo su posicionamiento realista acerca del copernicanismo. Aunque en 1615 el carmelita Paolo Antonio Foscarini, defensor del sistema copernicano, había publicado en Nápoles una Lettera sopra l’opinione dei pitagorici e del Copernico, nella quale si accordano ed appaciono i luoghi della Sacra Escritura e le proposizioni teologiche, che giammai potessero addursi contro tale opinioni, como es bien conocido, en febrero de 1615 el dominico Nicoló Lorini denuncia a los galileístas ante la Inquisición por sostener la tesis del movimiento de la Tierra en clara oposición a las Sagradas Escrituras. El cardenal Roberto Bellarmino había intervenido en la polémica aconsejando prudentemente a Foscarini y Galileo: «contentarse con hablar ex suppositione y no absolutamente, como siempre he creído que ha hablado Copérnico. Porque decir que suponiendo que la Tierra se mueva y el Sol esté quieto, se salvan todas las apariencias mejor que con poner las excéntricas y epiciclos está muy bien dicho y no hay peligro ninguno, y esto basta al matemático; pero querer afirmar que realmente el Sol está en el centro del mundo y solo gira alrededor de sí mismo, sin moverse de oriente a occidente, y que la Tierra está en el tercer cielo y gira con suma velocidad alrededor del Sol, es cosa muy peligrosa, no solo por irritar a todos los filósofos y teólogos escolásticos, sino por dañar la Santa Fe, haciendo falsas las Sagradas Escrituras9. Cualquiera que fuese la intención de Bellarmino para con Foscarini y Galileo el interés filosófico de este texto reside en que Bellarmino asume que lo que le basta al matemático —al astrónomo— es que se puedan salvar las apariencias suponiendo la Tierra en movimiento y el Sol quieto, antes que por medio de un modelo de excéntricas y epiciclos, pues con ello sostiene que la tarea del astrónomo es salvar las apariencias con el mejor modelo posible. Y esto delata una postura indiscutiblemente instrumentalista. Una idea parecida la expresa también en la última frase del texto siguiente de una carta que Bellarmino dirige el 12 de abril de 1615 a Foscarini: «Si hubiera una prueba real de que el Sol se halla en el centro del Universo, y que la Tierra se sitúa en la tercera esfera, y que no es el Sol el que gira alrededor de la Tierra, sino la Tierra la que gira alrededor del Sol, entonces tendríamos que ser muy cautos en la interpretación de pasajes de las Escrituras que enseñan lo contrario

9. Cf. Cortés Pla (1952, 109).

154

EL INSTRUMENTALISMO CIENTÍFICO

[...] Pero por lo que a mí respecta, yo no creeré en la existencia de tales pruebas, hasta que no se me muestren. No constituye una prueba el que si se supone al Sol en el centro del Universo y a la Tierra en la tercera esfera, resulta todo igual que si se supone lo contrario»10. George Berkeley (1685-1753) es considerado por Karl Popper (1963, 104) un precursor de Mach, Duhem y Poincaré, a quienes etiqueta de filósofos instrumentalistas. Según Sir Karl (pp. 132 ss.) el instrumentalismo concibe las teorías científicas como instrumentos de predicción, como reglas para el cálculo. Popper dedica el capítulo 6 de Conjeturas y refutaciones a analizar el papel de Berkeley como precursor de Mach y Einstein. La mecánica de Newton se encuentra en el punto de mira de Berkeley. Esta teoría no ofrecería explicaciones causales, e.d., basadas en causas naturales verdaderas o cualidades esenciales. La razón es, dice Popper (1963, 168), refiriéndose al Treatise concerning the Principles of Human Knowledge (1710), que para Berkeley «las cosas físicas no tienen ‘naturalezas reales o verdaderas’ secretas u ocultas, ni ‘esencias reales’ ni ‘cualidades internas’». Y que «No hay nada físico tras los cuerpos físicos, no hay una realidad física oculta. Por así decir, todo es superficie; los cuerpos físicos solo son sus cualidades. Su apariencia es su realidad». Lo que aprendemos, pues, de la experiencia son leyes de la Naturaleza cuyo contenido son regularidades, uniformidades, semejanzas o analogías de fenómenos naturales inferidas a partir de observaciones. En base a ellas podemos explicar, siempre que con ello no entendamos una explicación causal basada en la naturaleza o esencia de las cosas. Así que, reitera Popper (1963, 169), remitiéndose ahora a Berkeley en De Motu, 71-72, «Siempre debemos distinguir claramente entre una explicación ‘esencial’ que apela a la naturaleza de las cosas y una explicación ‘descriptiva’ que apela a una Ley de la Naturaleza, e.d., a la descripción de una regularidad observada. De estos dos tipos de explicación solo la última es admisible en física». Pues bien, además de estas leyes de la Naturaleza, Berkeley distingue las hipótesis matemáticas, que son meros instrumentos o herramientas matemáticas para el cálculo de resultados. Para ellas, señala Popper, la cuestión de su verdad no se plantea, sino solo la de su utilidad como una herramienta de cálculo o para salvar los fenómenos. Tienen el rango de hipótesis matemáticas en Newton los conceptos de espacio, tiempo y movimiento absolutos, así como los de fuerza, atracción y gravedad. Estas entidades no existen realmente en la Naturaleza. Y en el PostScript Popper (1983, 107) atribuye explícitamente a Berkeley que «las teorías científicas no son más que instrumentos para el cálculo y la predicción de fenómenos futuros. Ellas no describen el mundo ni ningún aspecto de él». 10. Santillana (1955, 99).

155

META, MÉTODO Y MITO EN CIENCIA

John Losee (1980, 161) le atribuye también a Berkeley una concepción intrumentalista acerca de las leyes de la mecánica. De él dice: «Mantuvo que estas leyes no son más que dispositivos computacionales para la descripción y predicción de fenómenos. E insistió en que ni los términos que aparecen en las leyes ni las dependencias funcionales que estas expresan, necesitan referir a algo que exista en la naturaleza». Así, para Berkely, ni leyes y teorías son como mapas que representan adecuadamente el mundo, ni los términos teóricos designan objetos, propiedades o relaciones que existen independientemente en el mundo. Y Newton-Smith, citado por Ana Rioja (2009, 21), también afirma el carácter instrumentalista de la filosofía de la ciencia berkelyana en la que las proposiciones teóricas de la ciencia no son ni verdaderas ni falsas, pues no expresan hechos del mundo, y su única función es la facilitar predicciones válidas observacionalmente. Ana Rioja también acepta que hay motivos para una interpretación instrumentalista de la filosofía de la física de Berkeley. Destaca la utilidad de las hipótesis matemáticas para la predicción y el cálculo, y reconoce (2009, 24) que aunque «no es tarea de la física establecer las causas eficientes de las cosas, sino solo la formulación de leyes», sin embargo «el hallazgo de las mismas proporciona conocimiento verdadero». Esto cuestionaría la adscripción de Berkeley a una forma de instrumentalismo radical. Hay pues, conocimiento de la experiencia, pero «esta legalidad no es necesaria y, por consiguiente, nuestro conocimiento tampoco. Se niega la conexión necesaria entre la serie sucesiva de fenómenos, o lo que es lo mismo, la existencia de relaciones causales». La siguiente tesis de Berkeley, número 35 de De Motu, la califica Rioja de central: «corresponde a la física o a la mecánica establecer únicamente las reglas, no las causas eficientes, de los impulsos y de las atracciones y, por decirlo en una palabra, de las leyes de los movimientos: y a partir de estas, convenientemente establecidas, determinar la solución de los fenómenos particulares, pero no la causa eficiente». En fin, en terminología filosófica contemporánea se podría afirmar que la posición de Berkeley 1) es claramente antiesencialista, 2) asume la veracidad de las leyes que describen fenómenos observables, por lo que estas serían meramente empíricamente adecuadas, y 3) mantiene una clara posición instrumentalista respecto de las entidades teóricas de la física, a las que les atribuye el papel de hipótesis matemáticas útiles para la predicción y el cálculo. El físico y filósofo vienés Ernst Mach (1838-1916) continuó el filoinstrumentalismo científico de Berkeley. Para él el objeto de la ciencia es salvar las apariencias. Las leyes y teorías científicas no son más que resúmenes de hechos que permiten describir y anticipar fenómenos. Al igual que Berkeley, Mach rechaza la idea de que conceptos y relaciones 156

EL INSTRUMENTALISMO CIENTÍFICO

científicos correspondan a cosas que existen realmente en la Naturaleza. Stathis Psillos (1999, 18-19) ofrece un número considerable de citas de Mach en las que se identifica su posición instrumentalista, que le llevan a Psillos a considerar que el instrumentalismo machiano concibe el discurso teórico como eliminable y dispensable. Más adelante Psillos (1999, 76 y 28-39) etiqueta también a Henri Poincaré y Pierre Duhem como «instrumentalistas de manual». Dediquemos pues unas líneas a ambos filósofos franceses. Según Duhem (1906, 26): «Una teoría física no constituye una explicación. Es un sistema de proposiciones matemáticas, deducidas de un pequeño número de principios, que tienen como objetivo representar lo más simple, completa y exactamente posible, un conjunto de leyes experimentales». Además, añade Duhem (p. 28), una «teoría verdadera no da una explicación conforme a la realidad de las apariencias físicas, sino que representa de manera satisfactoria un conjunto de leyes experimentales». Así, la teoría no nos enseña nada de la naturaleza de las cosas, de las realidades que se ocultan bajo los fenómenos que estudiamos. Duhem se une a Ernst Mach en la idea de que a lo que contribuyen las teorías científicas es a una economía intelectual, que es lo que constituye el objetivo, el principio director de la ciencia, por lo que las teorías físicas deben ser consideradas como representaciones condensadas y no como explicaciones11. Pero la teoría no es solo para Duhem (1906, 32) una representación económica de las leyes experimentales, sino también una clasificación natural de las mismas, lo que para él (p. 36) significa que «sin pretender explicar la realidad que se oculta bajo los fenómenos, cuyas leyes agrupamos, sentimos que las agrupaciones establecidas por nuestra teoría corresponden a afinidades reales entre las cosas mismas». ¿Significa esto que Duhem asume una posición ecléctica —difícilmente compatible— entre instrumentalismo y esencialismo? Para aclarar su postura, Duhem (p. 38) insiste en que «la teoría física no nos da nunca la explicación de las leyes experimentales; no nos descubre nunca las realidades que se ocultan tras las apariencias sensibles. Pero cuanto más se perfecciona, más presentimos que el orden lógico en el que ella sitúa a las leyes experimentales es el reflejo de un orden ontológico, más sospechamos que las relaciones que establece entre los datos observacionales corresponden a relaciones entre las cosas, más descubrimos que ella tiende a ser una clasificación natural». De esta convicción el físico no sabría dar cuenta. El método del que este dispone se limita a los datos observacionales, y tal método no sabría probar entonces que «el orden establecido entre las leyes experimentales 11. Duhem (1906, 59 n. 1) menciona la obra de Mach La Mécanique, París, 1904, p. 360.

157

META, MÉTODO Y MITO EN CIENCIA

refleja un orden trascendente a la experiencia». En definitiva, las teorías físicas «no tienen ningún poder para asir la realidad, ellas solo sirven para dar una representación resumida y clasificada de las leyes experimentales». Por lo que en definitiva es solo por «un acto de fe que este análisis [de los métodos por medio de los cuales se construyen las teorías físicas] es incapaz de justificar [...] que nos asegura que estas teorías no son un sistema puramente artificial, sino una clasificación natural» (Duhem, 1906, 39). De todas formas, en ningún caso las teorías físicas persiguen la explicación de los fenómenos. Y en apoyo de la idea de que las teorías físicas no constituyen explicaciones, que las hipótesis no son juicios sobre la naturaleza de las cosas, sino «solo premisas destinadas a proporcionar consecuencias conformes a las leyes experimentales», Pierre Duhem (pp. 59 ss.) trae a colación a los griegos, a Tomás de Aquino, a Osiander, a Bellarmino, e incluso a Newton a quien, en base de su cuestión XXXI de la Óptica, le atribuye (p. 73) también la idea de que el objeto de las teorías físicas es «la condensación económica de las leyes experimentales». Mach y Kirchhoff están también en la base de su concepción de que la teoría física es «una representación simplificada y ordenada que agrupa a las leyes siguiendo una clasificación cada vez más perfecta, cada vez más natural» (p. 83). Por su parte, para Bas Van Fraassen (2008, 204), que apenas atiende a esta problemática, «El punto de vista de Poincaré está en completa armonía con el de Duhem respecto a que la meta de la teoría física es la de sistematizar leyes experimentales [...] sin implicación para la realidad de los parámetros teóricos». Sin embargo la posición de Poincaré es bastante más sutil. Es cierto que según Poincaré (1902, 115) ni la ciencia ni nada puede hacernos conocer la verdadera naturaleza de las cosas, pero sí las relaciones que hay entre ellas. Es más, añade, fuera de estas relaciones no hay realidad cognoscible. Y Poincaré despliega su idea de que la ciencia es un sistema de relaciones que constituyen la objetividad científica: «cuando preguntamos cuál es el valor objetivo de la ciencia, eso no quiere decir: ‘¿nos hace conocer la ciencia la verdadera naturaleza de las cosas?’ sino ‘¿nos hace conocer las verdaderas relaciones de las cosas?’» (pp. 160-163), pues nada nos puede revelar la verdadera naturaleza de las cosas. Precisamente esta posición ha sido el desencadenante de lo que actualmente se denomina el realismo estructural. O sea, que Poincaré sería un realista estructural. De hecho, sería el primero de ellos. Antiesencialista, pero realista. Como Popper (1963, cap. 3), pero a su manera. Tanto en La ciencia y la hipótesis (1902) como en El valor de la ciencia (1905), Poincaré deja bastantes trazas de su incipiente realismo estructural (Rivadulla, 2010a, 7-8). El problema es que en Poincaré también encontramos abundantes huellas de una posición convencionalista. En efecto, es por medio de 158

EL INSTRUMENTALISMO CIENTÍFICO

una convención como las leyes experimentales se erigen en principios cuando han sido suficientemente comprobadas empíricamente (Poincaré 1905, 145). Así, Poincaré (1902, 129) se refiere a los principios de la mecánica como «postulados aplicables al conjunto del Universo y considerados como rigurosamente verdaderos». La razón la aporta inmediatamente después: «Si esos postulados poseen una generalidad y una certeza que no poseen las verdades experimentales de donde se han obtenido, es porque en último análisis se reducen a una simple convención que tenemos derecho a hacer, porque de antemano estamos seguros de que ninguna experiencia habrá de contradecirlos» (ibid. Mis cursivas, A. R.). Antiesencialismo, realismo estructural y convencionalismo son posiciones no siempre armónicas que encontramos en la epistemología de Poincaré. El instrumentalismo está muy presente también en la primera etapa de la filosofía actual de la ciencia. Es típico mencionar la idea de Moritz Schlick12, atribuida a Wittgenstein, de que «una ley natural no tiene, en principio, el carácter de un enunciado, sino que es más bien una prescripción para la formación de enunciados» como anticipadora de una posición instrumentalista. Entre los filósofos proclives al instrumentalismo moderno —aunque sin autocalificarse como tal— se encuentra Stephen Toulmin. Ya en (1953, 87-88), Toulmin sostiene que las leyes científicas son ajenas a cuestiones relativas a verdad o falsedad, que las cuestiones que nunca aparecen con referencia a las leyes de la naturaleza son las relativas a su verdad o falsedad: «Los físicos nunca tienen ocasión de hablar de las leyes mismas como algo que corresponde o que fracasa en su correspondencia con los hechos». Y respecto a la referencia de los términos teóricos de la ciencia Toulmin advierte que hay dos cuestiones distintas que deben ser consideradas como completamente independientes: la de la aceptabilidad de las teorías y la de la realidad de las entidades teóricas. La razón, según Toulmin (1953, 123), es que «Una teoría científica a menudo es aceptada y está en circulación durante largo tiempo y muchas recorren un largo camino antes de que ni siquiera se plantee la cuestión de la existencia real de las entidades que aparecen en ella». Y se ratifica en su postura filoinstrumentalista: «Las proposiciones que figuran en las teorías científicas nunca [...] nos dicen nada ‘verdadero’ o ‘falso’ sobre los aspectos del mundo empírico al que se aplican. »En la ciencia no se plantean cuestiones concernientes a la ‘verdad’ o ‘falsedad’ empírica de los principios teóricos. » Cuanto más estrictamente ‘teórico’ es un término, tanto más condicional, hipotética e indirecta es su aplicación a objetos individuales 12. «Die Kausalität in der gegenwärtigen Physik»: Die Naturwissenschaften 19 (1931), 151. Citado por Popper en LIC § 4 n. 7.

159

META, MÉTODO Y MITO EN CIENCIA

identificados aquí y ahora. [...] Análogamente, cuando más estrictamente ‘teórico’ es un enunciado, tanto más su pertinencia empírica es un asunto de aplicabilidad, no de verdad. En estos casos, la cuestión directamente empírica no es: ‘¿es verdadera esta proposición?’, sino ‘¿con qué grado de generalidad se aplica este principio y en qué condiciones es válido?’ »En el curso de establecer las condiciones en que puede aplicarse exitosamente una teoría explicativa, el científico determina: I) en qué situaciones empíricas las proposiciones de la teoría correspondiente tienen vigencia —no ‘si son verdaderas’—, y II) qué objetos o sistemas empíricos cuentan —y no ‘son’— casos de las entidades teóricas correspondientes. En consonancia con esto, la sustancia intelectual de una ciencia natural no reside en su propia ‘verdad empírica’ directa ni en la ‘verdad empírica’ de sus consecuencias lógicas. Reside, en cambio, en su poder explicativo; y este poder se mide por el ámbito, el alcance y la exactitud de sus técnicas de representación (1977, 177-179)13. Muchas páginas dedica por su parte Ernest Nagel (1961) a discutir el carácter lógico de las leyes científicas y el estatus cognitivo de las teorías, en particular la concepción instrumentalista de las teorías (1961, cap. 6, sección III), que analiza detalladamente, exponiendo lo que a su entender constituyen sus pros y sus contras. Para Nagel (1961, 129) la tesis central de la concepción instrumentalista es que «una teoría es una regla o un principio para el análisis y representación simbólica de ciertos materiales de la experiencia bruta y al mismo tiempo un instrumento en una técnica para inferir enunciados observacionales a partir de otros enunciados observacionales». Y «En esta concepción la cuestión pertinente sobre las teorías no es si son verdaderas o falsas, sino si son técnicas eficaces para representar e inferir fenómenos experimentales» (p. 133). La referencia de los términos teóricos sería entonces cuestionable desde una perspectiva instrumentalista. No obstante, en su afán más bien expositivo Nagel no toma partido y, en definitiva, su conclusión relativa a la controversia entre las concepciones realista e instrumentalista de las teorías es que esta oposición «es un conflicto sobre preferencias en modos de hablar» (p. 152), que difícilmente puede dejar satisfecha a ninguna de las partes. Por su parte Paul Feyerabend (1964) usa el término instrumentalismo de forma espontánea para referirse a aquella interpretación de la ciencia según la cual las teorías no describen nada, sino que solo sirven como instrumentos para la predicción de los hechos que constituyen su contenido empírico. En relación a las entidades teóricas el instrumentalismo rechazaría su existencia, pues estas solo servirían para la ordenación y predicción de datos sensibles. 13. En la versión original de 1972, ver pp. 169-173.

160

EL INSTRUMENTALISMO CIENTÍFICO

Finalmente, los programas de Craig y Ramsey en relación al Dilema del teórico de Carl Hempel —que he expuesto ampliamente en Rivadulla (1986, cap. V, § 3)— apuntan a la eliminabilidad de los términos teóricos de la ciencia, y por tanto a la forma que el debate realismoinstrumentalismo adoptaba en la filosofía de la ciencia de mediados del siglo xx. Basándose en parte al menos de esta tradición filosófica que acabamos de presentar, Stathis Psillos (1999) propone distinguir entre un instrumentalismo sintáctico y un instrumentalismo semántico. El primero admite a su vez dos matices muy finos: eliminativo y no eliminativo. El instrumentalismo sintáctico eliminativo, en palabras de Psillos (1999, xx), es la posición epistemológica según la cual las afirmaciones teóricas son «constructos sintáctico-matemáticos carentes de condiciones de verdad y, por tanto, de contenido asertórico». Y en p. 72 precisa que «el instrumentalismo eliminativo toma a las teorías científicas como meros constructos sintáctico/matemáticos para la organización de hechos empíricos y experimentales, y para la agrupación de leyes empíricas y observaciones, las cuales, de otra forma, serían consideradas irrelevantes entre sí. Según esta concepción las afirmaciones teóricas no están condicionadas por la verdad, e.d., no son capaces de ser verdaderas o falsas, y las teorías no implican compromisos existenciales con inobservables». El instrumentalismo sintáctico es también para P. Kyle Stanford (2006, 192) la concepción según la cual «las afirmaciones teóricas no son ni verdaderas ni falsas, ni siquiera tratan ‘realmente acerca’ del mundo mismo, sino que son simplemente dispositivos sintácticos convenientes que guían nuestras inferencias desde observaciones o estados observables a otros». En particular, para el instrumentalismo eliminativo «tales afirmaciones teóricas hacen exactamente las afirmaciones descriptivas sobre dominios inaccesibles de la naturaleza que parecen hacer pero que sin embargo pueden ser eliminadas de nuestras descripciones científicas del mundo» (p. 92). El discurso teórico puede ser eliminado de la ciencia. Por su parte el instrumentalismo no eliminativo es la posición según la cual «no es necesario asumir la existencia de una realidad inobservable detrás de los fenómenos, ni tampoco que para hacer ciencia, y hacerla exitosamente, esta tenga como meta su descripción» (2006, xx y 17). Sería la forma de instrumentalismo que Psillos atribuye a Pierre Duhem. Finalmente, el instrumentalismo semántico es la concepción según la cual «el discurso teórico no puede ser reducido a discurso observacional y por tanto carece de sentido» (Psillos 1999, 301 n. 1.1). P. Kyle Stanford (2006, 191-192) opone el instrumentalismo reductivo de Mach, según el cual «podemos creer simplemente las afirmacio161

META, MÉTODO Y MITO EN CIENCIA

nes centrales de nuestras mejores teorías científicas una vez que se las interpreta correctamente como que solo hacen afirmaciones ‘realmente’ acerca de colecciones de experiencias fenomenológicas o apariencias» al de Duhem y Poincaré, quienes «consideran que muchas teorías científicas aspiran a o pretenden describir una realidad subyacente inaccesible y/o explicar eventos observables o experiencias por referencia a ella, y simplemente rechazan estas ambiciones como insatisfacibles o de alguna manera no científicas». Ambos se adscribirían pues al instrumentalismo sintáctico, y para ellos «a pesar de las apariencias contrarias las afirmaciones de la ciencia teórica no son asertóricas: no son afirmaciones acerca de cómo el mundo es, no portan compromisos ontológicos francos sobre entidades inobservables y carecen completamente de valor de verdad» (Stanford 2006, 192). Kyle Stanford (2006, 193-194) se atreve además con una propuesta nueva, que denomina epistémica —instrumentalismo epistémico de teorías— que expresa la idea de que «nuestras mejores teorías científicas son herramientas o instrumentos que guían nuestro compromiso práctico con el mundo mejor que descripciones literales y/o adecuadas de partes del mundo, por otra parte inaccesibles». O sea, que «podemos hacer un uso práctico perfectamente bueno de las afirmaciones de tales teorías sin creer lo que dicen sobre el mundo natural». O, como precisa líneas abajo, «lo que supone ser un instrumentalista sobre una teoría particular es creer las predicciones empíricas y las recetas para la intervención que la teoría ofrece, pero no la descripción de alguna parte de la naturaleza en que se fundan estas recomendaciones pragmáticas» (p. 195). Y de nuevo: «podríamos usar nuestras teorías para la predicción, la intervención y otros propósitos pragmáticos sin creer las descripciones teóricas que ofrecen del mundo natural» (p. 197). Kuhn, van Fraassen y Laudan, participarían en alguna medida, en opinión de Stanford, de esta versión epistemética de instrumentalismo. La cuestión que surge inmediatamente es la del status de las entidades teóricas. Desde la perspectiva epistemológica contraria, el realismo científico, la asunción de la verdad, al menos aproximada, de las teorías maduras de la ciencia conlleva que los términos teóricos que estas usan refieren empíricamente, e.d., son elementos de la realidad. La propuesta de Stanford es «creer las afirmaciones sobre entidades, eventos y fenómenos si estas afirmaciones pueden ser entendidas independientemente de la teoría o teorías respecto de las que adoptamos una posición instrumentalista» (2006, 197). O como señala más adelante, «Si puedo decir cómo la creencia en una teoría me llevaría a predecir e intervenir con respecto a entidades, eventos y fenómenos que pueden ser caracterizados independientemente de la teoría (y en términos de una o más teorías en las que creo estricta y literalmente), entonces conozco a qué 162

EL INSTRUMENTALISMO CIENTÍFICO

otras creencias estoy obligado pensando que la teoría es instrumentalmente útil pero no verdadera» (p. 204). En esta misma línea, Stanford (p. 205) insiste en que «la utilidad instrumental de la teoría requiere simplemente que sea capaz de conectar su maquinaria descriptiva e inferencial como un conjunto de entidades, eventos y fenómenos en los que cree estricta y literalmente en cuanto que pueden ser caracterizados fuera de la teoría misma». ¿Cuál ha de ser entonces nuestra actitud respecto de muchas de las entidades teóricas que pululan en la física contemporánea: modelo estándar de física de partículas elementales, teoría de supercuerdas, gravitación cuántica, etc.? Por ejemplo, los quarks que predice la cromodinámica cuántica no son constatables individualmente, las entidades supersimétricas que postula la teoría de supercuerdas como selectrones, fotinos, etc., no parece que puedan ser detectados, y el gravitón, partícula intermediaria de las interacciones gravitacionales que predice la gravedad cuántica, está también muy lejos de poder ser observado —de hecho no existe una teoría cuántica de la gravedad formalmente constituida y mucho menos definitiva. Finalmente, fenómenos tales como la entropía de agujeros negros, la materia oscura, la energía oscura —donde el calificativo oscura precisamente hace referencia a la ignorancia total respecto a su origen y constitución— parecen incluso incontrastables empíricamente en principio. Refiriéndose en concreto a los gluones, que son los bosones que mantienen confinados a los quarks formando parte de protones y neutrones, Stanford (2006, 198) se manifiesta de la siguiente manera: «el instrumentalista no creerá ninguna de las afirmaciones de la física contemporánea de partículas acerca de los gluones, pero sí será perfectamente feliz si hace uso de tales afirmaciones para la generación de nuevas predicciones y recetas de intervención relativas a fenómenos con los que tiene cierto contacto o trato en una forma que sea independiente de la teoría misma». Desde luego su posición es indiscutiblemente instrumentalista. Afortunadamente, el propio desarrollo de la física teórica contemporánea ha dejado abandonados en el camino entidades hipotéticas tales como taquiones, preones, y otros. Pero sigue aferrada a todas las entidades que acabo de mencionar. El éxito del Modelo Estándar de la Física de Partículas Elementales (MEFPE), por ejemplo, se basa en la asunción de doce partículas materiales: electrón, neutrino electrónico, quark arriba y quark abajo; muón, neutrino muónico, quark encanto y quark extraño; tauón, neutrino tauónico, quark cima y quark fondo. A los hay que añadir sus respectivas antipartículas —partículas de igual masa pero de carga eléctrica opuesta— y las partículas transmisoras de interacciones (fuerzas), como fotones, gluones, etc. Al margen del hecho de que este modelo estándar no es capaz de incorporar la interac163

META, MÉTODO Y MITO EN CIENCIA

ción gravitatoria, ¿Cuál sería el estatus ontológico de las mismas desde el punto de vista del instrumentalismo epistémico? Según Stanford (2006, 207) «el instrumentalista reconoce que nuestras teorías científicas punteras son las mejores herramientas conceptuales que tenemos para pensar sobre la naturaleza, y este reconocimiento abarca el hecho de que son nuestros recursos disponibles más poderosos para extender, proseguir y expandir nuestra investigación posterior del mundo natural mismo». El instrumentalista epistémico comparte con el realista científico la idea de que «continuamos desafiando a nuestras mejores teorías científicas descubriendo y testando nuevas implicaciones empíricas de las mismas, que las usamos para desenterrar nuevos fenómenos y nuevas formas de predecir e intervenir en el curso de los fenómenos de nuestro entorno, que estas teorías sirven de punto de partida apropiado para determinar cómo ellas mismas pueden ser refinadas, mejoradas y desarrolladas, e incluso que trabajamos para unificar nuestras diferentes teorías científicas entre sí y con cualesquiera otras en las que creemos a fin de producir un relato único coherente, consistente y sistemático del mundo natural como un todo» (pp. 209-210). Es por eso que el instrumentalista «persigue el conjunto de herramientas conceptuales más poderoso, más severamente testado, más ampliamente aplicable y más preciso predictivamente, que podamos alcanzar. Resumiendo, el instrumentalista está en una posición que toma totalmente las afirmaciones de nuestras mejores teorías científicas sobre la naturaleza tan seriamente como hace el realista, si bien declina creer todo lo que el realista cree sobre el mundo» (p. 210). Para Stanford (2006, 210-211) realistas e instrumentalistas coinciden en admitir «la proposición teórica de que existe un mundo exterior lleno de rocas, arañas y estrellas distantes, así como un número de otras creencias sobre las entidades, eventos y fenómenos de este mundo cuya verdad no depende de la precisión de nuestras teorías científicas más detalladas: que las rocas son duras, que las arañas tejen telas y que las estrellas brillan en la noche. También concuerdan en que nuestras teorías científicas son las mejores herramientas que tenemos para predecir e intervenir en lo que respecta a estas rocas, arañas y estrellas distantes, así como para descubrir fenómenos nuevos cuya existencia no sospechábamos antes, y para ampliar nuestra investigación de la naturaleza». La diferencia entre ambos reside en que «el realista mantiene muchas otras creencias sobre estas entidades, eventos y fenómenos que el instrumentalista declina compartir: que las rocas están hechas de átomos con una composición específica interna, que las arañas comparten un antecesor común con ellas en el pasado lejano, que la trayectoria de la luz de las estrellas distantes puede ser doblada por un campo gravitacional. Además el realista científico cree que hay entidades en el mundo 164

EL INSTRUMENTALISMO CIENTÍFICO

que responden a las descripciones detalladas que dan sus mejores teorías científicas como gluones, genes y energía oscura. Por el contrario, el instrumentalista cree que aunque estas descripciones teóricas están íntimamente incorporadas en los recursos conceptuales más poderosos que tenemos para pensar sobre dominios naturales particulares, esto no le ofrece ninguna razón que le obligue a creer que en el mundo hay entidades que responden a estas descripciones». Finalmente, el instrumentalista «juzga muy probable que incluso las teorías más impresionantes e instrumentalmente logradas de la ciencia contemporánea acabarán siendo sustituidas por herramientas conceptuales más poderosas que ofrezcan concepciones diferentes de la naturaleza que en el momento presente ni siquiera han sido concebidas». La respuesta a la pregunta antes planteada sobre el estatus ontológico de las entidades teóricas parece haber sido respondida claramente por Stanford en el siguiente sentido: No hay garantías actualmente de que existan en la naturaleza objetos que respondan a las entidades postuladas por nuestras mejores teorías científicas actuales. Mi pregunta entonces es si no hay diferencias ontológicas entre electrones y quarks. De los segundos ciertamente solo tenemos conocimiento inferido dado que los quarks no se presentan en estado independiente, pues están confinados en el interior de protones, neutrones y mesones. De los electrones sí que tenemos un conocimiento muy individualizado: conocemos experimentalmente su masa, su carga —que es la unidad de carga eléctrica en física— y conocemos su espín (las magnitudes correspondientes de los quarks las conocemos de modo inferido). Esto parece sugerir que al menos algunas entidades teóricas refieren empíricamente, lo que daría la razón al realista de entidades, aunque las teorías que facilitan el descubrimiento de estas entidades no tienen por qué ser aceptadas como verdaderas. Por otra parte, muchas de las entidades manejadas en ciencia probablemente no existen, como, por ejemplo, la fuerza gravitatoria, y otras postuladas teóricamente, como el gravitón, tal vez no respondan a nada real. El tema de la realidad de las entidades teóricas de la ciencia es sin duda una cuestión muy delicada respecto de la cual seguramente actitudes radicales de todo o nada como «todas refieren empíricamente» o «ninguna refiere empíricamente» no sean las más razonables. La prudencia aconseja analizar con sumo detalle y honestidad caso por caso. En definitiva, desde un punto de vista instrumentalista la función de la ciencia es facilitar el descubrimiento, la predicción y la intervención en la Naturaleza. No tendría pues nada de extraño que algunas de las entidades teóricas de la ciencia puedan existir realmente. Pero hay que ser extremadamente prudente en esta cuestión. Viene bien aquí recordar las reflexiones de Putnam sobre la intercompenetración entre hecho 165

META, MÉTODO Y MITO EN CIENCIA

y teoría a raíz del realismo de entidades de Hacking, así como que no hay ganancia teórica en afirmar que determinada entidad teórica refiere empíricamente. 4.  MODELOS TEÓRICOS

A lo largo de su existencia como disciplina teórica la física viene haciendo uso de unas herramientas conceptuales denominadas modelos teóricos. Los modelos teóricos son constructos restringidos a un dominio limitado de fenómenos. No son teorías propiamente dichas; sin embargo son imprescindibles en disciplinas huérfanas de teoría, como por ejemplo en física nuclear o en astrofísica, asumiendo el papel de estas. En este sentido discrepo de la concepción semántica de las teorías, sea en la versión de la concepción estructuralista de Sneed-Stegmüller-Moulines, o en la versión empirista de Bas van Fraassen, según las cuales los modelos lo son de teorías. Esta concepción dejaría huérfanas de teorización a las disciplinas en las que no hay teoría. Ajenos a esta polémica filosófica los físicos se sirven en estas disciplinas de modelos teóricos por cuya aplicación nos manejamos predictivamente e intervenimos, a veces con éxito, en la Naturaleza. Además de en la física, el uso de modelos teóricos está tan extendido hoy día en ciencia que apenas hay disciplinas, naturales o sociales, que no los manejen para habérselas con la parte del mundo que les compete. En buena parte la astronomía antigua, sobre todo la astronomía matemática propensa al instrumentalismo filosófico, los modelos geométricos del Universo eran las herramientas de cálculo diseñadas para salvar los movimientos de los astros ‘errantes’, los planetas. Para Popper los astrónomos antiguos eran constructores de modelos. Pero también lo fueron Copérnico, Tycho y Kepler. La mecánica newtoniana proporcionó también un modelo muy eficaz para el manejo con los fenómenos gravitacionales, cuya cara y cruz en parte vamos a presentar más adelante, hasta su desplazamiento por el modelo actual de la teoría general de la relatividad de Einstein. Este ha resultado tan exitoso, sobre todo en cosmología teórica, que juntamente con el Modelo Estándar de la Física de Partículas Elementales (MEFPE) ha sido capaz de resistir todas las pruebas hasta el presente. William Thomson (1824-1907), más conocido como Lord Kelvin, citado por Duhem (1906, 71), sostenía en relación al uso de modelos mecánicos en física: «Me parece que la prueba de ‘¿Entendemos un sujeto particular de la física? es ‘¿Podemos hacer un modelo mecánico de él?’», y: «Nunca me doy por satisfecho hasta que he hecho un modelo mecánico de algo. Si puedo hacer un modelo mecánico, lo entiendo». 166

EL INSTRUMENTALISMO CIENTÍFICO

Pero Duhem (1906, 99) mismo, que acepta que «el uso de modelos mecánicos ha guiado a algunos físicos en la ruta del descubrimiento» le reprocha que tal uso «No ha llevado al progreso de la física de que se alardeaba. La parte del botín que [el uso de modelos, A. R.] ha aportado al grueso de nuestro conocimiento parece bastante magro cuando lo comparamos con las conquistas opulentas de las teorías abstractas». Por ello Duhem admite que los modelos mecánicos estaban más bien diseñados como ‘método de exposición’ que como ‘medio de descubrimiento científico’. Sobre el carácter no pictórico de los modelos H. T. Flint, en Wave Mechanics (London, 1951, 110), afirma que «No debemos esperar que nos será fácil describir pictóricamente mediante modelos las cosas fundamentales de la naturaleza». Y W. Heitler, en Elementary Wave Mechanics (Oxford, 1946, 70), asevera que: «Esta imagen del electrón giratorio como una bola que rota sobre sí misma no debe ser tomada literalmente [...] las preguntas sobre cuál sería el radio de tal bola, etc., no tienen ningún significado físico». Y Rudolf Carnap (1966, 174) afirma a su vez que «Durante muchos años el modelo atómico de Bohr pareció ofrecer una solución buena y satisfactoria: Una especie de sistema solar con un núcleo central y los electrones que se movían en sus órbitas alrededor de este. Pero este resultó demasiado simple. Hoy un físico atómico ya no intenta proponer un modelo completo. Incluso si hace uso de un modelo, tiene siempre claro que este solo describe ciertos aspectos de la situación, y deja otros fuera de consideración». Y concluye: «Un modelo puede constar solo de una única ecuación matemática o de un sistema de ecuaciones. Se trata de una descripción simplificada de una estructura (física, económica, sociológica o de otro tipo) en la que conceptos abstractos se ligan matemáticamente. Es una descripción simplificada porque descarta muchos factores que solo harían el modelo más complicado. [...] El modelo es puramente hipotético. Algunos parámetros se introducen y se modifican hasta que se consigue una adecuación a los datos. Cuando se hacen más observaciones, puede ocurrir que los parámetros no solo deban continuar siendo modificados, sino que también haya que modificar las ecuaciones fundamentales. En otras palabras, se cambia el modelo mismo. Se agota el viejo modelo, se busca un modelo nuevo». Con estas palabras queda claro que Carnap solo entiende el uso de ‘modelo’ en el sentido de modelos teóricos propiamente dichos, y coincide en algunos aspectos con su gran adversario en tantos otros aspectos de la metodología de ciencia, Karl Popper. Para (Popper 1994b, 170 y 172) los modelos son supersimplificaciones burdas y esquemáticas. Todo modelo, afirma, tanto de la física como de las ciencias sociales, tiene que ser una supersimplificación, por lo que no representa 167

META, MÉTODO Y MITO EN CIENCIA

los hechos verazmente14. Esta opinión le aproxima a un planteamiento sintáctico acerca de los modelos teóricos. Sin bien, sería desleal con él, un realista científico por excelencia, atribuirle esta posición filosófica. Concluyo este breve repaso histórico sobre el concepto de modelo con una referencia a un físico español contemporáneo. Antonio Rañada (1994, 47) mantiene que los modelos «dan visiones esquemáticas y simplificadoras de la realidad, pues en su parte física requieren idealizaciones y en la matemática aproximaciones. Sin las idealizaciones el estudio científico de la naturaleza sería imposible, debido a su gran ­complejidad». Por lo que a mí respecta, mi posición acerca de los modelos teóricos se puede resumir en los puntos siguientes: 1.  Los modelos teóricos son constructos sintácticos diseñados para ‘salvar los fenómenos’ y manejarnos predictivamente con, e intervenir en, la Naturaleza. 2. Los modelos teóricos son especialmente útiles en disciplinas huérfanas de teoría. 3.  Los modelos teóricos deben ser consistentes con las leyes y teorías físicas ya aceptadas (si bien no necesariamente asumidas como verdaderas). 4.  La aceptación de un modelo teórico depende, además, de su éxito empírico. Como la inferencia del éxito a la verdad, la verosimilitud, o la probabilidad de verdad es lógicamente ilegítima, la relación de los modelos teóricos con el mundo no puede ser de isomorfismo, verosimilitud, analogía o semejanza. 5.  Los modelos no representan aspectos del mundo, pues estando el acceso al mundo condicionado por el propio modelo, este no puede ser al tiempo juez y parte del proceso ‘cognitivo’. Los modelos teóricos no ofrecen conocimiento del mundo. 6.  Descripción, explicación y comprensión tampoco son su objetivo. Estas tesis suscitan las preguntas de cómo explicamos el éxito empírico de los modelos teóricos y de cómo damos cuenta del fracaso de modelos antes exitosos. Desde una perspectiva realista, el filósofo responde a la primera cuestión que los modelos a veces son exitosos, porque la meta de la ciencia es la verdad, la aproximación a la verdad o la probabilidad de verdad. O sea, que los modelos teóricos son exitosos porque son, al menos, aproximadamente verdaderos, o tienen una alta probabilidad de verdad. Ahora bien, como la historia de la ciencia enseña, llega un momento en que muchos modelos altamente exitosos en 14. La concepción de Popper acerca de los modelos teóricos la he analizado en Rivadulla (2006a y 2012b).

168

EL INSTRUMENTALISMO CIENTÍFICO

algún momento, fracasan empíricamente. La historia apoya un pesimismo inductivo à la Laudan. Hay pues otra respuesta posible a la pregunta de cómo explicamos el éxito empírico de los modelos teóricos y consiste simplemente en decir que la verdad no juega ningún papel en ciencia a nivel teórico, que la teoría no es el recinto, el espacio o la morada de la verdad. Por lo que, si a veces nuestras teorías o modelos son exitosos, ello se debe que están diseñados para el éxito. Para hacer ciencia, podemos prescindir pues de la verdad a nivel teórico. En total acuerdo con Laudan sostengo entonces que un modelo teórico, y por ende una teoría científica, no precisa ser verdadero, a fin de manejarnos exitosamente con la Naturaleza. En resumidas cuentas, mi punto de vista acerca de los modelos teóricos de la ciencia es que estos son constructos hipotéticos tendentes tanto a ‘salvar los fenómenos’ como a facilitar predicciones empíricamente contrastables acerca de dominios empíricos e intervenir en la Naturaleza. No constituyen representaciones veraces ni verosímiles, ni probablemente verdaderas, de los mismos. Y aunque se refieren a algo ahí fuera, el acceso al mundo está mediado por el propio modelo, que no puede ser al mismo tiempo juez y parte del proceso ‘cognitivo’. Que modelos en un tiempo exitosos puedan acabar fracasando no precisa de mayor análisis filosófico. A continuación vamos a detallar algunas de estas circunstancias. 5.  ÉXITOS Y TROPIEZOS EN EL USO DE MODELOS TEÓRICOS EN FÍSICA

Para ilustrar las ideas precedentes voy a presentar seguidamente algunos ejemplos de modelos teóricos que, en conjunto, confío que ofrezcan justificación suficiente de las mismas. Estos modelos proceden de tres campos distintos de la física teórica: la astrofísica estelar, la mecánica newtoniana y la física estadística clásica. Mi forma de proceder va a ser la siguiente. Primero (§ 5.1) voy a presentar el modelo estelar de cuerpo negro, es decir el modelo de estrella como cuerpo negro, a fin de mostrar lo exitoso que puede resultar el uso de modelos teóricos en astrofísica. Seguidamente (§ 5.2) me centraré en el modelo gravitacional newtoniano para poner de manifiesto que un modelo muy exitoso como este no tiene garantizado el éxito para todo dominio en el que se considere su aplicabilidad. Por último (§ 5.3) voy a presentar sendos ejemplos de revisión de los dominios de aplicaciones propuestas de la mecánica estadística clásica. Con ello pretendo ilustrar que a veces tenemos éxito cuando ampliamos tales dominios a fenómenos nuevos, pero que a veces también fracasamos, por lo que nos vemos obligados a restringir la aplicación de modelos a tales dominios. 169

META, MÉTODO Y MITO EN CIENCIA

La idea general es que el éxito empírico hoy no garantiza el éxito mañana. Y esto cuestiona seriamente la idea de que este pueda ser un indicador de verdad, proximidad a la verdad o probabilidad de verdad. Como esta idea se opone a la concepción realista de convergencia a la verdad, esta sección prepara el camino de la siguiente, en la que ofrezco una refutación concluyente del realismo científico. 5.1.  El modelo estelar de cuerpo negro En ausencia de una teoría astrofísica propiamente dicha la postulación de modelos teóricos estelares resulta ineludible, a fin de manejarnos científicamente con los objetos celestes. Tales modelos deben ser consistentes con leyes físicas aceptadas y además deben ser empíricamente adecuados. 5.1.1.  La temperatura de la superficie solar Un cuerpo negro es un objeto, naturalmente negro, que, aunque absorbe toda la radiación que incide sobre él, emite también radiación en función de su temperatura e independientemente de su constitución material. Precisamente el color de la luz que emite un cuerpo negro es un indicador de su temperatura. Comentan Ostlie y Carroll (1996, 75) que el ceramista británico Thomas Wedgewood (1771-1805) había observado ya en 1792 la relación entre el color de la luz emitida por un cuerpo caliente y su temperatura. Cuanto mayor es la temperatura del cuerpo negro, más azul es la luz que emite. Cuanto menor, más roja. Y del rojo al negro solo hay un paso. Las estrellas desde luego no son cuerpos negros. Ni están en equilibrio termodinámico ni su temperatura es igual por doquier15. Pero aunque no sean cuerpos negros, podemos imaginar una estrella como si fuese un cuerpo negro. Esto nos permite p. e. calcular la temperatura de la superficie del Sol. Supongamos entonces que el Sol es un cuerpo negro. La energía total que emite por unidad de superficie y unidad de tiempo la determina la Ley de Stefan-Boltzmann, E = σT 4, que fue postulada originariamente por Joseph Stefan sobre la base de los experimentos de John Tyndall y derivada matemáticamente cinco años después por Ludwig Boltzmann en el contexto de la termodinámica clásica. σ denota la constante de Stefan-Boltzmann16. 15. Ya solo en su fotosfera la temperatura del Sol varía entre 5.650 y 5.890 K en una distancia de 28 km (cf. Ostlie y Carroll 1996, 263, ejemplo 9.1). 16. Cf. Rivadulla (2002, 44-46).

170

EL INSTRUMENTALISMO CIENTÍFICO

Como consecuencia de su emisión de energía, el Sol brilla. El brillo se conoce también como luminosidad, que físicamente es potencia, o sea, energía emitida por unidad de tiempo, y se expresa como  = 4 π R 2σ T 4 , siendo R el radio solar. Ahora bien, no siendo las estrellas cuerpos negros perfectos, se conviene en tomar como temperatura la de la superficie de la estrella, que se conoce como temperatura efectiva Te. En la Tierra, que se halla a una distancia d de 150 millones de km del Sol, la luminosidad solar se expresa como  = 4 π d 2 e , donde e es la irradiancia solar, es decir la energía solar recibida en la Tierra por unidad de superficie. Igualando ambas expresiones de la luminosidad  tenemos 4 π R 2σTe4 = 4 π d 2 e . Y despejando Te obtenemos el valor de temperatura de la superficie del Sol, que es T=5780 K. Esto es una muestra el éxito del modelo estelar de cuerpo negro. 5.1.2.  Espectros estelares Si en la fórmula de la luminosidad solar  = 4 π R 2σ T 4 despejamos R, la expresión resultante nos permite ver que, si dos estrellas tienen la misma temperatura, entonces la más luminosa será la de mayor tamaño. De forma que, por ejemplo, si una de ellas es cien veces más luminosa que la otra, entonces su radio será 10 veces mayor que el de la otra. Siguiendo con nuestro supuesto de las estrellas como si fuesen cuerpos negros, estas estarán sometidas también a la Ley del desplazamiento de Wien, λmax .T = cte , según la cual17 a medida que aumenta la temperatura de un cuerpo, el máximo de su distribución de energía se desplaza hacia las longitudes de onda más cortas. En el caso de las estrellas, cuanto mayor sea su temperatura su luz más se aproximará al ultravioleta, y mientras menor sea, más se acercará al rojo o al infrarrojo. (El Sol emite en el amarillo). Naturalmente, cuanto mayor es la temperatura de una estrella mayor es su luminosidad. Pero la luminosidad depende también de su masa. De hecho en un 90% de casos la luminosidad de una estrella es proporcional a la potencia 3,5 de su masa, hecho que se conoce en astrofísica como relación masa-luminosidad. Esta relación rige también para estrellas gigantes y supergigantes. La luz que emite un elemento químico calentado a una temperatura adecuada, una vez descompuesta en sus colores constituyentes cuando se dispersa a través de un prisma, se denomina su espectro. Sólidos, líquidos incandescentes y gases densos calientes, emiten espectros continuos, mientras que gases calientes difusos emiten líneas brillantes. 17. Cf. Rivadulla (2002, 46-47).

171

META, MÉTODO Y MITO EN CIENCIA

Las estrellas tienen su propio espectro. Es su seña de identidad. El hecho de que el espectro de una estrella sea una característica distintiva del astro en cuestión, le permitió al estadounidense Edward Charles Pickering (1846-1919) el desarrollo de una taxonomía espectral, que está en los orígenes de los estudios empíricos de la astronomía estelar. Con un equipo eminentemente femenino compuesto por Williamina Paton Fleming (1857-1911), Annie Jump Cannon (1863-1941) y Antonia Caetana Maury (1866-1952), Pickering publicó entre 1918 y 1924 el Henry Draper Catalogue que, junto con sus suplementos (1925-1936) contenía 272.150 espectros estelares de otras tantas estrellas, clasificados según el orden ‘O B A F G K M’ y sus subdivisiones decimales. Esta clasificación ordena las estrellas por su temperatura, siendo las más calientes las de tipo espectral O, y las más frías las de tipo espectral M. El Sol por ejemplo es de tipo espectral G2. Para el catálogo se tomó el nombre del estadounidense Henry Draper (1837-1882), que fue el primer astrónomo en captar en 1872 la primera fotografía de un espectro estelar con líneas de absorción. Ahora bien, el conocimiento de los espectros estelares es anterior a estas clasificaciones debidas a técnicas espectrográficas. En una fecha tan temprana como 1802 el físico británico William Hyde Wollaston (1766-1828) había observado rayas oscuras en el espectro estelar. Se trataba naturalmente de líneas de absorción, líneas de Fraunhofer, producidas por la absorción por la cromosfera solar de determinadas longitudes de onda, aunque Wollaston no supo interpretarlas. Hubo pues que esperar a que el astrónomo alemán Joseph von Fraunhofer (17871826) entre 1814 y 1823 catalogase y calculase las longitudes de onda de las líneas de absorción del espectro solar en número de 475 líneas oscuras. La comparación de las líneas de absorción con las de emisión de sustancias conocidas permite conocer la existencia de las sustancias correspondientes en la atmósfera solar. Así fue descubierto el Helio, cuya existencia fue delatada por las líneas de Fraunhofer. La existencia de líneas de emisión y líneas de absorción en los espectros estelares estuvo huérfana de explicación teórica hasta que se desarrolló la física atómica, cuyo modelo de explicación de la interacción entre la radiación y la materia permitió comprender que las líneas de emisión se producen cuando un electrón efectúa una transición de una órbita más alejada a una órbita más próxima al núcleo del átomo, emitiendo un fotón correspondiente al cuanto de energía sobrante. Por su parte las líneas de absorción se producen cuando un átomo absorbe un fotón con la energía que le permite pasar a un electrón de una órbita de menor energía a una de energía mayor. Los espectros estelares, desplazados hacia el violeta, o hacia el rojo, según la mayor o menor temperatura de la estrella, se comportan como 172

EL INSTRUMENTALISMO CIENTÍFICO

se espera que lo hagan según la ley del desplazamiento de Wien. El modelo estelar de cuerpo negro es pues sin duda un buen modelo para el estudio de la radiación de las estrellas. 5.2.  Cara y cruz del modelo gravitacional newtoniano Antes de ahora he insistido en que el modelo celeste newtoniano ha vivido a lo largo de su historia momentos de gloria y ha conocido también fracasos clamorosos (cf. Rivadulla 2004, cap. V, § 2; en 2006a, 79-83; en 2006b, § 3.1, etc.). A continuación voy a referir también un caso típico de aplicación exitosa del modelo gravitacional newtoniano, seguido de un caso de aplicación fracasada. Un ejemplo elocuente de la cara y la cruz de la aplicación de modelos teóricos en física, que muestra que el éxito empírico de un modelo en ciencia no es garantía de éxito en toda aplicación futura. 5.2.1.  El cálculo del número de estrellas de nuestra Galaxia La pregunta acerca de cuántas estrellas hay en cielo es imposible de contestar. Lo que sí es posible responder es cuántas estrellas hay aproximadamente en nuestra Vía Láctea. Ya lo hemos adelantado en el capítulo IV, § 6.2. «La materia oscura». Para contestar a esta pregunta necesitamos recurrir a la versátil Tercera Ley de Kepler, adaptada al caso, y algunos datos. Entre estos está, en primer lugar, que nuestra Galaxia, que es espiral, en uno de cuyos brazos, llamado de Orión, se sitúa el Sol, la distancia d de este al centro galáctico es de 8,54 kpc (kiloparsec), siendo 1pc unos 3,26 años luz. Sabemos también que el Sol se desplaza alrededor del centro de la Galaxia en órbita circular con una velocidad de 220 km/s durante un periodo P de 240 millones de años. Basta colocar estos datos en la fórmula de Kepler (cf. Rivadulla 2004, 142) y despejar el valor de M=MGalaxia, que es el que corresponde a la masa contenida en la Galaxia dentro de la órbita del Sol, para obtener el valor de aproximadamente cien mil millones de masas solares, es decir, cien mil millones de soles, ya calculado por Jan Hendrik Oort. El modelo celeste newtoniano es pues muy eficaz para conocer el número de estrellas que hay en nuestra Galaxia. 5.2.2.  El modelo de colapso gravitacional de Kelvin-Helmholtz Un ejemplo de la cruz de la aplicación del modelo newtoniano lo tenemos cuando los físicos de la segunda mitad del siglo xix en enfrentan al problema acerca de cuál es la fuente de la energía de las estrellas. En una conferencia pronunciada en Königsberg el 7 de febrero de 1854, con ocasión del 50 aniversario de la muerte de Kant, Hermann 173

META, MÉTODO Y MITO EN CIENCIA

von Helmholtz había adelantado la hipótesis de que la generación de la energía solar se produce por el colapso gravitacional, gradual y continuo, del Sol a lo largo de su vida. Lord Kelvin recuperó esta idea en «On the Age of the Sun’s Heat», 1862, reimpreso en Kelvin (1867, Apéndice E), en cuya Parte III (pp. 493-494) se adhiere a la teoría meteórica de Helmholtz como la teoría de que «el sol y su calor tienen su origen en una colisión de cuerpos más pequeños que se juntaron por gravitación mutua, generando, de acuerdo con la gran ley probada por Joule, un equivalente de calor igual. »Que una forma de la teoría meteórica es ciertamente la explicación completa y verdadera del calor solar difícilmente puede ser cuestionada. [...] Parece lo más probable que el sol no ha iluminado la tierra durante más de 100.000.000 años, y es casi completamente cierto que no lo ha hecho durante 500.000.000 de años. Podemos decir con igual certeza que en el futuro los habitantes de la tierra no continuarán disfrutando de la luz y el calor esencial, a no ser que haya en el gran almacén de la creación fuentes actualmente desconocidas para nosotros». Esta ha pasado a la historia como teoría de la contracción de Helmholtz y Kelvin. En mecánica newtoniana la energía potencial gravitacional de una Mdm estrella de masa dm viene dada por la fórmula dVg = −GN , donde r 18 la masa dm de un capa de espesor dr de la estrella es dm = 4 π r 2ρ dr , siendo ρ la densidad de masa de la capa y 4 π r 2 dr su volumen. Colocando estos valores en la fórmula de la energía potencial gravitacional obtenemos que dVg = −4π GN Mρrdr . Basta ahora integrar en esta fórmula para todas las capas, asumiendo una densidad constante igual a su valor medio, y sustituir el valor de M en función de la densidad, para que resulte que la energía potencial gravitacional total de la estrella es 3 M2 . Aplicando finalmente el teorema del virial, que afirma Vg ≈ − GN 5 R que la energía total de un sistema en equilibrio es la mitad de su energía potencial, obtenemos el valor de la energía mecánica total de una 3 M2 estrella, que es E ≈ − GN . Pues bien, en el caso del Sol, el astro 10 R que suscitó la pregunta a mediados del siglo xix, la energía gravitacional liberada durante su ‘colapso gravitacional’ hasta el presente sería Eg ≈ 1,1×1048 erg . Basta asumir finalmente una luminosidad constante del Sol durante toda su vida, y que luminosidad es potencia, como hemos dicho ya en § 5.1.1., o sea energía por unidad de tiempo, para concluir que la edad actual del Sol que se desprende de esta teoría newto 18. Cf. Ostlie y Carroll, 1996, 329-330.

174

EL INSTRUMENTALISMO CIENTÍFICO

Eg ≈ 107 años . Pero diez millones de años  es una edad extremadamente corta, como reconoce Arthur Eddington (1926, 290): «Todos los argumentos biológicos, geológicos, físicos y astronómicos llevan a la conclusión de que esta edad es demasiado pequeña y que la escala temporal dada por la hipótesis de la contracción debe ser ampliada». Está claro pues, que la aproximación newtoniana al problema de la radiación estelar no es buena, y que, como preveía el propio Helmholtz, había que esperar a que nuevas fuentes de energía fueran descubiertas y lograran dar una explicación satisfactoria. Hoy sabemos que es la fusión nuclear en el interior de las estrellas la que explica su energía, y por ende, su brillo. niana de la contracción es t =

5.3.  Revisión de dominios de aplicación de la mecánica estadística clásica Theo Kuipers (2006) propone un enfoque realista de la aproximación de las teorías a la verdad basándose en la idea de revisión del dominio de aplicaciones propuestas de una teoría, revisión que puede tener lugar por ampliación o por restricción del dominio en cuestión. A continuación presento dos ejemplos de cada uno de los casos en relación a la mecánica estadística clásica. 5.3.1. La masa crítica de Jeans para la formación de protoestrellas ¿En qué condiciones una nube compuesta de N moléculas puede colapsar y convertirse en una estrella? Según el teorema de equipartición de la energía de la mecánica estadística clásica, la energía cinética de la nube 3 es Ec = NkBT , donde kB es la constante de Boltzmann. Si expresamos 2 M N= en función del peso molecular medio y la masa del Hidrógeµ mH 3 M kBT . Si aplicamos ahora el teorema del virial19 no, entonces Ec = 2 µ mH que, referido a sistemas compuestos por muchos objetos, afirma que la energía potencial gravitacional media de los objetos constituyentes es dos veces su energía cinética media, entonces si el doble de la energía cinética de la nube supera a su energía potencial gravitacional, la nube se expandirá, mientras que en caso contrario colapsará. Y como la ener3 5

gía potencial gravitatoria total es Vg ≈ − G N 19. Cf. Ostlie y Carroll (1996, 447 ss.).

175

M2 , donde M y R desigR

META, MÉTODO Y MITO EN CIENCIA

nan respectivamente la masa y el radio de la nube molecular, entonces, M 1 M2 por el teorema del virial, resulta que . Basta ahok B T = GN 5 R µ mH 1/ 3  3M  4 M ra sustituir R =  de la  en función de la densidad ρ 0 = 3 π R3  4 πρ 0  nube, para, despejando M, obtener el valor de la masa que ha de ser superado por la nube para que se produzca el colapso. Este valor crítico es conocido como masa de Jeans por el físico británico James Jeans (18771946) que fue quien la propuso, y muestra con elocuencia la ampliación exitosa del dominio de aplicación de la mecánica estadística clásica. 5.3.2.  La ley de la radiación del cuerpo negro de Rayleigh-Jeans Supongamos un gas de fotones encerrado dentro de un recinto en equilibrio térmico. Este gas está constituido por Nν ondas electromagnéticas estacionarias con frecuencias dentro del intervalo ν ,ν + dν , y energía media kBT resultante de la suma de las energías correspondientes de los campos eléctrico y magnético. Este valor resulta de la aplicación del teorema de equipartición de la energía de la mecánica estadística clásica, según el cual la energía cinética media de una partícula de un sistema en equilibrio termodinámico vale (k B T ) / 2 . El valor total de la energía del gas será pues E = NkBT , y como la densidad de energía es independiente de la naturaleza física del recinto y de su forma geométrica, y 8πν 2 , entonces basta multiplicar Nν por kBT para determinar, en Nν = c3 el marco de la mecánica estadística clásica, el valor de la densidad de energía emitida por un cuerpo negro. El resultado se conoce como Ley de Rayleigh-Jeans. El problema que presentaba esta ley era que, mientras a bajas frecuencias se ajustaba bien a los datos, para altas frecuencias fracasaba estrepitosamente. En efecto, basta integrar para todas las frecuencias20 para constatar que E → ∞. Como esto lo contradice flagrantemente la experiencia, la física estadística clásica fracasa para explicar la radiación del cuerpo negro. La explicación final la dará la física cuántica por medio de la Ley de radiación de Planck21 y posteriormente la mecánica estadística cuántica de Bose-Einstein. La mecánica estadística clásica no constituye pues el marco teórico adecuado para el manejo de gases de fotones. Y esta teoría debe restringir su dominio de aplicación. Ahora bien, este fallo no implica su refutación concluyente, ya que sigue sien-

20. Cf. Rivadulla (2002, 154). 21. Cf. Rivadulla (2004, 81-84).

176

EL INSTRUMENTALISMO CIENTÍFICO

do tan eficaz como lo era antes de enfrentarse con el problema de la radiación de gases de fotones. Los modelos teóricos de la física, con sus expedientes de éxitos y fracasos, dan una imagen fiable de la práctica científica. 6. LA INCOMPATIBILIDAD INTERTEÓRICA, AZOTE DEL REALISMO CONVERGENTE

El realismo científico ha sido criticado desde diferentes puntos de vista. El neopragmatismo de Rorty representa un azote despiadado de todo planteamiento realista. También lo es el relativismo evolucionista de Gonzalo Munévar. El estructuralismo empirista de Van Fraassen es en realidad una posición arrealista. Pero las posiciones de Kuhn, con su doctrina de la inconmensurabilidad, y de Laudan, con su argumento de metainducción pesimista, son, en el campo de la filosofía de la ciencia, las que más fuerte oposición han mostrado. No obstante el realismo ha seguido su camino imperturbable. La razón puede estar en que el debate en torno a la inconmensurabilidad parece haberse agotado si haber alcanzado una solución definitiva22, y que la metainducción pesimista, aunque ha calado profundamente, hasta el punto de que ha producido un cisma en el realismo contemporáneo, no deja de ser una conjetura, pues el rea­ lista siempre puede argüir que, aunque podamos aceptar que las teorías pasadas han sido encontradas falsas, eso no determina que no se pueda llegar a encontrar nunca una teoría verdadera. Por su parte, el pragmatismo rortyano, como no se sitúa dentro de la filosofía de la ciencia, no ha recibido la atención merecida por parte de los realistas científicos. Es sorprendente no obstante que los antirrealistas hayan evitado enfrentarse a un dato histórico incuestionable: la incompatibilidad interteórica, o sea el hecho de que regularmente concurren teorías y/o modelos teóricos incompatibles entre sí acerca del mismo dominio, teorías y/o modelos teóricos competidores tales que, si el objetivo fuera la representación fidedigna, no podrían ser verdaderos al mismo tiempo. Es cierto que Quine señaló la posibilidad de coexistencia de teorías lógicamente incompatibles pero empíricamente equivalentes, pero la filosofía de la ciencia no ha sabido exprimir suficientemente el jugo de este grato fruto filosófico. Al contrario de la idea de inconmensurabilidad, que apunta a una situación entre teorías separadas por una revolución científica, la incom 22. Aunque yo mismo he aportado razones que debilitan considerablemente la defensa de Kuhn de la doctrina de la inconmensurabilidad (por ejemplo en Rivadulla 2004, 130-133, y sobre todo en Rivadulla 2004a, entre otros), no pretendo haber refutado definitivamente esta tesis.

177

META, MÉTODO Y MITO EN CIENCIA

patibilidad teórica se presenta también en situaciones de teorías competidoras que se desarrollan paralelamente sin que necesariamente medie ninguna revolución entre ellas. Además la incompatibilidad teórica puede concretarse tanto en el hecho de que lo que sean incompatibles entre sí sean los postulados fundamentales de las teorías y/o modelos teóricos competidores, como que lo sean las entidades teóricas postuladas, ocurriendo en este caso que las entidades propuestas por una teoría desaparecen completamente en la otra, que propone las suyas propias. Por supuesto también ocurre que tanto los postulados teóricos como las entidades teóricas de teorías competidoras sean incompatibles entre sí. Así, constatamos que teorías que se suceden, mediada una revolución científica, son incompatibles entre sí —astronomía geocéntrica y astronomía copernicana, mecánica newtoniana y teoría de la relatividad, mecánica clásica y mecánica cuántica— y que, cuando hay una bifurcación en el desarrollo histórico, las teorías son también incompatibles entre sí —caso de la teoría de la relatividad y la mecánica cuántica—. A veces incluso llegamos a manejar modelos teóricos incompatibles entre sí, pero empíricamente exitosos acerca de un mismo dominio, como evidencia la astronomía antigua y la física nuclear23. Ahora bien, si la existencia de incompatibilidades interteóricas24 es un hecho recurrente en la historia de la ciencia, entonces la imagen que el realismo científico presenta de la ciencia como una práctica que progresa lineal e imperturbablemente hacia la verdad, no puede ser verdadera, es decir, no puede reflejar fidedignamente el desarrollo de la ciencia. Dicho brevemente: la existencia de incompatibilidades interteóricas refuta al realismo científico convergente, o sea, ella misma es incompatible —valga la redundancia— con el realismo científico. La razón es bien sencilla. Sostener, como hace el realismo, que la ciencia progresa por aproximación a la verdad implica asumir —no hace falta más que recordar pasajes de Popper, Kitcher o Sklar ya citados— que las teorías descartadas del pasado son ‘menos’ verdaderas que las teorías maduras actuales, pero no que no contengan nada de verdad. Pero el hecho de la incompatibilidad, que afecta a postulados fundamentales y/o entidades teóricas básicas, hace imposible que las teorías y/o modelos teóricos competidores puedan compararse entre sí por su verosimilitud, ya que, tomadas como descripciones literales, se niegan mutuamente. Sin pretender realizar un análisis detenido y mucho menos exhaustivo de las situaciones de incompatibilidad interteórica identificables en la 23. Cf. Rivadulla (2004, 144 ss.). 24. Uso indistintamente las expresiones «incompatibilidad teórica» e «incompatibilidad interteórica» para referirme a la existencia de incompatibilidad mutua entre teorías y/o modelos teóricos.

178

EL INSTRUMENTALISMO CIENTÍFICO

historia, voy a señalar a continuación algunos detalles en las situaciones de incompatibilidad que he mencionado unas líneas más arriba. Empiezo por la incompatibilidad que se constata entre los siglos iv y ii entre los sistemas astronómicos de esferas homocéntricas de Eudoxo y Calipo, al que podemos añadir el sistema aristotélico25, y el de Hiparco de Rodas. Entre ellos no media ninguna revolución científica, ciertamente. Pero el modelo aparentemente simple de Hiparco de epiciclo y deferente, incluso el de excéntricas, distinto a este, pero geométricamente equivalente a él, elimina todas las entidades teóricas del modelo de Eudoxo y Calipo —por supuesto también las esferas compensadoras del aristotélico y demás— a favor de un modelo nuevo de los movimientos planetarios con sus propias entidades teóricas. Como la experiencia no es capaz de discernir claramente entre ambos26, nos encontramos aquí con un caso típico de infradeterminación empírica de la ciencia en el sentido de Quine. En terminología realista no sería posible decidir cuál de ellos se correspondía con, o representaba, mejor los hechos. Para la disolución de esta situación hubo que esperar a la consolidación de la revolución copernicana. Continúo entonces con la incompatibilidad que se da entre las astronomías geocéntricas y la copernicana tanto a nivel de postulados fundamentales —sustitución por Copérnico de la hipótesis geocéntrica por la heliocéntrica, con el impacto científico y cultural que implicaba— como también por la desaparición de la parafernalia de entidades teóricas como excéntricas, esferas homocéntricas, esferas compensadoras, epiciclos, deferentes, ecuantes27, que son sustituidas por una entidad tan simple como la órbita circular alrededor del Sol. No puede haber ningún sentido aceptable del término ‘mejor’, como pretendía Popper (1994b, 176), que nos permita concebir que el modelo de Copérnico constituye una mejor aproximación a la verdad que el de Ptolomeo. Pues no habiendo elementos comunes entre ambos modelos, ya que son básicamente incompatibles entre sí, el copernicano no puede conceder la más mínima viabilidad al ptolemaico —y por ende a toda la astronomía greco-helínistica— que pueda hacer posible una comparación de sus respectivas verosimilitudes o capacidades representacionales. Una situación parecida se da también entre la teoría de la relatividad especial y general y la mecánica newtoniana. A nivel de postulados fundamentales existe una incompatibilidad teórica flagrante: el princi 25. Sobre las diferencias entre estos sistemas, véase Rivadulla (2003, 21 ss.). 26. No obstante el sistema de Hiparco parecía salvar mejor el fenómeno de la retrogradación de los planetas. En el siglo ii de nuestra era, Claudio Ptolomeo optaría decididamente por él. 27. No establezco deliberadamente ninguna distinción entre los diferentes modelos de la astronomía antigua.

179

META, MÉTODO Y MITO EN CIENCIA

pio relativista de la constancia de la velocidad de la luz en el vacío excluye que esta pueda sumarse o restarse; pero, además, las geometrías subyacentes son completamente incompatibles entre sí: tridimensional euclídea en el caso de Newton, cuatridimensional y no euclídea en el caso del modelo de espaciotiempo de Hermann Minkovski en el de la teoría especial de la relatividad. Además a nivel de las entidades teóricas, conceptos tales como espacio, tiempo y movimiento absolutos y simultaneidad de la mecánica newtoniana acaban siendo abandonados en la teoría de la relatividad, en la que el espacio puede sufrir contracciones y el tiempo dilataciones. Desaparece también en la relatividad general el concepto de fuerza como explicación de los fenómenos gravitacionales, que son explicados en términos de la geometría curvada del espaciotiempo por la presencia de cuerpos masivos, donde los objetos se mueven libremente describiendo trayectorias geodésicas que responden a la curvatura del espaciotiempo en que tales objetos, planetas, estrellas, etc., se encuentran localizados. A mayor abundamiento, el espaciotiempo no solo es deformable y responde a la geometría, sino que incluso el tiempo tiene principio —en el Big Bang— y tiene también un final en el horizonte de agujeros negros, donde se detiene. Es la consecuencia más radical del fenómeno de la dilatación gravitatoria del tiempo28. En fin, la incompatibilidad entre mecánica newtoniana y teoría de la relatividad es tan radical que tampoco es comprensible en qué sentido la teoría de Einstein podría constituir una ‘mejor aproximación a la verdad’ que la de Newton. Pues si la teoría de Einstein fuera verdadera —o aproximadamente verdadera, como gustan de decir los realistas— la de Newton solo podría ser considerada una mera ensoñación física. No hay puntos comunes que permitan una comparación, por mínima que fuese, de sus respectivas verosimilitudes o capacidades ­representacionales29. Ahora bien, como he dicho, la incompatibilidad teórica no se da exclusivamente entre teorías separadas entre sí por una revolución científica. Por ejemplo, la teoría de la relatividad y la mecánica cuántica son también incompatibles entre sí. Ambas se niegan mutuamente respecto del carácter determinista/indeterminista de la física, así como de la exis 28. Cf. Rivadulla (2003, 247). 29. No debo eludir aquí naturalmente la afirmación, tan frecuente entre los filósofos realistas, basada en ciertos criterios de la física teórica contemporánea —que he presentado con detalle en Rivadulla (2004, 110-114 y 120-123)— de la existencia de limites clásicos que convertirían a la física clásica en caso especial o límite de la teoría de la relatividad y de la mecánica cuántica, respectivamente. Pero como he argumentado en Rivadulla (2010a, § 3.2), y en ello abundo en este libro (cap. V § 5.1), las circunstancias que hacen matemáticamente posible la existencia de casos límite están estrictamente prohibidas físicamente, y solo deben entenderse como recomendaciones para aplicar la física clásica en situaciones empíricamente apropiadas.

180

EL INSTRUMENTALISMO CIENTÍFICO

tencia de acción instantánea a distancia: Mientras para la teoría de la relatividad ninguna señal puede transmitirse con velocidad superior a la de la luz en el vacío, la mecánica cuántica admite la transmisión instantánea de señales30. De conflicto trascendental o problema central de la física moderna, califica Brian B. Greene (2001, cap. 1) la incompatibilidad entre la mecánica cuántica y la teoría general de la relatividad: «la forma geométrica ligeramente curvada del espacio, que aparece a partir de la relatividad general, es incompatible con el comportamiento microscópico irritante y frenético del universo que se deduce de la mecánica cuántica». Y como explicita más adelante en el capítulo 5, «Es precisamente en estas escalas pequeñas donde nos encontramos con la incompatibilidad fundamental entre la relatividad general y la mecánica cuántica. La noción de una geometría espacial lisa, que constituye el principio fundamental de la relatividad general, queda destruida por las violentas fluctuaciones del mundo cuántico a escalas de distancias pequeñas. A escalas ultramicroscópicas, la característica principal de la mecánica cuántica —el principio de incertidumbre— está en conflicto directo con la característica fundamental de la relatividad general —el modelo geométrico liso del espacio (y del espacio-tiempo)—». Por ello: «Las ecuaciones de la relatividad general no pueden manejar el irritante frenesí de la espuma cuántica». Esta situación hace que muchos físicos estén «profundamente consternados por el hecho de que los dos pilares fundamentales de la física, hasta donde sabemos, son en lo básico fundamentalmente incompatibles, con independencia de que sea a distancias ultramicroscópicas donde se detecte el problema. Según argumentan estos, dicha incompatibilidad indica la existencia de un fallo esencial en nuestro modo de comprender el universo físico» (estas últimas cursivas son mías, A. R.). La teoría de cuerdas ofrecería para Greene la solución. Pero, como ya hemos visto, esta está lejos de ser una realidad. En términos parecidos se expresaba también mucho antes Eugen Wigner (1995, 591), muy preocupado por la consistencia interna de la física teórica contemporánea: ni la mecánica cuántica se puede aplicar con claridad a sistemas macroscópicos, ni la teoría general de la relatividad a sistemas microscópicos. Y Lee Smolin (2007, 4-5) constata igualmente que mientras en el dominio de la física cuántica ignoramos la gravedad, en el campo de la gravitación y la cosmología ignoramos los fenómenos cuánticos. Para el realista Stathis Psillos (1999, 36-37) situaciones de incompatibilidad interteórica no parece empero que debieran ser particular 30. Refiero brevemente este hecho en Rivadulla (2004, 162) para el caso de los experimentos de Aspect en óptica cuántica.

181

META, MÉTODO Y MITO EN CIENCIA

mente problemáticas: «En una descripción realista de la ciencia, de dos modelos o teorías contradictorios solo uno de ellos es verdadero. Por tanto, si nuestra meta es la verdad, debemos eliminar contradicciones. Esto ocurre o bien rechazando todas excepto una de un conjunto de teorías mutuamente inconsistentes, o bien intentando diseñar un marco que sintetice o unifique teorías aparentemente contradictorias, eliminado la causa del conflicto». El problema es que esta receta no es fácilmente aplicable. Por ejemplo, no existe una teoría consensuada de gran unificación —una teoría cuántica de la gravitación se resiste seriamente a ser formulada— y en dominios más modestos, como la física nuclear, tampoco existe un modelo nuclear unificado. El caso de la incompatibilidad entre modelos de núcleo atómico ofrece precisamente otro ejemplo devastador. Como refiero en Rivadulla (2004, 148-152) la ausencia en física nuclear de una teoría completa del núcleo atómico obliga al manejo de modelos teóricos nucleares. El problema es que tales modelos son incompatibles entre sí. Así, los llamados modelos microscópicos, de partícula individual, o de partícula independiente, se oponen a los denominados modelos macroscópicos o colectivos, los cuales a su vez se subdividen en modelos vibracionales y rotacionales. El caso más característico de los primeros es el modelo de capas, que interpretaría los núcleos atómicos como cebollas, mientras que el caso típico de los segundos es el modelo de gota líquida, que interpretaría los núcleos atómicos como gotas de líquido incompresible. Mientras los primeros dan bien cuenta, o sea, salvan, la existencia de los denominados números mágicos nucleares, los segundos permiten la derivación de la denominada fórmula semiempírica de la masa, muy útil para dar cuenta de la estabilidad de los núcleos y predecir su energía de ligadura. Ahora bien, sucede que esta fórmula no sirve para predecir la existencia de núcleos mágicos31, mientras que los primeros fracasan en la predicción de momentos cuadrupolares eléctricos de los núcleos32, por lo que los físicos nucleares se ven obligados a recurrir a los modelos colectivos tipo gota líquida. En definitiva, los modelos nucleares se revelan como instrumentos o herramientas diseñadas para propósitos muy específicos, para resolver problemas muy concretos de la física nuclear, por lo que no hay en esta disciplina una forma única de representación de lo que es un núcleo atómico. Finalmente, la posibilidad de un modelo unificado eficaz no parece viable. Ferrer Soria (2006, § 3.8), tras afirmar que ambos tipos de modelos describen casos extremos, concluye con la descorazonadora afirmación de que «todos los núcleos pre 31. Núcleos con número de nucleones (protones y/o neutrones) igual a 2, 8, 20, 28, 50, 82 y 126. 32. Estos miden la desviación de los núcleos atómicos respecto de la esfericidad.

182

EL INSTRUMENTALISMO CIENTÍFICO

sentan en mayor o menor medida propiedades que pueden describirse por ambos tipos de modelos». Es como si un núcleo atómico pudiera ser a la vez, o según lo que interese investigar, algo así como una cebolla o una gota de un líquido incompresible. Pero si estos modelos son incompatibles entre sí y están diseñados para propósitos y problemas distintos, entonces no cabe esperar que un modelo nuclear unificado pueda representar fidedignamente a un núcleo atómico. La existencia de incompatibilidad interteórica constituye la amenaza más seria para el realismo científico. Mucho mayor que la metainducción pesimista de Laudan. Pues no tiene sentido pensar que las teorías maduras actuales de la ciencia se hallen más próximas a la verdad que las precedentes, cuando postulados fundamentales y entidades teóricas se niegan mutuamente. Cuando median casos flagrantes de incompatibilidad, es imposible la comparación en términos de convergencia a la verdad. 7. CONCLUSIÓN

El instrumentalismo tiene tras de sí tanta historia como el realismo. La Sección 3 de este capítulo lo deja manifiestamente claro. Pero esto supone que, desde su origen, o sea, desde hace 2.400 años, el pensamiento científico-filosófico de Occidente lleva inmerso en una polémica acerca de qué es eso a lo que llamamos ciencia, cómo nos pone la ciencia en relación con el mundo, qué podemos esperar de esa relación. Aunque muchas de las mentes más preclaras que nos han precedido a lo largo de los siglos pasados se han rebelado contra la idea de que los humanos de nuestra especie podamos entrar en contacto directo con, o conocer, ‘la forma de ser del mundo’, los intentos más acerados y acertados de enfrentarse al realismo son producto del siglo pasado y lo que va del actual, destacando las figuras de Kuhn, Rorty, Laudan y Van Fraassen, por citar al menos aquellos con quienes más me identifico filosóficamente. Pero hasta el momento la filosofía antirrealista —especialmente la de la ciencia— aún no había ofrecido el argumento definitivo. Arthur Fine, que en los pasados años ochenta había declarado muerto al realismo, tampoco lo consiguió. El ave fénix del realismo científico, transustanciado en forma de realismo estructural, surgió de las que para algunos eran ya las cenizas del realismo. Pero también fracasó. Yo mismo contribuí en 2010 a extender su certificado de defunción. Pero aun así, el argumento definitivo contra el realismo aún no se había presentado. Hasta que saltó la evidencia de dónde residía su Talón de Aquiles. Y es que era obvio que si el realismo científico no quería reducirse a un esencialismo ingenuo, preso pues en las redes de un 183

META, MÉTODO Y MITO EN CIENCIA

correspondentismo inhumano, si el realismo quería situarse en la escala humana, abandonando así el punto de vista del ojo de Dios, entonces no le cabía más remedio que decantarse por la idea de que las teorías maduras de la ciencia debían ser aproximadamente verdaderas —nada pues ya de una correspondencia estricta— y que la ciencia converge a la verdad —naturalmente sin poder precisar cómo exactamente, ni en qué circunstancias esta situación pudiera certificarse—. Insospechadamente para las filas realistas, lo que se pensó que debía constituir su tabla de salvación —la idea de que la ciencia converge hacia la verdad— se convirtió en la trampa en que el realismo científico quedó atrapado. Y no porque la metainducción pesimista de Laudan lo hiriese de muerte. Sino porque los realistas, como los tres monos sabios japoneses33, no quisieron ver, ni oír, ni saber nada acerca de la mayor amenaza que se cernía sobre ellos: la existencia de la incompatibilidad interteórica, una circunstancia presente en toda la historia de la ciencia de Occidente. Solo aquellos filósofos que quisieren prestarle atención reconocerían que la viabilidad del realismo científico es incompatible, valga la redundancia, con la existencia de incompatibilidad interteórica en ciencia. Pues si muchas de las teorías que se suceden tras una revolución científica, o que coexisten sin que entre ellas medie revolución alguna, son incompatibles entre sí, entonces la idea de convergencia a la verdad se desvanece. En este capítulo he presentado una variante de la metainducción pesimista de Laudan. He mostrado, centrándome en los modelos teóricos de la física, que el éxito empírico presente no garantiza el éxito futuro. Por lo tanto, à la Laudan, podemos concluir que no deberíamos esperar que nuestros exitosos modelos teóricos actuales vayan a seguir disfrutando de éxito empírico en el futuro. En efecto, tras presentar en la Sección 5.1 sendos ejemplos de lo exitoso que puede llegar a ser el modelo estelar de cuerpo negro, expongo en la sección siguiente la cara y la cruz del modelo gravitacional newtoniano. Finalmente, en las Secciones 5.3 y 5.4 enseño que lo mismo podemos ampliar exitosamente el dominio de aplicación de una teoría, la mecánica estadística clásica en este caso, que vernos obligados a restringir su dominio de aplicación. O sea, que vale lo que hemos venido diciendo: el éxito reconocido de una teoría o un modelo teórico no es ninguna garantía de su éxito futuro. Las construcciones teóricas nos dan una de cal y otra de arena. Permítaseme, para concluir, reflexionar brevemente sobre la tesis de Kuipers (2006) de que la revisión de los dominios de aplicación de teorías apoya al realismo científico, aunque esto sea tangencial para lo que estamos tratando aquí. Los casos de estudio presentados en § 5.3, 33. Mizaru, Kikazaru e Iwazaru.

184

EL INSTRUMENTALISMO CIENTÍFICO

nos enseñan que, cuando se propone una teoría o modelo teórico nuevo, no son conocidas a priori todas sus aplicaciones posibles. Solo a posteriori podemos concluir que un modelo teórico dado es inaplicable en un dominio determinado. Carecemos pues de antemano de razones para sospechar qué no cuenta como aplicaciones propuestas34 del modelo o teoría en cuestión. Por tanto debemos concluir que ni la ampliación exitosa verifica concluyente al modelo o teoría considerados, pero que la restricción de su dominio de aplicación tampoco los refuta sin más. Ahora bien, si restricción no comporta automáticamente refutación, se podría pensar en la posibilidad de fijar de manera tan precisa el dominio de aplicación de una teoría o modelo teórico que no hubiera ninguna duda sobre su verdad. El resultado sería la inmunización de la teoría y/o el modelo teórico. Pero el coste sería que la verdad teórica habría perdido todo interés científico. Hay naturalmente otra estrategia posible, que consiste en responsabilizar al científico del fracaso en el empeño por ampliar la aplicación de la teoría o el modelo teórico hacia dominios empíricos que no son de su competencia. Pero esta estrategia es deshonesta. Como hemos dicho antes, nunca son conocidas de antemano todas las aplicaciones posibles de una teoría. Y además resulta que, incluso si hay ampliaciones exitosas, esto no asegura que el modelo o la teoría no puedan fracasar en el futuro. Sobre todo, como el caso del modelo celeste newtoniano muestra, que falla en dominios en los que debería ser existoso, si pretende ser verdadero. Pues lo que tenemos aquí es algo mucho más serio que una simple restricción de su dominio de aplicación. Aquí no se trata solo de una restricción que lo salvara de la refutación. La cosa es bastante más grave que el mero decir: la responsabilidad del fracaso reside en nosotros, físicos teóricos o experimentales, que hemos excedido el campo de aplicación de la mecánica newtoniana. Pues como he analizado con detalle en Rivadulla (2003, cap. V) este modelo fue incapaz de encarar exitosamente los retos que le presentaban el avance del perihelio de Mercurio, la desviación de la luz por el Sol o el desplazamiento gravitacional hacia el rojo. Para más inri, el modelo gravitacional newtoniano se vio desplazado por una teoría intrínsecamente incompatible con él, la teoría general de la relatividad, que dio cuenta exitosamente de sus fracasos y avanzó situaciones nuevas de la Naturaleza, todas y cada una de las cuales se han ido confirmando rigurosamente. Esto nos enseña también dos cosas. Primera que no podemos considerar a los modelos de la física más que como constructos teóricos 34. Cf. Rivadulla (2006b).

185

META, MÉTODO Y MITO EN CIENCIA

falibles que nos habilitan para habérnoslas predictivamente con, en intervenir a veces también exitosamente en, la Naturaleza. Y que cara al análisis de la viabilidad filosófica del realismo científico, debemos tomar seriamente en cuenta el asunto de la incompatibilidad interteórica, que tan concienzudamente hemos analizado en la sección anterior. Cierro este paréntesis y termino. Laudan sostiene que una teoría puede ser empíricamente exitosa aunque no sea verdadera. De acuerdo. Pero añado que dos o más teorías (o modelos teóricos) pueden ser empíricamente exitosos, aunque sean incompatibles entre sí. A estas alturas en estos tiempos la verdad aún tiene que encontrar su sitio en la ciencia. Si lo hay o lo tiene. Pues si alguna vez lo tuvo hoy por hoy parece haberlo perdido.

186

VII LA PREDUCCIÓN EN EL CONTEXTO DE DESCUBRIMIENTO DE LAS CIENCIAS TEÓRICAS DE LA NATURALEZA

1. INTRODUCCIÓN

Que la inducción, según el uso que Peirce (CP, 5.145) hace de ella, pertenece al contexto de justificación no ofrece dudas: «La inducción consiste en el test experimental de una teoría. [...] Parte de una teoría y mide su grado de acuerdo con los hechos». O, como insiste más adelante (CP, 5.170): «La inducción consiste en partir de una teoría, deducir de ella predicciones de fenómenos, y observar estos fenómenos, a fin de ver cuánto concuerdan con la teoría». Para Peirce la inducción consiste pues en la comprobación experimental de una teoría dada, y mide su grado de acuerdo con la experiencia. Ello le acerca a la lógica inductiva de Carnap, y le convierte en un precursor de la idea carnapiana del grado de confirmación o probabilidad lógica o inductiva de una hipótesis dada. La inducción comparte con la deducción (CP, 5.145), que «nunca puede dar origen a una idea. Tampoco lo hace la deducción», y ambas se relacionan entre sí (CP, 5.171) por cuanto «la deducción puede extraer una predicción que puede ser comprobada (tested) por inducción». Ya he asumido en el capítulo IV que el lugar de la abducción es el contexto de descubrimiento: «La abducción consiste en estudiar hechos e inventar una teoría que los explique» (CP, 5.145). Pero disiento de Peirce sobre que «Todas las ideas de la ciencia llegan a ella por Abducción» (CP, 5.145). Esto nos da ocasión para plantearnos si el razonamiento hipotético-deductivo puede ser usado también en el contexto del descubrimiento científico. A pesar de que para Peirce la deducción nunca puede dar origen a una idea nueva. Los científicos computacionales aseveran reiteradamente que ellos han llenado el espacio dejado libre por los filósofos de la ciencia y les 187

META, MÉTODO Y MITO EN CIENCIA

reprochan su abandono del contexto de descubrimiento. La pregunta ahora es si ha llegado el momento de que los filósofos de la ciencia recuperen el terreno perdido y avancen nuevas posibilidades que ofrece la ciencia computacional. Para responderla es necesario ampliar el espectro de posibilidades del descubrimiento científico. En particular, hay que analizar si además de las inferencias ampliativas típicas hay otras que también introducen ideas nuevas en ciencia. Un concepto más amplio de ‘descubrimiento científico’ y una mayor atención a la ciencia real resultan imprescindibles. Ya Peter Medawar (1974, 289), premio Nobel de Medicina en 1960, apuntaba a la debilidad de la aplicación del razonamiento deductivo en la metodología de la ciencia: «La debilidad del sistema hipotético-deductivo, en cuanto pretenda ofrecer una descripción completa del proceso científico, reside en su renuncia a explicar cómo surgen las hipótesis». Y más recientemente, Thomas Nickles (2008, 446) expresaba su sospecha acerca de la posible aplicación del razonamiento deductivo en tareas de descubrimiento: «Vale la pena tener en cuenta que incluso un argumento deductivo común no necesita ser estéril. Puede ser epistemológicamente ampliativo, aunque no lo sea lógicamente, pues no somos seres lógicamente omniscientes que contemplan todas las consecuencias lógicas de un conjunto de proposiciones». Pero incluso un filósofo de la ciencia había avanzado ya explícitamente la tesis del carácter deductivo del descubrimiento científico. Se trata de Elie Zahar (1983, 244-245), quien sostiene que «el proceso de descubrimiento se apoya ampliamente en argumentos deductivos a partir de principios que subyacen no solo a la ciencia y a la metafísica deductiva sino también a todas las decisiones cotidianas». En pp. 249250 reitera: «A través de ejemplos de la historia de la ciencia propongo mostrar que la lógica del descubrimiento científico no es inductiva, ni que tampoco se parece a la creación artística, sino que, por el contrario, es ampliamente deductiva. [...] A diferencia de Popper pienso que la deducción constituye el elemento más importante en el proceso de invención». La dificultad que entrañaba esta prometedora idea acerca del carácter deductivo del descubrimiento científico residía en el supuesto metafísico de una serie de principios filosóficos y metaprincipios que, a modo de premisas, permiten descubrimiento deductivo. Tales principios serían el Principio de Correspondencia, el Principio de Identidad, el Principio de Razón Suficiente, el Principio de Proporcionalidad de Causa a Efecto. Aunque sus tesis son interesantes, lo que Zahar propone es una teoría metafísica de la naturaleza deductiva del descubrimiento científico con un marcado carácter especulativo y alejado de la intención metodológica que subyace a las inferencias ampliativas en ciencias observacionales de la Naturaleza así como al propio concepto de pre188

LA PREDUCCIÓN EN EL CONTEXTO DE DESCUBRIMIENTO

ducción en la metodología de ciencias teóricas de la Naturaleza, como la física matemática. 2.  QUÉ ES LA PREDUCCIÓN TEÓRICA

Las ciencias físicas son desde el punto de vista metodológico muy distintas del resto de las ciencias naturales. Como se sirven de las matemáticas como herramienta fundamental, lo que ha motivado interesantes discusiones sobre el papel de las matemáticas en las ciencias físicas (cf. Boniolo 2005), el físico teórico puede aplicar a placer el principio leib­niziano de sustitución salva veritate. La salvaguarda de la verdad, o mejor dicho, la legitimidad de las sustituciones realizadas, la garantiza el análisis dimensional, herramienta imprescindible para el manejo en física teórica. Ello le permite al físico jugar con las fórmulas y los símbolos de magnitudes con una osadía extraordinaria, y con un único límite: allí donde los resultados de su juego matemático son susceptibles de contrastación empírica, la Naturaleza tiene el veredicto final sobre la utilidad o el interés del juego. Así, en la metodología de las ciencias físicas sería pensable extender el razonamiento deductivo al contexto de descubrimiento, más allá de su uso ordinario como deductivismo axiomático estricto o como herramienta de comprobación de hipótesis en el contexto de justificación. La viabilidad de este empeño haría reconocible una nueva forma de razonamiento. La denomino preducción teórica o simplemente preducción. La estrategia preductiva en física teórica mostraría que la implementación del razonamiento deductivo en el contexto de descubrimiento no constituye solo una mera sospecha sino que se trata de una fértil realidad. Las primeras palabras de Kant en su Crítica de la razón pura expresan que todos nuestros conocimientos comienzan con la experiencia. Pero si en metodología de la física teórica al menos pudiéramos extender el razonamiento deductivo al contexto de descubrimiento, entonces habría que aceptar que Kant se equivoca, que no todo conocimiento comienza con la experiencia, pues hay conocimientos que se desarrollan a partir de la teoría. El término preducción, tal como yo lo uso, designa la forma de razonamiento que consiste en recurrir a resultados aceptados de la totalidad de la física, a fin de anticipar deductivamente propuestas nuevas por medio de la combinación y manipulación matemática de aquellos. Suponiendo, eso sí, que las sustituciones y combinaciones realizadas sean compatibles con el análisis dimensional1. Preducir un modelo teó 1. El análisis dimensional es la teoría, espléndidamente expuesta por Julio Palacios (1955), cuya aplicación garantiza la homogeneidad de las ecuaciones manejadas en físi-

189

META, MÉTODO Y MITO EN CIENCIA

rico o una hipótesis física significa generar deductivo-matemáticamente una ecuación nueva o un conjunto nuevo de ecuaciones relacionadas, cuyas consecuencias deberían ajustarse bien a las observaciones. La preducción es una implementación del método hipotético-deductivo. Su especificidad reside en que constituye una extensión del mismo al contexto de descubrimiento científico. Un ejemplo muy sencillo va a aclarar lo que digo: La reconstrucción de la deducción teórica, o, si preferimos, de la preducción, de la naturaleza dual, ondulatoria-corpuscular, de los fotones que propuso Einstein. Se consigue simplemente combinando dos resultados previamente aceptados de dos teorías distintas, la relatividad especial y la física cuántica. Según la primera, la energía de partículas de masa nula, por ejemplo fotones, viene dada por E=cp, donde c designa la velocidad de la luz en el vacío, y p el momento lineal o cantidad de movimiento de la partícula. Según Planck, la energía de un fotón responde a la fórmula E = hν , donde h denota el cuanto de acción, y ν la frecuencia del fotón. Pues bien, aplicando el viejo principio de que si dos cantidades son iguales a una tercera entonces son iguales entre sí, y admitiendo por tanto que ambas expresiones de la energía son dimensionalmente homogéneas, resulta que p = h / λ , o λ = h / p , que son las fórmulas que manifiestan el carácter dual de la radiación: el momento (propiedad corpuscular) de un fotón depende inversamente de su longitud de onda (propiedad ondulatoria), o su longitud de onda depende inversamente de su momento. Este es un ejemplo sencillo pero elocuente. En general el teórico tiene siempre a su disposición la física en su conjunto, con todo su arsenal de hipótesis, leyes (empíricas o fenomenológicas, semiempíricas y teóricas) y teorías. O sea, puede permitirse, y en ello consiste buena parte de la actividad teórica, recurrir a las fórmulas aceptadas —resultados aceptados— de cualesquiera teorías o disciplinas de la física, a fin de combinarlas entre sí salva veritate, lo que significa que los dos miembros de toda ecuación resultante de esta combinación sean dimensionalmente homogéneos. Esta forma de la práctica científica, corriente, usual, en física teórica para la anticipación de ideas nuevas, curiosamente no ha atraído la atención de los filósofos de la ciencia. ca teórica. Aunque se debe a J. Fourier la introducción del concepto de dimensión en su Théorie Analytique de la Chaleur, 1822, Section IX, § 160, los primeros desarrollos teóricos del análisis dimensional se atribuyen a Percy Bridgman (1922), quien en capítulo II presenta la teoría de las dimensiones o fórmulas dimensionales de las magnitudes físicas, y en el Apéndice, pp. 110-111, las dimensiones de las magnitudes más comunes. Pero en España el uso del análisis dimensional ya está extendido a finales del siglo xix, como lo muestra el libro del catedrático de la Universidad Central, Fausto Garagarza, Instrumentos y aparatos de física, de 1892, treinta años anterior al de Bridgman, donde entre las páginas 33 y 43 presenta las fórmulas dimensionales de las magnitudes físicas.

190

LA PREDUCCIÓN EN EL CONTEXTO DE DESCUBRIMIENTO

Recapitulo. Consiste para mí la preducción en una forma de razonamiento deductivo que parte de resultados previamente aceptados del acervo teórico, postulados metodológicamente como premisas de un procedimiento inferencial. Estas premisas pueden proceder de diferentes teorías o disciplinas de la física teórica. Y cualquier resultado aceptado puede servir de premisa. En el bien entendido que aceptado no implica aceptado en cuanto verdadero. Como el razonamiento preductivo procede a partir de resultados aceptados de diferentes teorías y/o disciplinas de la física, tanto teórica como experimental, podemos concebir la preducción como una forma de razonamiento interteórica o transversal teórica. Este uso le confiere al razonamiento deductivo la capacidad de creatividad en física y justifica que introduzcamos el término de preducción para distinguir la aplicación del razonamiento deductivo en el contexto de descubrimiento científico de su uso en el contexto de justificación, o en el de explicación científica. Lo dicho evoca claramente la noción de método hipotético-deductivo. Pero la especificidad de la preducción reside en que mientras el uso ordinario del método hipotético-deductivo va unido o bien a su aplicación intrateórica en el método axiomático-deductivo, o bien se le sitúa en el contexto de contrastación de teorías (contexto de justificación), o incluso en el de la explicación teórica, yo propongo extender el razonamiento deductivo también al contexto de producción de ideas (contexto de descubrimiento). Reitero pues que la preducción es la forma de razonamiento deductivo en el contexto de descubrimiento consistente en recurrir a los resultados ya aceptados pertinentes al caso del conjunto de la física, a fin de anticipar resultados nuevos por combinación y manipulación matemática transversal o cruzada, e.d., interteórica, de aquellos de forma compatible con el análisis dimensional2. 3.  UNA ILUSTRACIÓN DE RAZONAMIENTO PREDUCTIVO EN FÍSICA TEÓRICA

Los físicos aplican el razonamiento preductivo de forma natural y espontánea a fin de anticipar hipótesis, ideas o resultados aún no disponibles hasta el momento, a partir de la combinación matemática de resultados aceptados del acervo teórico previamente disponibles. Suficientes ejemplos sobre preducción teórica extraídos de la física teórica que contribuyen a ilustrar esta idea pueden consultarse en Rivadulla (2008, 2. Ángel Nepomuceno (2014, 127-128) se hace eco también de mi concepto de preducción teórica. En unas páginas veremos cómo ya en 2012 había ofrecido una presentación en lógica de contextos del esquema de razonamiento preductivo.

191

META, MÉTODO Y MITO EN CIENCIA

2009a y 2009b, 2010b). A continuación presento uno más procedente de la astrofísica estelar. La astrofísica estelar constituye una disciplina particularmente fértil en procesos preductivos de anticipación de ideas nuevas. La razón es bien simple. La ausencia de una teoría astrofísica obliga al teórico a recurrir a la totalidad de la física disponible, a fin de combinar resultados aceptados de manera ingeniosa. ¿De qué otra forma podríamos formarnos una idea acerca del interior del Sol, y en general de los interiores estelares? Arthur Eddington (1926, 1. Mis cursivas, A. R.) asevera claramente que aunque «A primera vista podría parecer que el interior profundo del Sol y las estrellas es menos accesible a la investigación científica que cualquier otra región del universo [...] el interior de una estrella no está en absoluto completamente al margen de comunicación. Un campo gravitacional emana de él [...]; además energía radiante de su interior caliente logra alcanzar la superficie después de muchas deflexiones y transformaciones y empieza a viajar a través del espacio. Solo a partir de estos dos detalles puede comenzar una cadena de deducciones que es quizás la más fiable porque solo es posible emplear en ella las reglas más universales de la naturaleza —la conservación de la energía y del momento, las leyes de la probabilidad y valores medios, la segunda ley de la termodinámica, las propiedades fundamentales del átomo, etc.—. No hay ninguna incertidumbre más esencial en el conocimiento así obtenido que la que hay en la mayoría de las inferencias científicas». O sea, Eddington está refrendando que la mayor parte de las inferencias en física proceden por la combinación deductiva de resultados aceptados previamente disponibles de la totalidad de la física. Esto es lo que denomino preducción teórica. La determinación de la constitución interna de las enanas blancas es un caso paradigmático de razonamiento preductivo en astrofísica estelar. Las enanas blancas son estrellas con aproximadamente la masa del Sol y el tamaño de la Tierra. Estas circunstancias plantean el problema de cómo pueden soportar una presión tan grande y si hay algún límite para su masa. Como no existe ninguna teoría capaz de enfrentarse a este problema, podemos empero combinar varias teorías: física clásica, mecánica cuántica, física atómica y teoría de la relatividad a fin de preducir un modelo teórico de enana blanca que nos permita habérnoslas científicamente con este tipo de objetos. Al respecto, resumidamente seguimos los pasos siguientes (cf. Ostlie y Carroll 1996, 580 ss.): 1.  Partimos del supuesto de que una enana blanca es esféricamente simétrica y aplicamos la ecuación de equilibrio hidrostático de la física clásica dP / dr = − ρ g , que expresa el gradiente de presión en función de la densidad ρ del gas y la aceleración g = GN M / r 2 de la gravedad a distancia r del centro de la estrella. El resultado es dP / dr = −(4π GN ρ 2 r ) /3. 192

LA PREDUCCIÓN EN EL CONTEXTO DE DESCUBRIMIENTO

2.  En la fórmula anterior, tras pasar dr al segundo miembro, integramos seguidamente sobre todas las presiones a la izquierda y sobre todas las distancias a la derecha para obtener P = (2π GN ρ 2 R 2 ) /3, que es la presión que contrarrestaría a la fuerza de la gravedad y posibilitaría que la estrella no colapsara. 3.  Sometida la enana blanca a la acción de fuerzas diferentes: presión y gravedad actuando en direcciones opuestas, la cuestión a que nos enfrentamos ahora es la de cómo la estrella es capaz de mantenerse en un estado de equilibrio hidrostático. Para dar respuesta a esta pregunta combinamos la física atómica (en particular el principio de exclusión de Pauli, que prohíbe que dos o más electrones, que son fermiones, tengan los mismos números cuánticos en un mismo estado), con el valor de la energía de Fermi para gases de electrones completamente degenerados, y las relaciones de indeterminación de Heisenberg de la mecánica cuántica. De esta forma obtenemos el valor buscado de la presión debida a la degeneración electrónica P ≈ (c / 3)(Zρ / AmH )4 /3 . 4.  Una vez en equilibrio hidrostático, la última pregunta es la de cuánta materia puede resistir esta presión. Como en el caso de velocidades relativistas la velocidad máxima de un electrón es c, igualando la presión de degeneración electrónica con la fórmula de la presión en 2. resulta M Ch ≈ (c /GN )(Z / AmH )2 , que da la masa límite de Chandrasekhar buscada para enanas blancas. Dale A. Ostlie y Bradley W. Carroll (1996, 590. Mis cursivas, A. R.) se manifiestan de modo muy elocuente respecto a esta fórmula: «Esta fórmula es verdaderamente notable. Contiene tres constantes fundamentales —  , c, y G— que representan los efectos combinados de la mecánica cuántica, la relatividad y la gravitación newtoniana en la estructura de una enana blanca». Es pues claro que si queremos proponer (inventar o descubrir) modelos de interiores de estrellas no tenemos más remedio que combinar resultados apropiados previamente disponibles de disciplinas diferentes de la física, a fin de derivar una ecuación, o un conjunto de ecuaciones relacionadas, que sean relevantes para el objeto de la investigación. Esto es preducción teórica. Tomemos otro ejemplo de preducción en astrofísica estelar. Hacer descubrimientos sobre el interior de estrellas de la denominada secuencia principal consiste en generar deductivamente a partir del acervo disponible en física —esto es, preducir— un modelo teórico de interiores estelares capaz de dar cuenta de las observaciones. Este modelo consta precisamente de cinco ecuaciones diferenciales, cinco gradientes —es decir, derivadas respecto de la posición o distancia, de la presión, la masa, la luminosidad y la temperatura (doble) (cf. Ostlie y Carroll 1996, cap. 10)—, de las que las más interesantes desde un punto de vista me193

META, MÉTODO Y MITO EN CIENCIA

todológico son las ecuaciones del gradiente de equilibrio hidrostático y de la temperatura. En ambos casos, para que los modelos teóricos sean lo más manejables posible, conviene usar ciertas simplificaciones: la de estrella estática y esféricamente simétrica, para la ecuación de equilibrio hidrostático, a las que añadimos las de condiciones de cuerpo negro y expansión adiabática para la obtención del gradiente de temperatura. El proceso preductivo que lleva a la ecuación de equilibrio hidrostático resulta de la combinación de tres teorías: la segunda y tercera leyes y la ley de gravitación de la mecánica newtoniana, la ley de distribución de Maxwell-Boltzmann de la presión de un gas ideal de la mecánica estadística clásica, y la ley de radiación de Planck de un cuerpo negro de la física cuántica. Por su parte, la preducción del gradiente de temperatura procede también de la combinación de tres teorías: la física clásica para el gradiente de temperatura de la transferencia radiativa (combinación de la ecuación de transferencia radiativa con la ecuación de la presión de la radiación del cuerpo negro), y la mecánica estadística clásica, así como la termodinámica de procesos adiabáticos para la obtención del gradiente de temperatura de un gas que se expande ­adiabáticamente. El modelo teórico de interior estelar se completa con la ecuación de conservación de la masa y la ecuación del gradiente de luminosidad que depende de la energía generada por procesos nucleares y gravitacionales. 4.  TESIS GENERALES ACERCA DE LA PREDUCCIÓN TEÓRICA

Centrándonos en la física teórica, que constituye el mejor exponente de la aplicación del razonamiento preductivo en ciencia, podemos afirmar: 1. La preducción consiste en una forma de razonamiento deductivo que parte de resultados previamente aceptados del acervo teórico disponible, pero no asumidos necesariamente como verdaderos, que se usan como como premisas de ulteriores inferencias. 2.  Estas premisas pueden proceder de diferentes teorías o disciplinas físicas. 3. La preducción es el procedimiento por el que hipótesis, leyes y modelos teóricos son anticipados, combinando, de forma compatible con el análisis dimensional, tales resultados previamente aceptados como premisas. 4. Que el razonamiento preductivo anticipa resultados nuevos se debe a que es un proceso inferencial que procede intertéorica o transversalmente, implicando a toda la física teórica disponible. Si no se ha tenido en cuenta hasta ahora es porque el razonamiento deductivo se ha circunscrito al ámbito intrateórico en la metodología de la ciencia. Los 194

LA PREDUCCIÓN EN EL CONTEXTO DE DESCUBRIMIENTO

resultados así obtenidos no podían ser considerados ‘nuevos’, pues estaban ‘implícitos’ en los postulados de partida. 5.  La preducción difiere de la abducción en que los resultados preducidos no vienen sugeridos por los datos, sino que proceden deductivamente a partir del acervo teórico disponible. Mientras la abducción (al igual que la inducción) es una forma de inferencia ampliativa, la preducción es una inferencia anticipativa. 6.  Ignacio Hernández, Ángel Nepomuceno y Enrique Sarrión (2012, 26) ofrecen las reglas de inferencia en lógica de contextos de los procesos inductivos y abductivos. Generosamente, estos autores incluyen también a la preducción, que, por vez primera se ve reconocida como un procedimiento inferencial susceptible de tratamiento lógico. Mientras la abducción (regla de Peirce) adquiere la forma siguiente:

[X ](ϕ → ψ ); [X ]ψ , Xψ

la regla de preducción es: «dados [Y1]ψ 1, [Y2 ]ψ 2 , [Yn ]ψn , que abreviamos como ([Yi ]ψi )i ≤ n , y ψ como abreviatura de ψ 1 → (ψ 2 → ...(ψ n −1 → ψ n )) —equivalente a la conjunción de las fórmulas—,

([Yi ]ψi )i≤n ; [X ](ψ i → (χ → ϕ )) », X ϕ

es la forma que adquiere la preducción. En ambas reglas [X ]ψ designa que «en el contexto X vale la fórmula ϕ », mientras que X ϕ = ¬[X ]¬ϕ designa que «en el contexto X, ϕ es posible». 5. PREDUCCIÓN COMPUTACIONAL. CREATIVIDAD AUTOMÁTICA EN FÍSICA TEÓRICA

Saso Dzeroski et al. (2007, 3-4) definen el descubrimiento científico como «el proceso por el que un científico crea o encuentra algún conocimiento desconocido hasta entonces, como por ejemplo una clase de objetos, una ley empírica o una teoría explicativa. [...] Un aspecto definitorio del descubrimiento es que el conocimiento sea nuevo y previamente desconocido». Los científicos computacionales parecen tener menos escrúpulos que los filósofos de la ciencia respecto al papel de la deducción en el 195

META, MÉTODO Y MITO EN CIENCIA

contexto de descubrimiento científico. P. e., Shrager y Langley (1990, 5-9) destacan entre las actividades científicas la formación deductiva de leyes (deductive law formation), «Por ejemplo la teoría general de la relatividad de Einstein condujo a la inferencia de una ley sobre la órbita de Mercurio». Este es ciertamente un claro ejemplo de cómo una ley puede derivarse de forma puramente intrateórica, como también lo son la obtención de la famosa ley de Einstein en T.E.R. E=mc2, o las leyes de distribución de Maxwell-Boltzmann, etcétera. La posibilidad del descubrimiento deductivo en ciencia deja al filósofo a las puertas de la idea de preducción como forma interteórica o transversal teórica de producción de nuevos resultados científicos. Como hemos visto en las secciones anteriores, la deducción interteórica o transversal teórica es una forma de razonamiento por medio de la cual muchos resultados nuevos previamente desconocidos son anticipados en física teórica. Concluyo avanzando la hipótesis de la preducción computacional. Esta hipótesis la presenté por vez primera en el VII Congreso de la Sociedad Española de Lógica, Metodología y Filosofía de la Ciencia (cf. Rivadulla 2012c, 501-503). La preducción computacional es preducción teórica automática. La hipótesis computacional de la preducción teórica supone asumir la posibilidad de automatizar mecanismos de preducción. Esta hipótesis se apoya en la existencia desde los años setenta del siglo pasado de métodos computacionales para la automatización de descubrimientos científicos. Como ha quedado reflejado en el capítulo II, la aplicación de métodos de IA al descubrimiento científico permite la automatización de procesos inductivos y abductivos. La preducción computacional no parece pues descabellada. La preducción automática facilitaría la anticipación de resultados nuevos en física teórica, y por tanto la creatividad científica deductiva por medios computacionales. El desarrollo de la preducción computacional es una tarea técnica que debe ser abordada por los científicos computacionales. El papel del filósofo de la ciencia se limita a señalar su mera posibilidad, a saber: ampliar el desarrollo de modelos o sistemas computacionales de descubrimiento científico, más allá de los procesos ampliativos como los inductivos y abductivos, al campo de las inferencias anticipativas como la preducción teórica. Este es el contenido de la hipótesis computacional de la preducción teórica. Si esta posibilidad se puede implementar es algo que está en la mano de los científicos computacionales, que puedan desarrollar razonadores deductivos capaces de llevarla a cabo.

196

LA PREDUCCIÓN EN EL CONTEXTO DE DESCUBRIMIENTO

6. CONCLUSIÓN

La preducción difiere radicalmente de la abducción por el hecho de que los resultados preducidos no vienen sugeridos por los datos observacionales disponibles, sino que se obtienen deductivamente a partir del acervo teórico disponible. Esto ofrece ocasión para proclamar: 1.  La tesis de complementariedad entre abducción y preducción Mientras la abducción es la forma preferida de razonamiento en las ciencias naturales observacionales, la preducción lo es, si bien no es la única, en el contexto de descubrimiento de las ciencias teóricas. De manera que ambas cubren ampliamente el espectro creativo en las ciencias de la Naturaleza. 2.  La falibilidad de las inferencias abductivas y preductivas 2.1.  Las hipótesis abducidas están sometidas al requisito de la prueba de evidencia adicional. El razonamiento abductivo no excluye pues la posibilidad de que nuevos datos puedan aparecer en detrimento de las hipótesis resultantes, que obliguen a revisarlas o incluso a sustituirlas por otras nuevas, las cuales deben ser compatibles tanto con los datos antiguos como con los nuevos. 2.2.  En el caso de la preducción, las hipótesis, modelos y demás resultados preducidos, dependen de la totalidad del acervo teórico disponible, que no es asumido automáticamente como verdadero. Nuevos resultados anticipados preductivamente pueden fracasar empíricamente. La preducción es pues una forma de producir hipótesis que nos permitan manejarnos predictivamente de modo falible con la Naturaleza. 2.3.  La falibilidad de la abducción se debe al paso ampliativo que supone el salto de lo empírico a lo hipotético. En la preducción no hay salto. Todo permanece en el nivel teórico. Pero las premisas en que se apoya el razonamiento preductivo pueden ser falsas. 3.  El mito del método ¿Hay un método propio y exclusivo de la ciencia que haga de esta una actividad distinguible de las demás actividades humanas? ¿Hay un genuino método único de descubrimiento científico? Descartamos la inducción, la más rancia de las formas de razonamiento científico, como forma lógicamente válida para la inferencia de leyes y principios, y cuestionamos seriamente su versión probabilista. Pero también descartamos la legitimidad lógica de la abducción. Sin 197

META, MÉTODO Y MITO EN CIENCIA

embargo hemos constatado que las ciencias naturales observacionales aplican el razonamiento abductivo para la propuesta de hipótesis explicativas. De manera que, aunque no constituya una forma inferencial lógicamente válida, su uso está más que extendido. O sea, que si no queremos ser normativistas y prescribir cómo ha de ser la ciencia, sino que entendemos que nuestra tarea como filósofos reside en aceptar la ciencia tal como se nos muestra, a fin de investigar la metodología que ella emplea, entonces debemos asumir que la abducción no puede ser sino una estrategia de razonamiento, por virtud de la cual proponemos hipótesis a fin de manejarnos científicamente con el mundo. Por eso en algún momento la hemos denominado como inducción razonable. Frente a la lógica del descubrimiento, la abducción se revelaría como una estrategia de descubrimiento. Como un ars inveniendi. Lo que la sitúa al margen de consideraciones acerca de su validez o invalidez lógica. Además, en cuanto estrategia se muestra claramente como una forma falible de manejarnos con el mundo, ya que los resultados de aplicar esta estrategia, es decir, las hipótesis abducidas, pueden ser erróneos. Cosa que el propio Peirce (CP, 2.777) reconoce: «La hipótesis que [la abducción] problemáticamente concluye con frecuencia es totalmente falsa, y el procedimiento no necesita llevarnos siempre a la verdad». Esto nos da ocasión para salvar también a la inducción, no por vía lógica, sino considerándola también una estrategia de descubrimiento, es decir una forma diferente de ars inveniendi. Recordemos que el propio Newton no concebía a la inducción como una forma inferencial demostrativa. Pero ello no era obstáculo para que se sirviera de ella a fin de ‘descubrir’ leyes importantes de la física. O sea, la inducción debía ser también para Newton una estrategia de descubrimiento, y además falible, pues la inducción admite excepciones (cf. Rivadulla 2004, 35-36). La falibilidad es igualmente consustancial con la actitud crítica de Popper, para quien las hipótesis y teorías de la ciencia nunca superan el estatus conjetural (cf. Rivadulla 1986, 295-301). Por consiguiente, la lógica del descubrimiento científico de Popper no puede serlo en sentido estricto. La actitud crítica en ciencia no es en definitiva sino otra estrategia más, la del ensayo y el error, por medio de la cual se proponen hipótesis tentativas que nos permiten habérnoslas predictivamente de modo falible con el mundo. Finalmente, la preducción, aunque se trata de una aplicación del razonamiento deductivo al contexto de descubrimiento, también constituye una práctica o estrategia inferencial que nos facilita la propuesta o anticipación de hipótesis falibles para nuestro manejo predictivo con la Naturaleza. 198

LA PREDUCCIÓN EN EL CONTEXTO DE DESCUBRIMIENTO

No hay pues un método científico seguro, sino muchos métodos falibles, perfectamente especializados para disciplinas concretas, con lo que el mito del método se muestra en toda su crudeza. Abducción y preducción, por ejemplo, son diferentes estrategias que sirven de vehículo a la creatividad científica. En esta tarea ambas se complementan. De ahí que podamos hablar de una tesis de complementariedad entre abducción y preducción. En general, la metodología científica es variada. Depende de su implementación en contextos de validación o de creatividad, en ciencias observacionales o teóricas, naturales o sociales.

199

BIBLIOGRAFÍA

Aguilar Peris, A. (1989): Curso de Termodinámica, Alhambra-Longman, Madrid. Aliseda, A. (2006): Abductive Reasoning. Logical Investigations into Discovery and Explanation, Springer, Dordrecht. Allard, G. (1988): «Génesis y desarrollo de la termodinámica», en Taton, R., Historia general de las ciencias, Destino-Orbis, Barcelona. Arsuaga, J. L. (2013): «Los otros», en El País. Sociedad, 4 de diciembre. Arsuaga, J. L. y Martínez, I. (2006): La especie elegida. La larga marcha de la evolución humana, Temas de Hoy, Madrid. Arsuaga, J. L. et al. (2013): «A mitochondrial genome sequence of a hominin from Sima de los Huesos»: Nature 504, Letter. Benítez, A. (2011): Fundamentos de Inteligencia Artificial. Libro segundo: Inteligencia Artificial clásica, Escolar y Mayo, Madrid. Bermúdez de Castro, J. M. (2002): El chico de la Gran Dolina. En los orígenes de lo humano, Crítica, Barcelona. Boniolo, G. et al. (2005): The Role of Mathematics in Physical Sciences. Interdisciplinary and Philosophical Aspects, Springer, Dordrecht. Boyd, R. (1984): «The Current Status of Scientific Realism», en Leplin, J. (ed.), Scientific Realism, University of California Press, Berkeley. — (21993): «Metaphor and theory change: What is ‘metaphor’ a metaphor for?», en Ortony, A., Metaphor and Thought, Cambridge University Press, Cambridge. Braithwaite, R. B. (1955): Scientific Explanation, Cambridge University Press, Cambridge. Brandom, R. (ed.) (2000): Rorty and His Critics, Blackwell Publishers, Malden, MA. Bridgman, P. W. (1922): Dimensional Analysis, Yale University Press, New Haven. Ed. revisada, 1946. Brown, J. R. (1994): Smoke and Mirrors. How science reflects reality, Routledge, London. Bunge, M. (1972): Teoría y realidad, Ariel, Barcelona.

201

META, MÉTODO Y MITO EN CIENCIA

— (1973): Philosophy of Physics, D. Reidel, Dordrecht. Callaway, E. (2013): «Hominin DNA baffles experts. Analysis of oldest sequence from a human ancestor suggests link to mystery population»: Nature 504. Carnap, R. (1966): Philosophical Foundations of Physics, Basic Books, New York. Carnap, R., Hahn, H. y Neurath, O. (1929): Wissenschaftliche Weltauffassung Der Wiener Kreis, Veröffentlichungen des Vereines Ernst Mach, Artur Wolf Verlag, Wien. Reimpr. en Schlichert, H. (ed.), Logischer Empirismus - Der Wiener Kreis, Wilhelm Fink, München, 1975. Versión española, «La concepción científica del mundo. El Círculo de Viena»: Redes. Revista de estudios sociales de la ciencia 9/18 (2002), 105-149. Cartwright, N. (1983): How the Laws of Physics Lie, Clarendon Press, Oxford. — (1994): Nature’s Capacities and their Measurement, Clarendon Press, Oxford. Chakravarty, A. (1998): «Semirrealism»: Stud. Hist. Phil. Sci. 29/3, 391-408. Chalmers, A. (1998): ¿Qué es esa cosa llamada ciencia?, Siglo XXI, Madrid. Colodny, R. G. (ed.) (1966): Mind and Cosmos. Essays in Contemporary Science and Philosophy, University of Pittsburgh Press. Copérnico, N. (1543): Sobre las Revoluciones de los Orbes Celestes. Edición preparada por C. Mínguez y M. Testal, Editora Nacional, Madrid, 1982. Dewey, J. (1925): «La evolución del pragmatismo norteamericano» (orig. francés, 1922). Reimpreso como cap. II de J. Dewey, La miseria de la epistemología. Ensayos de pragmatismo, ed. de Á. M. Faerna, Biblioteca Nueva, Madrid, 2000. — (1929): The quest for certainty: a study of the relation of knowledge and action, Balch & Co., Minton. Versión española, La busca de la certeza: un estudio de la relación entre el conocimiento y la acción, FCE, México, 1952. Diéguez, A. (1998): Realismo científico. Una introducción al debate actual en filosofía de la ciencia, Universidad de Málaga, Málaga. — (2005): Filosofía de la Ciencia, Biblioteca Nueva-Universidad de Málaga, Madrid. Dirac, P. A. (1997): «La concepción física de la naturaleza»: Investigación y Ciencia, Temas 10, 4-12. Duhem, P. (1906): La Théorie Physique. Son Objet et sa Structure, Chévalier & Rivière, Paris. — (1908): ΣΩZEIN TA ΦAINOMENA: Essai sur la notion de théorie physique de Platon à Galilée, Hermann et Fils. Versión inglesa, To save the phenomena. An Essay on the idea of physical theory from Plato to Galileo. Reimpr., Midway, 1985. Reed. francesa, Librairie Philosophique J. Vrin, Paris, 1990. Dzeroski, S., Langley, P. y Todorovski, L. (2007): «Computational Discovery of Scientific Knowledge», en Dzeroski, S. y Todorovski, L. (eds.), Computational Discovery of Scientific Knowledge. Introduction, Techniques, and Applications in Environmental and Life Sciences, LNAI 4660, Springer, Berlin/Heidelberg. Echeverría, J. (1995): Filosofía de la Ciencia, Akal, Madrid. Eddington, A. S. (1926): The Internal Constitution of the Stars, Cambridge University Press, Cambridge. Einstein, A. (1914): «Principios de física teórica», en Íd., Mis ideas y opiniones, Bon Ton, Barcelona, 2000.

202

BIBLIOGRAFÍA

— (1917): Über die spezielle und allgemeine Relativitätstheorie, Vieweg, Braunschweig. Versión española, Sobre la teoría de la relatividad especial y general, Alianza, Madrid, 1994. — (1927): «La mecánica de Newton y su influencia en el desarrollo de la física teórica», en Íd., Mis ideas y opiniones, Bon Ton, Barcelona, 2000. — (1936): «Física y realidad», en Íd., Mis ideas y opiniones, Bon Ton, Barcelona, 2000. — (1992): Notas autobiográficas, Alianza, Madrid. Einstein, A., Podolski, B. y Rosen, N. (1935): «Can Quantum-Mechanical Description of Physical Reality be Considered Complete?»: Physical Review 47, 777-780. Elena, A. (1985): Las quimeras de los cielos, Siglo XXI, Madrid. Ferrer Soria, A. (2006): Física nuclear y de partículas, Universitat de Valencia, Valencia. Feyerabend, P. K. (1964): «Realism and Instrumentalism», en Bunge, M. (ed.), The Critical Approach to Science and Philosophy, Humanities Press. Reimpreso como «Realismus und Instrumentalismus: Bemerkungen zur Logik der Unterstützung durch Tatsachen», cap. 5 de Feyerabend, Der wissenschaftliche Realismus und die Autorität der Wissenschaften, Vieweg, Braunschweig, 1978. Fine, A. (1984): «The Natural Ontological Attitude», en Leplin, J. (ed.), Scientific Realism, University of California Press, Berkeley. Reimpreso con ligeras modificaciones en Fine, A., The Shaky Game. Einstein, Realism and the Quantum Theory, University Press, Chicago, 1986. Reimpreso en Papineau, D., The Philosophy of Science, Oxford University Press, Oxford, 1996. Flach, P. A. y Kakas, A. C. (eds.) (2000): Abduction and Induction. Essays on their Relation and Integration, Kluwer Academic Publishers, Dordrecht. Freeman, E. y Skomilowski, H. (1974): «The Search for Objectivity in Peirce and Popper», en Schilpp, A. (ed.), The Philosophy of Karl Popper, Open Court, La Salle, Ill. French, S. y Ladyman, J. (2003): «Remodeling Structural Realism: Quantum Physics and the Metaphysics of Structure»: Synthese 136, 31-56. Fuertes Herreros, J. L. (1996): «Filosofía y ciencia en el Barroco. Sobre el Pharus Scientiarum de Sebastián Izquierdo», en Jiménez Moreno, L. (coord.), La Universidad Complutense Cisneriana. Impulso filosófico, científico y literario. Siglos xvi y xvii, Editorial Complutense, Madrid. Galilei, G. (1983): Consideraciones sobre la opinión copernicana, en Copérnico, N., Digges, T. y Galilei, G., Opúsculos sobre el movimiento de la Tierra, Alianza, Madrid, 1983. Traducción, introducción y notas de A. Elena. Garagarza, F. (1892): Instrumentos y aparatos de física, Librería de la Viuda de Hernando y Cía., Madrid. Greene, B. (2001): El universo elegante. Supercuerdas, dimensiones ocultas y la búsqueda de una teoría final, Crítica/Planeta, Barcelona. Hacking, I. (1996): Representar e intervenir, Paidós, Barcelona. Hanson, N. R. (1958): Patterns of Discovery. An inquiry into the conceptual foundations of science, Cambridge University Press, Cambridge. Harman, G. (1965): «The Inference to the Best Explanation»: The Philosophical Review 74/1, 88-95.

203

META, MÉTODO Y MITO EN CIENCIA

— (1968): «Knowledge, Inference and Explanation»: American Philosophical Quarterly 5/3, 164-173. Hawking, S. (1988): Historia del tiempo, Crítica, Barcelona. — (2002): El universo en una cáscara de nuez, Crítica, Barcelona. Helmholtz, H. (1922): Vorlesungen über Theoretische Physik, vol. VI: Vorlesungen über Theorie der Wärme, Verlag von Johann Ambrosius Barth, Leipzig. En edición de F. Richarz, a partir de notas del maestro de 1890, notas taquigráficas de 1893, entre otros. Hernández, I., Nepomuceno, A. y Sarrión, E. (2012): «La inferencia científica relativa al contexto», en Fernández Moreno, L., Salguero, F. y Barés, C. (eds.), Ensayos sobre lógica, lenguaje, mente y ciencia, Alfar, Sevilla. Huang, K. (21983): Statistical Mechanics, John Wiley & Sons, New York. Josephson, J. R. y Josephson, S. G. (eds.) (1994): Abductive Inference. Computation, Philosophy, Technology, Cambridge University Press, New York. Jou, D. (1987): «El desarrollo de la termodinámica en el siglo xix», en Historia de la física en el siglo xix, Real Academia de Ciencias Exactas, Físicas y Naturales, Madrid, 11-40. Kepler, J. (1596): El secreto del universo. Traducción, introducción y notas de E. Rada García, Alianza, Madrid, 1992. King, R. D. et al. (2009): «The Automation of Science»: Science 324, 85-89. Kitcher, P. (2001): El avance de la ciencia, UNAM, México. Kraft, V. (1950): Einführung in die Philosophie. Philosophie, Weltanschauung, Wissenschaft, Springer, Wien. Kuhn, T. S. (1959): «Energy Conservation as an Example of Simultaneous Discovery», en Marshall, C. (ed.), Critical Problems in the History of Science, University of Wisconsin Press, Madison. Reimpr. en Kuhn, T. S., The Essential Tension, University of Chicago Press, Chicago/London, 1977, 66-104. — (1960): «Engineering Precedent for the Work of Sadi Carnot». Actes du IXe Congrès d’Histoire des Sciences, 530-535. Asociación para la Historia de la Ciencia Española, Barcelona, 1980. Kuipers, T. (2000): From Instrumentalism to Constructive Realism. On some relations between Confirmation, Empirical Progress and Truth Approximation, Kluwer Academic Publishers, Dordrecht. — (2006): «Theories Looking for Domains. Fact or Fiction? Reversing Structuralist Truth Approximation», en Magnani, L. (ed.), Model Based Reasoning in Science and Engineering. Cognitive Science, Epistemology, Logic, King’s College Publication, London. Lakatos, I. (1968): «Changes in the Problem of Inductive Logic», en Lakatos, I. (ed.), The Problem of Inductive Logic, North-Holland, Amsterdam. Langley, P. (2000): «The Computational Support of Scientific Discovery»: Int. Journal of Human-Computer Studies 53/3, 393-410. Langley, P., Simon, H., Bradshaw, G. L., y Zytkow, J. M. (1987): Scientific Discovery. Computational explorations of the Creative Processes, The MIT Press, Cambridge, MA. Laudan, L. (1984): «A Confutation of Convergent Realism»: Philosophy of Science 48 (1981), 19-49. Reimpreso en Leplin, J. (ed.), Scientific Realism, University of California Press, Berkeley, 1984. — (1990): Science and Pragmatism, University of Chicago Press.

204

BIBLIOGRAFÍA

— (1998): «Epistemología, realismo y evaluación de teorías», en Velasco Gómez, A. (coord.), Progreso, pluralismo y racionalidad en ciencia, UNAM, México. Le Pichon, X. (2001): «My Conversion to Plate Tectonics», en Oreskes, N. (ed.), Plate Tectonics, Westview Press, Boulder, Col. Lilley, J. S. (2007): Nuclear Physics. Principles and Applications, John Wiley & Sons, Chichester, New York. Longair, M. (1984): Theoretical Concepts in Physics, Cambridge University Press, Cambridge. Lorenzo, C. (2005): «Primeros homínidos. Géneros y especies», en Carbonell, E. (coord.), Homínidos. Las primeras ocupaciones de los continentes, Ariel, Barcelona. Losee, J. (1980): A Historical Introduction to the Philosophy of Science, Oxford University Press, Oxford. Magnani, L. (2001): Abduction, Reason and Science. Processes of Discovery and Explanation, Kluwer Academic/Plenum Publishers, New York. Martínez, I. et al. (2007): «Human hyoid bones from the middle Pleistocene site of the Sima de los Huesos (Sierra de Atapuerca, Spain)»: Journal of Human Evolution XX, 1-7. Martínez, V. J. et al. (2004): Astronomía Fundamental, Universitat de Valencia, Valencia. McKenzie, D. (2001): «Plate Tectonics: A surprising way to start a scientific career», en Oreskes, N. (ed.), Plate Tectonics, Westview Press, Boulder, Col. Medawar, P. (1974): «Hypotheses and Imagination», en Schilpp, A. (ed.), The Philosophy of Karl Popper, Open Court, La Salle, Ill., 274-291. Munévar, G. (1998): Evolution and the Naked Truth. A Darwinian approach to philosophy, Ashgate Publ., Aldershot. Nagel, E. (1961): The Structure of Science. Problems in the Logic of Scientific Explanation, Routledge & Kegan Paul, London. Nepomuceno, A. (2014): «Scientific Models of Abduction: The Role of Non Classical Logic», en González, W. (ed.), Bas van Fraassen’s Approach to Representation and Models in Science, Springer, Berlin, 121-141. Synthese Library 368, Studies in Epistemology, Logic, Methodology and Philosophy of Science. Nickles, T. (2008): «Scientific Discovery», en Psillos, S. y Curd, M. (eds.), The Routledge Companion to Philosophy of Science, Routledge, London, 442-451. Nietzsche, F. (1903): Sobre verdad y mentira en sentido extramoral, Tecnos, Madrid, 2007. Niiniluoto, I. (1999): «Defending Abduction»: Philosophy of Science 66 (Proceedings), 436-451. Nola, R. y Sankey, H. (2007): Theories of Scientific Method, McGill-Queen’s University Press, Montreal-Kingston. Noonan, J., Krause, J., Pääbo, S. et al. (2006): «Sequencing and Analysis of Neanderthal Genomic DNA»: Science 314, 1113-1118. Oldroyd, D. (1996): Thinking about the Earth: A History of Ideas in Geology, The Athlone Press, London, 1996. Oreskes, N. (2001): «From Continental Drift to Plate Tectonics», en Oreskes, N. (ed.), Plate Tectonics, Westview Press, Boulder, Col.

205

META, MÉTODO Y MITO EN CIENCIA

Ostlie, D. A. y Carroll, B. W. (1996): An Introduction to Modern Stellar Astrophysics, Addison-Wesley Publ., Reading, MA. Palacios, J. (21955): Análisis Dimensional (edición, corregida y aumentada), Espasa-Calpe, Madrid, 1964. Peirce, C. S. (1965): Collected Papers [CP], Harvard University Press, Cambridge, MA. Pla, C. (1952): Galileo Galilei, Espasa-Calpe, Buenos Aires. Poincaré, H. (1902): La ciencia y la hipótesis, Espasa-Calpe, Madrid, 1943. — (1905): El valor de la ciencia, Espasa-Calpe, Madrid, 1946. Popper, K. R. (1935): Logik der Forschung, Springer, Wien. Versión española, La lógica de la investigación científica, Tecnos, Madrid, 1962, 1994. — (1945): The Open Society and Its Enemies, vols. I y II, Routledge and Kegan Paul, London. Quinta edición revisada, 1966. Versión española, La sociedad abierta y sus enemigos, Paidós, Barcelona, 1991 — (1959): The Logic of Scientific Discovery, Hutchinson, London. Primera edición alemana, Logik der Forschung. Edición española, La lógica de la investigación científica, Tecnos, Madrid. — (1960): The Poverty of Historicism, Routledge, London. — (1963): Conjectures and Refutations. The Growth of Scientific Knowledge, Routledge & Kegan Paul, London. Versión española, El desarrollo del conocimiento científico. Conjeturas y refutaciones, Paidós, Barcelona, 1989. — (1972): Objective Knowledge. An Evolutionary Approach, Clarendon Press, Oxford. Versión española, Conocimiento objetivo. Un enfoque evolucionista, Tecnos, Madrid, 1972. — (1972a): «Of Clouds and Clocks». Reimpr. en Íd., Objective Knowledge, Clarendon Press, Oxford, cap. VI. — (1974a): «Darwinism as a Metaphysical Research Programme», en Schilpp, P. A. (ed.), «Intellectual Autobiography», The Philosophy of Karl Popper, Open Court, La Salle, Ill. — (1974b): «Replies to My Critics», en Schilpp, P. A. (ed.), «Intellectual Autobiography», The Philosophy of Karl Popper, Open Court, La Salle, Ill, 1084. — (1979): Die beiden Grundprobleme der Erkenntnistheorie, J. C. B. Mohr, Tübingen. Versión española, Los dos problemas fundamentales de la epistemología, Tecnos, Madrid, 1998. — (1982a), Offene Gesellschaft-offenes Universum, Franz Deuticke, Wien. Versión española, Sociedad abierta, universo abierto, Tecnos, Madrid, 1984. — (1982b): «On a realistic and commonsense interpretation of Quantum theory», en Íd., Quantum Theory and the Schism in Physics, Hutchinson, London. Versión española, Teoría cuántica y el cisma en física, Tecnos, Madrid, 1985. — (1983): «La racionalidad de las revoluciones científicas»: Teorema XIII/1-2, 109-140. Versión original, «The rationality of Scientific Revolutions», aparecida en Harré, R. (ed.), Problems of Scientific Revolution, 1975, y reimpresa en K. Popper, The Myth of the Framework, Routledge, London, 1994. Versión española, El mito del marco común, Paidós, Barcelona, 1997. — (1983): Realism and the Aim of Science, Hutchinson, London. Edición española, Realismo y el objetivo de la ciencia, Tecnos, Madrid, 1985. — (1994): «The Rationality of Scientific Revolutions», 1975. Reimpresa en

206

BIBLIOGRAFÍA

Íd., The Myth of the Framework. In defence of science and rationality, Rout­ ledge, London. Edición española, El mito del marco común: en defensa de la ciencia y la racionalidad, Paidós, Barcelona, 1997. — (1994a): «Philosophy and Physics. The influence on theoretical and experimental physics of some metaphysical speculations on the structure of matter», en Íd., The Myth of the Framework. In defence of science and rationality, Routledge, London, cap. 5. — (1994b): «Models, instruments and Truth. The status of the rationality principle in the social sciences», en Íd., The Myth of the Framework. In defence of science and rationality, cap. 8. Psillos, S. (1999): Scientific realism: How Science Tracks Truth, Routledge, London. — (2009): Knowing the Structure of Nature. Essays on Realism and Explanation, Palgrave Macmillan, Houndmills. Ptolomeo, C. (1998): Almagest. Traducción y revisión de G. J. Toomer, Princeton University Press, Princeton. Putnam, H. (1975): Philosophical Papers, vol. 1, Cambridge University Press, Cambridge. — (1978): «Realism and Reason», en Putnam, H., Meaning and the Moral Sciences, Routledge & Kegan Paul, London. — (1981): Reason Truth and History, Cambridge University Press, Cambridge. Versión española, Razón, verdad e historia, Tecnos, Madrid, 1988. — (1982): «Why Reason Can’t Be Naturalized»: Synthese 52, 3‑23. — (1999): El pragmatismo. Un debate abierto, Gedisa, Barcelona. Rañada, A. (1994): Dinámica clásica, Alianza, Madrid. Reichenbach, H. (1936): «Die Induktion als Methode der wissenschaftlichen Erkenntnis»: Actualités Scientifiques et Industrielles 391, 1-7. — (1938): Experience and Prediction, University of Chicago Press, Chicago. Rioja Nieto, A. (2009): «Berkeley y su teoría nominalista del movimiento y las fuerzas». Estudio introductorio a George Berkeley, Acerca del movimiento, ed. bilingüe, Escolar y Mayo, Madrid. Rivadulla, A. (1986): Filosofía actual de la ciencia, Tecnos, Madrid. — (1991): Probabilidad e inferencia científica, Anthropos, Madrid. — (2002): «La solución revolucionaria de Planck del problema de la radiación del cuerpo negro», en Mataix, C. y Rivadulla, A. (eds.), Física cuántica y realidad. Quantum Physics and reality, Editorial Complutense, Madrid. — (2003): Revoluciones en física, Trotta, Madrid. — (2004): Éxito, razón y cambio en física. Un enfoque instrumental en teoría de la ciencia, Trotta, Madrid. — (2004a): «The Newtonian limit of relativity theory and the rationality of theory change»: Synthese 141, 417-429. — (2005): «Theoretical Explanations in Mathematical Physics», en Boniolo, G., Budinich, P. y Trobok, M. (eds.), The Role of Mathematics in Physical Sciences. Interdisciplinary and Philosophical Aspects, Springer, Dordrecht. — (2006a): «The Role of Theoretical Models in the Methodology of Physics», en Magnani, L. (ed.), Model-Based Reasoning in Science and Engineering, King’s College Publications, London. — (2006b): «Theoretical Models and Theories in Physics. A Rejoinder to Karl

207

META, MÉTODO Y MITO EN CIENCIA

Popper’s Picture of Science», en Jarvie, I., Milford, K. y Miller, D. (eds.), Karl Popper: A Centenary Assessment, vol. III: Science, Ashgate, London. — (2008): «Discovery Practices in Natural Sciences: From Analogy to Preduction»: Revista de Filosofía 33/1, 117-137. — (2009a): «Anticipative Preduction, Sophisticated Abduction and Theoretical Explanations in the Methodology of Physics», en González Recio, J. L. (ed.), Philosophical Essays on Physics and Biology, Olms, Hildesheim/New York, 351-364. — (2009b): «Ampliative and Anticipative Inferences in Scientific Discovery: Induction, Abduction and Preduction», en Fernández Moreno, L. (ed.), Language, Nature and Science: New Perspectives, Plaza y Valdés, Madrid/México, 33-50. — (2010): «Scientific Reasonableness and the Pragmatic Approach to the Unity of Science», en Symons, J., Torres, J. M. y Pombo, O. (eds.), Otto Neurath and the Unity of Science, Kluwer-Springer, 2010. — (2010a): «Two Dogmas of Structural Realism. A Confirmation of a Philosophical Death Foretold»: Crítica 42/124, 3-29. — (2010b): «Complementary Strategies in Scientific Discovery: Abduction and Preduction», en Bergman, M. et al. (eds.), Ideas in Action: Proceedings of the Applying Peirce Conference, Nordic Studies in Pragmatism 1, Nordic Pragmatism Network, Helsinki, 264-276. — (2012a): «La tesis de la inconmensurabilidad y el desarrollo de la física», en Lorenzano, P. y Nudler, O. (eds.), El camino desde Kuhn. La inconmensurabilidad hoy, Biblioteca Nueva, Madrid. — (2012b): «Racionalismo crítico y ciencias sociales: Karl Popper», en De la Garza, E. y Leyva, G. (eds.), Tratado de metodología de las ciencias sociales: Perspectivas actuales, FCE, México D. F. — (2012c): «Theoretical Preduction and Computational Scientific Discovery», en Martínez, C. et al. (eds.), Proceedings of the VII Conference of the Spanish Society for Logic, Methodology and Philosophy of Science, Publicaciones de la Universidad de Santiago de Compostela, Santiago de Compostela, 497-504. Rorty, R. (1980): Philosophy and the Mirror of Nature, Princeton University Press, Princeton, NJ (edición corregida). Versión española, La filosofía y el espejo de la naturaleza, Cátedra, Madrid, 1995. — (1991): Objectivity, Relativism and Truth. Philosophical Papers, vol. I, Cambridge University Press, Cambridge. — (1997): ¿Esperanza o conocimiento? Una introducción al pragmatismo, FCE, Buenos Aires. Título original, Hoffnung statt Erkenntnis: Eine Einführung in die pragmatische Philosophie, Passagen, Wien, 1994. — (1998): Truth and Progress. Philosophical Papers, vol. 3, Cambridge University Press, Cambridge. — (2000): «Universality and Truth», en Brandom, R. (ed.), Rorty and His Critics, Blackwell Publishers, Malden, MA. — (2002): Filosofía y futuro, Gedisa, Barcelona. Título original, Philosophie und die Zukunft, Fischer Taschenbuch, Frankfurt a. Main, 2000. Rubí, J. (1949): Nociones de física atómica, Escuela Especial de Ingenieros Navales, Madrid. Russell, B. (1949): The Scientific Outlook, George Allen & Unwin, London.

208

BIBLIOGRAFÍA

Santillana, G. (1955): The Crime of Galileo, University of Chicago Press, Chicago. Sclater, J. G. (2001): «Heat Flow Under the Oceans», en Oreskes, N. (ed.), Plate Tectonics, Westview Press, Boulder, Col. Shrager, J. y Langley, P. (1990): «Computational Approaches to Scientific Discovery», en Íd., Computational Models of Scientific Discovery and Theory Decision, Morgan Kaufmann Publishers, San Mateo, CA. Simon, H. A. (1966a): «Thinking by Computers», en Colodny, R. G. (ed.), Mind and Cosmos. Essays in Contemporary Science and Philosophy, University of Pittsburgh Press, Pittsburgh. — (1966b): «Scientific Discovery and the Psychology of Problem Solving», en Colodny, R. G. (ed.), Mind and Cosmos. Essays in Contemporary Science and Philosophy, University of Pittsburgh Press, Pittsburgh. — (1992): «Scientific Discovery as Problem Solving»: International Sudies in the Philosophy of Science 6/1 (1992): 3-14. — (1995): «Machine Discovery»: Foundations of Science 2, 171-200. Reimpr. en Zytkow, J. (ed.), Machine Discovery, Kluwer Academic Press, Dordrecht, 1997. Simon, H. A. y Lea, G. (1974): «Problem Solving and Rule Induction», en Simon, H., Models of Thought, Yale University Press, New Haven/London, 1979. Simon, H. A., Newell, A. y Shaw J. C. (1962): «The Process of Creative Thinking», en Simon, H., Models of Thought, Yale University Press, New Haven/ London, 1979. Sklar, L. (2000): Theory and Truth, Oxford University Press, Oxford. Smolin, L. (2007): The Trouble with Physics. The Rise of String Theory, the Fall of a Science, and What Comes Next, Houghton Mifflin, Boston/New York. Versión española, Las dudas de la física en el siglo xxi. ¿Es la teoría de cuerdas un callejón sin salida?, Crítica, Barcelona, 2007. Stanford, K. P. (2006): Exceeding our Grasp. Science, History, and the Problem of Unconceived Alternatives, Oxford University Press, Oxford. Susskind, L. (2009): La guerra de los agujeros negros. Una controversia científica sobre las leyes últimas de la Naturaleza, Planeta, Barcelona. Versión original: The Black Hole War. My Battle with Stephen Hawking to make the world safe for Quantum Mechanics, Little, Brown and Co., 2008. Thagard, P. (1978): «The Best Explanation: Criteria for Theory Choice»: The Journal of Philosophy 75/2, 76-92. Thagard, P. (1988): Computational Philosophy of Science, The MIT Press, Cambridge, MA. Thagard, P. y Nowak, G. (1990): «The Conceptual Structure of the Geological Revolution», en Shrager, J. y Langley, P., Computational Models of Scientific Discovery and Theory Decision, Morgan Kaufmann Publishers, San Mateo, CA. ‘t Hooft, G. (2001): Partículas elementales. En busca de las estructuras más pequeñas del Universo, Crítica, Barcelona. Toulmin, S. (1953): The Philosophy of Science. An Introduction, Hutchinson University Library, London. — (1977): Human Understanding, Clarendon Press, Oxford, 1972. Versión española, La comprensión humana, Alianza, Madrid.

209

META, MÉTODO Y MITO EN CIENCIA

Tuomela, R. (1973): Theoretical Concepts, Springer, Wien/New York. Valdés-Pérez, R. E. (1995): «Machine Discovery Praxis. Comments on Herbert Simon’s Paper»: Foundations of Science 2, 219-224. Reimpreso en Zytkow, J. (ed.), Machine Discovery, Kluwer Academic Press, Dordrecht, 1997. Van Fraassen, B. (1980): The Scientific Image, Clarendon Pres, Oxford. Versión española, La imagen científica, Paidós, México, 1996. — (2002): The empirical stance, Yale University Press, New Haven-London. — (2006): «Representation: The Problem for Structuralism»: PSA04 73/5, 536-547. — (2007): «Structuralism(s) about Science: Some Common Problems»: Proceedings of the Aristotelian Society, suppl. 81, 45-61. — (2008): Scientific Representation. Paradoxes of Perspective, Clarendon Press, Oxford. Vollmer, G. (2001): «Why does mathematics fit nature? The problem of application», en Gómez Pin, V. (ed.), Ontology Studies/Cuadernos de Ontología 1-2, 301-309. Wegener, A. (1929): Die Entstehung der Kontinente und Ozeane, 1915. Edición española de la versión de 1929, El origen de los continentes y océanos, Pirámide, Madrid, 1983. Weinberg, S. (1998): «The Revolution that didn’t happen»: The New York Review of Books XLV/8. — (2003): Plantar cara, Paidós, Barcelona. Wigner, E. (1995): Philosophical Reflections and Syntheses, Springer, Berlin. Wisdom, J. O. (1952): Foundations of Inference in Natural Science, Methuen, London. Worrall, J. (1989): «Structural Realism: The Best of Both Worlds?»: Dialectica 43/1-2, 99-124. Reimpr. en Papineau, D., The Philosophy of Science, Oxford University Press, Oxford, 1996. — (2008): «Theory-Change in Science», en Curd, M. y Psillos, S. (eds.), The Routledge Companion to Philosophy of Science, Routledge, London. Zahar, E. (1983): «Logic of Discovery or Psychology of Invention?»: Brit. J. Phil. Sc. 34, 243-261. Zytkow, J. M. (1995): «Creating a Discoverer: Autonomous Knowledge Seeking Agent»: Foundations of Science 2, 253-283. Reimpr. en Zytkow, J. (ed.), Machine Discovery, Kluwer Academic Press, Dordrecht, 1997. — (1996): «Automated Discovery of Empirical Laws»: Fundamenta Informaticae 27, 299-318. — (1999): «The Melting Pot of Automated Discovery: Principles of a New Science», en Arikawa, S. y Furukawa, K. (eds.), Proceedings of Discovery Science 1999. Lecture Notes in Computer Science, vol. 1721, Springer, 1-12.

210

ÍNDICE DE NOMBRES

Aguilar Peris, A.: 108, 110, 201 Aliseda, A.: 89, 201 Allard, G.: 109, 201 Aristóteles: 24, 27, 35, 57, 129 s., 132, 147, 150, 152 Arsuaga, J. L.: 94, 96 s., 201 Aspect, A.: 181 Bacon, F.: 58, 67 Bellarmino, R.: 147, 154, 158 Benítez, A.: 64, 201 Berkeley, G.: 148, 155 s., 207 Bermúdez de Castro, J. M.: 95, 201 Bernard, C.: 88 Bohr, N.: 40, 140 s., 167 Boltzmann, L.: 140, 170, 175, 194, 196 Boniolo, G.: 189, 201, 207 Boyd, R.: 120 s., 135 s., 201 Braithwaite, R. B.: 61, 201 Brandom, R.: 25 ss., 34, 36, 38, 201 Bridgman, P.: 190, 201 Brown, J. R.: 120, 201 Bunge, M.: 127, 201, 203 Callaway, E.: 96, 202 Carnap, R.: 47, 49, 59, 87 s., 167, 187, 202 Carnot, N.: 110, 204 Carroll, B. W.: 170, 174 s., 192 s., 206 Cartwright, N.: 123, 125, 202 Chakravarty, A.: 125, 138 s., 202

Chalmers, A.: 16, 202 Clausius, R. E.: 109 Colodny, R. G.: 64, 69, 202, 209 Copérnico, N.: 88, 91 s., 131, 152, 154, 166, 179, 202 s. Darwin, C.: 54 ss., 89, 91 s., 123, 205 s. Davidson, D.: 24, 26 Davy, H.: 109 Dewey, J.: 18, 24, 26, 31 s., 88, 148, 202 Diéguez, A.: 119, 202 Dietz, R.: 102 Dilthey, W.: 24, 33 Dirac, P.: 41, 149, 202 Duhem, P.: 18, 58, 132 s., 147, 150 ss., 155, 157 s., 161 s., 166 s., 202 Dzeroski, S.: 66 s., 69 s., 195, 202 Eddington, A.: 29, 175, 192, 202 Ehrenfest, P.: 141 Einstein, A.: 23, 29 s., 35, 37, 41, 47, 58, 63, 75 ss., 79 s., 83, 105, 107 s., 110, 114, 124, 131, 134, 140 ss., 149, 155, 166, 176, 180, 190, 196, 202 s. Elena, A.: 152 s., 203 Escoto, D.: 59 Ferrer Soria, A.: 182, 203 Feyerabend, P.: 18, 50, 88, 160, 203 Feynman, R.: 84

211

META, MÉTODO Y MITO EN CIENCIA

Fine, A.: 18, 34 s., 123, 183, 203 Fitzgerald, G.: 105 Fleck, L.: 18 Flint, H. T.: 167 Fourier, J.: 190 Freeman, E.: 88, 203 French, S.: 19, 126, 139, 203 Friedan, D.: 84 Fuertes Herreros, J. L.: 153, 203 Galileo Galilei: 15, 83, 91 s., 147, 153 s., 202, 206, 209 Galle, J. G.: 80 Garagarza, F.: 190, 203 Glashow, S.: 77 s., 84 Goodman, N.: 26 Greene, B.: 76, 78, 81-84, 181, 203 Grosseteste, R.: 59 Guillermo de Ockham: 59 Habermas, J.: 24 s., 31 s., 38 Hacking, I.: 125 s., 166, 203 Hallwachs, W.: 105 Hanson, N. R.: 63, 66, 68, 87 s., 203 Harman, G.: 90, 203 Hawking, S.: 75 s., 81, 84, 149, 204 Heitler, W.: 167 Helmholtz, H.: 106, 173 ss., 204 Hempel, C.: 88, 161 Hernández, I.: 195 Hertz, H.: 105 Hess, H.: 55, 102 Hiparco: 150, 179 Hooft, G. ‘t: 78, 84, 209 Huang, K.: 107 s., 204 Hubble, E. P.: 113 Hume, D.: 57, 61, 132 Izquierdo, S.: 153, 203 James, W.: 18 s., 24, 28, 31, 125, 148 Jeans, J.: 41, 141, 175 s. Jeffreys, H.: 102 Josephson, J. R.: 89 s., 204 Jou, D.: 109, 204 Joule, J. P.: 108 s., 174 Kant, I.: 24, 173, 189 Kepler, J.: 83, 87 s., 91, 111 s., 131, 140, 147, 166, 173, 204

King, R. D.: 73 s., 204 Kirchhoff, G.: 158 Kitcher, P.: 124, 134 s., 178, 204 Kraft, V.: 58, 204 Kuhn, T. S.: 18, 34 s., 37, 47, 49, 88, 109 s., 143, 162, 177, 183, 204, 208 Kuipers, T.: 119, 135, 175, 184, 204 Ladyman, J.: 19, 126, 139, 203 Lakatos, I.: 18, 49, 51 s., 66, 88, 204 Langley, P.: 62-68, 70, 72 s., 196, 202, 204, 209 Laudan, L.: 18, 35, 50, 68, 122, 124, 126, 134, 136 ss., 143, 146, 162, 169, 177, 183 s., 186, 204 Le Verrier, U.: 80 Lilley, J. S.: 44, 205 Longair, M.: 108 s., 205 Lorentz, H.: 105 Lorenzo, C.: 93, 205 Losee, J.: 156, 205 Mach, E.: 148, 155-158, 161 Magnani, L.: 89, 204 s., 207 Martín, A.: 94 Martínez, I.: 94 s., 201, 205 Martínez, V. J.: 112, 205 Maxwell, J.: 77, 122, 133, 194, 196 Mayer, J. R.: 109 McKenzie, D.: 56, 103, 205 Medawar, P.: 88, 188, 205 Michelson-Morley: 105 Mill, J. S.: 59, 67 Miller, D.: 87, 208 Minkovski, H.: 180 Morgan, J.: 56, 103 Moulines, C. U.: 50, 166 Munévar, G.: 18, 123, 177, 205 Nagel, E.: 88, 160, 205 Nepomuceno, A.: 191, 195, 204 s. Newton, I.: 29 s., 35, 37, 54, 58 s., 63, 84, 124, 131, 140, 149, 155, 158, 180, 198, 203 Newton-Smith, W. H.: 156 Nickles, T.: 188, 205 Nietzsche, F.: 16, 24, 205 Niiniluoto, I.: 136, 205 Nola, R.: 69, 205

212

ÍNDICE DE NOMBRES

Noonan, J.: 93, 205 Nowak, G.: 71, 209 Oldroyd, D.: 98, 205 Oort, J. H.: 111, 173 Oreskes, N.: 98, 101 ss., 205 Osiander, A.: 147, 152, 158 Ostlie, D. A.: 170, 174 s., 192 s., 206 Palacios, J.: 189, 206 Parker, R.: 56, 103 Peirce, C. S.: 18, 24, 31, 54, 56 s., 59, 63, 87-90, 93 s., 187, 195, 198, 203, 206, 208 Pichon, X.: 102 s., 205 Planck, M.: 95, 105, 141 s., 176, 190, 194, 207 Platón: 24, 49, 130, 150, 202 Poincaré, H.: 138, 155, 157 ss., 162, 206 Popper, K.: 18 s., 31 s., 46-55, 57-63, 65 s., 68, 72, 74-77, 79 ss., 87 s., 90 s., 124, 129-135, 140, 143, 147 ss., 155, 158 s., 166 ss., 178 s., 188, 198, 203, 205 s., 208 Psillos, S.: 19, 106, 121, 135, 137, 139, 142 s., 157, 161, 181, 205, 207, 210 Ptolomeo, C.: 131 s., 150 s., 153, 179, 207 Putnam, H.: 18, 24, 31 s., 34, 54, 56, 89, 119 s., 122, 125 s., 128 s., 134 ss., 165, 207 Quine, W.: 18, 24, 177, 179 Rañada, A.: 168, 207 Reichenbach, H.: 17, 48 s., 60, 68, 72, 87, 207 Rioja, A.: 156, 207 Rivadulla, A.: 29, 31, 34, 41, 43, 51, 55, 58, 79 s., 107, 109, 111, 113 s., 119, 124, 132, 138 ss., 146, 152, 158, 161, 168, 170 s., 173, 176182, 185, 191, 196, 198, 207 Rorty, R.: 19, 23-38, 42, 44, 117, 128 s., 177, 183, 201, 208 Rubí, J.: 114, 208 Russell, B.: 59, 89, 208 Rutherford, E.: 40, 89, 106, 126

Sankey, H.: 69, 205 Sarrión, E.: 195, 204 Schlick, M.: 159 Schmidt, B.: 113 Schrödinger, E.: 149 Sclater, J.: 55 s., 209 Sellars, W.: 36 Shrager, J.: 65, 67, 70, 196, 209 Simon, H.: 61-64, 66-69, 71, 204, 209 s. Simplicio: 150 s. Sklar, L.: 124, 135, 178, 209 Skomilowski, H.: 88, 203 Slipher, V. M.: 113 Smart, J. J.: 122, 136 Smolin, L.: 7, 15, 76-85, 115, 181, 209 Sneed, J.: 18, 40, 50, 166 Stanford, K.: 122, 146, 161-165, 209 Stefan, J.: 140, 170 Stegmüller, W.: 50, 88, 166 Suess, E.: 98 s. Susskind, L.: 81, 84, 209 Tarski, A.: 51, 129 Thagard, P.: 63, 65, 71 s., 90, 104, 136, 209 Thomson, W. K.: 109, 166, 174 Tomás de Aquino: 58, 152, 158 Toomer, G. J.: 207 Toulmin, S.: 159, 209 Tuomela, R.: 127, 210 Tyndall, J.: 170 Valdés Pérez, R.: 67, 210 Van Fraassen, B.: 18 s., 25, 39-45, 53, 123, 139, 148, 158, 162, 166, 177, 183, 205, 210 Veneziano, G.: 81 Vollmer, G.: 42, 210 Wedgewood, T.: 170 Wegener, A. L.: 89, 98-101, 210 Weidenreich, F.: 94 Weinberg, S.: 76 s., 124, 133, 210 Weizäcker, C. F.: 43 Whewell, W.: 59, 88 Wien, W.: 106 Wigner, E.: 41, 181, 210 Wilson, T.: 55, 103

213

META, MÉTODO Y MITO EN CIENCIA

Wisdom, J.: 58, 210 Witten, E.: 81, 83 Wittgenstein, L.: 24, 159 Worrall, J.: 19, 126, 138 ss., 210

Zahar, E.: 188, 210 Zwicky, F.: 111 Zytkow, J. M.: 67, 72 s., 204, 209 s.

214

ÍNDICE DE MATERIAS

abducción (inferencia abductiva, razonamiento abductivo): 9, 11, 20 s., 48, 54 ss., 59, 61, 63, 74, 8794, 97, 99, 103-107, 110 s., 115, 132 s., 135 s., 187, 195, 197 ss. adecuabilidad (adecuación) empírica: 39 s., 44, 53, 123, 132, 135, 148 ampliación (de dominio): 135, 175 s., 185 análisis dimensional: 189 ss., 194, 206 anticipar (hipótesis, ideas): 156, 189192, 196, 198 anticonvergentismo: 35 anticorrespondentismo: 28, 30 antiesencialismo: 159 antiinductivismo: 58, 90 antirrealismo: 23, 39, 49, 117, 124, 138 antirrepresentacionismo: 30 año luz: 13, 15, 113, 173 argumento del no milagro (ANM): 120, 126, 132, 135 s., 138 s. astrofísica (estelar): 40, 104, 111 s., 166, 169 ss., 192 s. astronomía: 88, 132 s., 150-153, 166, 172, 178 s., 205 Atapuerca, sierra de: 14, 93-96, 205 Australopithecus afarensis: 93 Australopithecus garhi: 94 bacon:

69 ss. Bayes, teorema de: 30

bayesianismo: 29, 102 Big Bang: 83, 180 calórico: 108 ss. caso límite: 75, 122, 140 certeza: 26 s., 31, 53, 59, 61 ss., 78, 146, 159, 174, 202 Chandrasekhar, masa límite: 193 ciencia, ciencia computacional de la: 9, 11, 20, 47 s., 63, 67, 70, 74, 188 ciencia, filosofía (teoría) de la: 9, 11 s., 16 s., 19 ss., 23, 25, 39-42, 45, 47-50, 54, 59, 61 ss., 65 s., 68 s., 74 ss., 85, 87 s., 92, 115, 118, 145 s., 149 s., 156, 161, 177, 196, 202, 207 ciencia, filosofía computacional de la: 71 ciencia, metodología de la: 11, 18, 20 s., 29, 49 ss., 55, 59 ss., 64 s., 80, 87, 91, 93, 135, 188, 194 ciencia, metodología crítica de la: 48, 50, 52, ciencia cognitiva: 48, 66 s., 70 ciencias del espíritu: 33 s. ciencias naturales: 33 s., 36, 45 ss., 52, 54 s., 100, 189, 197 s. ciencias observacionales: 19 s., 46, 49, 55 ss., 74, 92, 104, 188 ciencias teóricas: 9, 11, 18, 40, 46, 187, 189, 197 científico, cambio: 17, 49, 138

215

META, MÉTODO Y MITO EN CIENCIA

cientismo: 24, 32 s., 36 Círculo de Viena: 18, 34, 47, 59, 202 coherentismo: 24, 37 concepción estructuralista: 18, 40, 166 constante cosmológica: 82 s., 113 s. contexto de descubrimiento: 9, 11, 1821, 48, 57, 60, 63-66, 68 s., 71, 74, 89 s., 115, 187-191, 196-199 contexto de justificación (confirmación): 20, 48, 60, 65, 68, 74, 187, 189, 191 convencionalismo: 159 convergencia: 21, 24, 30 s., 120, 124, 128, 131, 137, 145, 170, 183 s. convergentismo: 30 correspondencia: 24-28, 30, 32 s., 42, 123, 127 ss., 135, 139 ss., 159, 184, 188 correspondentismo: 28, 184 corroboración, grado de: 51, 88 cosmología: 104, 166, 181 creatividad (científica): 11, 17, 21, 48, 65, 68 s., 191, 196, 199 cuerpo negro: 140 s., 169 ss., 173, 176, 184, 194, 207

epistemología: 19, 23, 46-53, 60, 121, 124, 132, 145, 159, 202, 205 s. esencialismo: 24, 27, 49, 130, 157, 183 espectro: 13, 48, 111, 171 s. estructuralismo: 50 estructuralismo empirista: 39, 41 s., 44, 177 éxito predictivo (empírico): 31, 45, 126, 135-139, 146, 168 ss., 173, 184 explicación, (inferencia a la) mejor (IME): 55 s., 89 s., 92, 104, 112, 114, 132, 135 s. explicación teórica: 80, 140, 142, 172, 191 falibilismo: 53 falsabilidad (falsable): 20, 46 s., 50, 53 ss., 75 s., 79 s., 85, 112 s. falsacionismo: 20, 50 s. física, filosofía (metodología) de la: 12, 41, 43, 75 s., 79, 112, 156, 189 física nuclear: 40, 43, 166, 178, 182, 203 física teórica (matemática): 11, 21, 75 s., 79 s., 104, 106, 110 s., 137, 141, 163, 169, 180 s., 189 ss., 194 ss., 202 s. Friedman, ecuaciones de: 114

debate (disputa) realismo-instrumentalismo: 43, 130, 145 debate epistemológico: 11 s., 18, 20, 23, 41, 48 demarcación, criterio de: 47, 49 s., 55, 79 deriva continental: 89, 98 s., 101, 103 descubrimiento, ciencia del: 19, 63, 67, 69 descubrimiento científico: 11, 17-21, 48 s., 55, 57, 59 ss., 64-72, 89, 92, 115, 146, 187 s., 190 s., 195-199 descubrimiento computacional: 70, 72, 74 dicotomías: 28

galaxia: 13, 16, 110 ss., 114, 173 genoma: 14, 93, 95 ss. geología (geofísica, ciencias de la tierra): 20, 55 ss., 92, 98 s., 104 gigante roja: 14 glaciación: 14 Gliese: 15 Gondwana: 98 gran abducción: 106, 135 s.

empirismo constructivo: 39, 41, 122 s., 148 enana blanca: 14, 192 s. energía oscura: 20, 82, 113 ss., 163, 165 entidades (términos) teóricos: 17, 118 s., 121 s., 124-127, 138, 146 s., 156, 159-163, 165, 178 ss., 183

Heisenberg, relaciones de indeterminación: 193 Higgs, bosón de: 15 hipótesis ad hoc: 79 s., 112 Hombre de Orce: 14 homínidos (homíninos): 93 s., 96 s., 205 Homo antecessor: 14, 93, 95 Homo denisovanus: 14, 95

216

ÍNDICE DE MATERIAS

Homo erectus: 95 Homo ergaster: 95 Homo habilis: 14, 94 Homo heidelbergensis: 14, 94 s. Homo neanderthalensis (neandertales): 14, 93, 95 ss. Homo sapiens: 14 ss., 94 ss.

mecánica (teoría) newtoniana (MN): 30, 37, 111 s., 120 s., 130, 135, 140 s., 166, 169, 174, 178 ss., 185 MEFPE: 76, 81, 163, 166 metaabducción optimista: 136 metacientífico: 17, 136 metainducción pesimista: 124, 134, 136 ss., 143, 177, 183 s. método, fetichismo del: 9, 20, 54 s., 75 método, mito del: 197, 199 método científico: 16 ss., 34, 45 s., 48, 54 s., 66, 199 modelo atómico: 40, 89, 106, 126, 167 modelo cosmológico: 115 modelo de colapso gravitacional: 173 s. modelo de contracción: 98 s. modelo de datos: 42 ss. modelo estelar: 169 ss., 173, 184 modelo gravitacional: 169, 173, 184 s. modelo mecánico: 166 modelo nuclear: 182 s. modelo teórico: 42 ss., 168 s., 184 s., 192 ss.

incompatibilidad interteórica: 21, 43, 45, 117, 134, 137 ss., 143, 145, 177 s., 180-184, 186 inconmensurabilidad: 21, 37, 75, 127, 143, 177, 208 inducción (inferencia inductiva): 58 s., 61 s., 71, 187, 195, 197 s. inducción optimista: 124, 132, 134 inferencia ampliativa: 61, 74, 90 s., 188, 195 inferencia anticipativa: 195 s. inferencia preductiva: 189, 197 instrumentalismo: 9, 12, 20, 23, 35 ss., 43, 49 s., 88, 117, 122, 130, 143, 145-150, 153, 155 ss., 159-162, 164, 166, 183 inteligencia artificial (IA): 21, 48, 64, 66, 71, 73, 201 isostasia: 99 s.

naturaleza, filosofía de la: 41 s. neopragmatismo: 23 s., 177 nominalismo: 37 números mágicos: 44, 182

justificación: 24, 26, 28-32, 38, 52, 60 s., 71 s., 129, 131

Orión, brazo de: 13, 173

Kepler (sonda): 15 Kepler, tercera ley de: 71, 111 s., 173 Laitman-Lieberman, hipótesis de: 93 Libra: 15 luz, desviación de la: 29, 137, 185 luz, velocidad de la: 105, 115, 180, 190 masa: 174 ss., 182, 190, 192 ss. materia oscura: 20, 110-113, 115, 163, 173 mecánica (física) clásica (MC): 108, 141, 178, 180, 192, 194 mecánica (física) cuántica (MQ): 19, 77, 82, 84, 122, 140 s., 176, 178, 180 s., 190, 192 ss., 207 mecánica (física) estadística: 142, 169, 175 s., 184, 194

paleoantropología: 92 s., 97, 104 paleontología: 20, 55, 92 Pauli, principio de exclusión: 193 Pleistoceno: 14, 94-97, 102 Plioceno: 14 positivismo: 18, 24, 49, 148 pragmatismo: 35 s., 38 s., 42, 45, 49, 117, 129, 177, 202, 207 s. preducción (teórica): 9, 11, 18, 21, 48, 187, 189-199 preducción computacional: 11, 21, 196 principio de correspondencia: 139 ss., 188 probabilidad (inductiva): 29 s., 47, 51, 53, 58, 62, 87, 137, 146, 168, 170, 187, 192, 207 prueba de evidencia adicional: 57, 62, 74, 90, 92 s., 197

217

META, MÉTODO Y MITO EN CIENCIA

racionalidad: 24, 33 s., 49, 53 s., 56, 68, 205 ss. racionalidad, sentido débil: 38 racionalidad, sentido fuerte: 38 racionalismo: 32 racionalismo crítico: 47 s., 50, 53, 208 Rayleigh-Jeans, ley de: 141, 176 razonabilidad: 24, 38 razonamiento abductivo: 20, 63, 74, 89, 91, 99, 115, 133, 197 s. razonamiento ampliativo: 61 razonamiento (método) hipotético-­ deductivo: 21, 187 s., 190 s. razonamiento preductivo: 21, 191 s., 194, 197 realismo científico (típico): 12, 18-21, 31, 35, 48 s., 51, 53, 106 s., 117-121, 124 s., 127, 130 s., 133-140, 142 s., 145, 162, 170, 177 s., 183 s., 186, 202 realismo conjetural: 124 realismo convergente: 51, 119, 134 realismo crítico: 127 realismo de teorías: 118, 124, 126, 132 realismo epistemológico: 118 s. realismo estructural: 20, 118, 126, 138 s., 142 s., 158 s., 183 realismo (experimental) de entidades: 118, 125, 166 realismo interno: 18, 31, 128 s. realismo metafísico: 42, 65, 118, 127 s. realismo ontológico: 118 s., 135 refutación: 52, 54, 109, 112, 137, 155, 170, 176, 185, 206 relativismo evolucionista: 18, 122 s., 177 representación: 15 s., 24-28, 30, 32, 35 s., 39, 41 s., 44 s., 67, 71, 127 s., 146, 149, 157 s., 160, 169, 177, 179 s., 182 representacionismo: 25 s. resolución de problemas: 61, 63 s., 66-71 restricción (de dominio): 135, 175, 185 revolución(es): 14, 48, 55, 81 s., 120, 124, 126, 177-180, 184, 202, 206 s.

robot científico: 72 s., 220 rortyana, filosofía (pensamiento): 19, 23 ss., 35, 38, 42, 53, 128, 137, 177 Sahelanthropus tchadensis: 93 s. Sima de los huesos: 95 ss., 201, 205 Stefan-Boltzmann, ley de: 170 supersimetría: 77-83 tectónica de placas: 56, 101, 103 teorema de equipartición: 175 s. teorema del virial: 174 ss. teoría científica: 39, 43, 54 s., 60, 122, 149, 159, 169 teoría de la relatividad (TR): 19, 75, 82, 84, 120 s., 141, 178-181, 192, 203 teoría de (super)cuerdas: 20, 77 s., 8185, 163, 181, 209 termodinámica: 107-110, 170, 192, 194, 201, 204 test de hipótesis (teorías): 46, 50, 55 ss., 63, 65, 74 test popperiano: 54, 56 unificación: 76 ss., 80, 182 universo (expansión del): 13-16, 75, 77 s., 82, 85, 92, 110-115, 123, 149, 151, 153 ss., 159, 166, 181, 192, 203 s., 206, 209 Vega: 13 verdad (verdadero), aproximación a la: 16 ss., 24 s., 27-37, 38 ss., 42, 45, 48, 51-54, 57 ss., 61, 63, 69, 77, 83, 88-92, 101, 104, 107, 118-126, 128-138, 140 s., 145 s., 149, 152 s., 155-165, 168 ss., 174 s., 177-180, 182-186, 189, 191, 194, 197 s., 205, 207 verosimilitud (verosímil): 51 s., 91, 120 s., 146, 152, 168 s., 178 ss. Wien, ley de: 171, 173

218

ÍNDICE GENERAL

Contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 I. Mejorar

la herencia recibida.

El

pragmatismo, una filosofía a

escala humana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23 1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2. Lo que conviene no creer si queremos pensar sensatamente . . . 25 2.1. El representacionismo . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2. El esencialismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.3. El correspondentismo y el realismo . . . . . . . . . . . . . . . . . 28 2.4. El convergentismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.5. El racionalismo y el cientismo . . . . . . . . . . . . . . . . . . . . . 32 3. El pensamiento rortyano en positivo . . . . . . . . . . . . . . . . . . . . 35 3.1. Instrumentalismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2. Nominalismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.3. Coherentismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.4. Razonabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 4. Contacto con la realidad y representación científica. El pragmatismo de Van Fraassen en filosofía de la ciencia . . . . . . . . . . 39 5. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

II. Filosofía de la ciencia y ciencia computacional de la ciencia . . 47 1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2. La filosofía de la ciencia de Popper y el Talón de Aquiles de la metodología falsacionista. Ciencias observacionales de la naturaleza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3. La filosofía inoficial de la ciencia frente a los oráculos oficiales 57 4. Ciencia del descubrimiento frente a filosofía de la ciencia . . . . 63 5. La implementación computacional del descubrimiento cientí­ fico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

219

META, MÉTODO Y MITO EN CIENCIA

6. El robot científico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 7. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 III. Del fetichismo de la testabilidad al compromiso con la falsabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2. Unificación en física teórica y falsabilidad en teoría de la ciencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3. La teoría de cuerdas entre las cuerdas . . . . . . . . . . . . . . . . . . . 81 4. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 IV. La

abducción en la metodología de las ciencias de la natura-

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 2. Paleoantropología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 3. Geología 1: Del modelo de contracción a la deriva continental 98 4. Geología 2: De la deriva continental a la tectónica de placas. El ajuste de piezas en el rompecabezas de datos geofísicos . . . . . . 101 5. Física . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 5.1. La base empírica de la hipótesis corpuscular de la luz: Efectos fotoeléctrico y Compton . . . . . . . . . . . . . . . . . . . 105 5.2. La invariancia de la velocidad de la luz . . . . . . . . . . . . . . . 105 5.3. El descubrimiento de los electrones y la propuesta de Rutherford del modelo atómico planetario para átomos hidrogenoides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6. Grandes abducciones en física teórica . . . . . . . . . . . . . . . . . . . 106 6.1. La termodinámica fenomenológica . . . . . . . . . . . . . . . . . . 107 6.2. La materia oscura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.3. Expansión acelerada del Universo y energía oscura . . . . . 113 7. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 leza

V. El realismo en el punto de mira . . . . . . . . . . . . . . . . . . . . . . . . . 117 1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 2. Un mapa del realismo contemporáneo . . . . . . . . . . . . . . . . . . . 118 3. Realismos y antirrealismos paso a paso . . . . . . . . . . . . . . . . . . 119 4. El realismo científico. Argumentos metametodológicos a su favor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 5. El realismo estructural, ¿última opción del realismo científico? . 138 5.1. Primera tesis (dogma) del realismo estructural . . . . . . . . . 139 5.2. Segunda tesis (dogma) del realismo estructural . . . . . . . . . 139 6. El cisma del realismo contemporáneo. Realismo científico típico vs. realismo estructural . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 7. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 VI. El instrumentalismo científico . . . . . . . . . . . . . . . . . . . . . . . . . 145 1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 2. Tesis del instrumentalismo científico . . . . . . . . . . . . . . . . . . . . 145 3. El instrumentalismo en la historia . . . . . . . . . . . . . . . . . . . . . . 147

220

ÍNDICE GENERAL

4. Modelos teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 5. Éxitos y tropiezos en el uso de modelos teóricos en física . . . . 169 5.1. El modelo estelar de cuerpo negro . . . . . . . . . . . . . . . . . . 170 5.1.1. La temperatura de la superficie solar . . . . . . . . . . . . 170 5.1.2. Espectros estelares . . . . . . . . . . . . . . . . . . . . . . . . . . 171 5.2. Cara y cruz del modelo gravitacional newtoniano . . . . . . 173 5.2.1. El cálculo del número de estrellas de nuestra Galaxia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 5.2.2. El modelo de colapso gravitacional de Kelvin-­Helm­ holtz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 5.3. Revisión de dominios de aplicación de la mecánica estadística clásica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 5.3.1. La masa crítica de Jeans para la formación de proto­ estrellas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 5.3.2. La ley de la radiación del cuerpo negro de Rayleigh-Jeans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 6. La incompatibilidad interteórica, azote del realismo conver­ gente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 7. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 VII. La

preducción en el contexto de descubrimiento de las cien-

. . . . . . . . . . . . . . . . . . . . . . . . . . 187 1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 2. Qué es la preducción teórica . . . . . . . . . . . . . . . . . . . . . . . . . . 189 3. Una ilustración de razonamiento preductivo en física teórica . . 191 4. Tesis generales acerca de la preducción teórica . . . . . . . . . . . . 194 5. Preducción computacional. Creatividad automática en física teórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 6. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 1. La tesis de complementariedad entre abducción y preducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 2. La falibilidad de las inferencias abductivas y preductivas . . . 197 3. El mito del método . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 cias teóricas de la naturaleza

Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Índice de nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Índice de materias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Índice general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

221

201 211 215 219