Materia y Mente: Una investigación filosófica [1era Edición] 9786070307591

361 116 98MB

Español Pages 528 [505] Year 2016

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Materia y Mente: Una investigación filosófica [1era Edición]
 9786070307591

Citation preview

Materia y a

¡9 o ¿3

0>

E

O

£

=>)

NX]

lA

To

Prólogo

Me ofrecen un aguacate. Es nutritivo, un enunciado objetivo; y me

gusta, una afirmación subjetiva. En realidad, sólo le gusta a una

parte de mí, a mi cerebro. Eso, mi cerebro —que, desde luego, es una cosa más— es lo que me hace funcionar. Sin eso, no habría yo. Mi cerebro es un objeto material, aunque se trata de un objeto material viviente, no sólo de una cosa física. Y la mente de mi cerebro

—.me refiero a mi mente— es un subconjunto de las funciones de mi cerebro, del mismo modo que mis sonrisas son contracciones

de algunos de mis músculos faciales, aunque no son automáticas

sino funciones deseadas por mi corteza prefrontal. Sin órgano, no hay función. En pocas palabras, hay objetos materiales, como los

cerebros, y hay procesos que tienen lugar en ellos, como los pensamientos y los sentimientos. Dicho de otro modo, hay cosas, objetos materiales, y nosotros, nuestros yoes.

Este no es un caso de dualidad o de bifurcación de la realidad, sino un caso de distinción entre cosas tales como los cerebros y determinados procesos que ocurren en ellos, por ejemplo los pensamientos. Así que ya lo he dicho: soy un monista confeso. Pertenezco al mismo club que Demócrito, no al de Platón, y siento un poco de pícaro placer ante la vacilación del gran Aristóteles sobre este

asunto, el origen intelectual de todas las religiones y filosofías. Soy materialista pero no fisicalista porque, como físico, he aprendido que la física no puede explicar ni la vida ni la mente ni la so-

ciedad. Ni siquiera puede explicar los fenómenos (apariencias),

porque estos ocurren en nuestros cerebros, que son cosas suprafísicas. La física tampoco puede explicar de forma completa las máquinas, puesto que estas encarnan ideas, tales como las de valor, finalidad y seguridad, que no son físicas. Sólo puede dar cuenta de la materia en su nivel más bajo de organización, el único que existía antes de la emergencia de los primeros organismos hace unos 3500

millones de años. En consecuencia, el fisicalismo, la primera de las versiones del materialismo, así como la más simple, no puede vérselas con las reacciones químicas ni con el metabolismo, el color,

la mente, la sociabilidad ni los artefactos. Nuestro concepto contemporáneo de materia no es el de Demócrito, ni siquiera el de Newton que es el que tiene la mayoría

de los filósofos y el motivo por el cual la mayoría de las personas

encuentra difícil creer que la materia pueda pensar. Y en cierto modo tienen razón: un puñado de canicas no puede pensar. Pero los

cerebros están hechos de un tejido viviente que tiene propiedades peculiares de las cuales la materia física carece; y los átomos que los

componen son mucho más sutiles y complejos que las pequeñas canicas imaginadas por los atomistas antiguos. De ahí que no deba confundirse el materialismo moderno con el fisicalismo, y mucho menos con el maquinismo, porque el primero es incluyente en

lugar de eliminacionista como es el segundo. Y pese a ello, en la literatura filosófica abundan las confusiones. La dualidad mente/cuerpo convencional se refleja en el abismo

que separa la filosofía de la mente de la filosofía de la materia. Bajo la influencia de Wittgenstein y Chomsky, la filosofía de la mente actual se considera a menudo una rama de la filosofía del lenguaje y, en consecuencia, algo totalmente ajeno a la filosofía de la materia.

Una consecuencia de esta bifurcación es el número de problemas filosóficos importantes que no se tratan de una manera fructífera.

Por ejemplo, ¿cómo podemos determinar si el universo es mental o si lo mental es físico, como creen algunos filósofos, si carecemos

de conceptos precisos y actualizados de materia y mente? Supuestamente, nuestros antepasados veían el mundo como una

sola cosa hasta que la religión lo partió en dos: la naturaleza y lo

sobrenatural; lo material y lo espiritual; lo inferior y lo superior; lo 10

accesible y lo inaccesible; lo conocido y lo misterioso. Salvo los atomistas, los antiguos griegos mantuvieron a sus dioses confinados

en el monte Olimpo con excepción de las escapadas ocasionales de Leus. Varias filosofías clásicas hindúes eran tanto naturalistas como racionalistas. Esto es así, en particular, en la importante escuela

Samkhya, que secularizó la dualidad materia/espíritu. Esta escuela anucipó en 14 siglos la distinción de Descartes entre res extensa, o materia, y res cogitans, o mente. Sin embargo, en ninguno de los dos tratados que se abstuvo de publicar utilizaba mucho esa división. En particular, siguiendo a Galileo, Descartes propuso explicaciones puramente físicas para las propiedades fenoménicas o secundarias y, finalmente, situó el alma en la glándula pineal. En el siglo siguiente, Berkeley intentó eliminar completamente el concepto de materia mediante la reconceptualización de todas las cosas en términos de percepciones: fue el primer fenomenista moderno. Hume y Kant lo imitaron, sin caer en la cuenta de que

el fenomenismo es una forma de antropocentrismo, la más primitiva de las cosmovisiones. Holbach y otros miembros de la Ilustra-

ción francesa restauraron la unidad de la realidad tomando como

base el materialismo y el cientificismo. El siglo siguiente, el idea-

lismo alemán —especialmente Hegel— rechazó la Ilustración y escribió de manera críptica acerca de la ruptura Geist/Natur, aunque evitando el subjetivismo de Kant, Fichte y Schelling. Marx y Engels rechazaron el idealismo, pero mantuvieron la palabrería de ese “poo o deroso pensador”. Dos generaciones después, el gran científico Ernst Mach resucitó a Berkeley sin proponérselo al afirmar que los constituyentes básicos

del mundo son las sensaciones. Todavía después, Alfred North Whitehead se lamentaba de la “bifurcación de la naturaleza” en lo físico y lo fenoménico, € intentaba restaurar su unidad mediante el restablecimiento del subjetivismo de Berkeley y Kant. Al mismo tiem-

po, su amigo y colaborador Bertrand Russell intentó superar el

dualismo reviviendo el monismo neutral de Spencer y concibiendo

cada objeto físico como una posibilidad de las Sensaciones, exac-

tamente como lo había hecho John Stuart Mill. Rudolf Carnap re-

calentó esa vieja comida y la condimentó con una nueva lógica. Ya

11

más cerca de nosotros, Karl Popper reinventó el dualismo mente-

cuerpo de Descartes, así como el espíritu objetivo descrito por Hegel y, más tarde, por Dilthey. Al mismo tiempo, muchos científicos

cognitivos inspirados por la revolución informática afirmaban que

los seres humanos somos una combinación de hardware y software, No hay nada como olvidar el pasado para regurgitar filosofías apa-

rentemente nuevas. Durante esa larga discusión entre monistas y dualistas, la mayoría de los filósofos sostuvo nociones precientíficas de la materia y la mente. Por ejemplo, John Locke ni siquiera estaba al tanto de la revolución iniciada por su contemporáneo Isaac Newton; David Hume sí que la advirtió, pero sólo para rechazarla enfáticamente

porque iba más allá de los fenómenos; y ni Locke ni Hume prestaron atención a la psicología médica, la cual había mantenido vivo el principio hipocrático de que los procesos y los trastornos mentales

ocurren en el cerebro. Hasta Bertrand Russell, posiblemente el

hombre más erudito de su época, repitió el mito de que la peculiaridad de la materia es la impenetrabilidad, y lo hizo dos siglos después del nacimiento de la física y la química de los gases, y mu-

cho después de que sus compatriotas Michael Faraday y James Clerk Maxwell hubiesen dado a luz la física de campos. En nuestra

propia época, algunos filósofos famosos, tales como Bas van Fraassen, creen que la mecánica cuántica calcula fenómenos (apariencias)

en lugar de propiedades físicas inaccesibles a nuestros sentidos, tales como los niveles de energía atómica y las secciones eficaces de dispersión.

En 1888, Henri Bergson, a pesar de su postura intuicionista, escribió sobre los “datos inmediatos de la conciencia” a la luz del

trabajo experimental de sus famosos contemporáneos Wilhelm Wundt, William James y Pierre Janet. En cambio, la mayoría de

los filósofos de la mente contemporáneos tratan la psicología con indiferencia o están notablemente mal informados sobre ella. Por ejemplo, en el debate sobre la hipótesis de identidad psiconeural, probablemente sostengan que, según esa hipótesis, el dolor es idén-

tico a la descarga de las fibras C, mientras que, en realidad, las fibras

nerviosas no descargan y, además, estas fibras en particular no pue-

den sentir nada porque solamente conducen las señales que activan los centros del dolor (y de su inhibición) situados en el cerebro; los cuales, dicho sea de paso, no necesitan estímulos externos para

complicarnos la vida. Todo esto no supone ser quisquilloso; se trata

de un asunto de interés médico, porque el dolor sin tratar puede continuar en el cerebro mucho tiempo después de que la lesión

que lo ha causado haya desaparecido: el recuerdo del dolor, tal como el recuerdo de un miembro perdido, puede quedar grabado de por

vida en el tejido nervioso. Por tanto, la mala filosofía puede producirnos un dolor crónico.

Los filósofos no son los únicos infractores. Hasta algunos de los

fundadores de las físicas atómica y nuclear, especialmente Bohr, Heisenberg, Born y Pauli, veían la teoría cuántica a través del fe-

nomenismo de Berkeley, Hume, Kant, Comte y Mach. Esta metafísica niega la existencia de las cosas en sí —tales como los átomos

y el interior del Sol, los cuales están fuera del alcance de los expe-

rimentos— o, al menos, la posibilidad de conocerlas. Más aún, algunos físicos prominentes han afirmado que el universo es creado por la observación. Nos dicen, por ejemplo, que el observador tiene

poder sobre la vida y la muerte del desafortunado gato de Schró-

dinger, el cual antes de la observación final estaría medio vivo y medio muerto. En realidad, esto no se sigue de la teoría cuántica:

cuando se la analiza, se advierte que esta teoría no se refiere en ab-

soluto a organismos, mucho menos a observadores y sus procesos mentales. El llamado efecto del observador, invocado en relación con la

teoría cuántica, presupone la concepción de la visión que se tenía en el antiguo Egipto, según la cual la luz procede del ojo del observador. Alhazen probó hace mil años que, en el proceso de la vi-

sión, la flecha apunta en sentido opuesto. Las estrellas surgen de los gases, no de las miradas. Desde luego, las cosas son muy dife-

rentes en un experimento, una intervención que modifica el objeto de estudio. Pero lo que causa esos cambios es la mano del experimentador o un servomecanismo controlado por este, no su mente sin más. Además, presuntamente, tanto el proceso mental inicial (el diseño experimental) como el final (la lectura de los instrumen13

tos) son procesos cerebrales. En consecuencia, no cabe duda de que

todos los eslabones de la cadena causal en cuestión son materiales, aunque sólo los del medio sean físicos. Si el pensamiento pudiera mover la materia sin el auxilio de las manos o las prótesis neurales, no habría conservación de la energía. En cuanto al otro lado de la distinción eso/nosotros, algunos de

los científicos que han investigado el cerebro más destacados del último siglo, tales como Charles Sherrington, Wilder Penfield, John Eccles y Roger W. Perry, se aferraron al viejo dualismo mente-cuerpo mientras contribuían al nacimiento de la neurociencia cognitiva,

afectiva y social. Este joven campo multidisciplinario da por su-

puesto que los procesos mentales son procesos cerebrales y actual.

mente es un área de investigación floreciente, en tanto que la

psicología sin cerebro se está marchitando. O Por lo tanto, la vieja dualidad materia/mente todavía está firmemente arraigada, no sólo en el conocimiento común sino en la filosofía y hasta en la psicología descerebrada (en particular, en la psicología computacional). Este libro es un intento más de recon-

ciliar la materia y la mente, esta vez con la ayuda de la ciencia contemporánea, especialmente de la física cuántica y la neurociencia

cognitiva. Propongo que nos tomemos en serio los dos conceptos

en cuestión y que en nuestra búsqueda de respuestas para estas viejas preguntas metafísicas prestemos atención a la ciencia. No es necesario creerles a los físicos al pie de la letra cuando se

aventuran en incursiones filosóficas: podemos dotarnos de ciertos instrumentos formales para averiguar de qué tratan realmente sus teorías. Por ejemplo, alrededor de 1930, Bohr y Heisenberg sostuvieron que la tarea de la física no era averiguar qué es la naturaleza sino lo que podemos decir de ella. Cualquier filósofo realista les podría haber dicho que las personas que analizan lo que la física

dice son filósofos e historiadores de la ciencia, en tanto que los fí-

sicos como ellos estudian átomos, estrellas y otras cosas, como prue-

ban sus fórmulas y experimentos. En lo que respecta a la mente, tenemos la ventaja de vivir en un período tanto posconductista como pospsicoanalítico, en un mo-

mento en el que las novedades psicológicas más apasionantes pro-

ceden del estudio del cerebro vivo, no de viejos libros. En efecto, la neurociencia cognitiva, afectiva y social está respondiendo, gradualmente, a la vieja pregunta filosófica “¿Qué es la mente?”. Esta multidisciplina ha comenzado a explicar cómo sentimos, apren-

demos y pensamos, así como por qué la cafeína nos mantiene despiertos, por qué podemos volvernos adictos a ella y por qué algunas personas sufren enfermedades mentales que las incapacitan. La filosofía de la mente es una de las ramas más activas de la filosofía contemporánea. Sin embargo, sólo unos pocos de los filósofos que la practican se toman la molestia de mantenerse al día

respecto a la ciencia de la mente, en particular respecto a la inno-

vadora neurociencia cognitiva. Esto explica el gran número de opiniones filosóficas extravagantes, tales como que es peligroso pensar que la mente está relacionada con el cerebro (Wittgenstein), que la mente puede guiar al cerebro (Popper), que la mente no es más

que un conjunto de programas informáticos (Putnam), que jamás conseguiremos conocer la mente (McGinn) o que ignoramos qué es lo físico, por lo cual es un error intentar reducir la experiencia a

lo que no es experiencial (Stoljar). En este campo, al igual que en

la Naturphilosophie romántica de hace dos siglos, todo vale, espe-

cialmente si se trata de algo científicamente obsoleto.

Sostengo que la arbitrariedad dominante en la filosofía de la mente de nuestros días resulta, en gran medida, de su aislamiento

tanto de la ciencia de la mente Como del resto de la filosofía, en particular de la ontología. Sostengo también que la manera correcta de tratar los problemas de la mente y la materia consiste en utilizar de forma intensiva las ciencias de la materia y la mente, e introducir

estos problemas en un sistema ontológico que se adhiera a las prin-

cipales categorías que aparecen en el estudio de la realidad en todos los niveles, desde los microfísicos hasta los macrosociales.

El motivo para la adopción de esta estrategia es que todas las Grandes Preguntas se presentan en manojos y no una a la vez. Esta es la razón por la cual son grandes. Estas preguntas exigen tener ideas claras acerca de diversas categorías interrelacionadas, como las de ser y devenir, causación y azar, mente y sociedad, significado y verdad, hipótesis y experimento. Por ejemplo, para evaluar ade15

cuadamente las ingeniosas, aunque descabelladas, conjeturas de los populares psicólogos evolucionistas, necesitamos saber algunas cosas

acerca de cómo se relaciona la mente con el cerebro y la sociedad,

así como sobre el modo en que se evalúan las hipótesis.

fiEn general, todas las llamadas Grandes Preguntas requieren

losofías comprensivas y sistemáticas, en lugar de unos cuantos aforismos agudos y experimentos mentales, tales como imaginar cómo se comportaría la gente en un planeta árido igual al nuestro. La

particularidad, la fragmentación y las fantasías sin control son el

sello característico de la improvisación filosófica. Pero, desde luego,

la amplitud y el sistema no bastan: también deseamos rigor, Pro”

fundidad y la promesa de llegar a la verdad en nuestro abordaje de

los problemas de relevancia. En otras palabras, deseamos utilizar

el mejor conocimiento existente para ayudar a resolver algunos pro-

blemas importantes poniéndolos en un contexto amplio y en rela-

ción con otros conocimientos, aun con otras disciplinas, $1 eso €s necesario, y tratarlos con rigor y en profundidad.

Creo que una filosofía sin ontología es una filosofía invertebrada;

sin semántica es una filosofía confusa; sin gnoseología es acéfala;

sin ética es sorda, paralítica sin filosofía social y obsoleta si no goza del respaldo de la ciencia; y no es filosofía en absoluto si carece de todo lo anterior. Me he ocupado de todas estas ramas de la filosofía

en los nueve tomos de mi 77atado (1974-1989). El libro que el lec-

tor tiene en sus manos abarca un ámbito mucho más reducido: se

centra en las concepciones modernas de la materia y la mente. Dicho sea de paso, su comprensión no exige ningún conocimiento

especializado. Solo hago uso de algunos instrumentos formales en los dos apéndices. Mi Philosophical dictionary (Bunge, 2003d) puede

ayudar a dilucidar algunos términos filosóficos. Agradezco a Martin Mahner por hacerme notar varios errores,

así como por intentar moderar mis diatribas. También estoy agradecido a Graham Bell, Carlos EF. Bunge, Silvia A. Bunge, Carmen Dragonetti, Bernard Dubrovsky, Alberto Galindo Tixeira, Antonio Lazcano, Jean-Marc Lévy-Leblond, Michael Mathews, Ignacio

Morgado-Bernal, Andreas Pickel, Jorge Quintanilla, Arturo San-

galli, Dan A. Seni, Endel Tulving, Nicolás Unsain, Héctor Vucetich,

así como a mis amigos, ya fallecidos, Dalbir Bindra, David Bohm,

Andrés Kálnay, Raymond Klibansky y Bruce G. Trigger. A ellos les debo datos, preguntas, sugerencias, críticas y aliento. Mario Bunge

Montreal, Quebec, Canadá

Introducción

Como Descartes, la mayoría de la gente cree que el mundo está compuesto de entidades de dos clases radicalmente diferentes: marerial y espiritual, cuerpos y almas. Los marerialistas como Hipócrates, Demócrito, Spinoza, Holbach, Diderot y Engels, y los idealistas como Platón, Leibniz, Kant, Hegel, Bolzano y Russell

han criticado esta cosmovisión dualista y han afirmado, en cambio, que hay una sola clase de sustancia fundamental. Es decir, estos pensadores han defendido el monismo —materialista, idealista o neutral— y, por lo tanto, han rechazado el dualismo. Pero, desde

luego, el dualismo —+el punto de vista de que mientras algunas cosas son materiales, otras son espirituales— siempre ha sido la me-

tafísica más difundida. En cambio, el monismo neutral —la perspectiva de que lo material y lo ideal solo son manifestaciones de una sustancia neutral desconocida— es el menos extendido. Sin embargo, en la actualidad, a los estudiantes de filosofía normalmente no se les dice nada acerca del materialismo, a la vez que se los carga con minucias sobre Platón, Kanr, Hegel, Dilthey, Husserl y otros idealistas. Imagínese el lector a las facultades de ciencia, ingeniería y medicina enseñando que el mundo se compone de en-

tidades espirituales en lugar de estar compuesto por entidades mareriales. Nunca se descubriría nada y los únicos que estarían contentos serían los bibliotecarios y aquellos para quienes las cuentas lo son todo, ya que los laboratorios, los observatorios, los talleres y

las estaciones experimentales no tendrían ninguna función. 19

Este libro sostiene que las ciencias naturales modernas, desde la Hisica hasta la neurociencia cognitiva, se han adherido de manera tdctta a la perspectiva materialista, la cual afiema que el universo se compone únicamente de cosas COnCrehas y que a las ciencias sociales

y biosociales les iría mejor si siguieran ese ejemplo, Esto no equivale

a negar que existan los procesos mentales. Los materialistas sólo afirman que no existen las mentes incorpóreas. Pueden añadir que antes del surgimiento de los mamiferos y las aves no había mentes, Además, los materialistas sostienen que los qualia, los sentimientos, la conciencia y hasta el libre albedrío son reales y están al alcance

de la investigación científica. Asimismo, los materialistas insisten en que los resultados de laboratorio no serían fiables si se diera por supuesto que existen espíritus autónomos que pueden interferir

con los instrumentos de medición.

Dicho lo cual, debemos admitir que el materialismo está gravemente subdesarrollado, hasta el extremo de no haber un concepto

de materia que sea aceptado de forma general, a diferencia de lo que sucede con los conceptos especiales de materia que manejan

los físicos, químicos, biólogos e ingenieros. Lo mismo vale, en gran medida, para el concepto de mente: todavía no disponemos de una teoría materialista de la mente que cuente con la aceptación general, Además, el estatus de los objetos abstractos, como los que han in-

ventado los matemáticos, es todavía más precario, dado que no parecen ser ni materiales ni mentales. Este es el motivo por el que

algunas de las principales tareas propuestas en este libro consisten

en dilucidar los conceptos generales de materia y mente a la luz de la ciencia contemporánea. (La naturaleza y el estatus de los objetos

matemáticos y otros trascendentales se tratan en Bunge, 2006a). Esta sola característica basta para colocar este libro fuera de la metafísica ortodoxa contemporánea, la cual gira en torno a los conceptos de mundo posible y contrafáctico, con total despreocupación

respecto del mundo real y, con mayor razón, respecto de lo que pueda hacerse por mejorarlo. Sostengo, en cambio, que las principales ideas contenidas en este libro son congruentes con el matérialisme instruit o materialismo culto que, de forma implícita, €s inherente a la ciencia contemporánea (Changeaux, 2004, pág. 8). 20

Sin embargo, no cabe duda de que convertir las ideas tácitas y, por ende, rudimentarias, en ideas bien articuladas es parte de la tarea del filósofo.

Las que se exponen en este libro no son ideas aisladas. Forman parte de un sistema filosófico cuyos componentes se muestran en la figura 1.

HUMANISMO

EXACTITUD

DINAMISMO

REALISMO

SISTEMISMO

MATERIALISMO

Figura 1. Esquema del sistema filosófico del autor. (Tomado de Bunge, 2009).

21

Parte I La materia

l

La filosofía como cosmovisión

Una cosmovisión es una concepción abarcadora de todo lo que existe, en tanto que la filosofía es una disciplina académica dividida

en áreas o campos particulares, cada uno de los cuales, por lo habitual, se cultiva de forma independiente de los demás. Por ejemplo,

el filósofo de la mente típico no se interesará por la filosofía de la materia. Como consecuencia, puede resultarle difícil creer que la materia pueda pensar. O, en caso contrario, puede ser un naturalista demasiado radical como para creer que los cerebros puedan segregar

culturas. Me propongo restaurar la unidad tradicional de la filosofía considerada como una cosmovisión elaborada o, si se lo prefiere, como una teoría de todas las cosas. Esta concepción unitaria o in-

tegrada de la filosofía debe contribuir a colocar cada problema filosófico en una red de conocimientos, en lugar de abordarlo como un rompecabezas aislado de todo lo demás. La filosofía es importante en todos los ámbitos de la cultura in-

telectual ya que una opinión filosófica puede o bien alentar o bien obstaculizar la exploración de la realidad. Por ejemplo, Joseph Ne-

edham, el gran experto en la cultura china, se hizo la siguiente pregunta: “¿Por qué la ciencia moderna no nació en la civilización más avanzada en su época, es decir, en la civilización china?”. Su res-

puesta fue, en términos generales, la siguiente: porque la cultura intelectual tradicional china estaba dominada por el budismo, el taoísmo y el confucianismo. Buda había enseñado que todo era apariencia e ilusión; Lao-Tse, que la contemplación está por encima 25

de la acción; y Confucio, que lo único que que importa es la coexistencia pacífica y la obediencia a la tradición. Ninguno de los tres

maestros animó a la gente a salir a explorar lo desconocido, y mucho menos a modificar lo conocido. La filosofía es inevitable. Con todo, irónicamente, la filosofía es

una disciplina que duda de sí misma; es la única que no tiene un ámbito de estudio bien definido y es concebida de manera diferente por diferentes estudiosos. En mi opinión, toda filosofía digna de

ese nombre es una cosmovisión explícita y bien organizada, en lugar

de una colección de opiniones inconsistentes sobre esto y aquello, Tengo la expectativa de que los filósofos nos digan algo interesante acerca del mundo, de nuestro conocimiento sobre él y de nuestro

lugar en él. Es decir, que una filosofía propiamente dicha se organiza en torno a una ontología o metafísica: una teoría del cambio y la

invariancia, del espacio y el tiempo, de las causas y el azar, del cuerpo y la mente, de la persona y la sociedad, etcétera. Como he dicho,

una filosofía sin ontología és una filosofía invertebrada, del mismo modo que sin lógica ni semántica es confusa, acéfala sin gnoseología

y paralítica si carece de una filosofía práctica. Un cuerpo de ideas que no tenga ninguna de las cinco, como es el caso de los aforismos de Wittgenstein y las crípticas sentencias de Heidegger, no es filosofía en absoluto. Véase la figura 1.1. E Una ontología, cosmología o cosmovisión es mucho más que un paquete de información: sin duda también inspirará, o bien in-

hibirá, proyectos de investigación, sean estos tímidos o audaces. Piense el lector en cualquiera de las influyentes ideas cosmológicas LÓGICA Y SEMÁNTICA

r

ONTOLOGÍA

A

GNOSEOLOGÍA

PRÁCTICA

Figura 1.1. Toda filosofía digna de este nombre está centrada en una ontología.

26

que siguen, algunas puramente especulativas, pero ninguna de ellas ronta: que el universo es infinito, o bien finito, tanto en el espacio como en el tiempo; que está mayormente vacío o totalmente lleno;

que cambia eternamente o que no cambia; que es legal o contingente, material o ideal; que la realidad es o bien una colección de individuos o bien un sistema; que los primeros organismos emergieron a partir de materiales prebióticos mediante procesos de auroorganización; que todas las bioespecies son ramas del mismo árbol de la vida; que el genoma es o bien destino o bien posibilidad; que los procesos mentales son procesos cerebrales o, por el contrario, los cambios de un alma inmaterial; que lo que impulsa la acción humana es la pasión o los intereses, los estímulos ambientales o el

cálculo racional; que los humanos somos esclavos o seres libres; que

somos altruistas, egoístas o mitad y mitad; que vivir en sociedad

equivale a competir, cooperar o una de estas cosas según las circunstancias; que las jerarquías sociales son naturales o artificiales; que la igualdad es un espejismo o un ideal alcanzable; que hay verdades universales y normas morales; que la moralidad está por encima de la ley positiva o viceversa; y que la tecnología puede ser o

buena o mala. Las personas han defendido con pasión, y hasta se han matado unas a otras, por algunas de estas grandes ideas, especialmente por aquellas incluidas en las ideologías religiosas y sociopolíticas. Aún así, la mayoría de los filósofos contemporáneos se las arregla para ignorar estas grandes preguntas, porque prefieren cultivar en una maceta antes que salir a explorar el campo abierto. 1.1. Universo y cosmovisión Resulta muy difícil orientarse en el entorno sin tener algunas ideas acerca de él, por más bastas que estas sean. En efecto, para afrontar

una situación cualquiera es necesario que sepamos si es real o ima-

ginaria, profana o sagrada, sensible o insensible a nuestras acciones, etcétera. Este es el motivo por el cual aun los organismos inferiores desarrollan, si no cosmovisiones, al menos mapas sensoriales rudimentarios de su entorno inmediato, tal como han señalado los etó27

logos desde el principio (por ejemplo, von Uexkiill, 1921). Sin em-

bargo, en general se da por sentado que sólo los humanos podemos

construir modelos conceptuales de nuestro ambiente. Además, con

excepción de algunos filósofos, los humanos distinguimos los mapas de los territorios que ellos representan. _ La noción de representación pertenece a la semántica (véase, por ejemplo, Bunge, 19742). Se la puede dilucidar del siguiente modo.

Se dice que un conjunto Y de ideas pertenecientes a animales de

la clase K hibición, 92 evoca miembros lo hacen,

representa un conjunto ( de objetos para los K, si la exrecuerdo o imaginación de algunos de los miembros de una sensación, percepto o concepto en algunos de los de K. Adviértase nuestra suposición tácita de que, cuando diferentes especies de animales construyen representacio-

nes diferentes de la misma colección de objetos.

Con respecto a la sustancia de lo representado (9) y del representante (2), podemos distinguir tres clases básicas: fáctica (cosas

y procesos), conceptual (conceptos, proposiciones, clasificaciones y teorías) y semiótica (signos, figuras y sonidos). Véase la tabla si-

guiente.

Q (representado)

2 (representante)

Ejemplo

Fáctico

Fáctico

Modelo a escala

Fáctico Fáctico

Conceptual Semiótico

Teoría científica Texto científico

Conceptual Conceptual

Fáctico Conceptual

Operación informática Números y puntos

Conceptual Semiótico

Semiótico Fáctico

Texto matemático llustración de un texto

Semiótico

Conceptual

Análisis de un texto

Semiótico

Semiótico

Traducción

Con respecto a la forma, en principio hay tres relaciones de re-

presentación posibles: uno-uno, como en el caso de una nota mu-

sical y un sonido; uno-muchos, como en el caso de las diferentes

cosmologías; y muchos-uno, como en el caso de todos los conceptos generales de hombre. Las representaciones uno-uno, las más fidedignas de todas, son muy difíciles de obtener. Por ejemplo, la correspondencia entre un punto y un número es de tipo uno-uno,

pero la correspondencia numeral-número no lo es, porque la enorme mayoría de los números reales no tiene nombre, y esto se debe

a que mientras los primeros constituyen un continuo, toda lista de nombres es contable. La correspondencia entre palabra y hecho, o entre concepto y mundo, es todavía más problemática, aun cuando subyace a la teoría de la verdad como correspondencia. En concreto,

la opinión de que tal correspondencia es isomórfica resulta insostenible porque la relación de isomorfismo está definida únicamente para conjuntos y hete aquí que el mundo no es un conjunto. En

realidad, la correspondencia entre teoría y mundo es indirecta (véase el capítulo 15).

Lo anterior presupone una gnoseología realista. Los idealistas no necesitan el concepto de representación porque sostienen que

la realidad está constituida por ideas (idealismo objetivo) o por signos (hermenéutica). En particular, los pitagóricos pensaban que el mundo estaba hecho de números, la hermenéutica filosófica afirma que los hechos son textos, y los “metafísicos digitales” contemporáneos sostienen que las cosas (es decir, las entidades materiales)

están formadas por bits (o sea, por unidades de información). Una objeción obvia a la posición de los pitagóricos es que los números no poseen propiedades físicas, empezando por la energía. La muchedumbre de los partidarios de los ¿ts from bits [cosas a partir de birs”] se equivoca porque los bits carecen de energía y porque el concepto de información sólo tiene sentido con referencia a los sistemas de información, los cuales son artefactos muy especiales. Por último, también la hermenéutica es falsa porque el mundo real no tiene ni gramática ni fonología ni estilo. La naturaleza exige el enfoque naturalista, del mismo modo que la sociedad debe describirse mediante el uso de categorías tanto sociales como biológicas y las ideas en términos conceptuales así como neurocientíficos. 29

1.2 Monismo y pluralismo Las cosmovisiones u ontologías pueden clasificarse en monistas y pluralistas. según postulen sólo una o más clases de cosas. Hay tres

géneros de monismo: materialista, idealista y neutral. Cada uno de estos tres géneros se divide en dos o más especies. Por ejemplo, el materialismo puede ser fisicalista (sólo el nivel más bajo) o emergentsta (muchos niveles). El idealismo puede ser racionalista (todo

es ideal), empirista (en particular, fenomenista), semiótico (todo es lingilístico) o “informacionista” (todo “eso” —las cosas— está hecho de bits). Además, hay por lo menos dos versiones del monismo neutral: el energetismo (todo es enérgico) y el agnóstico.

Según este último, la sustancia neutral es incognoscible, pero po-

demos conocer sus dos manifestaciones: la materia y la mente. Ese es el monivo de que a esta doctrina, sostenida por Spencer y alguna vez por Russell, también se le haya llamado “teoría del doble aspecro”.

Del marerialismo se ha dicho que es la ontología espontánea de

los científicos. Esto vale para los científicos experimentales. Pero algunos destacados físicos teóricos han reinventado el idealismo de Plarón y el fenomenismo de Buda, Prolomeo, Hume, Kant, Comre

y Mach. En cuanto al vitalismo, si bien fue herido de gravedad en

el siglo XIX por la fisiología y la biología evolutiva, no murió hasta alrededor de 1920. Además, el idealismo todavía está vivo en la

psicología sin cerebro, así como en los suburbios de las ciencias sociales: la antropología interpretativa (o hermenéutica) y la sociología fenomenológica.

En ocasiones se ha dicho que el idealismo y el dualismo son como las versiones seculares de la religión. Esto resulta especialmente

obvio en el idealismo de Agustín de Hipona y en el aristotelismo de Tomás de Aquino y los neotomistas. Sin embargo, el idealismo moderno, de Kant en adelante, ha sido secular y, a menudo, ateo,

En realidad, el idealismo ha dejado de cumplir toda función social, excepto como baluarte académico contra el marxismo y —en el

caso de la escuela neokantiana de la Verstehen— como obstáculo para el desarrollo de las ciencias sociales. 30

Las cosmovisiones más primitivas son dualistas, es decir, suponen que la realidad está dividida en dos estratos que no se intersecan: lo mundano o profano por un lado, y lo sobrenatural o sagrado por otro, Además, al estrato mundano se lo divide habitualmente

en dos niveles: materia y mente, o cuerpo y alma, El animismo, especialmente, postula que todo lo que existe —sea piedra o estrella, planta o animal— es “animado”, es decir, escá habitado por un espíritu inmaterial o alma, En principio, el espírita o alma es separable de su portador material: se lo puede transferir a alguien o algo

más, o puede sobrevivir a la muerte del cuerpo. Por eso, en brasileño

cortés, “morir” se dice “desencarnar”, El panteísmo no es más que un animismo monotcísta: fusiona todos los poderes celestiales e infernales en uno solo y postula la

identidad entre naturaleza y Dios, El panteísta moderno más conocido es, por supuesto, Spinoza. Otro caso es el de Ernst Hacekel,

el gran embriólogo, primer seguidor alemán de Darwin y popular e influyente escritor sobre ciencia. Como Haeckel, Paul Carus sos-

tenía que todas las cosas son tanto mareriales como espirituales, pero su espíritu es completamente secular y equivale a la facultad de conocer. Dicho sea de paso, el espinozismo de linstein no cra

más que una estratagema para apaciguar las acusaciones de ateísmo: Einstein rechazaba enfáticamente toda creencia en una deidad per-

sonal y le desagradaban todas las religiones organizadas. La deidad naturalista, secular y tímida de los panteístas nunca consiguió engañar a los fieles: se les acusó de ser criproateos. Si Dios está en

tocas partes y lo tenemos en la mano cada vez que sostenemos una cosa, entonces Él es sólo “eso” (una cosa).

Puede que el motivo principal de la división entre lo natural y

lo sobrenatural haya sido el desco de garantizar la inmortalidad del alma. Además, se dice que una de las razones para defender el dualismo mente-cuerpo cartesiano es la siguiente. Mientras que la materia sólo puede estudiarse desde fuera, tenemos acceso directo 1 nuestras almas: podemos practicar la introspección. Asimismo, según Agustín de Hipona y Husserl, únicamente la introspección puede ofrecer un conocimiento profundo del mundo,

Unos cuantos filósofos han tenido necesidad de más de dos sus31

rancias. Por ejemplo, en sus Cuadernos filosóficos, Lenin (1981, vol. 36, pág. 182), infectado por el entusiasmo de Hegel por las tríadas, escribió hacia 1914 que “existen en realidad, objetivamente, tres miembros [sic]: (1) la naturaleza, (2) la cognición humana = el ce-

rebro humano (como el producto más elevado de esa misma na-

ruraleza) y (3) la forma del reflejo de la naturaleza en la cognición

humana, y esta forma consiste precisamente en conceptos, leyes,

categorías, etc.”. Adviértase la ausencia de un cuarto “miembro”

entre los términos primero y segundo, a saber, la sociedad. Presuntamente, Lenin la incluyó en la naturaleza y, con ello reemplazó: de

manera inadvertida su materialismo declarado por el naturalismo, tal vez porque el número cuatro no resulta demasiado atractivo para un admirador de las ubicuas tríadas de Hegel. Poco podía sospechar Lenin que, medio siglo después, un notorio filósofo antileninista adopraría esa misma doctrina de los tres mundos. De hecho, Karl Popper (1967) dividió la realidad en tres “mundos”: el mundo 1 (físico), el mundo 2 (mental) y el mundo

3 (el espíritu objetivo de Hegel). Popper defendió “la existencia

(más o menos) independiente del mundo 3” (las cursivas son de Popper), así como la interacción entre los tres “mundos”. Dicho sea de paso, aquí no se trata de mundos propiamente dichos (o sea, de sistemas) sino de batiburrillos de elementos heterogéneos,

Esta cosmovisión triádica es parte de la metafísica de sentido común. En efecto, siempre ha resultado habitual y cómodo distin-

guir entre, digamos, los cerebros, los procesos mentales y sus “productos”, tales como los poemas o los teoremas considerados en sí mismos, es decir, sin prestar atención a su origen. Sin embargo, esta distinción no es fundamentalmente diferente de la que pueda haber entre un trozo de arcilla, el trabajo del alfarero y el florero resultante; o entre un organismo, su metabolismo y las consecuencias de este,

Todas estas tríadas caben en una ontología materialista a con-

dición de que sus constituyentes sean distinguidos, pero no separados. Por ejemplo, el cerebro es una entidad material, las ideaciones

son procesos cerebrales y simular que el producto final de esos procesos puede separarse (¡en el pensamiento!) de su génesis es otro 32

proceso mental, Pero la distinción no exige la separación, Por lo

general, las distinciones asociadas a la descripción y el análisis no tienen ningún correlato ontológico. Por ejemplo, es legítimo distinguir los cuerpos de sus movimientos porque, de hecho, pertenecen a categorías diferentes, aunque solo fuera porque diversos

cuerpos distintos pueden moverse aproximadamente del mismo modo, Esto, sin embargo, no supone que el movimiento pueda separarse de los cuerpos o de otras cosas materiales. Por último, ocupémonos brevemente del monismo neutral. Esta perspectiva fue defendida por Herbert Spencer, William James y Bertrand Russell, asf como por energetistas, tales como Wilhelm Ostwald, Algunos monistas neutrales propusieron su doctrina como una posición de transigencia entre el materialismo y el idealismo, otros como un puente entre la ciencia y la religión. Evidentemente,

no hubo compradores. La transigencia, deseable con tanta frecuen-

cia en la tecnología y la política, es tan catastrófica en la filosofía como lo es en la ciencia: en estos ámbitos es un indicador de superficialidad.

Los compañeros metodológicos de los diferentes principios merafísicos son obvios. Los materialistas tenderán a sostener que sólo se puede conocer el universo mediante el estudio de las cosas concretas; los idealistas, que conocer algo equivale a realizar una exploración puramente mental (racional o intuitiva); y los monistas

neutrales, que la sustancia neutral es incognoscible, aun cuando sus manifestaciones —la matería y la mente— se puedan conocer. 1.3 La metafísica: de sentido común,

especulativa, científica La metafísica u ontología es el estudio de los problemas más básicos y generales acerca del universo y la mente, (Esta es la perspectiva clásica; obviaremos la confusión de Quine entre ontología y clase

de referencia o denotación). Hay cuatro actitudes principales ante la ontología: negar su legitimidad (el escepticismo radical, el positivismo y Witigenstein); desarrollar la física de sentido común (co33

mo

hizo Strawsen) o la psicologa

pop

(como

hace la

mayoría de

los Iilósotos de la mente); construir ingeniosas teorías (como la monadologa de Leibarz, la Blosofía de la naturaleza de Hegel o la me-

tabísica de procesos de Whitehead) y desarrollar el proyecto de lilosolía científica de Peirce, el cual enticode la ontología como una ciencia general, Adopraremos este último punto de vista (Bunge,

19774, 19/94, 1981),

Comencemos por recordar algunas convenciones que rigen:el

uso de un puñado de categorías onrológicas clave, Lo haremos mediante un hecho conocido, Imagínese el lector una piedra que cae

en un lago y causa una onda en el agua. La piedra y el lago son cosas que comparten ciertas propiedades (vales como la masa) y dihieren en otras (como en la composición y la densidad). El impacto

de la piedra en el cuerpo de agua es un suceso o, mejor dicho, un proceso, dado que toma cierto tiempo (un suceso es un cambio ins+ tantánco). Se puede conceptuar un proceso que ocurre en una Cosa

o bien como una serie de sucesos de la cosa, o bien como una secuencia de estados de la cosa. Además, cada estado puede concebirse

como una lista de los valores de las propiedades pertinentes. Una

onda en la superficie del lago es un proceso y se lo caracteriza médiante su amplitud y frecuencia. (Sin embargo, en términos es trictos, estas son propiedades de las partículas que componen el cuerpo líquido). Finalmente, el impacto y las ondas resultantes son, respectivamente, cara y efecto, En consecuencia, la causación

—el nexo causal— relaciona sucesos O procesos, no Cosas, propiedades ni estados, (Por consiguiente, decir, por ejemplo, que

un proceso cerebral causa un estado mental, como hace Searle (2007, pág. 40), viola una regla lingilística común y desbarajusta

la ontología), asta aquí nos hemos encontrado con seis categorías on rológicas: las de cosa, propiedad, suceso, proceso y causación, Otras dos caregorlas más pueden definirse como sigue. Se puede definir el

cambio como un suceso o un proceso que, desde luego, acontece en tuna cosa concreta, Además, una cosa que tiene cierta propiedad, está en un estado dado o experimenta un cambio, se llama hecho.

Desde luego, hay otras dos categorías de la misma clase que han

estado merodeando en el trasfondo de lo que acabo de decir: las de espacio y tiempo. Adviértase el orden lógico de las categorías ontológicas mencionadas:

cosa < propiedad < estado < proceso < causación. Este orden es absoluto, no contextual. Es decir, sería erróneo

tratar una entidad determinada como una cosa en un contexto y

como una propiedad, estado o proceso en otro. Hay una razón lógica para ello, a saber, que cada categoría, después de la primera, se define en términos de un concepto previo. Es verdad, su uso en la filosofía no es consistente, ni siquiera lo es en la ciencia. En consecuencia, en la física del estado sólido a menudo se trata a los fonones como partículas, aunque en realidad son ondas sonoras de los sólidos y, por ello, procesos en lugar de cosas. Es cierto, los fonones se parecen a los fotones en que su energía está

cuantizada; además al igual que las partículas, los fonones son dispersados por los fotones incidentes. Con todo, afirmar que los fonones dispersan la luz como sí fueran partículas no es lo mismo

que afirmar que son partículas. Y la mencionada analogía es solo parcial, ya que no hay fonones libres (independientes de un sólido). Solo los ficcionistas [o ficcionalistas] y otros negadores de

la verdad rechazan la diferencia entre la ficción y la realidad: los

demás somos realistas. Lo anterior basta para rechazar, por ser lógicamente erróneas, las definiciones de cosas o bien como haz de propiedades (Russell,

1914) o bien como conjunto de procesos (Whitehead, 1929). En

efecto, todas las propiedades son características de cierta entidad;

sólo las entidades (o, si se prefiere, las propiedades de las mismas)

son mudables (o cambiables); y todos los procesos tienen lugar en

cosas. Por lo tanto, es un error decir que las cosas son instantáneas de los procesos (Lewontin y Levins, 2007), porque eso es precisa-

mente lo que son los estados (de las cosas). Asimismo, es incorrecto afirmar que el mundo es el conjunto de todos los hechos (Wittgenstein, 1922) o que se compone de estados (Armstrong, 1997).

Las razones de ello son que, por definición, la composición de toda 35

cosa concreta es un conjunto de cosas, y no hay ni hechos ni estados

separados de las cosas. (Más sobre esto en el capítulo 14).

Sostengo que todas las ciencias fácticas dan por supuesto que el

mundo está compuesto por cosas concretas, desde las partículas elementales y los fotones a las personas y los sistemas sociales (Ta-

deusz Kotarbinski llamó reísmo a esta tesis). El concepto de cosa es

tan ubicuo y tan irresistible que a menudo nos permitimos la rej-

ficación, es decir, llamamos “cosa” a objetos que no lo son, tales

como los procesos, los conceptos y las palabras. Otras veces, espe-

cialmente en la literatura filosófica, falta el concepto de sistema o

cosa compleja, tal vez porque sólo tiene 500 años de antigúedad, cuanEn efecto, surgió en los primeros tiempos de la modernidad,

do Copérnico pensaba en los planetas como miembros del se solar y Harvey hipotetizaba que el corazón era el componente Clave del sistema cardiovascular.

En la actualidad, todas las ciencias y tecnologías se ocupan de

sistemas de muy diversas clases, desde los átomos a los cristales, de

las células a los organismos pluricelulares, de las máquinas a los sis-

temas sociales, además de sistemas conceptuales tales como los espacios vectoriales, y sistemas semióticos tales como los Na

El concepto de sistema se ha hecho tan ubicuo que la realidad o e universo se considera cada vez más el sistema de todos los sistemas. Este es, precisamente, el postulado central del sistemismo (Bunge, 19794). A su vez, el sistemismo implica el emergentismo, la tesis de que todo sistema posee propiedades globales o emergentes de las cuales sus componentes carecen. Pensemos, por ejemplo, en una gota de agua y las moléculas HO que la componen, o en una familia y sus miembros. Una gota tiene características, como la tensión superficial y la temperatura, de las cuales sus componentes moleculares carecen; asimismo, una

familia posee propiedades, tales como el número de miembros y la armonía (o falta de ella), que sus miembros no poseen. El correlato metodológico del emergentismo es la regla que insta a estudiar

los sistemas en dos niveles: el nivel del sistema, o macronivel, y el de sus constituyentes, o micronivel.

Una investigación inadecuada puede pasar un sistema por alto

o confundir un simple ensamblado de objetos con un sistema, Por ejemplo, en un comienzo, se consideraba que los sistemas endocrino e inmunitario eran cosas aparte, mientras que, En realidad, cons-

tituyen un supersistema; en cambio, ahora sabemos que el llamado sistema límbico es un ensamblado de órganos de los cuales sólo al-

gunos están estrechamente conectados, Hasta aquí hemos dado por obvio el concepto de propiedad, pero no lo es. Platón y sus seguidores pensaban que las “formas” (propiedades) preceden a las “sustancias” (individuos, objetos, cosas). De ahí la conocida locución “la cosa c instancia [ejemplifica]

la propiedad P]. Aristóteles corrigió a su antiguo maestro en este punto decisivo, sosteniendo que cada propiedad es una característica de una cosa, que toda cosa posee diversas propiedades y que algunas de estas cambian. En este asunto, la ciencia y la tecnología han seguido a Aristó-

teles: damos por supuesto que tratamos con cosas provistas de sus propiedades. Estas pueden ser intrínsecas, como la numerosidad y la composición; relacionales, como las de “ser amante de” y “estar entre”; mudables, tales como la localización y la edad, o invariantes,

como las leyes. No hay ninguna propiedad que pueda ser separada de la cosa que la posee. Además, muchas propiedades pueden conceptuarse de maneras diferentes. Esto nos obliga a distinguir las propiedades de los predicados: las primeras son ontológicas, en tanto que los segundos son conceptuales. Lo anterior indica que una ontología no debe ser improvisada. También indica que no es posible arriesgar generalizaciones sobre el mundo real sin utilizar algunas categorías ontológicas tales como las de sistema y propiedad emergente: la ontología no es algo aparte de la ciencia, sino que su lugar está en el meollo mismo de la ciencia. Con todo, es probable que la mayoría de los científicos y los tecnólogos niegue que los hechos del mundo real tengan una carga

ontológica. Hasta algunos filósofos han creído posible y deseable eliminar el “bagaje metafísico”, por ejemplo limitando la ciencia a “salvar los fenómenos” o apariencias, tal como han propuesto Ptolomeo, Hume, Kant, Comte y Mach y en época reciente van Fraas-

sen (1980). El único modo de evitar la metafísica es quedarse en 37

lo particular: todas las generalizaciones que tratan de hechos, tales

como “Todas las cosas cambian” y “No existen dos cosas concretas

estrictamente idénticas”, suponen categorías ontológicas. De ahí

que mantener la ontología propia en orden y actualizada sea mucho más fructífero que condenar la metafísica o dejar que la vapulee algún as de la lengua,

Admitamos, sin embargo, que la metafísica se ha ganado su mala fama entre los científicos y, hasta hace muy poco, también entre

los filósofos. El motivo es, por supuesto, que se ha basado, en su ERAfUr parte, en conocimientos obsoletos o, peor aún, ha consistido

o bien en especulaciones descabelladas (por ejemplo, los mundos

posibles de Saul Kripke y David Lewis), o bien incluso en juegos de palabras (como en el caso de Heidegger). El popular “experimento mental de la Tierra Gemela” ideado por Hilary Putnam en

1973 es un caso ilustrativo. Imaginemos un planeta como el nuestro

habitado por nuestros gemelos idénticos. Hay, sin embargo, una diferencia: la Tierra Gemela no tiene agua; es árida en una versión

del juego y en otra el agua es reemplazada por un líquido con una composición química totalmente diferente. Detengámonos aquí. Un filósofo debería saber que la vida es imposible sin agua, la cual posee propiedades únicas: es líquida en el intervalo de temperatura “adecuado”, es un solvente casi universal, sus moléculas están unidas

por enlaces de hidrógenos, tiene baja conductividad eléctrica, etc.

La posesión conjunta de estas propiedades hace que el agua resulte peculiar e indispensable para la vida, tal como señaló Lawrence Henderson (1913) hace un siglo. Evidentemente, un planeta sin agua

carecería de organismos, por lo que no sería un gemelo de la Tierra, lo cual, a su vez, lo haría merecedor de un nombre diferente.

Los filósofos también deberían saber que las propiedades se presentan en manojos —están interrelacionadas por leyes— por lo

que no se las puede reemplazar o eliminar de manera arbitraria. Pero, desde luego, la noción misma de ley, que sirve para distinguir

lo real de lo que es sólo una posibilidad imaginaria, es algo completamente ajeno a estos profesores que se dedican a juegos de salón en lugar de abordar problemas serios. Regresaremos a este tema en el apartado 11.5, cuando estudiemos los zombis inconscientes ima38

einados por Saul Kripke como medio para refutar el monismo psiconeural. Charles S. Peirce (1935), en mi opinión el más profundo, ori-

ginal y versátil de los filósofos estadounidenses, pensaba que era posible elaborar una metafísica científica, es decir, teorías metafísicas que utilizaran el inmenso almacén de la matemática y la ciencia fáctica. Yo estoy de acuerdo con él y a ello añado que desarrollar una metafísica científica debería ser muchísimo más interesante que fantasear acerca de mundos físicamente imposibles. Además, en tanto que la metafísica especulativa no tiene sostén (justificación), las hipótesis de la metafísica científica se pueden controlar mediante su compatibilidad con el conocimiento científico actual, Por ejemplo, las teorías relacionales del espacio y el tiempo son coherentes con las teorías de la relatividad, mientras que las teorías

del espacio y el tiempo absolutos no lo son. Una vez más, las filosofías de la mente que dan por supuesta la hipótesis de la identidad psiconeural son consistentes con la neurociencia cognitiva, pero las teorías dualistas no lo son (véase Bunge, 1977a, 1979).

Más aún, sostengo que cada vez que los científicos descubren algo, y cada vez que los tecnólogos diseñan un artefacto eficaz, confirman el materialismo. En cambio, es probable que no haya un cúmulo de logros científicos y tecnológicos que pueda satisfacer al teólogo, al pseudocientífico o al filósofo idealista, ni siquiera al científico con una fuerte inclinación por lo extravagante o que desee

épater le bourgeois. Por ejemplo, el ya fallecido John A. Wheeler, uno de los físicos contemporáneos más imaginativos, afirmó una vez que el universo está compuesto por proposiciones. Más recien-

temente, él y sus seguidores han afirmado que “las cosas están hechas de bits” (véase Barrow et al., 2004). Esta idea, el núcleo de la

llamada metafísica digital, tiene su origen en el hecho de que las leyes de la física pueden expresarse mediante programas de ordenador. Esta proposición es verdadera, pero no implica que la materia sea conglomerados de bits. Afirmar que lo es equivale a confundir las cosas reales con los modelos de ellas, un ejemplo de pensamiento mágico. La fantasía de las “cosas a partir de bits” se refuta con mucha

facilidad mediante el sencillo expediente de recordar que los paquetes 39

de información, como las oraciones y los textos, nO poseen propie-

dades físicas, mientras que los trozos de materia sí, aun cuando co-

difiquen o transporten información. En resumen, sin materia no

inhay información y, a la vez, la mayoría de las cosas NO codifican

formación alguna. Volveremos sobre este asunto en el apartado 4.2,

A continuación, veamos los siguientes Ítems: Está nevando [1] Estoy mirando caer la nieve [2]

La proposición (o la oración) “Está nevando” [3] Pocas personas disputarán que estos elementos pertenecen a Ca-

tegorías diferentes: [1] es físico, [2] es mental y [3] es conceptual (0 cultural). La cuestión es si cada uno de los mencionados elementos pertenece por derecho propio a un mundo particular: el mundo fí-

sico, el mundo mental y el mundo cultural (o “mundo 3”, como le

llamaba Popper). El sentido común daría una respuesta afirmativa,

Así lo hizo Lenin (1981) en los cuadernos que escribió en 1914 en

Zúrich, mientras estudiaba la extensa Lógica de Hegel. Popper

(1967), su formidable adversario ideológico, pensaba exactamente

lo mismo y lo expresó de tal modo que parecía que hubiera copiado

su respuesta a Lenin, lo cual, desde luego, no hizo. Todo esto indica,

una vez más, la falsedad de la sentencia: Vox populi, vox det.

1,4 Determinismo y contingencia, causación y azar Los conceptos gemelos de determinismo y contingencia, así como

los de causación y ley, son ajenos al espiritualismo, pero fundamen-

tales para el naturalismo y, con mayor razón, para el materialismo. En efecto, según el espiritualismo, el alma y los seres espirituales —desde los seres humanos a los dioses— son libres, en tanto que la materia, si es que existe, es legal. En cambio, los naturalistas y materialistas modernos consideran que los hechos son legales. Este

es, en pocas palabras, el principio de legalidad.

Casi todo el mundo está de acuerdo en que hay leyes (o, mejor

dicho, normas) hechas por los hombres, o convencionales, además de las naturales. Sin embargo, no hay consenso acerca del significado de “ley natural”. Dilucidemos, pues, esta noción. Los realistas

admitirán sin reparos que “ley natural” designa dos conceptos di-

ferentes aunque íntimamente relacionados (Bunge, 1959b): el de pauta objetiva o ley, y el de enunciado legal o conceptuación de

una ley. Los naturalistas y materialistas sostienen que las leyes son

inherentes a las cosas, que constituyen las propiedades básicas de

las cosas y que una misma ley o pauta objetiva se puede conceptuar

de diferentes maneras en teorías diferentes. Por ejemplo, la ley básica del movimiento era para Aristóteles: “Fuerza = constante x veloci-

dad”; y para Newton, “fuerza = masa x aceleración”.

La siguiente distinción pertinente es la que diferencia leyes causales de leyes probabilísticas. Una vez más, la segunda ley de Newton es el ejemplo clásico de un enunciado legal. Sin embargo, su

corolario, la ley de la inercia —“Si fuerza = 0, entonces velocidad = constante”— es obviamente no causal. La ley de la conservación

de la masa de Lavoisier —“La masa total de un reactor químico

aislado es constante”— tampoco es causal. Ni lo es la ley básica de la mecánica cuántica para una “partícula” libre: se refiere a la distribución de probabilidades de su posición, la cual es, una vez más, constante. En cambio, la ley cuántica básica para una “partícula” sujeta a fuerzas dependerá de estas y, por lo tanto, incluirá tanto el

azar como la causación (la fuerza externa).

En consecuencia, hay leyes causales, leyes probabilísticas y leyes en las que se combinan la causación con el azar. Esto sugiere la conveniencia de ampliar el concepto de determinismo para incluir

las leyes probabilísticas (o estocásticas). Con todo, los naturalistas y los materialistas desean dejar los milagros y la magia fuera de la ciencia, por lo que repudian por acientífica o pseudocientífica toda presunta ley que viole el principio de Lucrecio ex nihilo nihil (“nada surge de la nada”). Esta es la razón por la que he propuesto (Bunge 1959a) redefinir el determinismo como la conjunción de dos principios lógicamente independientes: el de Lucrecio y el

de legalidad. 41

La legalidad no se limita a los hechos: también abarca los propios

enunciados legales. De hecho, la física teórica no sólo incluye una

gran cantidad de enunciados legales físicos, sino también un pu-

ñado de leyes sobre estos, o metaleyes, tales como los principios de

Galileo y de relatividad de Einstein y el teorema CPT de la elec-

trodinámica cuántica (Bunge, 1961). No nos extenderemos aquí sobre esto. Baste notar que, contrariamente a lo que supone la me-

tafísica de los universos posibles, no hay leyes naturales arbitrarias. En efecto, las leyes se presentan en haces o manojos, especialmente

en los sistemas altamente complejos como los cerebros. ¿Dónde deja el determinismo a la contingencia? La respuesta depende de la definición que usemos de cada uno de estos términos

ambiguos. Si contingente = ilegal, entonces el determinismo niega

la contingencia. Pero si entendemos “contingente” del modo sutil en que lo hacen la biología del desarrollo y la evolutiva, entonces

se le puede dar cabida en el determinismo. En efecto, la contingencia biológica no es más que el accidente, como cuando una catástrofe política desvía de manera drástica la historia de una vida

o una catástrofe natural causa la migración, diezmado O incluso la extinción de una población de depredadores, lo cual a su vez brinda una oportunidad a sus presas para difundirse y diversificarse. Estos son casos de azar tal como lo entendía Crisipo, es decir, como intersecciones de líneas causales inicialmente paralelas, como las de la deriva continental y la filogenia de los avestruces, las cuales se ramificaron con la separación de África y Sudamérica.

1.5 La gnoseología: escepticismo, subjetivismo, realismo La concepción más simple sobre el conocimiento es, desde luego,

el escepticismo, que consiste en una actitud y una práctica antes

que en una teoría. La actitud más simple es considerar que el conocimiento es imposible. Sin embargo, adviértase que hay dos in-

tensidades de escepticismo: una radical o total, y otra moderada o

parcial. Los escépticos radicales, o pirrónicos, niegan totalmente la

42

posibilidad de conocer. Es dudoso que existan escépticos así fuera del mundo universitario, ya que la supervivencia exige un mínimo de autoconocimiento, así como la exploración del propio entorno. Hay, en cambio, muchos dogmáticos, como por ejemplo los fanáticos religiosos, que son incapaces de atraer a la gente salvo por la fuerza; y los fundamentalistas del mercado, tan ricos que pueden darse el lujo del mercado libre con todos sus defectos. En general, se admite que los humanistas, científicos y tecnólogos serios son

escépticos moderados, es decir, individuos que, si bien dan por su-

puestos montones de datos, hipótesis y reglas, están dispuestos a

controlarlos ante la menor sospecha sobre su adecuación. Para empezar cualquier exploración o revisión, es necesario hacer, siquiera de forma provisional, los siguientes tres supuestos: la existencia autónoma del mundo externo, la posibilidad de conocerlo

al menos de manera parcial y gradualmente, y las reglas básicas de la lógica. Estas últimas se necesitan para razonar con corrección acerca de lo que fuere; el mundo real y su cognoscibilidad deben darse por supuestos antes de planear cualquier exploración del mis-

mo. Por ejemplo, Colón no habría planeado su expedición si él y sus patrocinadores no hubieran dispuesto de indicios de diversas

clases acerca de que si navegaba hacia el oeste encontraría tierra. Asimismo, los físicos no habrían invertido años y miles de millones en su intento de detectar ciertas entidades esquivas, como los agujeros negros y las ondas gravitatorias, si su existencia no hubiese

sido propuesta por una teoría con un historial asombroso: la teoría gravitatoria de Einstein. Adviértase que las tres hipótesis anteriores son filosóficas y se

supone que ninguna de ellas necesita demostración. La hipótesis de la existencia independiente de la realidad es el principal postu-

lado ontológico del realismo y la suposición de su cognoscibilidad es su correlato gnoseológico. En cuando al supuesto acerca de la

necesidad de la lógica, es fundamental para el racionalismo, el punto de vista de que la deliberación racional es posible y deseable siempre que se acepten algunas premisas y reglas de inferencia.

No cabe duda, se puede dudar de la existencia de esto o de aquello, de la posibilidad de conocer objetos de cierta clase o de la fiaA

|

a

|

| !

|

MITO il ]

NN

1]

Ni]

0

bilidad de ma regla o un teorema, en particular de la lógica. Sin embargo, exe cuestionamiento sólo puede ser local o restringido,

porque toda duda se debe afirmar contra un trasfondo de conocí: miento que xe da por supuesto, aunque sólo fuera de forma hipo: ética, Aní pues, extá juntificado dudar de la existencia de las

“cuerdas” porque la teoría de cuerdas contiene hipótesis que con-

radicen partes de conocimiento muy confirmado, por ejemplo que el espacio ordinario tiene tres dimensiones, no diez. También tiene justificación preferir la lógica clásica a la intuicionista, por-

que esta empobrece la matemática y hace engotrrosas sus demosraciones, ¿Cómo se relaciona la lógica con la ontología y la gnoseología?

La lógica está al servicio de ambas, puesto que es la ciencia del argumento válido. Para ser una buena servidora, la lógica no tiene que deberles nada: debe ser válida independientemente de la na-

turaleza de las cosas y de nuestro conocimiento de ellas. En par-

ticular, la lógica debe servir al materialista y al realista tanto como

al inmaterialista y al antirrealista. Si no fuera así, esta disciplina

no sería un árbitro neutral capaz de moderar los debates acerca de

la naturaleza del mundo y las teorías acerca del mismo. En parti-

cular, no tendría autoridad para cerrar un debate mostrando que

una tesis determinada es insostenible porque es autocontradictoria

o porque conduce a una conclusión que contradice una de sus premisas iniciales.

o.

Desde luego, por su propia estructura, la lógica es ontológica y gnoseológicamente neutral: nada presupone acerca del mundo o

de las estrategias para explorarlo. Este es el motivo de que se le llame formal. Por ejemplo, la tautología “p o no p” es válida para toda

proposición p, sea esta verdadera o falsa, en la química o en la alquimia, En otras palabras, la lógica puede referirse a cualquier cosa, pero no describe ninguna cosa en particular (Bunge, 1974b). La

tesis contraria, que la lógica trata sobre el mundo o sobre la experiencia, ha sido defendida, aunque sin pruebas, por algunos filó-

sofos. En resumen, la lógica formal subyace a todas las a válidas. Los únicos que la rechazan son los irr acio1stas, 44

Por último, ¿cómo se relacionan la ontología y la gnoseología con la ciencia? A priori, pueden relacionarse de alguna de estas tres maneras: la independencia, la sumisión o la colaboración. Normalmente, los filósofos no escuchan a los científicos. En consecuencia,

el filósofo más famoso de su época, el materialista aristotélico Cesare Cremonini, contemporáneo y colega de Galileo en la universidad

de Padua (además de ser su modelo para Simplicio), rehusó mirar por el telescopio del científico. Hume creyó que había refutado la mecánica newtoniana, que no podía comprender por carecer de los conocimientos matemáticos necesarios para ello. Kant, quien

tampoco podía entenderla por la misma razón, afirmó que la había perfeccionado mediante la adición de una fuerza repulsiva. Hegel intentó reemplazar la totalidad de la ciencia moderna con su Naturphilosophie. Engels ridiculizó a algunos de los físicos más distinguidos de su época. Bergson, ganador del premio Nobel, criticó el concepto de tiempo de Einstein. Durante el Gobierno de Stalin, los filósofos soviéticos condenaron la relatividad, la mecánica cuán-

tica y la genética, entre otras ideas científicas por considerarlas idealismo burgués, a la vez que se tragaban gran parte de la palabrería de Hegel. La idea misma de una filosofía científica indica que la filosofía siempre debe obedecer a la ciencia. Con todo, de vez en cuando, los filósofos podrán corregir a la ciencia o, mejor dicho, a los científicos descarriados. He aquí una breve lista de casos de esta clase. Si bien a Louis Pasteur se le reconoce el mérito de haber probado la imposibilidad de la generación espontánea, el bioquímico Alexandr Oparin dudaba de su descubrimiento por razones exclusivamente filosóficas y se propuso sintetizar seres vivos a partir de materiales abióticos, un proyecto que en la actualidad está en pleno desarrollo. Unos pocos filósofos han demostrado que la interpretación de Copenhague de la teoría cuántica fue un injerto filosófico que no tiene justificación en su formalismo matemático, en el cual no hay sitio para un observador. Tanto la teoría cosmológica creacionista como la del estado estacionario han sido atacadas por violar el principio ontológico de Lucrecio, ex nihilo nihil: la primera postula el origen del universo a partir de la nada y la segunda afirma

la creación espontánea de la materia. La teoría económica ortodoxa

ha sido criticada por fallar en las pruebas empíricas y por presentar el llamado mercado libre —alias capitalismo no regulado— como si fuera casi perfecto e inevitable. A los estadísticos se les ha criticado

por adoptar la interpretación bayesiana o subjetivista de la teoría

de probabilidades, según la cual los valores de probabilidad son va-

lores de credibilidad, es decir, intensidades de creencia. En síntesis, es necesario examinar la ciencia de forma crítica para controlar si se ajusta O no a los principios ontológicos y las reglas metodológicas que disponen de una trayectoria destacada en la propia ciencia, Esta clase de crítica debe ser bien recibida pues se trata de una crítica constructiva.

1.6 La relación entre la gnoseología y la ontología

A primera vista, la gnoscología es lógicamente independiente de la

ontología. Este es el motivo de que se haya sostenido el realismo junto con el naturalismo y también con el sobrenaturalismo, así como de que el materialismo se haya combinado tanto con el realismo como con el antirrealismo. Por ejemplo, Kant era tanto naturalista

como subjetivista; Karl Popper defendió el realismo y rechazó el marerialismo; en cambio, David Lewis, quien se autoproclamaba ma-

terialista, compartía el fenomenismo de Hume y trabajó en la

metafísica de los universos múltiples, según la cual todos los universos imaginables son reales por igual. Además, numerosos pensadores renombrados, desde Hegel hasta Heisenberg, han identificado el positivismo con el naturalismo o el materialismo, cuando en realidad el positivismo es tan subjetivista como el kantismo, del cual deriva.

Con todo, a menudo la ontología y la gnoseología han estado estrechamente vinculadas entre sí. Por ejemplo, el atomismo anti-

guo, la primera versión del materialismo, incluía el lema: “Explicar los fenómenos (apariencias) en términos de [entidades] impercep-

tibles”. El subjetivismo, por su parte, desde Berkeley, Hume y Kant

hasta la interpretación de Copenhague de la mecánica cuántica, ha 46

dado origen al fenomenismo ontológico. Se trata de la opinión de

que como para obtener conocimiento fáctico dependemos de la

percepción, “el mundo mismo es una suma de apariencias” (Kan). Como consecuencia de ello, la materia no sería más que la posibilidad de la percepción (Mill) o hasta una colección de sensaciones (Mach, Carnap y, en ocasiones, Whitehead y Russell). El compa-

ñero metodológico del fenomenismo ontológico es el precepto po-

sitivista de aferrarse a las apariencias. En el caso de la psicología, esta sentencia se interpreta así: “Aferrarse a la conducta manifiesta: no neurologizar”.

Berkeley es, desde luego, el subjetivista más radical, ya que pos-

tula que ser es percibir o ser percibido. En nuestros días, la filosofía

de Berkeley se encuentra únicamente en los escritos de quienes in-

vestigan la teoría cuántica, quienes afirman, contrariamente a toda prueba, que esta teoría incluye el postulado de que la materia cuántica es producto del observador o el experimentador, en tanto que admiten de manera tácita que si bien este último se compone de entidades cuánticas, no es producto de ninguna operación de laboratorio. En otras palabras, la interpretación ortodoxa, o de Co-

penhague, de la teoría cuántica incluye esta contradicción tácita:

“El sujeto precede al objeto, el cual a la vez tiene su origen en el

objeto”. Afortunadamente, ni los cálculos cuánticos ni las operaciones de laboratorio correspondientes dependen de la filosofía de

Berkeley. Esta es la razón de que la mecánica cuántica pueda ser formulada de forma independiente del observador (Bunge, 1967b). En tiempos recientes, una versión diferente del subjetivismo ha

conseguido cierta difusión entre quienes estudian la ciencia y sospechan de la investigación desinteresada. Se trata del constructi-

vismo-relativismo, una especie de subjetivismo colectivista. Los miembros más conocidos de esta escuela son Bruno Latour, David

Bloor y Harry Collins. Su tesis principal es que todo, desde las moléculas hasta las estrellas, es una construcción social: los científicos

no solo crearían sus ideas sino también los objetos que estudian. Si esto fuera así, no habría diferencias entre el territorio y el mapa,

entre la naturaleza y el artefacto, entre la ley y la convención, entre lo universal y lo local, y así sucesivamente. 47

Además, el constructivismo-relativismo conduce directamente al foso de las contradicciones. Por ejemplo, supongamos que la enfermedad fuera una creación de la comunidad médica, tal como afirman los constructivistas. Entonces, a) o bien los rastros de tuberculosis encontrados en momias egipcias no son tales, puesto

que el bacilo de Koch no fue identificado hasta 1882, o bien b) los antiguos egipcios son modernos (más sobre esto en Bunge, 1999). Quienquiera que cuestione el realismo amenaza también

la empresa científica, ya que esta no es otra cosa que la exploración de la realidad.

Puede que el realismo u objetivismo sea la más antigua y poderosa de las gnoseologías. El juicio a Galileo fue el primer cuestionamiento serio al realismo. En efecto, el acusado proponía que el modelo copernicano, o heliocéntrico, del sistema planetario EEpoe

sentaba verdaderamente a este último. La Inquisición lo obligó a retractarse y a admitir, a regañadientes, la doctrina de la Iglesia: que ninguno de los dos modelos rivales representaba la realidad y

que se trataba de dos fagons de parler mutuamente equivalentes. Tres siglos después, Philip Frank y otros positivistas lógicos se si-

tuaron tácitamente del lado de la Inquisición al defender la mencionada equivalencia. (En realidad, la equivalencia es geométrica,

no dinámica: es cierto que el movimiento de un planeta puede describirse tanto en coordenadas solares como en coordenadas terrestres, pero el cuerpo menor girará alrededor del de mayor masa, no a la inversa). En pocas palabras, el realismo ha estado a la defensiva

desde el momento en que empezó a dar su fruto más importante: la ciencia moderna.

Resulta irónico que el positivismo, prácticamente extinto en la comunidad filosófica, todavía sea fuerte entre los científicos, a pesar

de su esterilidad. Por ejemplo, el físico Mermin (1981, pág. 397)

sostuvo una vez que “ahora tenemos pruebas de que la Luna no está ahí cuando nadie la mira”. Supuestamente, la Luna comenzó a existir cuando uno de nuestros antepasados remotos miró hacia

arriba y dijo con voz de trueno: ¡Fiat Luna!, y sus efectos sobre las mareas no surgieron hasta Newton. En suma, la cognición sería anterior al ser, de ahí que la gnoseología tenga precedencia respecto 48

de la ontología. En otras palabras, el empiriuno (o positivismo) puede considerarse un naturalismo antropocéntrico,

Si bien la ontología y la gnoseología escán fntimamente ligadas

entre sí, es necesario distinguirlas porque tienen misiones dilerentes la tarea de la primera es conocer el mundo, mientras que la misión

de la segunda es conocer el conocimiento, Con todo, hasta puerma dores que se han autoproclamado materialistas Lento (1908), por ejemplo— han confundido el realismo, que cs una posición

gnoseológica, con el materialismo, que es una familia de ontología,

Roy Wood Sellars (1970), por su parte, llamó a su propta Mlosolfa

“realismo emergente [emergentista]” porque junto con el realismo científico proponía el naturalismo no reduccionista, Lenin y Sellars no fueron los primeros en confundir las disciplinas en cuestión. Kant (1780, pág, 316) dio origen a la más atroz e influyente de las confusiones entre ellas al afirmar que “todas las cosas externas a mí son apariencias, porque la condición para determinar su ser está en mí”, O sea, X sería subjetiva porque conozco

X. En otras palabras, el fenomenismo implica o bien la confusión entre la metafísica y la gnoscología, o bien el rechazo de la primera

en favor de la segunda. Los positivistas y neopositivistas condenaron la metafísica porque adoptaron inadvertidamente la metafísica fe. nomenista de Kant, según la cual “el mundo es la suma de las apariencias”. ¡Cuánto retroceso en comparación con la clara distinción de Galileo (1623) entre las cualidades primarias u objetivas, como la forma y el movimiento, y las secundarias o subjetivas, como el

color y el sabor! En mi opinión, tanto el realismo sin materialismo como el ma-

terialismo sin realismo son débiles y, por tanto, vulnerables. El re-

alismo sin materialismo fomenta la especulación sobre mentes incorpóreas y el materialismo sin realismo no necesita los cerebros que postula. La única posición fuerte es el hilorrealismo, una síntesis

del materialismo y el realismo (Bunge, 2006a). Las razones de cllo son que el hilorrealismo sólo admite el mundo real o material, y que utiliza nuestro conocimiento sobre el mismo en lugar de fantasear sobre él: intenta ser científico, Los casos ya mencionados de Popper y Lewis resultan especial49

mente instructivos, Popper se proclamaba realista pero, como rechazaba el materialismo, perpetró y admitió varias violaciones del realismo, En efecto, afirmaba que el mundo de las ideas, que él lla-

maba “mundo 3”, era tan real como el mundo físico o “mundo ]”

y el “mundo” de los sucesos mentales (Popper, 1967). Por consi-

guiente, defendió el dualismo mente-cuerpo (Popper y Ecdes, 1977) y escribió acerca del “conocimiento sin sujeto cognoscente” (Popper, 1967). Después de separar la mente del cuerpo, Popper tuvo que admitir la posibilidad de la parapsicología y. como consecuencia, de las vías paranormales de conocimiento, tales como

la telepatía y la precognición (Popper y Eccles, 1977). Además,

Popper (1961) me reprendió por criticar la fantasía de la creación ex níbilo incluida en la cosmología del estado estacionario. En cuanto a David Lewis (1986), creía de forma acrítica en la

existencia real de todos los mundos conceptualmente posibles, aun de aquellos que violan todas las leyes físicas conocidas. Sin embargo, ¿qué clase de materia es esa que no tiene energía O viola las leyes de conservación de la energía? ¿Cómo conseguimos Conocer algo sobre unos mundos imaginarios que, se supone, son paralelos al

nuestro y están, por consiguiente, aislados del mismo? Para tener acceso a la cosa o al hecho X es necesario recibir señales de X o de

una sonda enviada para explorar X. Sin embargo, esto es imposible

si el supuesto mundo X es paralelo al nuestro. Resulta asombroso que esta imposibilidad de comprobación no perturbe a los simpa-

tizantes de la interpretación de los universos múltiples de la teoría cuántica propuesta por Hugh Everett (1957).

Los físicos cuánticos son especialmente insensibles a la incompatibilidad entre la metafísica inmaterialista y la gnoseología realista que supone el método científico. Así pues, el premio Nobel Frank Wilczek (2008, págs. 33-34) afirma que los quarks y los gluones son “ideas corporeizadas” y, en general, que “las cosas son bits”, por la sola razón de que, como los positrones y los quarks, fueron predichos teóricamente. En el mismo libro, un poco después, Wilczek nos informa de que, en realidad, esas partículas fueron producidas

por el Gran Colisionador de Electrones y Positrones. Ahora bien, este sí que, como todo artefacto, es una idea corporeizada, pero los 50

átomos que lo constituyen existían desde mucho antes de que se inventara la hipótesis atómica. Tanto es así que la mayoría de esos átomos provienen de minerales que debieron extraerse de las minas

correspondientes, no de los cerebros de los teóricos. Asimismo, los territorios han existido desde antes de que se inventaran los mapas y una persona ha nacido antes de que se pinte su retrato. Generalizando, los bits provienen de las cosas, no a la inversa. Volveremos sobre este asunto en el apartado 4.2.

La razón de que la gnoseología dependa de la ontología es que obtener algo de conocimiento sobre el objeto X no sólo depende del conocedor y sus instrumentos, sino también de la naturaleza de X.

Por tanto, dado el caso de que X sea fácilmente accesible, cualquier

persona puede afirmar que conoce X y es posible que ya no se haga ningún esfuerzo para avanzar más allá de las apariencias. En cambio, el conocimiento de los objetos imperceptibles exige más ingenio y

esfuerzo. En resumen, “es cognoscible” es un predicado triádico: el objeto X es congnoscible para el sujeto Y con los instrumentos Z, En consecuencia, es posible que un cambio profundo en la ontología exija un cambio en la gnoseología. A continuación, un ejemplo. La teoría del campo electromagnético, nacida en la década de

1830, no sólo cambió la ontología de la física clásica sino también su metodología. En efecto, pensemos en el problema de averiguar datos acerca de dos universos muy diferentes: el de Newton, cons-

tituido por corpúsculos, y el de Faraday, lleno de campos. El experimentalista espera poder medir la posición y la velocidad de toda

masa puntual accesible; pero no puede tener la misma expectativa respecto al universo de Faraday, porque los campos son continuos

y esto exige conjuntos de datos no numerables. Resumiendo: el sueño empirista es en principio realizable en el universo de Newton, pero resulta ilusorio en el de Faraday.

El problema de la predicción es semejante. El demonio de Laplace, capaz de medir la posición y la velocidad de cada partícula del universo en un instante dado, podría calcular el estado de este en cualquier instante futuro (o pasado). Pero el universo de Faraday hasta al más listo de los demonios porque ningún haría cio instrumento puede medir todos los parámetros de un continuo,

como ocurre en los casos de un cuerpo extenso o un Campo electromagnético. Es cierto, el teorema de Cauchy nos asegura que sl conocemos el tamaño, la forma y la velocidad de una onda frontal

en una constante dada, podemos calcular los valores de las mismas magnitudes en cualquier instante posterior. Sin embargo, el antecedente de este enunciado condicional es falso: no existe ninguna forma de producir un conjunto de datos no numerables: lo máximo que podemos hacer es obtener una muestra finita.

Este resultado frustra el sueño de Laplace, aun cuando muy pocos

filósofos lo hayan advertido. ¿Podrían hacerlo mejor los ordenadores? Por supuesto que no: como son digitales, no pueden manejar con-

tinuos. Con todo, podemos ayudarles, y lo hacemos, aproximando variedades continuas mediante matrices, reemplazando las ecuaciones

diferenciales por ecuaciones de diferencias finitas y las curvas por escaleras. Mientras que la teorización a menudo supone Continuos, la computación siempre requiere la digitalización.

En resumidas cuentas, la gnoseología y la ontología deben casar

la una con la otra. En particular, una gnoseología realista debe ir de la mano de una ontología materialista si deseamos distinguir entre la posibilidad y la actualidad , si no queremos confundir el descubrimiento con la invención y si no pretendemos que la ex-

ploración de la realidad sea reemplazada por la egología (el nombre

que dio Husserl a su fenomenología). 1.7 La filosofía práctica

Toda cosmovisión incluye opiniones sobre los valores, la acción, lo correcto y la política. Hay varias filosofías prácticas mutuamente incompatibles: la religiosa y la secular, la dogmática y la crítica, la sumisa y la independiente, la intuicionista y la racionalista, la hu-

manista y la antihumanista, etc. ¿Cómo escogeremos entre ellas? Propongo que evaluemos cada filosofía práctica a la luz de consi-

deraciones tanto filosóficas como científicas, y ello por las siguientes razones. Primero, una filosofía práctica debe ser consistente con todos los demás componentes de un sistema filosófico, a saber, la 52

A SL0SOFÍA PRÁCTICA

Y

Figura 1.2. Los úos insumos de la filosoña práctica.

lógica. la senánrica, la gnoseología y la ontología (recuérdese la fi-

gura 1.1). Segundo, se debe comprobar que las normas que propone una filosofía prácrica sean justas y eficientes, lo cual exige la colaboración de las ciencias del hombre, en particular de la psicologíay las ciencias sociales (véase la figura 1.2). L2 particular filosofía práctica de la que soy partidario (Bunge, 1989, 2009) incluye una teoría de los valores que es materialista,

en el sentido de que propone que los valores tienen sus raíces en nuestras necesidades biológicas y sociales, en lugar de considerar que están por sobre el mundo material. En consecuencia, cometo

sin ambages lo que los idealistas llaman “la falacia naturalista”, con la salvedad de que comparto la advertencia de Hume de que no es posible deducir juicios de valor a partir de proposiciones fácticas, así sin más. Por ejemplo, el imperativo político: “Reducir la desisocial” no se sigue de la proposición socioeconómica: “Hay desigualdad social”. En cambio, sí se sigue de la conjunción del

enunciado fáctico: “Una gran desigualdad social perjudica tanto al individuo como a la sociedad”, y la norma moral: “Abstenerse de

perjudicar a los demás innecesariamente”. Mi filosofía práctica también es realista (u objetivista), por cuanto exige poner a prueba todas las normas morales y políticas con-

trastándolas con la realidad. De forma más precisa, mi filosofía

práctica adopta el realismo científico, el cual es cientificista puesto que manda elaborar las normas a la luz de la biología y la psicología humanas, así como de las ciencias sociales. Por último, también es-

pero que sea coherente y, con ello, compatible con la lógica clásica, así como congruente con toda semántica que enaltezca tanto la sig-

nificatividad como la verdad. Por consiguiente, esta filosofía práctica 53

se opone al emotivismo y al intuicionismo, los cuales exaltan los sentimientos viscerales, la lealtad dentro del propio grupo, el respeto

acrítico por la autoridad y las tradiciones tribales sin importar los perjuicios que ellos puedan causar. Mi motivación para defender un enfoque cientificista de la ética es que considero que esta disciplina se ocupa de los dilemas morales, todos los cuales son problemas sociales: el ámbito propio de

las ciencias sociales. En efecto, sugiero que los problemas morales surgen cuando hay recursos que son escasos y quienes los manejan

tienen desigual poder. Esta es la causa de que cuanto más dividida

esté una sociedad, más graves serán los problemas que surjan en ella. Propongo también que la mejor forma de resolver esos con-

flictos de un modo justo y pacífico es debatir y negociar a la luz de lo que se sabe sobre los sistemas sociales en cuestión, de manera

que la parte más fuerte pueda compensar a la más débil, por ejemplo, ofreciéndole una parte de una multitud de elementos deseables.

Obviamente, el enfoque cientificista de la moral se opone tanto al relativismo moral como al absolutismo moral (o dogmatismo).

Contrariamente a la opinión de moda de que debemos tolerar todos los valores y normas porque su única raíz son los sentimientos viscerales o la costumbre, una filosofía moral de orientación científica promoverá la justicia y la reciprocidad porque estas favorecen el

bienestar individual y el progreso social. El mismo enfoque favorecerá, también, el establecimiento de un contacto estrecho entre

la ética y la ontología porque la conducta moral es una forma de conducta social, cuya justificación exige una ontología social. En efecto, diferentes ontologías sociales indican filosofías morales distintas: el individualismo subyace al utilitarismo, el holismo apoya

el deontologismo y el sistemismo es la base de toda ética para la cual los derechos supongan deberes y viceversa. Una ética sin ontología, como la que pide Hilary Putnam (2004), es una ética para ermitaños.

Algunas filosofías son casi exclusivamente prácticas. Esto vale,

en particular, para el pragmatismo y el vitalismo. El primero floreció

en Estados Unidos (Peirce, James y Dewey) y el segundo en Ale54

mania (Nietzsche, Dilthey y Simmel). Ambas escuelas estaban orientadas a la acción y eran, por tanto, antropocéntricas, aunque Peirce, con mucho el más profundo de todos ellos, estaba seria-

mente interesado en la ontología. Estos seis hombres no sólo comartían su orientación práctica sino también el antirrealismo: para

ellos, la verdad era lo mismo que la utilidad, y la vida tenía prece-

dencia respecto a todos los demás valores. En otras cuestiones diferían enormemente. En particular, mientras que la Lebens-

philosophie alemana era anticientífica y antidemocrática, el pragmatismo estadounidense clásico era cientificista y democrático. (En cambio, los neopragmatistas, tales como Goodman, Rorty y Putnam, son anticientificistas). Estas dos escuelas filosóficas tuvieron también finales diferentes: mientras el pragmatismo dista muchísimo de estar acabado, el vi-

talismo sobrevive en varias sectas posmodernas, especialmente en el constructivismo y el existencialismo. Con todo, irónicamente, el

constructivismo es una doctrina metafísica y gnoseológica, no una ía de vida. Y no puede decirse que el existencialismo sea una filosofía, ya que las peculiares frases de Heidegger, como “El mundo

mundea”, “El tiempo es la maduración de la temporalidad” y “La esencia de la verdad es la libertad”, son ininteligibles; además, al igual que las enseñanzas de Nietzsche, el existencialismo es nihilista. Corresponde a los psiquiatras averiguar si se trata de demencia, idiotez o simulación.

En pocas palabras, una filosofía absurda es espuria, y una filosofía exclusivamente práctica es inútil en el mejor de los casos y destructiva en el peor. Para ser útil, una filosofía práctica debe ser sensata y nutrirse de las demás ramas de la filosofía, así como de las ciencias del hombre. La razón de ello es que, a diferencia de lo que ocurre con otros animales, las acciones humanas exitosas se planean a la luz del mejor conocimiento disponible sobre el mundo y las personas.

1,8 La conexión política Como todo el mundo, los filósofos son moldeados por la sociedad y, a la vez, influyen en ella. Esta influencia sería insignificante si los

filósofos se ocuparan sólo de problemas pequeños, pero cuando abordan alguna de las llamadas Grandes Preguntas, tales como ¿qué es la vida?, ¿qué es la mente?, ¿cuál es la naturaleza humana:, ¿qué es el bien? y ¿cuál es la sociedad buena?, esa influencia puede ser significativa y, cuando lo es, puede ser saludable o no. Examinemos brevemente cuatro momentos decisivos: la Revolución Científica

del siglo xvi, la Ilustración francesa del siglo XVII, la Contrailustración del XIX y el totalitarismo del xx.

]

La Revolución Científica fue parte del proceso de moderniza-

ción, del cual un aspecto fue la secularización. En una cosmovisión secular no hay lugar para dioses, fantasmas o facultades paranor-

males: supone una metafísica naturalista. Tampoco admite los mis-

terios; se adhiere a la tesis de que el mundo es cognoscible precisamente porque está compuesto únicamente de cosas mundanas. En aquella época, los filósofos podían adoptar una de tres posiciones respecto a la mencionada Revolución: rechazarla, adherirse o negociar un acuerdo. Por ejemplo, el modelo heliocéntrico revivido por Copérnico fue rechazado por los teólogos católicos y protestantes, a la vez que aceptado por quienes pensaban como Galileo y Descartes.

En resumen, lejos de ser extravagancias filosóficas, el materialismo y el realismo estaban en el meollo mismo de la Revolución Científica, así como en su heredera, la Ilustración francesa (en cambio, la Ilustración escocesa se basó en el sentido común; fue witt-

gensteiniana avant la lettre). El inmaterialismo y el subjetivismo de Berkeley y Kant, así como las fantasías idealistas de Hegel, Fichte

y Schelling, corresponden a la Contrailustración. Sin embargo, era

difícil mantener una posición anticientífica en medio de los espec-

taculares logros de la física, la química y la biología del siglo XIX. Por consiguiente, se adoptó tácitamente una solución salomónica: permitamos a la ciencia seguir su curso, pero contengamos la marea cientificista en las humanidades y las ciencias sociales. Es decir, afir56

memos que el método científico es correcto para estudiar la natu-

raleza, pero que la mente y la cultura exigen un enfoque diferente: o bien la intuición (Bergson) o bien la Verstehen, alias “interpretación” (Dilthey, Rickert, Weber, Sorokin).

Mejor aún, aconsejaban los idealistas, ignoremos las grandes

cuestiones sociales contemporáneas, como el colonialismo, el militarismo, la pobreza y los desarrollos de los movimientos demo-

crático, obrero y feminista (Weber, Schiitz). Descartemos, además, cualquier intento de filosofar científicamente: volvamos al hermetismo de los románticos alemanes y a la afirmación de que la filo-

sofía requiere también un método propio, el cual consiste en fingir que el mundo real no existe y en captar las esencias de las cosas por medio de una intuición especial, accesible exclusivamente a los ini-

ciados (Husserl). Una solución todavía más simple fue adoptar el “misterismo”, la perspectiva de que ciertos problemas importantes, de modo notable el problema mente-cuerpo, son insolubles. Esta

opinión antigua y oscurantista fue resucitada en épocas más recientes por un simpatizante de Wittgenstein, Colin McGinn (2004),

con la aprobación de Noam Chomsky. La mayoría de los científicos sociales ignoró las filosofías oscurantistas o, como Weber, decía adoptar su metodología mientras en realidad procedían de forma científica (Bunge, 2007a). En con-

secuencia, el cientificismo —el enfoque científico— hizo importantes contribuciones en antropología, sociología, macroeconomía

e historiografía. Hasta ciertos eruditos que nominalmente abrazaban

el materialismo dialéctico y el fatalismo histórico, hicieron importantes aportaciones a las ciencias sociales, especialmente en arqueo-

logía e historia (véase, por ejemplo, Barraclough, 1979; Hobsbawm, 1997; Trigger, 2006). Es cierto, los filósofos soviéticos atacaron to-

das las grandes revoluciones que tenían lugar en las ciencias naturales, en particular la relatividad, la mecánica cuántica, la química

teórica, la genética, la biología evolutiva y la psicología experimental no pavloviana (véase, por ejemplo, Graham, 1981). Sin embargo,

sus esfuerzos reaccionarios sólo tuvieron éxito en biología, psicología y estudios sociales. Irónicamente, el intento de hacer más científicas las ciencias so37

ciales mediante su “naturalización” ha dado frutos políticos parecidos. En efecto, la sociobiología humana y su heredera, la difun. dida psicología evolucionista, han reforzado la an tigua opinión de que la naturaleza humana es uniforme e invariable; que, básica.

mente, todos somos unas bestias agresivas y egolstas; y que, Mientras que algunos pocos son de alta cuna, los miembros del “rebaño” —como Nietzsche llamaba a las masas— están destinados a ser esclavos. En resumidas cuentas, la filosofía y la ciencia no son inmunes a la política. El motivo es que todo movimiento político tiene una

ideología, y toda ideología política es una manera de entender, evaluar y manejar la sociedad. Puesto que toda sociedad moderna cultiva tanto la ciencia como las humanidades, toda ideología política seria incluye una política científica y para las humanidades. Si esta

es progresista, respaldará las ramas de la cultura que respetan su libertad. Con todo, independientemente de lo generoso que pueda ser el protector político, tiene garras y puede que esté ten tado de

usarlas. La lección práctica es obvia: buscar el patrocinio del poder político, pero no dormir con él. (Más sobre la conexión filosofía-

política en Barber [2003] y Bunge [2009]). Comentarios finales

Los problemas filosóficos y científicos importantes, como los de la naturaleza de la materia y de la mente, no pueden estudiarse de manera adecuada sin disponer de un amplio marco filosófico. La filosofía que se usa en este libro puede resumirse en la figura 1 que

se reproduce en la introducción (pág. 21).

58

2

La materia clásica: Cuerpos y campos

De manera nada sorprendente, en diversas épocas se ha conceptuado la materia de formas distintas. Este capítulo y el que le sigue se ocupan de actualizar el concepto de materia. Llamaremos clasón

a toda cosa material que se derive de la concepción de la física clásica y cuantón a toda cosa que, por lo menos en principio, pueda

describirse según la teoría cuántica. Las motas de polvo, los organismos y las galaxias son clasones, en tanto que los fotones, los elec-

trones y los superconductores son cuantones. Con nombres diferentes, la materia ha sido una preocupación central de todos los sistemas ontológicos (metafísicos), aun de los

que han negado su realidad. Además, puede afirmarse que todas las ciencias fácticas (“empíricas”) estudian exclusivamente entidades concretas (materiales), desde los fotones y las rocas hasta los organismos y las sociedades. Con todo, la mayoría de los filósofos contemporáneos se las ha arreglado para ignorar el concepto moderno de materia. Esto es así en parte porque muchos metafísicos, siguien-

do el ejemplo de Saul Kripke y David Lewis, han preferido especular sobre simples mundos conceptualmente posibles en lugar de estudiar el embrollado mundo real. (Su concepción de la po-

sibilidad es tan indigente que ni siquiera distinguen entre posibilidad conceptual y posibilidad física). No sorprende, pues, que esas fantasías, tales como el de la árida Tierra Gemela, no hayan, ayudado a la ciencia, y mucho menos a la tecnología o la política_________

Sólo han tenido éxito en desviar la atención de los problemas s====—

rios, tanto conceptuales como prácticos. Resulta revelador que ha yan evitado con todo cuidado las posibles alternativas 4 Huestr muy lamentable mundo social. Sus filosofías no son más (que jue gos de ingenio, En los últimos 5000 años se han pensado numerosos CONceptos de materia, En particular, los conceptos bastante poco intuitivos de campo de fuerza y objeto cuántico han supuesto Un Peto pará

los conceptos de materia de Aristóteles y hasta de Newton. Pese 4

ello, todavía hay filósofos que defienden el hilemorfismo de Aris: tóteles, según el cual los objetos físicos son una combinación de materia (material o sustrato) y forma (propiedad). La materia es el material impenetrable y pasivo sobre el cual las “formas” 00 In:

presas desde fuera. Así, Patrick Suppes (1974, pág, 49) afirma:

Un

cuerpo es materia provista de una estructura”. Ejem plo: los objetos

con diferentes formas hechos por un alfarero. Contracjemplos: los

electrones, los protones, los fotones y los neutrinos no tEnen forma propia ni comparten un material común; únicamente comparten

ciertas propiedades, principalmente la energía, el momento lineal, el espín y la capacidad para interaccionar con otras entidades má-

teriales. Moraleja: una ontología construida con las categorías de

sentido común pertenecientes a una cosmovisión de 2000 años de

antigiiedad será, sin duda, completamente obsoleta y, en consecuencia, inútil.

2.1 Conceptos y principios tradicionales: el mecanicismo

El primer concepto de materia parece haber sido el de material o sustrato con el cual se hacen o se pueden hacer cosas: piedra para las hachas, arcilla para las vasijas, bronce para las espadas, etcétera,

Los antiguos atomistas, tanto griegos como indios, expandieron

ese concepto antropocéntrico de materia para incluir todas las cosas naturales, desde el agua y el aire hasta los cuerpos celestes y los seres vivientes. Para ellos, todo trozo de materia estaba compuesto por átomos, corpúsculos simples, duros, autoexistentes e imperceptibles 60

que se mueven en el vacío. Además, inventaron no sólo el atomismo

sino también el materialismo, la primera cosmovisión secular y la

única según la cual todo lo que existe es material. Los atomistas también inventaron la metodología que la acompaña: explicar lo perceptible (fenoménico) mediante lo imperceptible. Platón se opuso con vehemencia tanto al atomismo como al ma-

terialismo: construyó una ontología idealista según la cual sólo las ideas existen por sí mismas y se mueven por sí solas, y el resto de

las cosas no son más que sombras tenues, efímeras y pasivas de las ideas. Además, Platón sostenía que únicamente las ideas pueden

conocerse, y que no era posible ninguna ciencia de las cosas mundanas. Por tanto, fue un predecesor del idealismo moderno, salvo

porque —a diferencia de la mayoría de los idealistas modernos—

argumentaba de manera correcta, entendía la matemática y escribía

con tanta claridad como era posible en su época. Aristóteles rechazó tanto el materialismo como el idealismo y los reemplazó por el hilemorfismo, una especie de combinación de los anteriores. Irónicamente, 23 siglos después, el gran Bertrand Russell (1954, pág. 384) revivió inadvertidamente el hilemorfismo con el nombre de “monismo neutral”. Según esta doctrina, “un

trozo de materia es una estructura lógica compuesta de sucesos”, Whitehead (1929), que había sido su coautor, incubó una concep-

ción similar: su metafísica procesal. Ninguno de ellos se percató de que, en las ciencias, los sucesos se consideran cambios de estado de una entidad concreta (material).

A la vez, también el positivista lógico Rudolf Carnap (1928)

proclamó estar por encima del idealismo y el materialismo. En realidad, adoptó la perspectiva subjetivista sostenida con claridad por Berkeley, con menos claridad por Kant y otra vez abiertamente por

Mill y Mach, de que una cosa concreta es “una posibilidad de las sensaciones”. Ni Mach —un eminente físico y psicólogo experimental— ni Russell ni Whitehead ni Carnap cayeron en la cuenta de que, si eso fuera verdad, la física y la química sólo utilizarían

conceptos psicológicos y que, cuando afirmaran estudiar las estrellas,

las moscas de la fruta o las compañías comerciales, los científicos

se dedicarían a examinar sus propias mentes.

Untre tanto, los físicos y los químicos ignoraban la psicología

mientras elaboraban o utilizaban los conceptos de masa, momento lineal, espín, energía, conductividad, valencia y otros afines, así como cuando diseñaban u operaban dispositivos experimentales. Además, los psicólogos investigaban los cerebros, el comportamiento

y los procesos mentales de otras personas; no se contentaron con la introspección, La contemplación del ombligo propio puede ser

adecuada para los místicos y los drogadictos, pero no lo es para havet avanzar el conocimiento de la realidad. Atortunadamente, los científicos no siguieron los pasos de Berkeley. Kant, Mill, Comte, Mach, Russell, Whitehead o Carnap. En

lugar de ello, continuaron investigando la materia con los medios

más objetivos, a saber, el método científico. En particular, Galileo,

Descartes, Boyle y Huygens rechazaron el aristotelismo y reivindicaron el concepto de materia; sostenían que la física es la ciencia de la materia en movimiento y también se adhirieron a la gnoseo-

logía realista. (Descartes llegó muy cerca del materialismo en las

dos grandes obras que no se atrevió a publicar, pero que fueron

muy influyentes tras su muerte: sus tratados sobre el mundo y sobre

el hombre, los cuales debieron esperar tres siglos para ser traducidos

al inglés).

tes filósofos influyentes, Hobbes, Gassendi y Locke, adoptaron el atomismo y el realismo, así como su principio (revivido por Ga-

lileo y Descartes) de que las cosas materiales poseen sólo propledades primarias u objetivas, mientras que las secundarias (como el

color, el olor y el sabor) dependen del sujeto. Además, por supuesto, la mecánica newtoniana fue la primera versión científica del

materialismo mecanicista (véase Dijkserhuis, 1986). Sin embargo, con excepción de Hobbes, ninguno de los pensadores mencionados se atrevió a discutir la existencia de Dios ni la inmaterialidad

del alma: su materialismo era prudente y estaba confinado a la física y la química.

Los primeros materialistas y ateos cabales y confesos fueron Helvétius, Holbach y La Mettrie (véase, por ejemplo, Plekhanov, 1967).

Sin embargo, Baruj Spinoza y John Toland también pueden con-

siderarse materialistas aun cuando se los haya juzgado panteístas 62

porque identificaban a Dios con la naturaleza. Asimismo, el psicólogo David Hartley, al igual que el químico Priestley, se las arreglaron para sostener teorías materialistas de la mente junto con

creencias cristianas.

Los fundadores de la ciencia moderna mantuvieron la religión aparte de la investigación científica. Los científicos puritanos creían (o, al menos, afirmaban) que a ellos les correspondía el estudio de

la creación como un modo de desvelar la grandeza del Creador. Tal como ha escrito Merton (2001, pág. 136) en su tesis doctoral, esto

provenía no tanto de su teología como de su sistema de valores:

“un complejo de utilitarismo apenas disfrazado, interés por el mun-

do, acción metódica infatigable, empirismo total, derecho y hasta

obligación de /ibre examen y antitradicionalismo; todo ello se correspondía con los valores de la ciencia”. Por consiguiente, el pu-

ritanismo —de mentalidad tan abierta en Inglaterra como cerrada cuando se exportó a Estados Unidos— contribuyó sin proponérselo

al desarrollo de la ciencia y a la concomitante consolidación de la cosmovisión materialista contemporánea.

El concepto de materia inherente al materialismo mecanicista que prevaleció entre 1600 y 1850, aproximadamente, es el que sie. La naturaleza es completamente material y legal, y las leyes de la física son válidas en todo el universo. La materia es una: no hay diferencia entre la materia terrestre y la materia celeste. Además, las cosas materiales se caracterizan por su extensión, forma, masa

y movilidad. En la literatura física la luz se consideraba algo distinto de la materia—y de ordinario, también hoy se piensa así—; sin embargo, la mayoría de los filósofos materialistas han entendido

la luz como una clase de materia. Es cierto, la mecánica clásica utiliza el concepto de masa puntual (o, mejor dicho, de punto material), el cual, desde luego, no tiene extensión, pero este siempre se ha entendido como un modelo simplificado de un cuerpo extenso, del mismo modo que el rayo luminoso de la óptica geométrica se consideraba correctamente un haz luminoso estilizado. Asimismo, desde alrededor de 1750 se pensaba que los líquidos y los gases, aunque no son sólidos, están constituidos por partículas sólidas: átomos o moléculas. La teoría 63

atómica desarrollada por los químicos del siglo XIX mantuvo el ay. tiguo punto de vista de que los átomos eran diminutas bolitas $6. lidas o sistemas de ellas. Sin embargo, a comienzos del siglo yy, los físicos nucleares experimentales modificaron esta sencilla e. presentación: Rutherford probó que los átomos eran mayormente

huecos y, por tanto, penetrables, Sólo los legos y la mayoría de los

filósofos continuaron pensando que la materia es sólida, impenetrable y pasiva,

]

Durante el reinado del mecanicismo se suponía que el espacio

y el tiempo constituían el contenedor inmaterial y, por consiguicnte, inmutable de las cosas materiales, así como el escenario de los su-

cesos. En particular, se suponía que el lugar, la distancia y la dura-

ción eran absolutos en el sentido de que no dependían de las cosas materiales y sus cambios. Galileo privó al lugar del lugar p£ ivilegiado que Aristóteles le había atribuido: los lugares son intercambiables

a menos que estén ocupados por cosas diferentes y, por tanto, las leyes del movimiento son invariantes respecto al desplazamiento (principio de relatividad de Galileo). Tanto es así que el movimiento

se transforma en reposo mediante el solo expediente de cambiar el marco de referencia. Además, el movimiento rectilíneo uniforme no es cambio real; únicamente el movimiento acelerado, tal como

el de un cuerpo en caída libre, es cambio real. En consecuencia, el

movimiento rectilíneo uniforme a una velocidad constante no puede ser ni causa ni efecto. En otras palabras, este tipo de movimiento no es una cadena causal en la que todo efecto es la causa de otro SUCESO. Newton especuló que el espacio y el tiempo eran los órganos sensoriales de la deidad, pero se abstuvo de atribuirles propiedades

espirituales y no se molestó en profundizar el asunto. Sólo Leibniz se atrevió a formular la difícil pregunta ontológica: “¿Qué son el espacio y el tiempo?”. Además, Leibniz revivió la antigua perspectiva relacional (o adjetiva) de que el espacio y el tiempo, en lugar

de existir por sí mismos, son relaciones entre las cosas y los sucesos. Sin embargo, la metafísica de Leibniz fue tan poco clara y tan mar-

ginal como su física. Los científicos también ignoraron la tesis de Kant de que el espacio y el tiempo son subjetivos. (Johann Jeinrich 64

Lambert, un asombroso polígrafo, intentó persuadirlo de que estaba equivocado en este tema, pero no lo consiguió). La concepción relacional fue resucitada mucho tiempo después por Mach y, una vez más, dentro de la física, por las dos teorías de la relati-

vidad.

Los mecanicistas dieron por sentado que la materia posee algunas características adicionales, todas ellas intuitivas, pero estas presu-

posiciones sólo se hicieron obvias cuando fueron cuestionadas por la teoría cuántica, nacida alrededor de 1925. Una de esas caracte-

rísticas universales es que todas las cantidades físicas, con la posible excepción de algunas propiedades del universo como totalidad, son finitas. En consecuencia, toda teoría que incluya infinitos (singularidades, “divergencias”) tiene que ser falsa. La proscripción de los infinitos físicos puede tener dos excepciones: el tamaño y la edad del universo. En efecto, en el momento en que escribo estas líneas todavía no sabemos si el universo es espacialmente finito o infinito, y no hay ningún argumento convincente a favor de un inicio del tiempo. La filosofía no puede ayudar con el asunto de la infinitud espacial, pero no es indiferente a la cuestión del origen del tiempo: toda ontología naturalista requerirá que el universo haya existido siempre. ¿Y qué hay del Big Bang, del cual se supone habitualmente que ocurrió entre 10 000 y 20 000 millones de años atrás? En la actua-

lidad hay al menos tres respuestas posibles a esta pregunta: 1. El Big Bang sí sucedió y consistió en la creación divina a partir de la nada. Por supuesto, esta respuesta resulta inaceptable para toda cosmología física, puesto que apela a lo sobrenatural y viola el principio mencionado de Lucrecio (ex nihilo niha)). 2. El Big Bang es sólo una interpretación simplista de la singu-

laridad que se presenta en el más simple de los modelos cosmológicos. Este modelo supone que el universo es el globo supremo y que hay un tiempo cósmico, además de los innumerables tiempos

locales asociados a todos los marcos de referencia posibles. Tal como ha sostenido Lévy-Leblond, aun si aceptamos este modelo no es-

tamos obligados a interpretar el momento en que el radio del uni65

verso era nulo como el origen del universo. La razón de ello es que

el modelo no está definido para ese momento, del mismo modo que la fórmula para un gas ideal “presión x volumen = constante”,

presión Corresno está definida para el volumen nulo, en el cual la

pondiente es infinita, o sea, un valor físicamente imposible. La

adopción de este sobrio enfoque conduce a Lévy-Leblond a concluir que el Big Bang no ocurrió.

3. El Big Bang sí ocurrió, pero no fue más que una expansión repentina y generalizada del universo, el cual ya existía desde antes

en un estado acerca del que nada sabemos. Además, tampoco descubriremos nada acerca de ese universo previo al Big Bang porque

la explosión destruyó todo rastro del mismo. Una posibilidad es que el suceso haya consistido en una repentina emergencia de la vacío materia ordinaria (electrones, fotones, etc.) a partir de UN

electrodinámico preexistente o de un espacio lleno de partículas

y “virtuales”. Sin embargo, dada la escasez de datos astronómicos

la fantasía sin coto de los cosmólogos, propongo que se suspenda

modelos cosmoel juicio sobre el problema hasta tanto se elaboren lógicos más realistas.

En todo caso, hemos de prestar atención a la advertencia que o: Tolman (1934, pág. 488) hace hacia el final de su abultado tratad

“Debemos tener especial cuidado de mantener nuestros juicios libres de las exigencias de la teología y los sesgos de las esperanzas Y

los temores humanos. El descubrimiento de modelos con un 1M5-

tante inicial de expansión a partir de un estado singular de volumen

nulo no debe confundirse con la prueba de que el universo real fue

creado en un instante finito en el pasado”. Otros infinitos famosos son las energías de una carga eléctrica

puntual y de una onda electromagnética plana. Se trata de defectos

inevitables de la electrodinámica clásica. La electrodinámica cuántica contiene unos ingeniosos trucos (los procedimientos de “re-

normalización”) que disfrazan estos sapos de princesas. Mientras

que la mayoría de los físicos se los tragan, unos cuantos —incluido

este autor— los consideran parches que no deberían existir en te-

orías mejores. 66

Con todo, volvamos a la tarea de hacer una lista con las caracte. rísticas más comunes de la naturaleza, Otro rasgo supuestamente

universal es la continuidad. Natura non fúcit saleus, es decir, “la naturaleza no da saltos”. Todos los cambios son graduales, ninguno es

discontinuo: no puede haber saltos cuánticos, En panic

la encr-

eía de un cuerpo aumenta o se reduce de un modo continuo, (Co-

rrelato matemático: todas las funciones que representan magnitudes

fisicas básicas son continuamente diferenciables, continuas en el mejor de los casos, continuas definidas a trozos en el peor de ellos), Sin embargo, la física clásica sí admitía varias discontinuidades, tales como el cambio súbito de velocidad de un cuerpo tras su ím-

pacto con una superficie sólida; innumerables efectos umbral; la ocurrencia de un conjunto numerable de modos de vibración de un cuerpo elástico; las transiciones de fase, tales como líquido —= gas y paramagnetismo — ferromagnetismo; y la cuantización de

la carga eléctrica, que Faraday descubrió en la electrólisis, Otra supuesta propiedad universal de las cosas es la individualidad: cada cosa tiene algunas propiedades que la caracterizan o individualizan de una manera singular. Si dos cosas tuvieran exactamente las mismas propiedades, serían una sola cosa. ¿Y qué

sucede si dos cosas son diferentes, pero resulta que son equivalentes y, por tanto, intercambiables? En la física clásica, cada una de ellas

mantiene su individualidad, pero eso no es así en la física cuántica (véase el apartado 3.2).

Otra característica que se ha atribuido tradicionalmente a la materia, aunque sólo de manera tácita, es la separabilidad. Puesto que todas las fuerzas clásicas se debilitan con la distancia, cuando una

cosa compleja se expande, sus fragmentos interaccionan cada vez con menor intensidad a medida que se alejan unos de otros hasta que acaban por estar separados en la práctica. En resumen, se su-

ponía que cuando se descomponía un sistema, sus componentes se tornaban mutuamente independientes. Una vez más, la física cuántica ha restringido la amplitud de este principio (véase el apartado 3.3 sobre el entrelazamiento).

Otra característica que se solía atribuir a la materia es que existe

en el espacio y en el tiempo, considerados receptáculos o escenarios 67

públicos y neutrales, y como testigos imparciales de todos los y. cesos. En otras palabras, se entendía que el espacio y el tiempo constituían una rejilla independiente, indiferente a las vicisitudes

de la materia, Se daba por sentado que los vacíos, o regiones desprovistas de cosas materiales, no tenían propiedades físicas y, en Consecuencia, no eran cosas materiales. Los antiguos atomistas lo expresaban del siguiente modo: el universo es una colección de átomos que se pre. cipitan en el vacío. Por consiguiente, el espacio desocupado coin» cidiría con el vacío: ambos serían inmateriales y, Por Canto, inactivos. La electrodinámica cuántica echó por tierra esta hipótesis,

300 años después de que Otto von Guericke construyera la primera máquina de vacío. Este sensacional experimento tuvo un ENOFME

impacto sobre la física y la filosofía: reivindicó el atomismo y, por

eso mismo, desacreditó las especulaciones sonre el plenum de Aristóteles y Descartes. Además, al justificar el atomismo, el experl-

mento de Guericke debilitó la religión, ya que en esa época “aromismo”, “epicureísmo”, “materialismo” y “ateísmo Cran sinónimos desde el punto de vista práctico. Pero sigamos adelante.

La pasividad o inercia solía considerarse una característica más

de la materia. Es decir, se suponía que todos los cambios de una

cosa material tenían su origen fuera de la cosa: Omne quod movetur ab alio movetur (“Todo lo que se mueve es movido por otro”). Este supuesto conduce bien a un regreso infinito, bien a postular un primer motor inmaterial. La primera consecuencia no satisface a

nadie, y la segunda —la solución de Aristóteles— sólo puede com-

placer a los teístas. Los materialistas coherentes no pueden admitir el postulado de pasividad, porque gracias a la ciencia conocen acerca de la emergencia, la autoorganización espontánea y la formación de pautas. Prestemos atención a los copos de nieve, los cristales O los pájaros. Tal como lo expresa Philip Ball (2001) en un hermoso libro, la naturaleza es un tapiz que se teje a sí mismo.

(Advertencia: la escuela austríaca de economía y la mayoría de

los ideólogos neoconservadores son grandes creyentes en la espontaneidad porque quieren que sea la “mano invisible” —y no el Estado— la que regule el mercado, aun a expensas de aquellos que 68

no pueden darse el lujo de la libre empresa. No admiten que todos

lox ixtemas artificiales han sido construidos y, por consiguiente, sor de todo menos autoorganizados y autorregulados. Todo el mun-

do admite que las dos peores crisis económicas de los últimos tiempos, lax que comenzaron en 1929 y 2008, han sido un producto

dela laxitud de los controles del mercado).

Un corolario del dogma de la pasividad es el principio de que nada, excepto Dios, puede causarse a sí mismo: sólo la máxima deidad os ers sí. Los naturalistas rechazan esta tesis: sostienen que

la naturaleza es su propia causa. (Advertencia: este enunciado no

debe entenderse de manera literal, puesto que los miembros de la relación causal son los sucesos, no las cosas. La versión correcta

de la tesis en cuestión es que la naturaleza es autónoma o autosuhiciente).

Otra consecuencia del principio de que la materia es pasiva es el postulado aristotélico (que, en realidad, fue enunciado por primera vez por sus seguidores medievales) causa cessante, cesat effectus, o sea, que los efectos cesan al concluir sus causas. Newton negó tácitamente esta proposición cuando enunció el principio de inercia,

Esto, sin embargo, no impidió que los conductistas se adhirieran

a él: sostenían que todas las respuestas se extinguen cuando cesan los estímulos correspondientes. Pasaron por alto contraejemplos

tan conocidos como las imágenes consecutivas y los dolores que se

sienten mucho tiempo después de desaparecidas sus causas, entre otros. Además, estaban obligados a pasar por alto esos sucesos mentales porque rehusaban estudiar el cerebro, el cual utiliza casi todo

su presupuesto energético en procesos que no son provocados por estímulos externos (véase el apartado 9.3).

Otra consecuencia de la pasividad que antes se atribuía a la materia era su estabilidad. Ciertamente, las cosas materiales podían cambiar como resultado bien de fuerzas externas, bien de tensiones internas, pero en ausencia de estas no se modificarían. Es decir,

quedaba excluida la pérdida de masa, así como la desintegración radiactiva y la relajación radiante espontáneas, el aumento de masa y la autoorganización espontánea. Asimismo, las descargas espon-

táneas de las neuronas, y los procesos mentales independientes de 69

los estímulos quedaron fuera de toda discusión. Toda la doctrina del estímulo-respuesta, la doctrina conductista, así como el supuesto de que el cerebro aislado debe estar inactivo salvo por las funciones de mantenimiento, fueron casos de la máxima peripatética de que

nada se mueve por sí solo. (Más sobre la actividad autogenerada del cerebro en el apartado 9.3).

Un principio relacionado con el anterior, aunque más abarcador, es el de la conservación de la materia, enunciado por primera vez por Lucrecio. La primera formulación cuantitativa de este postulado

se la debemos a Lavoisier: la conservación de la masa en todas las transformaciones químicas (en esta frase, “masa” significa “cantidad de materia”, no “inercia”). Medio siglo después, el postulado en

cuestión resurgió en forma de conservación de la energía en un sistema cerrado, es decir, como el primer principio de la termodiná-

mica. Tal como veremos en el apartado 9.3, hay ciertos cambios en los cuales la masa no se conserva, mientras que se supone que

la energía se conserva en todos los casos (en realidad, lo que se con-

serva es la distribución de energía y su promedio). Sin embargo, la masa y la energía son propiedades, no cosas. Por consiguiente, hemos conservado el principio de conservación de Lucrecio. (Ciertamente, en la electrodinámica cuántica se habla de procesos

“virtuales” en los que la energía no se conserva, pero se puede ar-

gumentar que esos procesos, al igual que los movimientos del pasado, son imaginarios, de donde se sigue la corrección del nombre “virtual”).

2.2. Otras características

de la representación clásica Otro rasgo aparentemente obvio de las cosas materiales es que los

valores de todas sus propiedades son precisos en lugar de borrosos o indefinidos. Expresado en la jerga metafísica contemporánea: todos los tropos están bien definidos. Por ejemplo, todos los valores de ición y velocidad son exactos. (En términos matemáticos, todas

las variables físicas pueden representarse mediante funciones de va70

riable real. En consecuencia, la posición de una masa puntual p en

el instante +, y relativa al marco de referencia f es XIp, £, A =, una tripleta de números reales). Expresado de forma metafórica: el mundo tiene contornos precisos y sólo nuestro conoci-

miento del mismo puede ser borroso. La física cuántica ha falsado

este postulado: ha probado que todas las propiedades dinámicas son borrosas en lugar de precisas (apartado 3.2).

Se daban por supuestos dos principios relacionados con las cau-

sas y los efectos: el de antecedencia y el de causalidad (véase Bunge, 1959a). El principio de antecedencia afirma que las causas (entradas

o insumos) preceden a sus efectos (salidas o productos), o que el pasado determina el presente. El principio de causalidad afirma que todo suceso es producido por algún otro cambio, que no hay

espontaneidad o autodeterminación. No cabe duda de que hay coincidencias a montones, pero se entiende que consisten en la intersección de trayectorias causales inicialmente independientes, tal como había supuesto el estoico Crisipo. En la física clásica siempre se piensa que el azar, o aleatoriedad,

resulta de procesos causales que tienen lugar en un nivel inferior, y se supone que en el nivel más bajo —el nivel atómico— todo sucede causalmente. Resumiendo: el azar básico o irreducible no existe. La física cuántica dio por tierra con este principio de la cosmo- visión mecanicista: ahora sabemos que lo cierto es exactamente lo opuesto; que en el nivel más bajo hay tanto aleatoriedad irreducible como causación, como supusieron Epicuro y Lucrecio.

Debemos darnos cuenta también de que la idea de que el azar no es más que ignorancia es errónea: el azar es real, incluso para un

ser omnisciente. Por ejemplo, mezclar una baraja transforma el orden en desorden, y este no es otra cosa que azar, aun cuando un ser omnisciente podría desde luego seguir la trayectoria de cada

carta. En cambio, el principio de antecedencia se mantiene, Además,

lejos de ser una fantasía metafísica ociosa, en ciencia se lo utiliza para identificar los errores. Por ejemplo, este principio se usa para rechazar —por carecer de sentido físico— la mitad de las soluciones matemáticamente correctas de la teoría electromagnética, a saber, 71

los potenciales avanzados. Según estos, existen campos electromag. néticos que vienen del futuro: se los declara matemáticamente ver-

daderos pero empíricamente falsos. Asimismo, se puede rechazar la hipótesis de la precognición, que sostiene la mayoría de los parapsicólogos, porque incluye la fantasía de que el futuro, que aún

no existe, puede actuar sobre el sujeto cognoscitivo. Por cierto, Richard Feynman y otros físicos teóricos consideraron que el electrón positivo (o positrón) es un electrón negativo que va hacia el pasado,

sólo porque ciertas fórmulas se mantienen invariantes respecto a

la inversión conjunta de los signos del tiempo y la carga eléctrica. Sin embargo, los físicos experimentales nunca se dejaron engañar, sabían que es imposible retroceder en el tiempo porque el pasado ya no existe: se atuvieron al principio de antecedencia.

Este principio de antecedencia, sumado al de Lucrecio, se puede

esgrimir contra el creacionismo cosmológico y biológico. Así es,

en conjunto ambos principios descartan toda afirmación acerca de un comienzo absoluto de todo lo material. En particular, se puede

interpretar el Big Bang como el inicio de una nueva fase en la historia infinita del universo, en lugar de su comienzo absoluto; ahora

se sabe que las nuevas bioespecies evolucionaron a partir de sus an-

cestros, tal como propone el árbol de la vida de Darwin, y se entiende que los primeros organismos se autoensamblaron a partir de precursores abióticos. En resumen, no hay comienzos absolutos.

Por tanto, el naturalismo coherente, en particular el mecanicismo, implica el ateísmo o, por lo menos, la herejía deísta de que, tras

haber creado la materia y la hubo provisto de sus leyes inmutables, Dios abandonó el mundo a su destino mecánico (Descartes, 1664, pág. 37).

El siguiente es el principio de mínima acción, según el cual en todos los movimientos la acción de un sistema mecánico es la menor posible o, de forma más general, que se trata o de un mínimo o de un máximo, (En la mecánica analítica, la acción de una cosa

es una propiedad global de la misma, definida como la integral de tiempo de la diferencia entre la energía cinética y la potencial). Este

principio es notable por varias razones: se refiere a la historia completa de una cosa, implica su ecuación de movimiento, distingue

|

MN

72

con precisión entre los conceptos físico y conceptual de posibilidad y está presente en todas las ramas de la física (véase Lanczos, 1949), En el siglo XVtl, Pierre Maupertuis lo utilizó para argumentar en

favor de la parsimonia del Creador, algo que hizo reír a Voltaire;

dos siglos después, Max Planck usó ese principio para demostrar Su inteligencia, Echemos un vistazo, por último, a la teoría del caos, mejor co-

nocida como dinámica no lineal. El que esta teoría requiera o no cambios gnoseológicos importantes, especialmente en relación con la predictibilidad, es todavía una cuestión abierta. Lo que no está en cuestión es que la teoría del caos ha ampliado la ciencia mediante el estudio de las inestabilidades, casos en los que causas pequeñas

tienen grandes efectos, como sucede en las avalanchas (véase Glass y Mackey, 1988).

Algunos de los éxitos más notables de esta teoría han consistido en descubrir que las órbitas de algunos miembros de sistemas de tres Cuerpos son caóticas, y ofrecer la primera descripción de las explosiones y las crisis demográficas en poblaciones de insectos. En cambio, las especulaciones acerca de la naturaleza caótica de la “tur-

bulencia” política no son más que analogías superficiales. Adviértase que todo modelo de la teoría del caos que describa un proceso real es algo más que un conjunto de ecuaciones dife-

renciales o de diferencias finitas no lineales: se les debe añadir una interpretación fáctica (de los símbolos que designan funciones, in-

terpretados en términos de propiedades). Es decir, a menos que se

convenga que algunos de los símbolos representan momentos (cantidades de movimiento) o su tasa de cambio (fuerzas), el modelo

será puramente descriptivo, pues una explicación requiere la descripción de un mecanismo, lo cual a su vez incluye energía.

Por último, un par de observaciones lingitísticas acerca de la teoría del caos. Primero, sus éxitos para explicar ciertas irregularidades indican que hemos de abandonar la tradicional identidad entre “ley” y “regularidad”. Segundo, debe quedar claro que “caos” es un nombre engañoso, ya que todas las ecuaciones de la teoría del caos

expresan cambios legales. Por consiguiente, es preferible el nombre menos comprometedor de “dinámica no lineal”. 73

En resumen, la cosmovisión mecanicista postula que el universo es a la vez objetivo, totalmente material y legal. Esta cosmología contrasta de forma notable con la opinión de Berkeley, Hume,

Kant y sus sucesores, especialmente los positivistas, los positivistas

lógicos, los intuicionistas y los fantasiosos de los multiversos, una perspectiva centrada en el sujeto (en particular, fenomenista), inmaterialista e ilegalista. Hasta aquí llega nuestra descripción de la cosmovisión mecanicista. Pasemos ahora a su caída. Veremos que, finalmente, el mecanicismo fue refutado en los detalles pero no en su gran

concepción: se conservó la objetividad, la materialidad y la legali-

dad, aunque se eliminaron las limitaciones mecanicistas sobre la materia y las leyes. 2.3 La decadencia del mecanicismo:

los campos

El mecanicismo reinó en la física hasta mediados del siglo XIX. Declinó de forma irreversible durante la segunda mitad de ese st-

glo como consecuencia del surgimiento de cuatro ideas nuevas: campo de fuerza, energía, azar y la distinción micro-macro (véase d'Abro, 1939).

Michael Faraday propuso la idea de una clase radicalmente nueva

de materia: el campo de fuerza, en particular el campo electromagnético. Un campo físico es una región del espaciotiempo en la que cada punto posee una o más propiedades físicas, por ejemplo la densidad de energía. El núcleo de una teoría de campos es un conjunto de ecuaciones de campo que describe la distribución y el

cambio de las propiedades físicas en cuestión. Una peculiaridad de esas teorías, en contraste con la mecánica, es que no contienen va-

riables de posición —es decir, coordenadas dependientes del tiempo— y, por consiguiente, no se las puede interpretar en términos

de partículas. Un campo electromagnético acompaña las cargas y corrientes

eléctricas y las interconecta, pero —tal como se hizo evidente algo 74

más tarde— puede subsistir independientemente de sus fuentes y del medio en el que exista. La electrodinámica estudia los campos que acompañan los cuerpos cargados eléctricamente, así como los

campos que, originados por cargas oscilantes y corrientes eléctricas, se han separado de sus fuentes y pueden ser finalmente absorbidos por un cuerpo. En consecuencia, a diferencia de la mecánica clásica, la electrodinámica estudia ciertos cambios cualitativos, además de los puramente Cuantitativos.

En contraste con la teoría de Ampere, la cual reemplazó, la teoría electromagnética, bosquejada por Michael Faraday en 1831 y per-

feccionada por James Clerk Maxwell en 1865, rechazó la idea de la acción a distancia: postuló que el espacio entre los cuerpos eléc-

tricamente cargados está ocupado por un campo y que todas las acciones entre los cuerpos están mediadas por campos. Además, la teoría matemática de Maxwell sobre estos campos propuso la existencia de ondas electromagnéticas, que Heinrich Hertz produjo y

midió una década después de la muerte de Maxwell. Resultó que los rayos de luz y los haces de radio no eran otra cosa que ondas elecrromagnéticas. Más tarde se descubrió que también los rayos X son ondas electromagnéticas.

Según Einstein (1934, pág. 213), la transformación que produjo la teoría de Faraday-Maxwell en la concepción de la realidad fue “la más profunda y fructífera experimentada por la física desde Newton” (a propósito, el propio Einstein perfeccionó esa teoría al probar que no necesitaba del éter; que los campos son cosas independientes).

Dicha teoría propuso también un ambicioso proyecto

de investigación que fascinó a Einstein durante toda su vida: la de

reducir las partículas a campos. Este programa fue llevado a cabo parcialmente por la teoría cuántica, que conceptúa los fotones, electrones, mesones y otras “partículas” elementales como cuantos o

unidades de otros tantos campos, uno por cada clase de componente básico. Pero volvamos ahora a la física clásica.

A diferencia de las ondas de agua o de sonido, las ondas elec-

tromagnéticas pueden existir de forma independiente, en el espacio

libre, sin ningún soporte: el éter inventado en el siglo anterior para dar cuenta del aspecto ondulatorio de la luz —obvio en la difrac-

ción y la interferencia— resultó ser ficticio (sin embargo, como veremos en el capítulo siguiente, la electrodinámica cuántica incluye

una nueva clase de éter: el vacío cuántico). Lo mismo vale para las ondas gravitatorias: se supone que, una vez que han sido generadas por ciertos cuerpos en movimiento —tales como los planetas— estas ondulaciones del espaciotiempo subsisten por sí solas. Además, los campos no poseen forma propia; se propagan, pero no

se mueven según trayectorias precisas (Órbitas); y no es necesario que posean masa. En la teoría de campos, el análogo más seme-

jante a la trayectoria de una partícula es el rayo de luz. Sin embargo, tal como probó Huygens hace ya 400 años, lejos de ser básicos y simples, los rayos de luz son un producto de la interfe-

rencia de ondas. A diferencia de las ecuaciones de movimiento para corpúsculos

y Cuerpos extensos, las ecuaciones de campo describen la intensidad del campo en cada punto de la región que ocupa. En el caso electromagnético, la intensidad del campo posee una componente eléctrica y una magnética cuyos cambios en el espacio y el tiempo se determinan mutuamente.

Las ecuaciones de campo para el vacío sólo incluyen las propiedades básicas del campo, es decir, sus intensidades eléctrica y mag-

nética. En particular, no incluyen las masas de las fuentes del campo (corrientes eléctricas e imanes). La energía total de un campo en una región dada se calcula elevando al cuadrado dichas intensidades

en toda esa región y sumándolas. Esto indica que debemos considerar que la energía es la medida de la materia, de igual modo que en la mecánica clásica la cantidad de materia es la masa. Volveremos

sobre este tema en el apartado 2.4. En tanto que los corpúsculos pueden moverse a diferentes ve-

locidades, todos los campos electromagnéticos (o las ondas electromagnéticas) se mueven a la misma velocidad en el vacío, a saber,

la velocidad límite c. Con todo, en el interior de un material trans-

parente, estos campos pueden reducir su velocidad hasta la de un caracol. Además, a diferencia de las partículas, los campos electromagnéticos no tienen inercia porque no poseen masa. Sin embargo,

sí transportan energía. Contrariamente a lo que dicta la intuición 76

sin guía, el flujo de energía electromagnética es perpendicular a las componentes eléctrica y magnética del campo. Por fortuna, la intuición que surgió a partir de nuestro trato con los cuerpos sólidos puede corregirse y enriquecerse mediante el ex. tudio de los campos, Es verdad, hay muchos físicos que se resisten

a admitir que los rayos de luz son entidades materiales; muchos de ellos les llaman “fuerzas” y “energía” radiante. Pero en este caso, si son materialistas, los filósofos lo entienden mejor: proponen que

el descubrimiento de los campos y la invención de la teoría corres. pondiente nos obliga a expandir el concepto de materia hasta incluir los campos. Desde los tiempos de Faraday, en la física clásica hay

dos clases de entidades materiales: los cuerpos y los campos. Como veremos en el siguiente apartado, la teoría cuántica supera esta dua-

lidad cuerpo-campo, en el sentido de que las llamadas partículas resultan ser cuantos (unidades elementales) de los correspondientes campos. 2.4 Más decadencia: la termodinámica

La termodinámica se desarrolló aproximadamente al mismo tiempo que el elecrromagnetismo. Sin embargo, las dos teorías son radicalmente diferentes entre sí, En efecto, la termodinámica clásica

sólo se ocupa de sistemas grandes, como los motores, y con propiedades globales, como la temperatura, la entropía y la energía li-

bre. Además, modeliza todas y cada una de las entidades materiales como una caja negra provista de volumen, presión interna, temperatura, energía, entropía y propiedades derivadas de estas. Más aún, la termodinámica distingue dos clases de energía, la mecánica y la térmica, de forma que la energía total de un sistema termodinámico, como una estrella o un motor, es igual a su energía mecá-

nica más su energía térmica. El primer axioma de la termodinámica afirma que la energía total de un sistema cerrado (o aislado) es cons-

tante. Numerosos cosmólogos sostienen que un universo en expansión pierde energía, mientras que uno en contracción aumenta

su energía. Sin embargo, lo cierto es que el principio no es válido

77

para el universo como totalidad, dado que no se trata de un sistema cerrado. Además, el calor y el trabajo pueden transformarse el uno en el otro, si bien no de forma completamente simétrica. En efecto, la

energía mecánica puede transformarse totalmente en calor, pero la transformación inversa nunca es completa: siempre hay un residuo térmico que no puede transformarse en movimiento porque permanece ligado al sistema. Eso es, precisamente, lo que enuncia el segundo principio de la termodinámica: que aunque la energía

total de un sistema cerrado es constante, su calidad tiende a degradarse en el sentido de que se va disipando gradualmente. En consecuencia, la energía altamente concentrada, como en el caso de la contenida en una pila eléctrica, tiende a dispersarse, como cuando la pila está conectada a un sistema compuesto por Una bombilla, un elemento calentador o una máquina. El incremento del orden, como sucede en el proceso de autoensamblaje, sólo pue-

de tener lugar a expensas de un aumento del desorden en el entorno. La diferencia entre las formas de alta y baja energía se explica

mediante la mecánica estadística, la cual analiza los sistemas ter

modinámicos en términos de sistemas de partículas que se mueven

al azar e intenta reducir todas las propiedades termodinámicas a propiedades mecánicas, aunque de momento, lamentablemente,

no lo ha conseguido del todo. Por ejemplo, la presión interna se reduce a la suma de los impactos moleculares en las paredes del sistema. La entropía, por su parte, se reduce al desorden molecular

o, con mayor precisión, al número de microconfiguraciones Compatibles con un estado dado. Esta es la famosa fórmula: S = k1nW,

en la cual $ representa la entropía, Wel número en cuestión y k

una constante universal, es decir, una constante que no depende

del material del cual esté compuesto el sistema. A causa del papel decisivo que tiene la hipótesis de la aleatorie-

dad (o desorden) molecular, la reducción en cuestión es incompleta o parcial, pese a lo que afirma la opinión dominante (véase Bunge, 1973a). Lo que la mecánica estadística ha logrado no es reducir la termodinámica a la mecánica, sino tender un puente entre las 78

dos. La fórmula anterior es el puente más obvio entre ambas disciplinas. En consecuencia, la termodinámica, nacida del deseo de com-

prender y perfeccionar el motor de vapor, acabó causando una revolución ontológica silenciosa, ya que introdujo tres ideas ajenas a

la cosmovisión mecanicista. Estas ideas son las de nivel de organización (micro/macro o partícula/ cuerpo extenso), aleatoriedad objetiva (desorden, entropía) y el deterioro (desorganización cada vez mayor) de todas las cosas macrofísicas. Con todo, lo habitual es afirmar que, a diferencia de la aleato-

riedad cuántica, la aleatoriedad clásica se debe a la ignorancia y es, por lo tanto, subjetiva. Este es el núcleo de la interpretación de la termodinámica en términos de la teoría de la información y probabilidad bayesiana (subjetivista) preconizada por Jaynes (1967).

Si bien es cierto que, si no tuviera nada mejor que hacer, Dios sería capaz de rastrear cada partícula de un gas, también es cierto que el desorden molecular es objetivo, por lo que la entropía —una medida de dicho desorden— es una propiedad tan objetiva como el calor y la temperatura (tanto es así, que el incremento AS de entropía que acompaña a un calentamiento de AQ a temperatura 7 es: AS = AQ/T). Este incremento del desorden al calentar un sis-

tema no está confinado en la mente de nadie: es objetivo. Este es

el motivo por el cual diferentes físicos o ingenieros obtendrán aproximadamente los mismos números al medir el incremento de la entropía de un sistema con los mismos instrumentos: el desorden ha aumentado en el sistema, no en sus cerebros. Además, las mediciones de temperatura sólo son posibles cuando el sistema alcanza un equilibrio, el estado en el cual la entropía es máxima, como sería

la incertidumbre del experimentador según el subjetivismo. Es decir, que el conocimiento y la ignorancia serían lo mismo. La mecánica estadística clásica supone que todo componente de un sistema posee una posición precisa, aunque desconocida, así como un momento igualmente preciso y desconocido. Por consiguiente, cada posición en el espacio ordinario está especif1cada por una coordinada de posición con tres componentes, se asigna un sistema de » partículas a un espacio de configuración 79

3n-dimensional y un espacio de estados G6n-dimensional. Estas propiedades se dan por reales pero incognoscibles. Por tanto, paradójicamente, en este caso el realismo incluye un fingimiento

epistémico. Esta admisión explícita de ignorancia del detalle microscópico priva al lugar del lugar privilegiado que tenía desde la antigiiedad: suponemos que las cosas se mueven en el espacio, pero no intentamos descubrir las trayectorias porque en la práctica no podemos encontrarlas. Por consiguiente, la teoría, lejos de reflejar la práctica —tal como exigen el empirismo y el pragmatismo—, la ignora. En el siguiente capítulo veremos que la física cuántica ni siquiera finge que sus referentes microfísicos poseen

posiciones —y de ahí trayectorias, así como formas-— definidas

aunque incognoscibles.

Volvamos a la ontología. Mientras que el mecanicismo había postulado que la naturaleza existe en un Único nivel, la mecánica estadística clásica probó que hay al menos dos niveles físicos: el macrofísico y el microfísico, exactamente como habían conjeturado los atomistas griegos e indios. Más tarde, la física atómica, nuclear y de partículas aumentaron el número de niveles físicos y, desde luego, los biólogos y los científicos sociales añadieron varios niveles suprafísicos (véase el capítulo 5).

2.5 La relatividad especial La siguiente revolución científica fue el surgimiento de la teoría de la relatividad especial de Einstein, en 1905. Lo cierto es que, en

cierto sentido, se trató más de una reforma que de una revolución, puesto que modificó la mecánica, pero no la electrodinámica, y

afectó a la teoría del espaciotiempo, así como a la teoría de la materia. En particular, la nueva teoría probó que el espacio y el tiempo, lejos de ser mutuamente independientes, se funden en uno: el espaciotiempo. La relatividad especial probó también que los valores de ciertas propiedades, como la distancia, la duración, la masa, la

temperatura yla intensidad del campo eléctrico, dependen del mar-

co de referencia, en tanto que otras, como la distancia espaciotem80

poral, la carga eléctrica y la entropía, son invariantes respecto a los

cambios de marco de referencia. En otras palabras, mientras que algunas propiedades físicas son las mismas en (relativamente a) to-

dos los marcos de referencia, otras no lo son. Por tanto, la relativi-

zación fue parcial y se refiere a la relación con el marco de referencia

objetivo, no con el sujeto cognoscente,

Por ejemplo, la distancia entre dos puntos del espaciotiempo, As = Av — (" AF, es la misma en todos los marcos de referencia: es invariante respecto a las transformaciones de Lorentz. En cambio,

todo cuerpo tiene tantas masas y energías como marcos de referen-

cia inercial haya, es decir, infinitos si el universo es espacialmente infinito. Además, estas diferencias no son resultado de ningún cam-

bio, por lo cual no exigen una explicación en términos de mecanismos, en particular de mecanismos causales. Todos los cambios causan diferencias, pero la inversa no es válida. Dicho sea de paso,

esta relatividad se ha confundido a menudo con irrealidad, lo que

explica la expresión “masa aparente”, en contraste con “masa propiamente dicha”, que es la masa relativa al marco de reposo. Nada hay de irreal o aparente en la dependencia de un marco, ni en la física relativista ni en la clásica (recuérdese que la posición, la velocidad y, en consecuencia, la energía cinética también son dependientes del marco en la mecánica clásica). La invariancia supone

realidad, pero no a la inversa.

La relatividad de la posición se conocía desde la mecánica clásica,

La relatividad del tiempo, en cambio, fue una sorpresa. En particular, parecía paradójico que la edad resultara dependiente del marco de referencia, como ilustra la famosa paradoja de los gemelos. Con todo, esta novedad no fue nada en comparación con otra con-

secuencia de la relatividad del tiempo: una oscilación en un marco de referencia equivale a (“aparece como”) una onda que se propaga en un marco de referencia en movimiento. Este fue el germen de la primera mecánica ondulatoria de Louis de Broglie (1924), que

Erwin Schródinger (1926) expandió y se convirtió rápidamente en

el núcleo de la física cuántica. El aspecto ondulatorio de la materia, predicho por la mecánica ondulatoria, pronto fue confirmado por los experimentos. 81

En consecuencia, la relatividad especial, considerada a veces nada

más que un descendiente de la electrodinámica clásica, tuvo un descendiente impredecible: la mecánica ondulatoria. Además, desde

luego, ninguna de estas teorías fue motivada por los avances tecnológicos. Mas bien todo lo contrario: el estudio desinteresado de la

materia encontró importantísimas aplicaciones industriales, desde las telecomunicaciones hasta la ingeniería nuclear. Lo cual nos con-

duce a una de las fórmulas más famosas de la historia de la física. La ecuación E = mc de la mecánica relativista afirma que la masa

y la energía de una partícula o un cuerpo son equivalentes. Por lo general, se dice que esta equivalencia cuantitativa significa que la masa y la energía son lo mismo respecto al módulo c*. Esto es incorrecto. En tanto que E mide la capacidad de cambio, 12 mide la

inercia o disposición a resistir los cambios en el estado de movi-

miento. Otra difundida interpretación de la misma fórmula es que la materia es lo mismo que la energía. Esto también es incorrecto, porque la energía es una propiedad de las entidades materiales, co-

mo prueba claramente la expresión estándar “La energía de la cosa O, relativamente al marco de referencia q y en la unidad e es igual al número e”.

Además, mientras que sólo las partículas y los cuerpos están provistos de masa, la energía es una propiedad física universal, tal como se verá en el apartado 2.4. En otras palabras, si bien la materia no

es lo mismo que la masa y la masa no es lo mismo que la energía, sí es verdad que los predicados “es material” y “tiene energía” son coextensivos, es decir, comprenden los mismos ejemplos.

Resulta interesante que la masa de un sistema sea ligeramente menor que la suma de las masas de sus componentes; esta diferencia se llama “defecto de masa”. Así pues, la masa total de un

sistema compuesto por los cuerpos 1 y 2 es M= m + m2 mn, donde m: simboliza el defecto de masa del sistema. La energía

correspondiente, mc”, es igual a la energía de enlace del sistema. La fisión del uranio dentro de una bomba es el ejemplo más fa-

moso de esta equivalencia: los fragmentos escapan con una parte de la inmensa energía de enlace del núcleo, ahora transformada en energía cinética. 82

Asimismo, la energía de un sistema físico es diferente de la suma de las energías de sus constituyentes porque incluye la energía de

interacción (la energía total será mayor o menor que la suma de las energías de los componentes, según la energía de interacción sea positiva o negativa). Adviértase la diferencia con las distancias, ríodos, cargas cléctricas y otras magnitudes aditivas. (Esta diferencia se les ha escapado a los filósofos y psicólogos que trabajan en lo que llaman “teoría de la medición” porque han confundido medición, un

procedimiento empírico, con medida, un Concepto propio de la teoría de conjuntos: véase Bunge, 1974. Peor aún, han ignorado las magnitudes subaditivas, como la masa, así como las intensivas, como la

densidad de masa). Adviértase también la presencia de la palabra “sistema” al comienzo de este párrafo: aunque pocos filósofos la utilizan, su uso está extendido por todas las ciencias. La razón es que los sistemas no son sólo colecciones de individuos sino individuos de un nivel superior: una pared no es un montón de ladrillos, una célula no es una colección de moléculas, un regimiento no es una multitud reunida por accidente, y así sucesivamente.

El caso de los fotones o cuantos de luz es muy diferente del de la materia ponderable (o provista de masa). De hecho, los fotones tienen energía y momento, pero no masa. Las tres propiedades

mencionadas en las frases anteriores están relacionadas por la ecuación: E? — ¿p? = moc*. Esta ecuación es una invariante: es válida en todos los marcos de referencia inerciales (mo denota la masa en re-

poso, es decir, la masa del cuerpo en cuestión relativamente a un

marco de referencia adjunto al mismo). La fórmula precedente es el correlato dinámico de la invariante espaciotemporal que hemos visto antes, La fórmula del párrafo anterior muestra con claridad que la ener-

gía es una propiedad más universal que la masa, puesto que para mo = 0, dicha fórmula se reduce a: E? — cp? = 0. Esto confirma la

decisión de considerar que los campos electromagnéticos, que no tienen masa, constituyen una clase especial de materia. Además,

indica que, mientras que en la mecánica la cantidad de materia es medida por la masa, la energía mide la cantidad de materia sin importar cuál sea su clase (más sobre ello en el capítulo 4). 83

Volvamos un momento a la luz. Recordemos que su velocidad en cl vacto es la velocidad mayor (sin embargo, la luz se acelera

cuando atraviesa un campo gravitatorio). Este hecho es tan impor-

tante que se lo ha transformado en un principio. Se trata del principio de localidad, según el cual ninguna acción puede propagarse más rápidamente que la luz. Este principio se utiliza para evaluar

las teorías físicas: las teorías no locales, es decir, las que suponen velocidades mayores a las de la luz, se consideran gravemente de-

fectuosas. Por tanto, una de las principales objeciones de Einstein a la mecánica cuántica fue porque pensaba que la teoría consagraba

la acción a distancia, que Einstein consideraba una fantasmagoría

y con razón, Desde entonces hemos aprendido que la teoría incluye el entrelazamiento (véase apartado 3.2). Sin embargo, permítame el lector resumir nuestra exposición sobre la invarjancia.

El hecho de que la relatividad especial haya destronado a las an-

tiguas invariantes para consagrar otras nuevas prueba que la elección del nombre para la nueva teoría fue desafortunada. Condujo a la gente a hacer hincapié, de manera equivocada, en lo relativo (o dependiente del marco de referencia) a expensas de lo absoluto (0 invariante respecto al marco de referencia), cuando en realidad ambos eran igualmente importantes. “Absolutidad especial” hubiera sido igual de apropiado... o inapropiado (el calificativo “especial” alude

a la particular clase de marcos de referencia a los que se refiere la teoría: se trata de marcos inerciales, es decir, aquellos que se mueven a velocidades constantes el uno relativamente al otro). Pero el principal error filosófico fue creer que la teoría suponía el subjetivismo, sólo porque Einstein intentó popularizarla mediante referencias a observadores que viajaban en trenes en movimiento y la medición de distancias y duraciones. Esta difundida

confusión de “relativo” con “subjetivo” se podría haber evitado mediante el uso de fotocélulas e instrumentos de medición automatizados, cuya disponibilidad en la época, por supuesto, no era tan amplia. Además, ningún físico debería haberse permitido esta

confusión, ya que toda magnitud es o relativa o absoluta de una forma acotada, a saber, relativamente a cierto grupo particular de

transformaciones. 84

26 La gravitación

El concepto de campo que se inventó a continuación fue el de campo gravitatorio, La teoría de la relatividad general de Einstein es, en realidad, una teoría de campos gravitatorios, Esta teoría no habría tenido ningún impacto en la ontología si no hubiera supuesto

un cambio aun más profundo en el concepto de espaciotiempo que la relatividad especial. En etecto, probó que la distancia entre dos puntos del espaciotiempo depende de la distribución de la materia, y es probable, en consecuencia, que sea diferente en regiones diferentes del universo: más corta en los lugares con mayor densidad de materia y más larga donde esta es menor, En otras palabras, la

materia deforma el espaciotiempo y al hacerlo modifica las trayecrorias de los clasones, como por ejemplo los planetas, y de los cuanrones, tales como los fotones, La teoría de la gravitación de Einstein (1915) transformó la con-

cepción del espaciotiempo, de una que lo consideraba el contenedor pasivo universal de la materia a otra que lo entiende como el compañero de la materia. Ántes de 1915 se podía especular que, si Dios

alguna vez se cansaba del mundo, el espaciotiempo aún continuaría siendo un contenedor vacío listo para recibir nuevas cosas materiales

o ninguna. Después de esa fecha, debemos admitir la posibilidad de que, si la materia desapareciera, también desaparecería el espaciotiempo: sin materia, no hay espaciotiempo. Esta idea debería enfriar el entusiasmo por el Big Bang, entendido como una explosión de la nada en el vacío. Además, también debería provocar un entusiasmo que el calificativo “general” no consigue transmitir. Me refiero a que la nueva teoría no sólo admite

marcos de referencia acelerados, tales como nuestro planeta, sino que versa sobre los campos gravitatorios y sus fuentes o compañeros. Tanto es así que las soluciones de las ecuaciones de Einstein des-

criben campos gravitatorios. Los filósofos deberían haber ayudado a identificar los referentes correctos de la teoría. Sin embargo, su

semántica, si la tenían, no incluía ninguna teoría de la referencia (o acerca de lo que se trata), tal como la propuesta por este autor

(Bunge, 1974a). 85

Puede que Einstein haya muerto creyendo que su teoría de l, gravitación había sido confirmada sólo por tres “efectos”, en par. ticular por el más sorprendente de ellos: la curvatura de la luz por la gravedad. Desde entonces, se han descubierto más de dos docenas de “efectos” diferentes y se ha confirmado ampliamente la existencia de los agujeros negros (o, más bien, grises). Además, se supone que

todos los modelos cosmológicos deben ser consistentes con la teoría

de la gravedad de Einstein. Con todo, admitámoslo, pese a que la

cosmología relativista tiene casi un siglo de vida, todavía no se ha

decidido si realmente hubo un comienzo absoluto o, siquiera, si el

universo es espacialmente finito o infinito.

Comentarios finales

La opinión vulgar acerca de la física clásica es que €s básicamente incorrecta y está, por tanto, obsoleta. (Esta opinión fue formada

en gran medida por la media verdad de Gaston Bachelard y Tho-

mas Kuhn de que la historia de la ciencia es consecuencia de ruptures epistémologiques o revoluciones científicas). También se cree ampliamente que la física clásica es idéntica a la mecánica clásica, la cual sería reducible a la mecánica de partículas newtoniana. El hecho de que esta última no es más que un caso muy especial de

la mecánica de medios continuos es algo sabido por todos los in-

genieros mecánicos. Además, la mayoría de los seguidores de Hegel,

hasta Frederick Engels, se tragó la fantasiosa afirmación de que las

leyes del movimiento especiales de Kepler implican las de Newton,

en lugar de la inversa. Otra difundida concepción errónea es que la física clásica, a diferencia de su sucesora, era intuitiva, Sin embargo, no es esa la im-

presión que tienen los estudiantes de primer año, quienes

encuentran difícil comprender que un cuerpo en movimiento sobre

el que no actúe ninguna fuerza sigue moviéndose (el principio de

inercia); que los planetas giran alrededor del Sol impulsados por una fuerza que es perpendicular al plano de su movimiento; que un campo magnético no es lo mismo que las limaduras de hierro 86

que indican su presencia; que iguales volúmenes de gases diferentes contienen el mismo número de moléculas (la ley de Avogadro);

que las cargas eléctricas son múltiplos de una carga eléctrica elemental; o que las leyes básicas de la física (a diferencia de algunas propiedades físicas) son las mismas relativamente a todos los marcos de referencia que se mueven a velocidad constante unos relatiyamente a otros (principio de relatividad de Galileo). Debido a estas difundidas concepciones erróneas, la mayoría de

los filósofos ha pasado por alto la rica problemática planteada por la mecánica de medios continuos, el electromagnetismo clásico, la

mecánica estadística y las primeras teorías atómica y electrónica.

Todas estas teorías —que todavía se están desarrollando— han transformado considerablemente la idea de materia que Newton nos legó. Hasta Euler, el heredero de Newton y padre de la mecánica de medios continuos, tenía un concepto de materia más rico que aquellos filósofos de la ciencia del siglo xX que identificaban la física clásica con la mecánica clásica de Newton. Además, por supuesto, Faraday, Maxwell, Clausius, Boltzmann, J. J. Thomson, Arrhenius y sus contemporáneos sabían acerca de los campos, los fluidos, los sistemas termodinámicos, los electrones, las estrellas y las galaxias,

ninguno de los cuales es reducible a partículas puntuales. A esto hay que añadir los logros de los químicos —entre ellos Berzelius y Avogadro— y los biólogos —entre ellos Bernard, Darwin y Ramón

y Cajal— del siglo XIX; entonces se hace evidente que las ideas decimonónicas sobre la materia eran mucho más elaboradas que las de los filósofos del siglo XX. Hacia 1900, en los inicios de la revolución cuántica, los físicos,

químicos y biólogos habían aprendido sobre la materia mucho de lo que era desconocido un siglo antes: que existen los campos además de los cuerpos, que la mayoría de los procesos son irreversibles, que los átomos y el azar son reales, que el vitalismo es erróneo y que la bioquímica es la clave de la vida, que los organismos actuales descienden de antepasados remotos muy diferentes de ellos, que los sistemas materiales de cierta clase pueden pensar, etcétera. 87

El nuevo conocimiento sobre la materia obtenido durante el sj.

elo XIX debería haber conducido a una vigorosa renovación del ma. terialismo filosófico. Paradójicamente, sucedió exactamente ly

contrario: desencadenó una fuerte reacción idealista, conocida e

Francia como la critique de la science. De hecho, numerosos autores “interpretaron” la física como una refutación del materialismo, Cu-

riosamente, este ataque al materialismo en nombre de la ciencia fue perpetrado por científicos destacados, en tanto que la mayoría

de los filósofos tradicionales siguió escribiendo sobre Kant y Hegel. En efecto, hacia el final del siglo xIx, Mach, Kirchhofk, Duben, Ostwald, Poincaré, Pearson y otros científicos en actividad rein-

ventaron el positivismo. Criticaron tanto el materialismo como el realismo, recalentaron el fenomenismo de Kant y hasta llegaron a

repetir la repulsa de Comte del atomismo y la astrofísica. El gran Ludwig Boltzmann fue el único disidente destacado. Es curioso que el crítico más vehemente del nuevo idealismo no fuera ni un científico ni un filósofo, sino un político profesional:

Lenin (1908). Su libro sobre la cuestión, Materialismo y empino-

criticismo, fue una perspicaz arremetida contra el positivismo y el Leconvencionalismo. Puesto que carecía de formación científica,

nin restringió su atención a fuentes de segunda mano. Sin embargo,

en lo básico estaba en lo correcto, aunque por razones equivocadas,

porque las opiniones que criticaba chocaban con las de Engel.

A pesar de todo, la resurrección del idealismo en nombre de la

ciencia no impidió el nacimiento de la física atómica y nuclear ex-

perimental alrededor de 1900. Pero la revolución cuántica fue interpretada de forma subjetivista, y una vez más por los físicos antes que por los filósofos: como es habitual, estos estaban desfasados

respecto a la ciencia. Sin embargo, esta profunda transformación

se merece un nuevo capítulo.

88

> La materia cuántica: extraña pero real

Es sabido que las teorías cuánticas introdujeron cambios radicales en la concepción de la materia. Sin embargo, no hay consenso acerca de cuáles son esos cambios o de cuál debería ser su impacto en la filosofía. Mientras algunos eruditos han puesto el acento en los cambios de la teoría física, otros han afirmado que la teoría cuántica nos obliga a abandonar el postulado realista de que hay cosas en

sí, es decir, cosas que existen independientemente del sujeto que conoce. Puesto que ya me he ocupado de esta interpretación (la de Copenhague) en otros escritos (Bunge, 1959b, 1967b, 1973a, 1985), aquí concentraré mi atención en la nueva ontología que

exigen las teorías cuánticas.

Todas las cosas materiales son o bien trones y los quarks, o bien sistemas de otras palabras, las cosas no se presentan rios ni se las puede dividir en partes de

elementales, como los elecesas cosas elementales. En en agrupamientos arbitraforma arbitraria. Por con-

siguiente, en lo básico, los antiguos atomistas tenían razón. Además,

algunas propiedades también están cuantizadas. Por ejemplo, la energía de un átomo en un estado estacionario no puede tomar valores arbitrarios: sólo puede estar en un valor de un conjunto numerable infinito de valores. En consecuencia, un aumento o una reducción en la energía de un átomo es una transición discontinua o salto cuántico, una expresión que ha pasado a enriquecer el lenguaje ordinario. Estas discontinuidades han motivado la introducción de los neologismos teoría cuántica, cuantización y cuantón. 89

Sin embargo, se debe tener en cuenta que la fisica clásica también contiene propiedades cuantizadas, tales como la cantidad de electricidad y las frecuencias de una cuerda o membrana vibrante. Ade-

más, contrariamente a la difundida creencia de que la teoría

cuántica introdujo de la disciplina nos ceptos clásicos de campo, entropía y

nociones poco intuitivas en la física, la historia enseña que hubo un momento en que los conmasa, energía, polarización de la luz, tensión, hasta el de fuerza fueron considerados descon-

certantes.

Es verdad, Bohr sostuvo que la teoría cuántica NOS obliga a revisar el concepto mismo de comprensión y es famosa la afirmación de Feynman de que en realidad nadie entiende la física Cuántica. En mi opinión, esta teoría es difícil de captar no sólo porque se

ocupa de sucesos que nos resultan poco familiares, tales como la

trasmutación de un par de electrones en dos o Más fotones, sino

también porque está rodeada de la confusión provocada por el in-

tento de hacerla compatible con el operacionismo. Este último es

la doctrina según la cual el significado de un constructo €s igual a las operaciones que se realizan para ponerlo a prueba. Esta filosofía, la llamada interpretación de Copenhague, exige

que llevemos a cabo la imposible hazaña de traducir ciertas oraciones, que aunque inicialmente nos resulten poco familiares no incluyen un observador, al lenguaje de los fenómenos, en particular al de las apariencias que encuentran quienes trabajan en el laboratorio. Los antiguos atomistas comprendieron que lo que debemos

hacer es exactamente lo opuesto, es decir, explicar lo perceptible

recurriendo a lo imperceptible. Los cronómetros no fabrican el tiempo: sólo lo miden. Asimismo, las células fotoeléctricas no generan electrones de la nada: lo único que hacen es detectar los elec-

trones que los fotones arrancan de los átomos de selenio de las células. Esto no equivale a negar que los electrones, fotones y afines son sumamente sensibles a los sistemas macrofísicos, tales como los ins-

trumentos de medición, algunos de los cuales modifican los valores

de la propiedad que se desea medir, en tanto que otros generan nuevas propiedades en cosas preexistentes. El asunto es que todas 90

esas cosas existen en el mundo real, no son ficciones de la imapínación del experimentador. Esta, la tesis realista, no ha sufrido nín-

gún daño por parte de la física cuántica. Antes bien, ha ocurrido lo contrario, ya que cuando se monta la instalación experimenta)

o cuando se lee un instrumento de medición, así como cuando planteamos un problema teórico, damos por supuesto que tratamos con cosas reales, que poseen propiedades físicas y no propiedades mentales. Este es el motivo de que nadie en su sano juicio espere

encontrar respuesta a las preguntas de la física mediante el uso de la introspección. Los psicólogos, no los físicos, son los científicos

aptos para investigar la experiencia humana.

Además, los físicos dan por sentado que las cosas que estudian

son objetos naturales preexistentes, aun cuando las mediciones invasivas puedan alterar algunas de sus propiedades. Si no hicieran esa suposición realista filosófica, los físicos se estudiarían a sí mismos; en particular, estudiarían su propia experiencia: considerarían que su ciencia es un instrumento “para ordenar y examinar la ex-

periencia humana”, como dijo una vez Bohr con la posterior aptobación de Mermin (2009). En otras palabras, los físicos describirían

sus propias experiencias y lo harían en términos de propiedades secundarias (dependientes del sujeto), tales como el color y el sabor; no primarias (independientes del sujeto), tales como la longitud de onda y la acidez. Pero no es eso lo que hacen. Por consiguiente, la tesis instrumentalista, la misma que la Inquisición esgrimió contra el realismo de Galileo, es falsa. El hecho de que durante su investigación del mundo externo los físicos simplifiquen (Cestilicen”) las materias que estudian y empleen abstracciones, así como que en ocasiones, equivocadamente, las reifiquen, refuta el realismo ingenuo, pero no hace mella en el

realismo científico. En efecto, el realismo científico hace hincapié en que nuestras teorías sobre las cosas reales son simbólicas e indirectas antes que figurativas y literales. Sin embargo, también insiste en que esas teorías se refieren a cosas reales materiales, tal como prueba el análisis de expresiones tales como “la masa en reposo del electrón” y “los niveles de energía del átomo de hidrógeno”. Si las teorías físicas no tuvieran esta referencia supuesta (o hipotética),

'N)

no podrían someterse a comprobaciones con la realidad ni ser usa-

das en tecnología. Con todo, continuemos con la comparación entre lo cuántico y lo clásico. La característica más importante de la física cuántica no es la discontinuidad, ni siquiera el azar irreducible, sino su contribución a la vieja pregunta: ¿cuáles son los constituyentes últimos de la ma-

teria? Anaximandro, el padre de la cosmología occidental, conjeturó que los materiales de diferentes clases no eran más que variaciones de una materia primaria (apeiron). Robert Boyle, el fundador de la química moderna, resucitó esta hipótesis 2000 años después.

Asimismo, William Prout (1815) la actualizó a la luz de la entonces

materia recientemente resucitada teoría atómica: Prout identificó la

primaria con el hidrógeno porque él había descubierto que los pesos atómicos eran múltiplos del peso atómico del hidrógeno. Resulta

asombroso que Prout se acercara tanto: alrededor de 1930, se pen-

saba que todos los átomos estaban compuestos por protones (el núcleo del hidrógeno), neutrones y electrones. Así pues, la diver-

sidad surge de la unidad.

En el momento en que escribo estas líneas, conocemos más de 200 especies de partículas, además de entidades que carecen de ma-

sa como el fotón y el hipotético gravitón. También sabemos que el protón y el neutrón, lejos de ser elementales, están compuestos pol quarks y gluones. Por lo tanto, en lugar de una única materia primaria, ahora contamos alrededor de 100 de ellas. En consecuencia,

se ha conservado la antigua idea de que el universo tiene constituyentes últimos. Lo que ni los antiguos ni Boyle ni Prout pudieron

anticipar es que los constituyentes básicos son completamente distintos de las minúsculas canicas imaginadas por los primeros ato-

mistas, desde Demócrito hasta Dalton. La realidad prueba, cada

vez más, ser mucho más compleja y menos visualizable que todo lo que los teólogos y escritores de ciencia ficción más sofisticados y refinados podrían inventar. Además, muchas de las invenciones de la física cuántica han resultado ser asombrosamente realistas, por lo cual han contradicho la filosofía antirrealista inherente a la escuela ortodoxa o de Copenhague. Echemos un vistazo a algunas

complejidades propias de la teoría cuántica, 92

3.1 Con ustedes, el cuantón La revolución cuántica, iniciada en 1900, y aún en vigoroso desa-

rrollo, asestó un golpe tremendo a la concepción corpuscular del universo y, a la vez, reforzó la concepción propia de la teoría de campos. En efecto, si bien las cosas descritas por la teoría cuántica no son ni partículas ni campos, son más parecidas a los últimos que a las primeras, ya que no tienen forma propia, se extienden por el espacio y experimentan la difracción y la interferencia. Por consiguiente, la probabilidad de la posición de un electrón liberado en una habitación vacía se expandirá hasta ocupar la estancia en su totalidad. De hecho, su función de estado, la famosa 1, se expandirá para acercarse a cero sólo en las fronteras de la habitación, así como

en ciertos lugares especiales entre ellas, al igual que todos los demás campos. (Sin embargo, los partidarios de la teoría de cuerdas se ufanan de que, a diferencia de los físicos cuánticos, ellos ven los ladrillos del universo como cuerdas o láminas en lugar de partículas puntuales, como si la mecánica cuántica hubiera conservado la ficción clásica de una partícula puntual). En consecuencia, las propiedades dinámicas del cuantón, en primer lugar su posición, estarán extendidas por toda la habitación o,

en realidad, por toda la galaxia en el caso de un neutrino que haya estado viajando sin ser perturbado durante miles de millones de años. Sin embargo, un detector localizará el cuantón en las regiones en las que la función de estado 1 o, mejor dicho, donde el cuadrado de su amplitud, alcance un máximo. En general, la interacción con una cosa macrofísica, sea natural o artificial, causa cambios significativos en el cuantón, en particular una contracción radical de su distribución de posiciones. Los idealistas filosóficos, y los físicos cuánticos que los siguen sin percatarse de ello, interpretaron que este resultado confirmaba

la idea de que el observador puede “conjurar” a voluntad los objetos

microfísicos y sus propiedades. Se olvidan de que ellos mismos están compuestos por átomos y moléculas, todos los cuales existen la mayor parte del tiempo fuera de sus laboratorios y por sí solos, no gracias a las diligencias de los observadores científicos. Cuando

93

los físicos hacen su trabajo, investigan el mundo externo en lugar

de estudiarse a sí mismos. Además, dan por supuesto que la mayor parte del mundo físico está más allá de su alcance, por ejemplo en

el centro de nuestro planeta o en otra galaxia. Lo que ocurre es que es probable que una cosa macrofísica ne prevalezca por ejemplo, un instrumento de medición invasivo, sobre una cosa microfísica. Este es el motivo por el cual el experi ará un mentador que desee medir una variable dinámica P utiliz a su co dispositivo que resalte a P y, en consecuencia, haga pasar

jugado” o compañero Q al segundo plano. Dos de los EN anos pares de variables conjugadas son la posición y la cantida

E

Ñ y vimiento en la mecánica, y el número y la fase de los poe 3.4. ámica. Volveremos sobre este tema en el apartado

electrodin s se De momento, baste señalar que las variables cuánticas típica

a con la teoría presentan en parejas: los únicos solteros de, especialmente € los parámetros heredados de la física clásica io po, la masa y la carga eléctrica.

En todo caso, ese comportamiento afín al de los campos pe de las entidades microfísicas es la raíz de sus demás propieda es y la razón para llamarlos cuantones (Bunge, 1967c). Además, propongo llamar clasones a las cosas que son descritas correctamente

por la física clásica y semicuantones (o semiclasones) a los objetos

mesoscópicos, como las moléculas de ADN y los objetos de la nanotecnología, que requieren teorías semiclásicas. Los cuantones

aparecen en todo proceso en el cual tenga un papel h, la constante

de Planck. Contrariamente a lo que afirma el folklore, poseer un

tamaño muy pequeño es suficiente pero no necesario para ser UN cuantón: un anillo de plomo superconductor, un vaso lleno de helio líquido, la radiación de un cuerpo negro contenida en un horno de microondas, una estrella de neutrones y otras cosas macrofísicas

son cuantones. La característica más conocida de los cuantones es, desde luego, su propia existencia: el hecho de que existan unidades mínimas de la materia, tales como los electrones y los fotones, del mismo modo que existen las unidades del dinero (como los céntimos, por ejemplo) y una unidad de información (el bit). En resumen: los antiguos 94

atomistas han sido reivindicados, aun cuando lo que ahora llama-

mos “átomo” haya resultado ser una cosa compuesta y se supone que algunos de sus constituyentes, como los protones y los neutrones, están a su vez compuestos por cuantones todavía más bá-

sicos, es decir, por quarks y gluones. Suponemos que no sólo los

cuerpos y los corpúsculos están cuantizados, sino también los campos. (En realidad, de momento, sólo se ha probado que los campos de radiación electromagnética están cuantizados, es decir, los fotones; los campos electrostáticos y magnetostáticos no están cuantizados y el campo gravitatorio está todavía por cuantizar de forma correcta).

Estos descubrimientos nos obligan a realizar un cambio radical en la concepción clásica del universo, que lo entiende como partículas individuales autocontenidas. En efecto, los componentes básicos del universo son campos interpenetrables, no partículas impenetrables. En concreto, los electrones y positrones son los cuantos del campo electrón-positrón, el cual se extiende en el es-

pacio y da cuenta de algunas características poco intuitivas de la teoría cuántica, como la interferencia que tiene lugar detrás de una pantalla con dos rendijas. Si la óptica ondulatoria hubiera surgido con anterioridad a la mecánica, puede que nos hubiéramos ahorrado muchas “paradojas”. 3.2 La pérdida de la individualidad

Una de las características más desconcertantes de los cuantones es

que no poseen la individualidad que nos permite identificar a los clasones. Tomemos, por ejemplo, los dos electrones de un átomo de helio o, ya que estamos, los tropecientos electrones de un cable de cobre. En principio, estos electrones pueden contarse, pero un intercambio de estos cuantones no modifica las distribuciones de probabilidades del sistema. (El estado del sistema es invariante respecto a la permutación de los componentes si estos son bosones,

o sea, cuantones de espín entero, y sólo cambia el signo o fase si son fermiones, o sea, cuantones que poseen espines semienteros).

Configuración

Probabilidad

Configuración

Probabilidad

| A |

¡abj|

|

(18) ¡bfa] [ab]

1/4

di 1/4 1/4

laa]

ETE] [aa] ]

]

1/3

|

se 1/3 A.

Figura 3.1, Componentes equivalentes o intercambiables (“indistinguibles”) de un sistema,

Las celdas son reglones del espacio de estados del sistema. La configuración en este espacio la celda diferirá, o no, según se suponga que los estados "objeto a en la celda 1 y objeto b en Bunde Tomado diferentes. o 2” y “objeto b en la celda 1 y objeto a en la celda 2” son iguales ge, 1985, parte 1, pág. 218,

En otras palabras, esas “partículas” son equivalentes: pierden su identidad o individualidad cuando se incorporan a un sistema, Habitualmente, se dice que son ¿dénticas y, por tanto, indistinguibles. Sin embargo, puesto que son contables, la verdad es que Son equ valentes y, por tanto, intercambiables pero no indistinguibles. Véase

la figura 3,1.

Un caso aun más drástico de ausencia de individualidad es el de los quarks y los gluones que constituyen los protones y los neutrones. Según el principio de confinamiento, son mutuamente 1nseparables y no se presentan aislados. Con todo, hace sólo unos cuantos años se probó de forma experimental que los quarks (y los antiquarks) eran reales: fueron producidos en el Gran Colisionador de Electrones y Positrones. El esquema de la reacción era electrón + antielectrón > fotón de energía ultra alta + quark + antiquark. (La última etapa no tiene lugar si el fotón choca con un átomo, algo que sucede cada vez que se realiza una tomografía por emisión de positrones).

Adviértase la cadena de cambios cualitativos: “aniquilación” (extinción de la masa) y “creación” (emergencia de la masa). Primero

se pierde la masa, luego reaparece, pero la energía y la carga (así como la cantidad de movimiento y el espín) se conservan. El principio

de conservación de la materia de Lucrecio ha sido confirmado, en 96

tanto que se ha comprobado que el de conservación de la masa de Lavoisier no es válido para las altas energías. Otra peculiaridad notable de los cuantones es el entrelazamiento o no separabilidad. Desde 1981, varios experimentos han probado que cuando se descompone un microsistema sus fragmentos, apa-

rentemente, continúan unidos: sus propiedades muestran correlaciones a distancia (“no locales”) aun en ausencia de acoplamientos

(fuerzas de atracción). Este entrelazamiento, o pérdida de la sepa-

rabilidad, es “paradójica” (es decir, poco familiar, imprevista, antiintiutiva). Esto es así porque todas las fuerzas clásicas, salvo la

fuerza elástica, decrecen con la distancia y también porque no se espera que los objetos microfísicos “recuerden” su pasado. (Las fuerzas nucleares tienen un alcance muy corto y lo mismo ocurre con las fuerzas que hay entre los quarks, con la diferencia de que estas últimas aumentan con la distancia. Además, todos los sistemas con memoría que conocemos, tales como los imanes y los plásticos, son macrofísicos). El entrelazamiento (no separabilidad) ha sido interpretado de diversas maneras no físicas, incluido el recurso a la telequinesia;

también se ha afirmado que refuta el realismo y que confirma el holismo. En mi opinión, todo lo que hace el entrelazamiento es

confirmar la tesis: Cuando se es un sistema, se es un sistema para siempre. Sin embargo, este no es un postulado independiente sino una consecuencia de las leyes de conservación. Pensemos, por ejemplo, en un sistema compuesto por dos partículas con espines opuestos: 1 y 4. Si el sistema se divide en dos partes y se observa que el espín de uno de ellos es hacia arriba, la observación del otro antiguo componente del sistema probará que es hacia abajo, porque el espín total, en este caso 0, se conserva. En otras palabras, los componentes originales de un sistema continúan correlacionados (asociados) sin importar cuán lejos esté el

uno del otro, hasta que uno de ellos sea capturado por otro sistema. En consecuencia, el pasado es importante aun en el nivel microfísico. Además, la separación física implica la separación espacial, pero la inversa no es válida. En resumen, el entrelazamiento no

perjudica al realismo. Sólo confirma el sistemismo, la tesis de que

todas las cosas reales son o bien sistemas o totalidades, o bien com-

ponentes de un sistema (apartado 1.3). Si se hubiese refutado el realismo, nadie podría realizar comprobaciones utilizando la realidad, como se hace, por ejemplo, en las mediciones. Las mediciones de cuantones se comprenden mejor si se las con-

sidera casos de entrelazamiento diseñado. En efecto, para medir una propiedad cuántica, la entrelazamos con una propiedad de un instrumento, normalmente una variable indicadora, como por

ejemplo el ángulo de la aguja de un dial. Este entrelazamiento produce un supersistema cuantón-instrumento, cuyo estado es función de las variables en cuestión. Por consiguiente, en el caso más simple

de un cuantón con dos estados posibles, ar y f, el estado combinado puede escribirse de la siguiente forma: y = (1(4,0) + b:(0, (8). Obviamente, esta fórmula no puede reescribirse como una suma o un producto de funciones que contengan sólo los estados del cuantón

o del instrumento. Adviértase, también, que dicha fórmula es sólo

un esqueleto que debe ser completado con los detalles acerca del

cuantón así como del instrumento. Dicho sea de paso, es Un recor-

datorio de que sin teoría no hay medición de precisión: la idea de que las teorías manan de las mediciones no es más que un mito fi-

losófico. El entrelazamiento y su opuesto, la decoherencia, se ponen de

manifiesto especialmente en el caso de la medición, pero no se trata

de raros artilugios de laboratorio. Tal como advirtió Schródinger (1935), el entrelazamiento es aún más característico de la teoría

cuántica que la cuantización. En consecuencia, puede que el abrojo y sus ganchos sean una metáfora clásica más apropiada para el cuantón que la pulida canica, además de lo cual puede que los cuantones tengan que ser rebautizados como entrelazones, Esto no equivale a menospreciar la cuantización. Después de todo, la teoría cuántica es la única que ha resuelto la antiquísima pregunta de si la materia era infinitamente divisible, como suponían Aristóteles y los físicos clásicos, o no lo era, como sostenían los antiguos atomistas griegos e indios. El principio de exclusión de Pauli constituye otro caso de si:

micidad cuántica. En efecto, este principio afirma que en un si:

puede haber, a lo sumo, dos electrones en el mísmo estado ener-

gótico (en realidad, este principio es válido para todos los fermiones

—o0 cuantones de espín semientero—, tales como los electrones y los neutrones). Un físico con una mentalidad clásica podría desear

explicar este principio mediante una fuerza repulsiva 2d hoc, pero

el operador de energía para un sistema de dos electrones no tiene potencial para semejante fuerza.

Una situación parecida tuvo lugar hace un siglo respecto a la re-

latividad especial, cuando algunos autores intentaron explicar las “contracciones” de longitud y “dilataciones” temporales de Lorentz en términos de empujes y arrastres, en lugar de abstenerse de utilizar

las palabras entre comillas y admitir que las características del es-

paciotiempo son relacionales, no intrínsecas. Todas las fuerzas cau-

san cambios y, en consecuencia, diferencias, pero no todas las

diferencias provienen de cambios. Además, algunos cambios no

modifican nada. Por ejemplo, si todas las posiciones y velocidades de todo el universo se incrementaran en cierta medida, las leyes fí-

sicas seguirían siendo las mismas.

3.3 La pérdida del vacío y de la estabilidad

Otra grave pérdida es la del vacío, cuyo descubrimiento fue una pieza tan importante de la Revolución científica. Este hallazgo re-

futó la doctrina del plenum y, por la misma razón, hizo del atomis-

mo

una hipótesis verosímil.

Sin embargo,

el plenismo fue

finalmente confirmado. En efecto, la electrodinámica cuántica descubrió que, aun cuando se vacíe totalmente un contenedor y se

apaguen todos los campos electromagnéticos, queda algo además del campo gravitatorio: me refiero al vacío cuántico fluctuante. Se

puede considerar que es el campo residual que queda después de

haber eliminado todas las cargas eléctricas. La intensidad de este

extraño campo fluctúa alrededor de cero, pero en ocasiones es lo bastante intenso como para arrastrar un electrón atómico a un nivel

energético inferior. En consecuencia, la desintegración radiactiva, O o

consdiderada inicialmente un proceso espontáneo, resultó ser un proceso causado, aunque tiene lugar según un cronograma aleatorio

en lugar de regular. Moraleja: nunca hay que apresurarse a enterrar las ideas que alguna vez han sido poderosas.

El asombroso hecho de que el vacío tenga propiedades físicas, de forma que puede ejercer una fuerza sobre un trozo de materia, tal vez no habría sorprendido a Aristóteles, a Descartes O a los fundadores de la teoría ondulatoria de la luz. Pero el pensamiento

inspirado en la teoría de campos no es para todo el mundo. Por ejemplo, ni los químicos ni los ingenieros mecánicos lo utilizan

mucho, y hasta los teóricos cuánticos llaman “partículas virtuales a las fluctuaciones cuánticas. Como el pensamiento corpuscula-

rista es mucho más intuitivo que el de la teoría de campos, unos todo cuantos físicos prominentes han intentado comprenderlo

en términos de corpúsculos. Feynman, por ejemplo, describe la repulsión electrostática de dos electrones y propone que está me-

diada por un fotón virtual, es decir, uno que viola la conservación de la energía.

Los diagramas de Feynman se hicieron muy populares a pesar

de contener ideas ajenas a la doctrina o los métodos de la física, Como la de partícula virtual y la interpretación de los positrones como electrones que se mueven hacia el pasado. A los físicos especializados en informática les encantan estos diagramas porque son ayudas

mnemotécnicas y gozan de gran difusión porque parecen intuitivos,

ya que reemplazan los campos por corpúsculos (para una crítica

detallada ver Bunge, 1959b). Véase la figura 3.2.

El principio newtoniano de la inercia había cuestionado la supuesta pasividad de la materia: probó que, una vez en movimiento,

los cuerpos se mantienen moviéndose sin necesidad de que se los empuje ni arrastre. Además, cuanto mayor sea su masa (y su velocidad), mayor será la fuerza necesaria para detenerlos, de donde

surge el papel dual de la masa como medida de la inercia y, a la vez, como medida de la cantidad de materia. La inercia es tan poco intuitiva que Kant, que escribió un siglo después de Newton, no con-

siguió comprenderla. Esta es la razón de que inventara una fuerza repulsiva que equilibraba, supuestamente, la atracción del Sol. Con 100

hv

Tiempo

A

Figura 3.2. Dos diagramas (corpuscularistas) de Feynman. a) Interacción entre dos electrones

(líneas continuas), mediada por un fotón virtual (línea de puntos). b) "Aniquilación” de un par electrón-positrón. El electrón se mueve hacia adelante, hacia el futuro, en tanto que el positrón

está conceptuado como un electrón que se mueve hacia atrás en el tiempo. El fotón se ha

imaginado á la Newton, como una minúscula canica. ¿Ayuda para los cálculos o prueba de credulidad?

todo, numerosos historiadores de la filosofía han considerado a

Kant y Hume los filósofos de la Revolución científica, cuando en

realidad se opusieron a esta: Hume de manera explícita y Kant de forma inadvertida (Bunge, 2006a). Dos siglos después llegó otro hecho impactante: el descubrimiento de la radiactividad, en la que trozos de materia de ciertas clases emiten electrones, rayos alfa (los núcleos de los átomos de

helio) y radiación electromagnética de alta intensidad (rayos gamma) de manera espontánea. Además, por supuesto, medio siglo después de este descubrimiento, se inventó, fabricó y utilizó la bom-

ba atómica. Mientras tanto, la física nuclear había acudido en rescate de la astrofísica al desvelar las reacciones nucleares que dan origen a los fotones, los electrones y otros cuantones emitidos por las estrellas. El descubrimiento de la radiactividad falsó también la idea clásica de que la materia es estable. En efecto, la radiactividad implica la trasmutación, natural o inducida, de los elementos: la transforma-

ción de las especies atómicas, antes consideradas inmutables. La trasmutación no se limita a los elementos pesados: hasta los neutrones son radiactivos. En efecto, después de sólo 15 minutos un 101

neutrón se desintegra espontáneamente transformándose en Un protón, un electrón y un antineutrino. (Aunque cuando se une

un protón para formar un deuterón, un neutrón no se desintegra; sobrevive como tal sacrificando su independencia). Sin embargo, estas profundas transformaciones de clase están acompañadas por la conservación de la energía, la carga eléctrica y el espín (o momento angular intrínseco). Sorprendentemente, fue necesaria la mecánica cuántica para explicar la existencia y la

estabilidad de los átomos ligeros. En efecto, la existencia misma del átomo de hidrógeno, un sistema compuesto por un protón y

un electrón, es imposible según la física clásica, la cual predecía que implosionaría a causa de la atracción electrostática entre sus componentes. La teoría semiclásica de Bohr de 1912 postuló la men-

cionada estabilidad, pero no la explicó. Esta teoría fue la primera versión de la mecánica cuántica y algunos de sus rasgos, tales como

la cuantización de la energía, se han mantenido; sin embargo, la

mayoría de los demás no.

Resultó que las órbitas nítidas con velocidades precisas del mo-

delo semiclásico de Bohr no existían. Por ejemplo, en tanto que

para el modelo de Bohr el electrón en el primer estado excitado del hidrógeno se mueve a c/137 cm s”, según la mecánica cuántica no se mueve en absoluto. Esta, a diferencia de la teoría de Bohr, no incluye una cinemática, tal como descubrí tras finalizar mi tesis sobre la cinemática del electrón relativista (Bunge, 1960b). El valiente intento de David Bohm de hacer más clásica la mecánica cuántica no propuso nuevos experimentos. Einstein se equivocaba al atacar

la mecánica cuántica por considerarla básicamente incompleta,

aunque tenía razón al criticar su interpretación subjetivista. De ahí

que la famosa competición Einstein-Bohr acabara en un empate (Bunge, 1979b).

La pérdida de la cinemática en el nivel cuántico no se debe a la llamada dualidad partícula-onda, puesto que esta no existe; los cuantones son entidades sui géneris: no son ni partículas ni ondas (Bunge,

1967c; Heisenberg,

1930; Lévy-Léblond y Balibar,

1990). Con todo, puesto que en ciertos entornos los cuantones sí se comportan como partículas y en otros actúan como ondas, se 102

puede decir que son tanto partículas potenciales como campos potenciales.

A continuación, abordemos otra llamativa peculiaridad de los cuantones: la transitoriedad de algunos de ellos. Tomemos, por

ejemplo, los siguientes cambios cualitativos que involucran a un electrón (e), un positrón (e*), un fotón rayo gamma (y) y una cosa

cercana no especificada de gran tamaño, X: “creación”

y+X>e+er+X

“aniquilación”

e +et >y+Yy

Adviértase que el electrón y el positrón no preexistían en el fotón, del mismo modo que el electrón no preexiste en sus precur-

sores: ambos son casos de emergencia de cosas radicalmente nuevas. Estos sucesos no son curiosidades de laboratorio: ocurren todo el tiempo en las estrellas y otros cuerpos “celestes”. Más concretamente, nuestro planeta recibe un intenso flujo de rayos gamma cuyo origen son las colisiones entre electrones y positrones que tienen lugar

en el centro de nuestra galaxia. En las dos reacciones anteriormente mencionadas, la carga eléctrica total es la misma —nula— antes y después de la transformación. La energía total también se conserva.

(La cosa de gran tamaño que hemos llamado X en el primer esquema de reacción absorbe o entrega el momento que garantiza la conservación del momento lineal total).

El lector puede advertir que la masa emerge en la primera reacción y se extingue en la segunda. Las palabras “creación” y “aniquilación” se han puesto entre comillas porque aquí no tienen

sentido: su utilización tuvo origen en la difundida y errónea suposición de que la materia es lo mismo que la masa. Otro nombre incorrecto y engañoso es el de “antimateria” para los electrones positivos, los protones negativos y afines: los anticuantones son tan materiales como los cuantones. La cantidad de materia, me-

dida por la energía, se conserva aun cuando la masa emerja o se extinga, tal como sucede en las reacciones ofrecidas más arriba.

Asimismo, los protones y neutrones están constituidos por quarks u y d, los cuales tienen masas diminutas, así como por gluones,

103

que carecen de masa: la masa aumenta, pero la energía se mantiene constante,

3,4, La nitidez perdida Otra particularidad asombrosa de los cuantones es que son as o difusos en lugar de nítidos o definidos. Mientras que en la física

clásica todas las propiedades son definidas, en la física cuántica sólo

unas cuantas lo son: la mayoría son imprecisas O borrosas. En realidad, a las variables dinámicas tales como la posición, los do

e mentos lineal y angular y el espín se les asignan distribuciones al 4 probabilidad. Sólo poseen valores definidos en casos 4 A por ejemplo la energía de un átomo en su estado

espín de un electrón en un campo magnético. (A esta DOFIOS d

se le suele llamar “indeterminación” o “incertidumbre '; A trata L

un error, porque estas distribuciones están sometidas a leyes y »

incertidumbre es un estado de la mente, no de los objetos físicos) Solo se supone que tienen valores definidos los intervalos temporales, las masas y las cargas eléctricas. Por ejemplo, un átomo tiene o bien esta o bien esta otra masa, pero puede estar al mismo tiempo aquí con una probabilidad de

ahí con una probabilidad 1 - p. Un átomo “decide” estar aqui o AM únicamente cuando interacciona con su entorno (el entorno puede

o no incluir un instrumento de medición). La pérdida del entre-

lazamiento se llama decoherencia. Todas las demás correlaciones

desaparecen de manera exponencial, por lo que cesan de forma

asintótica únicamente; en cambio, la decoherencia puede ocurrir

de manera súbita y total (“muerte súbita”). Véase la figura 3.5. En consecuencia, por lo general, los cuantones poseen distribu-

ciones —en lugar de valores definidos— de posición, momento (tanto lineal como angular), espín y energía. Los valores definidos surgen cuando los cuantones interaccionan con su entorno y se transforman en clasones o en algo muy parecido a ellos. Por consiguiente, en general, una variable dinámica A, tal como el momento lineal, tiene una dispersión o desviación estándar AA. La 104

razón de esta imprecisión es que, de ordinario, un cuantón aislado

está en un estado “coherente”, es decir, de combinación o superposición (suma ponderada) de dos o más estados básicos (o auto-

funciones). La superposición o “entrelazamiento” de estados es una

característica distintiva de la mecánica cuántica. Con todo, jamás

se la observa.

Sin embargo, cuando un cuantón interacciona con un objeto

macrofísico, ya sea natural como en el caso de una neurona o artificial como en el caso de un sistema de medición, esa superposi-

ción colapsa en uno de sus componentes elementales, del mismo modo que un vector se proyecta sobre un eje de coordenadas. Se ha calculado que en un medio denso, tal como el cerebro, la cohe-

rencia tiene una vida tan breve —del orden de los 10 s— que re-

sulta improbable que la mecánica cuántica resulte adecuada para la neurociencia y, por tanto, para la psicología. En consecuencia, la neurociencia cuántica ya está muerta antes de haber nacido. Sin

embargo, continuemos con el asunto de la superposición.

Según la escuela de Copenhague, la superposición (o estado coherente) colapsa súbitamente en un estado definido (un estado pro-

pio), lo que ocurre únicamente como resultado de la medición o experimento; una especie de milagro, ya que los partidarios de dicha interpretación nunca han propuesto ningún mecanismo para ese suceso. Y el análisis de los postulados básicos (axiomas) de la teoría

no consigue encontrar las coordenadas de ningún observador (Bunge, 1967b).

El consenso que está surgiendo es que el colapso o reducción sí sucede, aunque no como resultado de la observación sino como efecto de la interacción del cuantón con su entorno macrofísico, el cual podría ser un instrumento automatizado de medición (véase

Sclosshauer, 2007). Además, la decoherencia (o colapso) observada es continua en lugar de instantánea y su ritmo puede ser controlado de forma experimental, mediante la variación de la distancia entre

los estados componentes: la frontera entre los mundos cuántico y clásico se puede desplazar a voluntad (Brune et al. 1996).

Puede que esta tardía, aunque parcial, rehabilitación de la causalidad le hubiera gustado a Einstein, de Broglie, Bohm y Bell. Sin 105

decoherencia p aqui y (1 - p) ahí

Figura 3.3. La transición cuantón

»-

O bien aquí o blen ahí

-—-» clasón: la interacción con el entorno PA

cuan-

idad 1 - p, tón inicialmente deslocalizado que está aquí con probabilidad p y ahí con probabil

reembargo, podrían acabar decepcionados, ya que la perspectiva proceso alcaalista conserva la tesis de que la decoherencia es un

bilidad, torio: cada estado definido emerge sólo con cierta proba

Véase la figura 3.4.

bad

Regresemos al cuantón aislado. Una distribución típicaEN es

Ad, > itud variable dinámica A tiene forma de campana con ampl ampitmada desviación típica (o raíz cuadrada de la varianza). Las ia, momento se pra tudes de una distribución de posición y

Cada habitualmente, mediante Ax y Ap, respectivamente. estas dispersiones puede asumir cualquier valor, pero h es tiene una cota inferior fija, a saber »/4xt, donde constante de Planck. Es decir, Ax,Ap > h/41t: cuanto de las es x, más imprecisa es p y viceversa. Esta es una

nn

e

su producto la diminuta más Po famosas de-

mente se llama “resigualdades de Heisenberg, a las cuales habitual su OMgén laciones de incertidumbre”. Este nombre inadecuado tiene

$0n en la creencia de que la posición y el momento de un cuanto

la incertidumdefinidos pero desconocidos, por lo que la razón de

al intentar medirla. bre sería que el experimentador perturba la cosacion es” cuánticas se Por lo tanto, irónicamente, las “indetermina

explicaron al principio en términos clásicos y causales, como efecto

de las intervenciones humanas: se consideraron imperfecciones y se les atribuyó el llamado “efecto del observador”. Además, se con-

sideró que un teorema de la física teórica era un principio gnose-

ológico revolucionario: un principio acerca de lo que un sujeto puede conocer.

Sin embargo, no es esta la interpretación que prevaleció después

del famoso encuentro de 1935 entre Bohr y Einstein, cuando la

mayoría de los físicos adoptó la interpretación oficial, o de Copenhague, del formalismo matemático de la teoría cuántica. Según esta exégesis, las mediciones no revelan los valores definidos (precisos) 106

ObeervVador

Cuantón

Superposición



Entorno

Cuantón

Estado definido á

Superpasición

> Estado definida b

Figura 3.4. Dos concepciones conflictivas del “colapso” o decoherencia de una función de estado coherente (de “onda”).

a) Concepción subjetivista o de Copenhague:

el observador

es el primer motor; b) La interacción con el entorno, ya sea libre o controlada, causa el “co. lapso”. Irónicamente, ambas Interpretaciones relvindican parclalmente la causalidad,

de las propiedades, como pensaba Einstein, sino que los generan, En realidad, como hasta el ortodoxo Pauli (1958) admitió, esto

sólo vale para mediciones invasivas, como las de la posición, el espín o la polarización. Pero también hay mediciones que son no invasivas, como las del tiempo, la masa y la longitud de onda, las cuales sólo revelan valores preexistentes.

Aquí es oportuno distinguir entre dos clases de realismo: el clá-

sico o ingenuo y el nuevo o científico. Un realista clásico, como

por ejemplo Einstein, de Broglie, Bohm y Bell, supone que todas las propiedades poseen valores definidos, en todas las condiciones

y en todo momento. En otras palabras, el clasicista supone que todas las propiedades están representadas por variables “ocultas”, es decir, variables sin dispersión (o definidas, en lugar de indefinidas).

Además, puesto que la teoría cuántica no contiene variables de esta clase, para poner en práctica esta hipótesis el clasicista debe enriquecer la teoría cuántica ortodoxa con esas nuevas variables y sus correspondientes hipótesis y definiciones.

Eso es precisamente lo que hizo David Bohm en sus famosos artículos de 1952: amplió la mecánica cuántica añadiéndole dos variables ocultas, una para la posición, la otra para el momento, y con ello restauró la cinemática. Los artículos de Bohm molestaron a los guardianes de la llama de Copenhague, quienes evidentemente

eran reacios a pensar nuevamente los fundamentos de la teoría. Es "y ahistoria de los revolucionarios que se tornan conservadores 107

cuando consiguen el poder. Con todo, pese a lo que afirman los constructivistas sociales, el conservadurismo en cuestión No tenía

matices políticos: se trataba sólo de inercia intelectual.

Una década más tarde, Joseph Bell demostró un teorema empí-

ricamente comprobable, la famosa desigualdad de Bell, relacionado

con toda una clase de variables ocultas. Después, en 1981, Alain

En Aspect y colaboradores refutaron ese teorema en el An aquella época, la revista Science informó que el experimento | abía

“refutado el realismo” y esta es, todavía, la opinión mayor e triste indicio de la utilización poco rigurosa de un Concepto e

e sófico clave. (Más precisamente, la afirmación es que la is el “realismo local”; sin embargo, este oxímoron no tiene nada que ver con el realismo filosófico: significa la conjunción qe aos

de Einstein-Podolsky-Rosen con la negación de la

ón, 2

acción a distancia. Véase Norsen, 2007). En todo caso, da la casualidad de que los científicos recurren al experimento poo Sn Quienes trolar si una hipótesis se ajusta o no a la realidad.

pe

no creer en la realidad del mundo externo deberían dedicarse a la contemplación de su propio ombligo. i

Sostengo que, en realidad, la única baja causada por el expert-

mento en cuestión fue el realismo clásico o ingenuo. El formalismo cuántico estándar se puede interpretar de forma objetiva (o inde-

pendiente del observador), es decir, en términos de objetos físicos

que existen por sí solos, aunque con propiedades dinámicas 1Mprecisas en lugar de precisas (Bunge, 1967b, 1973a, 1985; Pérez-

Bergliaffa et al. 1993, 1996). Llamemos a esta perspectiva realismo nuevo o no clásico. Considerado desde este punto de vista, el debate de 1935 entre Bohr y Einstein acabó en un empate: Bohr tenía razón en defender la mecánica cuántica, aunque no el subjetivismo; Einstein, por su parte, tenía razón en sostener el realismo, pero no

el clasicismo, tal como he argumentado en el apartado 3.3.

En la interpretación realista nueva, las dispersiones, “indeterminaciones” o “incertidumbres” en cuestión son tan objetivas como las probabilidades que subyacen a ellas: se trata de propiedades de los cuantones en sí, sean observados o no (Bunge, 1967b, 1973a,

1985; Gottfried y Yan, 2003; Lévy-Leblond y Balibar, 1990; Phi-

108

llips, 1949), En otras palabras, los cuantones no son ni masas puntuales ni canicas: son entidades borrosas extendidas que carecen de

forma propia definida. La densidad de cada entidad amorfa de estas

es igual a [y |?, una función que es dependiente del espacio y del

tiempo. Esta densidad cuántica es muy diferente de las densidades de masa, energía y carga clásicas. En efecto, el producto de |y |? por el elemento de volumen AV en un punto dado del espacio es igual a la probabilidad de que el cuantón esté presente en AV, sea observado o no. Esta es la versión realista, ofrecida por de Broglie, del postulado de Born, según el cual esa cantidad sería la probabi-

lidad de encontrar la “partícula” en cuestión en AVAal realizar una medición de posición. Obviamente, esta segunda probabilidad no depende únicamente de la probabilidad de presencia en un lugar dado, sino también de la técnica de medición, por lo que no se puede calcular utilizando sólo la mecánica cuántica. ¿Y qué hay de la llamada cuarta desigualdad de Heisnberg, AE.At> h/4xt, entre la energía E y el tiempo £ Bohr propuso esta fórmula sobre la base de un experimento mental diseñado para refutar las objeciones de Einstein contra la mecánica cuántica. Sin embargo, aunque aparece en casi todos los libros de texto, la fórmula no se sigue de los principios de la mecánica cuántica (Bunge, 1970). Tampoco puede ser parte de la teoría, porque contradice la ley de conservación de la energía, así como la presuposición de que el tiempo es una variable clásica, es decir, con dispersión Af nula. Con todo, esta fantasmal desigualdad se ha utilizado en electrodinámica cuántica, donde se la aprovecha para justificar la introducción de partículas virtuales, entidades que violarían la conservación de la energía. En efecto, se afirma que una partícula puede tomar

prestada la energía A£ que necesita para hacer algo ilegal durante un tiempo Át tan breve que nadie se percataría de ello, como un

ladrón que roba antes de que suene la alarma. Por consiguiente, se introducen de contrabando partículas y procesos imaginarios en la teoría bajo la protección de una fórmula espuria. No habría nada erróneo si se admitiera que el argumento no es más que una ayuda heurística para facilitar cálculos extremadamente complicados: que las partículas virtuales no son reales y 109

al. que, en realidad, la energía sí se conserva. Sin embargo, habitu

mente todas esas pamplinas acerca de partículas y procesos virtuales se escriben en serio. Una advertencia más: a menudo se dice que el espín tiene dos

es vervalores posibles, arriba y abajo. Esto es Incorrecto: lo que sí Campo dad es que, cuando una partícula con espín ingresa en Un

magnético, su espín se proyecta en uno de los valores mencionados,

€s el caso, tal como muestra el experimento Stern-Gerlach. Si ese no

arriba el espín está en una superposición de sus estados definidos

el estado de y abajo, tal como lo prueba esta trillada fórmula para un espín arbitrario:

os 4 y b son tales que4 ly >= (a|P > +b| 4 >), donde los pes y6=1, Si los dos estados definidos, arriba y abajo, contribuyen por

igual al estado arbitrario del espín, entonces 4 = p = 2”. Esta es

la característica típica de un cubit, un artilugio cuyo estado es la

superposición de los estados 1 y O en igual medida: ly>=2% (10> + 1>).

Un análogo clásico es la moneda lanzada al aire, de la cual pue-

de decirse que durante el vuelo está en una superposición de estados “definidos” cara y cruz. Durante los primeros tiempos de

la mecánica cuántica, cuando se hacía hincapié en el cálculo de niveles de energía precisos, la mayoría de los físicos pasó por alto

la importancia central de la superposición para dar cuenta del enorme montón de datos acumulados por los técnicos en espectroscopía desde mediados del siglo XIX. Schródinger (1935), quien no estaba interesado en esos cálculos, puso con acierto el acento

en la enorme importancia de la superposición y el entrelazamien-

to, dos sellos distintivos de la teoría cuántica. En realidad, estas

dos características son una sola; en efecto, la superposición no es otra cosa que un autoentrelazamiento. Dicho de otro modo, afirmar que dos o más estados definidos de un único cuantón se superponen equivale a decir que están entrelazados. Por consiguiente, la propiedad básica es el entrelazamiento, ya sea de 110

estados básicos (definidos) diferentes de un único cuantón, o de cuantones diferentes.

3.5 El azar irreducible

En general, se admite que el cálculo de probabilidades dilucida el concepto de azar o aleatoriedad. Esta opinión es falsa por la razón siguiente. Pensemos en el ejemplo de aleatoriedad más simple, aunque idealizado: el de una secuencia binaria de O y 1 (o caras y cruces respectivamente) producida en una secuencia de lanzamientos de

una moneda al aire. Hay »? de esas secuencias de longitud ». Todas

ellas, ya sean perfectamente regulares, como 01010101, o irregulares,

como 01100010, poseen la misma probabilidad, es decir (1/2).

Estas sartas de sucesos equiprobables no son objetos matemáticos

bien definidos, porque ninguna fórmula puede defínirlos. (En otras

palabras, estas secuencias no tienen ningún término general preciso, lo que sí ocurre con x"/n!, por ejemplo, en el caso de la función exponencial). En cambio, las secuencias o series bien definidas, sean finitas o infinitas, pueden definirse mediante la formulación de

unos cuantos términos del principio y, después, *...”, lo que significa “y así sucesivamente”. Sin embargo, en una sarta binaria aleatoria

no hay un “así sucesivamente”, puesto que no siempre se da “así”:

no hay ningún orden o regularidad global. En resumidas cuentas:

aleatoriedad = desorden. Dado que, en una secuencia binaria aleatoria, O es igual de probable que 1, ni siquiera un ser omnisciente podría predecir el término siguiente a uno cualquiera de los 0 o 1 de la serie. En resumen, el concepto de azar, a diferencia del de probabilidad, no

es matemático. Con todo, no hay duda de que pertenece a las cien-

cias fácticas y las tecnologías. En estas, hablar de probabilidad es

legítimo únicamente si ese discurso va acompañado del modelo de un mecanismo de aleatorización, el cual es, desde luego, una cosa concreta que sólo puede producir secuencias finitas de sucesos ale-

atorios (véase Bunge, 2006a; Volchan, 2002).

En la física cuántica, la situación es parecida, pero peor. Un ser

omnisciente sería incapaz de derivar la función de estado de un cuantón sin resolver la ecuación de estado correspondiente. Sin

embargo, el hecho de conocer la función de estado sólo nos permite

calcular las probabilidades. Esto quiere decir que, para Dios, tratar con cuantones resultaría un reto tan grande como para cualquiera

de nosotros. Por ejemplo, Dios podría calcular únicamente la pro-

babilidad de que un cuantón se dirija hacia la izquierda O hacia la

derecha de una cuña afilada colocada frente a un haz de “partículas”.

Pensemos en otro ejemplo, dos clasones que parten del mismo estado inicial acabarán en el mismo estado final. En cambio, dos cuantones que están en el mismo estado inicial terminarán, con

toda probabilidad, en dos estados diferentes, cada uno de los cuales

no es más que uno de los miembros de todo un conjunto de posibilidades, cada una de las cuales posee una probabilidad objetiva.

Estas posibilidades son reales, no imaginarias, puesto que son las

únicas que permiten las leyes de la mecánica cuántica y las condi-

ciones de contorno. (Compárese estas posibilidades reales o legales con las posibilidades puramente conceptuales imaginadas por los

metafísicos de los mundos posibles, tales como Saul Kripke y David Lewis, según los cuales todo vale).

En la teoría cuántica, los estados realmente posibles en los cuales

puede estar una cosa se representan mediante los valores de una

función de estado (o de “onda”). Una función de estado y es básica en el sentido de que no es posible derivarla de otras funciones. (Lo que sí se puede deducir es el valor futuro de yy a partir de su valor inicial). Por consiguiente, en la teoría cuántica, la probabilidad es

una propiedad tan fundamental como la energía. (En realidad, ambas aparecen en el mismo nivel en una ecuación de estado, o de

“onda”, que tiene la forma Dy = 0, en la cual D designa un operador que contiene el operador de energía para el cuantón en cuestión y y es la función de estado o de onda correspondiente). En otras palabras, según la teoría cuántica, la aleatoriedad es una característica básica de la realidad, en tanto que en la física clásica

es una propiedad derivada, si bien igualmente objetiva. Adviértase, con todo, que esta conclusión sólo se sigue de una interpretación

Wi

realista de la probabilidad como medida de la posibilidad. Si, en

cambio, se opta por la concepción subjetivista o bayesiana de la probabilidad como medida de la incertidumbre subjetiva, la alea-

roricdad sólo está en los ojos del observador. Además, en este caso,

puesto que las probabilidades cuánticas se calculan a partir de es-

tados, nada estará en un estado objetivo. En concreto, el que un átomo esté en un estado excitado o en su estado fundamental dependerá del observador y la única tarea del experimentador sería la de contemplar su propio ombligo. Sin embargo, la causación es tan fundamental y objetiva como

el azar, tal como lo prueba el hecho de que la función de estado dependa de manera decisiva de las fuerzas y restricciones que condicionan al cuantón. Por ejemplo, las funciones de estado para un

átomo de hidrógeno en el vacío son diferentes, según el átomo esté

en un campo eléctrico o en un campo magnético; también son di-

ferentes si el átomo está confinado, en lugar de estar en el espacio desocupado. Además, tal como hemos visto antes, el entorno macrofísico puede prevalecer sobre un cuantón hasta el punto de hacer que se trasmute en un clasón: recuérdese la figura 3.1. Por consiguiente, la teoría cuántica ha conservado la causación, aunque con

un papel más restringido, y combinada con el azar. En cambio, la antecedencia (“El insumo precede al producto”) ha resultado ilesa: no hay ninguna inversión temporal más allá de la operación conceptual de cambiar el signo de la variable temporal. Es cierto que Feynman y otros han aftrmado que los positrones no son más que electrones que viajan hacia el pasado, sólo porque las ecuaciones básicas se mantienen invariantes ante la inversión simultánea del tiempo y la carga eléctrica. Sin embargo, eso es ciencia ficción (Bunge, 1959b). En las colisiones entre clasones, tales como las de los proyectiles con sus objetivos, el resultado depende de forma decisiva de la sección transversal geométrica del objetivo, la cual es constante y, especialmente, independiente de la velocidad. En cambio, cuando

los cuantones chocan entre sí, la sección transversal geométrica no desempeña ningún papel, porque los cuantones no tienen forma propia. Lejos de ser constante, esta cantidad es inversamente 113

proporcional al cuadrado de la velocidad de los cuantones incidentes. En otros casos, la dispersión será inelástica: es decir, los proyec-

tiles serán absorbidos por sus objetivos o causarán la eyección de cuantones cualitativamente nuevos. Por ejemplo, un haz de pro-

tones que choca contra los núcleos de unos átomos de hidrógeno

generará un haz de mesones xi positivos y negativos, de acuerdo con el esquema de reacción: Pp los protones se dispersan

pipi.

de forma elástica,

en tanto

(Algunos de que el resto

se combina con sus objetivos y produce cosas cualitativamente nuevas: mesones). Esta y otras reacciones parecidas no sólo Ocu-

rren dentro de los aceleradores de alta energía, sino también en las estrellas y en el estrato superior de la atmósfera terrestre (como

efecto de las cascadas de rayos cósmicos). En estos procesos, la energía total, la carga eléctrica y el espín se conservan, pero el nú-

mero de cosas y su masa puede aumentar. Las hogazas de pan y los peces no se pueden multiplicar a voluntad, pero los cuantones sí, aunque, desde luego, con gasto de energía, no con encantamientos.

3.6 Las paradojas Se ha dicho que cuando se trata de la teoría cuántica, ninguna pregunta es demasiado tonta y ninguna respuesta demasiado absurda, En realidad, esta teoría ha dado origen a abundantes “paradojas”, es decir, a resultados poco intuitivos. Sin embargo, con demasiada

frecuencia se olvida que la mecánica clásica y la teoría de campos también se consideraban paradójicas en el momento de su nacimiento: ¿Cómo podía mantenerse en movimiento un cuerpo, una vez puesto en movimiento, sin ser empujado o arrastrado por nin-

guna fuerza? ¿Cómo era posible que la Luna causara las mareas a la distancia? ¿Cómo podía haber ondas electromagnéticas que no se propagaran por un sustrato, por ejemplo el éter? ¿Y cómo era

posible que un sistema dejado a su suerte se tornara cada vez más desordenado? Finalmente se probó que estas y otras “paradojas” no 114

eran otra cosa que ideas que no eran consistentes con la intuición o el sentido común, es decir, con el conocimiento fósil.

Un gran número de las llamadas paradojas cuánticas resultaron ser de la misma clase, es decir, perplejidades surgidas de la falta de familiaridad. Con todo, se puede probar que otras derivan de la

interpretación subjetivista propuesta en la década de 1930 por la

escuela de Copenhague liderada por Bohr y Heisenberg. Todas ellas entran en la categoría de “efecto del observador”. Las más conocidas son el “colapso” de la función de “onda” (sección 3.4), el gato de Schródinger y la paradoja de Zenón cuántica (véase Bunge y Kálnay, 1983a, b). Sostengo que todas las paradojas cuánticas son variaciones de

dos conocidos juegos que incluyen aleatorizadores. Estos juegos son O bien clásicos, como el lanzamiento de una moneda, o bien mecanocuánticos, como los efectos de la radiactividad. Analicemos brevemente estos dos casos. En el juego de la moneda, podemos distinguir tres estados: el lanzamiento (que puede ser mecanizado, con el fin de evitar sesgos), el vuelo y el aterrizaje de la moneda.

Todos coincidimos en que, durante el vuelo, los estados finales (cara y cruz) tienen la misma probabilidad, vale decir Y». El des-

acuerdo surge solo cuando formulamos la siguiente pregunta: ¿Cuál

es la probabilidad de ver una cara después de que la moneda ha aterrizado? Un partidario de la escuela de Copenhague respondería que la observación ha causado que la moneda aterrice con la cara (o la cruz) hacia arriba y que cada suceso tiene una probabilidad de 4. En cambio, un realista dirá que la observación, a diferencia del experimento, no tiene efecto causal. También afirmará que des-

pués de que la moneda ha aterrizado, la probabilidad real o física se ha esfumado: Alea jacta est. La incertidumbre ha pasado de la moneda a la mente, algo que está más allá del alcance de la física. Sólo los supersticiosos tienden a creer que el jugador, mediante el único expediente de su poder mental, puede obligar a la moneda a mostrar determinado lado una vez que ya ha aterrizado. El correlato cuántico es el que sigue: un dispositivo es activado por uno de los productos de la desintegración de una pequeña muestra de material radiactivo. Llamemos £al efecto observable 115

de este proceso, tal como una señal sonora o el encendido de un

circuito eléctrico. Los fundamentalistas de Copenhague dirán que, puesto que ninguna observación está completa hasta tanto no se haya registrado el estado final, debe atribuirse la ocurrencia de £ al observador o incluso a su conciencia. Sin embargo, el realista advertirá que, para empezar, no es posible registrar £' a menos que

haya ocurrido previamente y que este suceso es el eslabón final de una cadena de sucesos estrictamente físicos. Esto es así hasta el ex-

tremo de que la probabilidad de que ocurra E dentro de la siguiente unidad de tiempo se calcula exclusivamente en términos de la ley de desintegración radiactiva. Además, el realista puede añadir que la situación epistémica sería la misma en el caso de un experimento físico, en el cual el científico diseña e inicia una cadena puramente física de sucesos, tales como la colisión de un haz de protones de alta energía contra los núcleos de ciertos átomos, la cual reproduce las partículas iniciales y da origen a mesones xt positivos y Negativos, tal como hemos visto en la sección anterior. Aun en los experimen-

tos psicológicos, el experimentador se cuida de mantenerse a cierta distancia de sus sujetos experimentales después de que estos han : sido preparados.

Si los cuantones son paradójicos (poco intuitivos), la materia

oscura lo es aún más, a pesar de que se piensa que constituye el

95% de la materia total del universo. Se le llama “oscura” porque

no emite luz ni la refleja, pero se sabe que existe a causa de los cuer-

pos visibles que orbitan a su alrededor. En la actualidad, la conjetura

favorita es que se compone mayormente de WIMB, sigla inglesa

que designa a las partículas materiales que interaccionan de forma débil. Desde luego, nadie duda de que finalmente se descubrirá

más acerca de la materia oscura gracias a la habitual interacción de la observación con la teoría. De momento, las únicas lecciones filosóficas que es necesario

extraer del descubrimiento de la materia oscura son que existe una gran variedad de clases de materia y que debemos estar preparados para encontrar nuevas y asombrosas clases de materia, si nos ate-

nemos al materialismo y el cientificismo. El rey medieval Alfonso X el Sabio presintió esa complejidad: decía que si Dios lo hubiera 116

consultado cuando estaba por crear el mundo, él le habría aconse-

jado algo más simple.

3.7 Materialismo frente a idealismo

En ocasiones se lee que el poder de la matemática para describir la realidad externa es tal que esta debe ser matemática (por ejemplo,

Tegmark, 2008). Este argumento omite un ingrediente decisivo de

toda teoría física: la interpretación de sus símbolos en términos de

entidades físicas y sus propiedades, como cuando se supone que

“E, denota la energía del átomo en su enésimo estado”. Estos puentes símbolo-hecho no aparecen en la matemática pura por la sencilla razón de que los objetos matemáticos no poseen propiedades físicas. Esta es la razón de que no tenga sentido intentar medir, por ejemplo, la energía de un número o la duración de la vida de un vector espacial. Por ello, la correcta axiomatización de una teoría física

debe incluir un postulado interpretativo, además del postulado matemático (Bunge, 1967b). Este es, también, el motivo de que haya interpretaciones alternativas de la mecánica cuántica (véase Bunge, 1956b; Neuenberg, 2007).

En otras ocasiones se afirma que el universo es mental, ya que “nada existe, excepto las observaciones” (Henry, 2005). Sin embar-

go, esta extraordinaria frase viola la gramática del verbo “observar”. En efecto, este verbo representa una relación muy especial entre un animal provisto de Órganos sensoriales y su objeto de observación, una cosa o un suceso. No puede haber observación si falta uno de los términos de la relación. Con todo, se nos asegura, de for-

ma agramatical y sin ninguna prueba adecuada, que la totalidad de la realidad —presente, pasada y futura— es un “efecto del observa-

dor”. Berkeley y Fichte habrían estado encantados. Asimismo, esto complacería a los administradores de ciencia escasos de fondos, puesto que el mentalismo no necesita laboratorios ni observatorios. ¿Sería posible encontrar algún respaldo empírico para la inter-

pretación subjetivista de la mecánica cuántica? Veamos. Tal como 117

he propuesto más arriba y como argumentó Campbell (1920) de manera convincente hace casi un siglo, una teoría física está com-

puesta por un formalismo matemático junto con una interpreta. ción. Esta última consiste en un conjunto de supuestos semánticos (alias “reglas de correspondencia” y “definiciones operacionales”), Se trata de enunciados del tipo: “El conjunto $ es un conjunto de cosas de la clase K” y “El atributo (por ejemplo, la función) A re-

presenta la propiedad P de los K”. Si llamamos M al formalismo matemático y Va su interpretación, es posible considerar que una teoría física Tes la suma lógica de 7, es decir, MU N. En consecuencia, el hecho de modificar Mo N da como resultado una teoría

diferente. Puesto que el formalismo M es neutral desde el punto

de vista filosófico, la filosofía del teórico estará incluida en los supuestos semánticos NV. Por eso no sorprende que si N coincide con la filosofía F, los partidarios de Fafirmen que 7' confirma F: en re-

alidad, F ya estaba contenida en las premisas /V. Pasemos, ahora, a comparar dos teorías, 71 y 72, que comparten

el mismo formalismo matemático M, pero difieren en su interpre-

tación. Es decir, 7, = MUN; y T= MU No. A continuación, en-

riquecemos 7; y 72 con indicadores /, e L respectivamente, Con

lo cual establecemos un puente entre los conceptos teóricos de las

teorías rivales y sus correspondientes correlatos empíricos U ob-

servables. En el paso siguiente, derivamos consecuencias COMPrO-

bables C, y Co a partir de la unión de las teorías con sus respectivas baterías de indicadores: T, UL FC, TMULE E Co», donde H designa la relación de implicación lógica. Por último, diseñamos y realizamos un experimento crucial que sea capaz de decidir entre Ci y Ca.

Evidentemente, si los supuestos semánticos

NV son materialistas

y realistas, los indicadores correspondientes consistirán en relaciones

entre variables físicas; en cambio si los N son idealistas y subjetivistas, se emparejarán con relaciones entre variables psicológicas.

En el primer caso, las comprobaciones consistirán en observaciones o experimentos físicos, tales como la medición de líneas espectrales

o de las intensidades de haces de partículas. En el caso alternativo, en el cual los supuestos semánticos NV son idealistas y subjetivistas, 118

realizaremos comprobaciones psicológicas o, sencillamente, con-

templaremos nuestro ombligo,

¿Qué clase de procedimiento empírico, físico o psicológico, se considerará que ofrece pruebas empíricas pertinentes para la teoría Ten cuestión? La respuesta depende del lector. Debería poder decidir por sí mismo si los físicos que escogen una de las interpretaciones en juego llevan a cabo comprobaciones empíricas que las

confirman o las falsan, De este modo, el lector podrá poner a prueba si los físicos en cuestión practican la física que pregonan. Por consiguiente, la decisión final acerca de si el universo es físico o mental dependerá de lo grande que sea el presupuesto del experimentador: si es el adecuado, podrá permitirse la realización de un

experimento físico y concluirá que la física estudia la materia; en cambio, si el presupuesto del físico es pequeño, puede que sólo piense en sus propios pensamientos y acabe concluyendo que el

universo es mental, como ha sostenido siempre la escuela de Copenhague. Por consiguiente, el subjetivismo cuesta mucho menos que el objetivismo. Comentarios finales

En conclusión, la física cuántica ha conservado algunas ideas clásicas, en particular las de tiempo y antecedencia; ha modificado de

forma radical algunas otras, especialmente las de causación y azar; y ha abandonado muchas de las propiedades que anteriormente se atribuían a la materia, tales como las de conservación, estabilidad,

separabilidad e individualidad (o independencia) de la materia y

la masa, así como los valores definidos de cada propiedad. No cabe duda, por tanto, de que la física cuántica ha obligado a realizar

cambios radicales en la metafísica, aun cuando la mayoría de los metafísicos no se haya percatado de ello. (Son excepciones Bunge, 1977a, 1985 y Maudlin, 2003).

En cambio, la gnoseología no ha sido modificada por la revolución cuántica, salvo porque esta ha dado el golpe de gracia tanto al realismo ingenuo como al positivismo, al confirmar el principio 119

del antiguo atomismo de que se debe explicar lo perceptible mediante lo imperceptible, Es verdad, con frecuencia se les llama “ob-

servables” a las variables dinámicas, tales como las de posición, momento y espín, pero esta convención no es más que una reve-

rencia al positivismo, dado que las propiedades correspondientes

de los cuantones son de todo menos directamente observables. La observación de todos los “efectos” cuánticos supone amplificadores.

.

Todos los resultados experimentales, a todas las escalas —micro,

meso y macro—, se explican con el auxilio de teorías que nO Con-

tienen atributos fenoménicos. El diseño, la calibración y el perfec-

cionamiento de hasta el más simple de los instrumentos de

laboratorio —tales como las balanzas, los amperímetros, las placas

fotográficas y los contadores Geiger— requieren de varias teorías.

Por consiguiente, en el laboratorio, a diferencia de lo que ocurte en la vida cotidiana, los datos empíricos se producen Con el auxilio de teorías, en lugar de ser dados directamente a la experiencia (Bun-

ge, 1967a, 1973a). El empirismo sólo es adecuado para los caza-

dores y recolectores. ] Ciertamente, los cuantones son tan sensibles a los experimentos

que solía pensarse que su existencia misma dependía de estos. Así

pues, Heisenberg (1969, pág. 171) sostuvo que los átomos NO son

cosas en sí, sino “partes de circunstancias de observación y, Po! consiguiente, cosas “para nosotros”, por usar los términos de Kant. Sin embargo, la utilización de la teoría cuántica para explicar sucesos

que tienen lugar muy lejos de los laboratorios, como las reacciones nucleares del sol, debió haber disipado todas las dudas respecto de la existencia autónoma de los cuantones. La negación de esta inde-

pendencia es o bien una reliquia de la filosofía de Berkeley-KantComte-Mach, o bien un producto de la confusión entre “realidad” y “existencia aparte (o independiente)”. (Analogía: del solo hecho

de que los bebés sean inseparables de sus cuidadores, no se sigue que los bebés no son reales). En cambio, la importancia central del

concepto de energía nunca se ha puesto en tela de juicio. Por consiguiente, pasemos a analizar con mayor detalle este concepto, tan

fundamental para la ontología como para la física. 120

4 El concepto general de materia: ser es devenir

Es posible examinar minuciosamente las páginas de una enciclopedia de física sin encontrar nunca la palabra “materia”, aun cuando toda la obra no trate de otro tema. Por ejemplo, la física del estado sólido estudia las cosas materiales en su estado sólido, no el estado sólido en sí. Una de las principales razones de la omisión del sus-

tantivo “materia” y del adjetivo “material” es que el concepto de materia constituye una categoría ontológica muy general: no hay

en la física ninguna teoría general de la materia, al igual que no hay ninguna teoría general de los procesos. Steven Weinberg (1992, pág. 3), un destacado investigador de

la materia en el nivel microfísico, cree que el concepto de materia

ha perdido su papel central en la física. La razón de ello es que Weinberg ha conservado una definición obsoleta de “material” como objeto provisto de masa. Además, algunos filósofos, como Daniel Stoljar (2006), han interpretado la ausencia de “materia” del

vocabulario de la física contemporánea como una prueba de que

los científicos ignoran qué es “lo físico”. Chomsky (2009) coincide con este autor y ofrece como prueba de esa supuesta ignorancia las opiniones idiosincrásicas de los físicos contemporáneos John A.

Wheeler y Henry Stapp. El primero sostiene que los constituyentes últimos del universo son los bits de información (¿de información sobre qué?) y el segundo ha afirmado que la mecánica cuántica trata los sucesos como “incrementos experimentados de conocimiento” (¿conocimiento de qué?). No pidamos pruebas que apoyen 121

a cualquiera de estos obiter dicta. Además, adviértase que ambas opiniones son demenciales y estériles, no promisorias heterodoxias, y están motivadas por el viejo sueño idealista de destruir el materialismo. Hacerse con un puñado de excentricidades antirrealistas y antimaterialistas es muchísimo más fácil que estudiar física o química,

las ciencias de la materia par excelence. Además, estas perlas de sabiduría, tan de moda, no son peores que las muy anteriores afirmaciones fenomenistas de Locke, Berkeley, Hume, Kant, Comte y Mach, de que el conocimiento se limita a describir las apariencias; que no cabe duda de que las cosas en sí continuarán “atascadas en el misterio” y hasta podría ser que ni siquiera existan (para una crítica del fenomenismo, véase Bunge, 2006a). Sostengo que el misrerismo no sólo es estéril, sino que también constituye un obstáculo

para el desarrollo del conocimiento y es un indicador alarmante de decadencia intelectual.

Lo más parecido a una teoría de la materia física general es la

termostática clásica, la cual se ocupa de sistemas macrofísicos ais-

lados de composición arbitraria y, por ende, lo hace de forma in-

dependiente respecto de sus propiedades particulares, como el calor

y la viscosidad. Sin embargo, tal como ha señalado acertadamente Clifford Truesdell (1984), la termostática es excesivamente simplista,

aun para los sistemas macrofísicos, a causa de que ignora los pro-

cesos, tales como los flujos, y supone el aislamiento. En efecto, al igual que la microeconomía neoclásica, la termostática se ocupa

únicamente de sistemas cerrados y trata todo cambio como una secuencia de transiciones lentas y atemporales entre estados de equilibrio. En consecuencia, no es ni tan general ni tan precisa como

creían Planck y Einstein. Por tanto, si deseamos hemos de buscar en otro ciones más abstractas de basadas en los principios

elaborar un concepto general de materia lugar. Propongo hacerlo en las formulalas teorías físicas más generales: aquellas variacionales o extremales, tales como el

de Hamilton (véase Lanczos, 1949). Todos estos principios tratan

de la única propiedad universal: la energía.

4.1 La energía

¿Existe alguna propiedad que sea común a todos los objetos materiales y que, a la vez, ningún objeto inmaterial (ideal, imaginario, abstracto) pueda poseer? En otras palabras: ¿cuál es, si la hay, la propiedad física universal y la que, por tanto, identifica a la materia? Respuesta: la energía. Con todo, hay varias clases o especies de energía: cinética y potencial, elástica y térmica, eléctrica y magnética, nuclear y química, entre otras. De hecho, hay tantas clases de ener-

gía como clases de procesos. Asimismo, hay tantos conceptos especiales de energía como capítulos de las ciencias físicas y químicas. (Sin embargo, no hay conceptos biológicos, psicológicos ni sociales de energía). A diferencia de otras especies, las diversas clases de energía son

equivalentes entre sí, dado que pueden trasformarse unas en otras. Hay, sin embargo, una limitación: la energía térmica no puede trasformarse totalmente en trabajo, o energía macromecánica, porque parte de ella permanece ligada al sistema termodinámico. Esta uni-

direccionalidad parcial está expresada en la segunda ley de la termodinámica. Con todo, la restricción no afecta a los procesos microfísicos, es decir, aquellos en los cuales la constante de Planck

h desempeña algún papel. Además, por supuesto, la energía total

media involucrada en un proceso cualquiera que tiene lugar en un sistema cerrado se mantiene constante. (El añadido de la disposición “media” es necesario porque, según la teoría cuántica, en general

una cosa posee una distribución de energía en lugar de un valor único o definido). Esta conservación cuantitativa es la razón de que

sea posible considerar que todas las clases de energía son mutuamente equivalentes. A su vez, esto justifica hablar de energía en general. Con todo, si bien tanto el concepto general de energía como el

principio general de conservación de la energía tienen sus raíces en la física, exceden esta disciplina. En efecto, cada rama de la física define su(s) propio(s) concepto(s) de energía y supone o demuestra

su propia ley de conservación de la energía, pero ninguna ofrece una definición del concepto general. Para sumar las energías de dos 123

o más tipos, necesitamos unir las disciplinas respectivas. Por ejem-

plo, la energía total de un chorro de un fluido o un gas cargado eléctricamente sólo puede calcularse en la interciencia electromag-

netotermohidrodinámica. Puede que este sea el motivo por el cual

el celebrado libro Las conferencias de fisica de Feynman afirme que

la física de hoy en día no sabe qué es la energía. ¿La filosofía podría ayudar? Veámoslo.

He aquí una pista: todas las teorías físicas fundamentales, desde

la mecánica y la termodinámica clásicas hasta la teoría de la gravedad de Einstein y la electrodinámica cuántica, pueden expresarse mediante el formalismo hamiltoniano o su afín, el formalismo lafungrangiano. El plato fuerte de cualquiera de estas teorías es UNA

ción, u operador H que representa la energía total del referente. H

depende del tiempo y de ciertas variables básicas (no definidas) lla-

madas coordenadas generalizadas y momentos generalizados. Las ecuaciones de movimiento (o de propagación del campo) de la cosa en cuestión —sea esta una partícula, un cuerpo, Un Campo 0 UN

cuantón— constituye un sistema de ecuaciones para las tasas de cambio de H respecto a esas variables (en particular, el gradiente de Hees igual a menos la fuerza). Todo cambio supone una variación

de energía respecto a las coordenadas generalizadas. En otras pala-

bras, para que algo suceda es necesario que exista una falta de homogeneidad, o gradiente, de energía. Pierre Curie lo expresó en su concisa fórmula: Lasymétrie crée le phénomene. En consecuencia, estipulamos la siguiente Definición. Energía = mutabilidad,

Un pedante, como el autor que escribe estas líneas, reescribiría

este enunciado del siguiente modo: Para todo x: (x posee energía = yx es mudable). Ahora pondremos esta definición a trabajar. Comenzaremos suponiendo el

Postulado 1. Todos los objetos materiales (concretos), y sólo ellos,

son mudables, 124

Es decir:

Para todo x: x es concreto si y sólo si x es mudable.

Comentario 1. Hemos equiparado “concreto” con “material”. Esta convención es más común en la filosofía que en la física. Según

esta estipulación, los campos físicos son tan materiales como los

cuerpos extensos (recuérdese la sección 2.2).

Comentario 2. Nuestra definición del concepto general, u ontológico, de energía en términos de mutabilidad prueba que se trata de un concepto definido, no de uno primitivo (indefinible, definidor). En cambio, los conceptos de energía que aparecen en

las teorías expresadas en formato hamiltoniano son primitivos en ellas. Comentario 3. Tal como advirtió Aristóteles, el cambio de lugar es

la clase más simple de cambio porque es puramente cuantitativo. Además, a diferencia del cambio cualitativo, que es absoluto, el cambio de lugar es relativo al marco de referencia: lo que está en reposo con respecto a un marco de referencia está en movimiento

relativamente a otros marcos de referencia. Por consiguiente, el reposo, que Aristóteles consideró el estado “natural” de las cosas, es un caso muy especial del movimiento. El concepto de equilibrio estable generaliza el de reposo. Asimismo, la afirmación de que los sistemas reaccionan a las perturbaciones de forma tal de restaurar el equilibrio (el “principio” de Le Chatelier) parecería respaldar la cosmovisión básicamente estática de Aristóteles. Sin embargo, no es así porque el “principio” en cuestión no es una ley de la naturaleza sino un criterio para reconocer el equilibrio estable: una regla para identificar ese estado en particular. De igual modo, el postulado de que todos los mercados están en equilibrio o regresan a este si se los perturba, propio de la economía ortodoxa, no es más que una expresión de deseo. En resumen, la naturaleza no tiene particular inclinación por el reposo ni la sociedad adora el equilibrio. Como decía Heráclito, todas las cosas están en proceso de cambio:

la realidad y la mutabilidad son conextensivas.

En conjunto, la definición anterior y el postulado 1 implican el

Teorema. Para todo x: si x es un objeto material, entonces x posee energía y viceversa.

Este teorema tiene dos consecuencias directas. La primera es el

Corolario 1. Los objetos abstractos (ideales, imaginarios, no concretos) carecen de energía.

Por ejemplo, los conceptos de energía no tienen energía. (Ad-

vertencia: carente de P, donde P simboliza una propiedad cuantitativa, no es lo mismo que P= 0. Por ejemplo, no se trata de que el balance de la cuenta bancaria de una vaca sea cero: simplemente,

las vacas no pueden tener cuentas bancarias, salvo, por Supuesto,

en alguno de los mundos posibles imaginados por los metafísicos

cansados del mundo). Cuando decimos que los conceptos, las hipótesis o las teorías cambian, lo que queremos decir es que los ce-

rebros que solían pensarlas ahora piensan ideas diferentes. Por

ejemplo, se puede redefinir el concepto de energía, pero cada con-

cepto de energía es atemporal. Si se lo prefiere, las sucesivas crea-

ciones conceptuales no cambian por sí solas. Lo mismo es válido

respecto del concepto de materia: la materia, considerada como

concepto es inmaterial, del mismo modo que el concepto de movimiento es inmóvil y el de vida carece de vida La segunda consecuencia inmediata del teorema anterior es el

Corolario 2. La energía es una propiedad, no una cosa ni un estado

ni un proceso. (Advertencia: algunos autores tratan “energía” y “radiación” como si fueran sinónimos, algo que no son. La radiación

es una cosa y, como tal, posee energía). Comentario 3. Puesto que la energía es una propiedad, se la puede representar o bien mediante una función o bien mediante un operador. En la física clásica, se puede decir que E(c, x, t, f u) es un

valor arbitrario de la energía de la clase £ de la cosa c, situada en el punto x y el instante 1, relativamente a un marco de referencia fy

calculado o medido en la unidad de energía u. Por lo tanto, la fun220

ción en cuestión tiene la forma general E: Cx Px

Tx FxUz

R,

donde Ces el conjunto de todas la cosas concretas posibles, E simboliza el espacio tridimensional euclídeo, 7'el conjunto de los ins-

tantes, F el conjunto de los marcos de referencia, U el de las unidades de energía y R la recta real. En el caso de una energía de

interacción, tal como la gravitatoria o la eléctrica, se reemplazará C por el conjunto C x C de pares de entidades concretas. En la física cuántica, la energía se representa mediante un operador hamiltoniano. (Por ejemplo, el operador de energía cinética de un cuantón de masa m es (19V/21)./2m. La propiedad correspondiente es la densidad de energía, y.Hw, la cual depende del lugar y el mo-

mento. Dicho sea de paso, todas las densidades son cantidades intensivas O no aditivas, a diferencia de las longitudes y los intervalos de tiempo, que son cantidades extensivas).

Comentario 4. “Todos los valores de energía son dependientes del marco de referencia. En consecuencia, la misma cosa puede tener tantas energías como marcos de referencia en movimiento a dife-

rentes velocidades relativamente unos de otros. Por ejemplo, la energía cinética de una partícula relativamente a un marco de referencia adjunto a ella es nula, en tanto que es distinta de cero relativamente a cualquier marco de referencia en movimiento. Asimismo, la energía total de una cosa incluida en un campo se

torna cero cuando su energía cinética iguala su energía potencial. Sin embargo, un valor de energía igual a cero no es lo mismo que la carencia de energía, del mismo modo que una temperatura igual

a cero (en alguna escala) no es lo mismo que la carencia de temperatura. En estos casos, a diferencia del de la (inexistente) masa del

fotón, cero es solo un valor numérico especial; además, a menudo depende de una escala convencional. Comentario 5. Ciertamente, hay algunos casos dudosos. Por ejemplo, los libros, el papel moneda, los contratos, los planos, los diagramas de circuitos, las partituras musicales y los mapas, ¿son cosas materiales? Sí, lo son, pero también son algo más: trasmiten signi-

ficados. Se trata de objetos semióticos, por lo cual pertenecen a la 127

cultura. Esta es la razón de que resulten inútiles si se desconocen

los códigos que permiten a sus usuarios leerlos o interpretarlos, También es la razón de que puedan realizarse de múltiples formas,

es decir, mediante múltiples soportes físicos: piénsese en las nume-

rosas “encarnaciones” del dinero: moneda, billete, tarjeta de crédito,

giro postal, pagaré, etc. (más sobre ello en Bunge, 2003a).

Comentario 6. El corolario 2 implica que el concepto de cosa ma-

terial no puede ser reemplazado por el de energía. La energía en sí no existe: todo valor de energía es la energía de una COSA. Esa es la

razón de que el energismo, propuesto hace 100 años como alternativa tanto al materialismo como al idealismo, resulte lógicamente

el gran quíinsostenible. Sin embargo, los energistas, en concreto

micofísico Wilhelm Ostwald (1902), tenían razón en sostener que ia. Hala energía es universal, una suerte de moneda trasdisciplinar

brían tenido más razón si hubieran propuesto lo siguiente:

única caPostulado 2. La energía es la propiedad física universal: la racterística común a todas las cosas materiales.

Comentario 7. Se podría pensar que la posición en el espaciotiempo

es otra propiedad física universal. Lo es, pero según toda teoría re-

lacional (a diferencia de las teorías absolutistas) del espaciotiempo

(por ejemplo, Bunge, 1977a; Bunge y García Máynez, 1977 Be:

rez-Bergliaffa et al. 1998), este no es básico sino derivado: se trata de la estructura básica de la colección de todas las cosas, cada una

de las cuales posee energía. En general, el espacio se origina en el espaciamiento de las cosas y el tiempo en su cambio. Sin cosas no

hay espacio y sin cambio no hay tiempo. Aristóteles asiente.

Comentario 8. El postulado 2 no afirma que todas las cosas posean un valor preciso de energía en cada instante dado y relativamente

a todo marco de referencia. No lo hace, porque los valores definidos de energía son la excepción antes que la regla. En efecto, de acuerdo con la teoría cuántica, un cuantón está, típicamente, en una super-

posición de funciones propias de energía infinitamente numerosas, 128

cuyos correspondientes valores propios se distribuyen alrededor de

un valor central, como un nivel de energía atómica o el promedio espacial de una distribución de energía.

Nuestro último supuesto es el Postulado 3. La energía total de un objeto material aislado no cambia con el trascurso del tiempo. Comentario 9. Este es, desde luego, el principio general de conser-

vación de la energía. Es tan extremadamente general que es parte de la filosofía antes que de la física. Comentario 10. Se ha sostenido que en un universo en expansión la energía no se conserva. Con todo, puesto que el universo no

tiene paredes, no se trata de un sistema cerrado, por lo cual no es pertinente el intento de aplicar el principio en cuestión. Comentario 11. Toda violación del principio anterior resulta sos-

pechosa. Ejemplo 1: la cosmología del estado estacionario, difundida a mediados del siglo XX, postulaba la continua creación de materia —por tanto, de energía— a partir de la nada. Esta hipótesis contribuyó al descrédito y caída final de la teoría (Bunge, 1962). Ejemplo 2: la telequinesia, o capacidad de mover cosas mediante

el solo poder de la mente, supone una violación de la conservación de la energía. Esto no disuadió a varios filósofos, entre ellos a C.

D. Broad y K. R. Popper. Comentario 12. Según la elecrrodinámica cuántica, la energía del

vacío no es cero, sino que fluctúa de forma irregular alrededor de cero. Este resultado no invalida la caracterización de la energía como propiedad universal de todas las cosas. Todo lo que hace es limitar el dominio de validez de la definición clásica de vacío como ausencia de entidades materiales provistas de masa. El campo electromagnético que permanece en una región del espacio después de que se han neutralizado todas las cargas eléctricas y se han cortado

todas las corrientes eléctricas es una cosa concreta, aunque sutil. 129

Tan concreta es, que ejerce fuerzas de Casimir que se pueden medir

sobre los lados exteriores de dos placas conductoras paralelas y hace que se adhieran entre sí. El desplazamiento de Lamb de los niveles de energía atómicos es otra de las diversas propiedades mensurables

es un del vacío. En resumen, el vacío total no existe: el universo

plenum. Aristóteles y Descartes podrían sentirse reivindicados. Sin o embargo, mientras que su éter era pura fantasía, el vacío cuántic

está descrito en términos precisos y su existencia ha sido confirmada por

numerosos

exper imentos.

ado mucho de Comentario 13. En la cosmología reciente se ha habl

misteriosa, la “energía oscura”. Esta expresión es innecesariamente se le da a ya que se admite que “energía oscura” es el nombre que edad. una entidad o proceso desconocido que contrarresta la grav saria para dar A su vez, esta neutralización de la gravedad es nece

embarcuenta de la aparente expansión acelerada del universo. Sin

, puede go, esta aceleración puede acabar resultando iJusoria, es decir

que se la acabe explicando mediante la física ordinaria.

Comentario 14. El concepto de energía puede utilizarse para definir

el de causación y para distinguirla de la correlación. En efecto, se puede definir la causación como una trasferencia de energía, como

en los casos del haz de luz que quema una hoja o activa Una célula

fotovoltaica. (En ambos casos, la causa es la absorción de luz, no la luz; asimismo, los efectos son procesos: la combustión en el primer caso, y la emisión de electrones en el segundo. Generalizamos:

los miembros de la relación causal son sucesos o procesos). En cam-

bio, en una correlación entre dos “factores” o variables, no hay ninguna trasferencia de energía. Aunque sólo fuera por esta razón, €S

incorrecto definir la causación como un caso particular de la probabilidad, es decir, cuando esta es igual a la unidad, como ha hecho Suppes (1970) en su metafísica probabilista.

Esto completa nuestra miniteoría de la energía. La conclusión es que la energía es la propiedad física universal, que las diversas leyes especiales de conservación son ejemplos del principio general de conservación, y que puede definirse “materia” como “que posee 130

energía” (o “que posee la capacidad de cambiar”). Hemos llegado a este resultado filosófico mediante una combinación de ontología y física.

4.2 La información

Exploremos brevemente, a continuación, la relación entre los conceptos de materia e información. Hay varios conceptos de información, en particular el semántico y los técnicos. El primero es aproximadamente equivalente al de portador de conocimiento, como ocurre, por ejemplo, con un texto

o un diagrama. En cambio, los conceptos técnicos de información se refieren a cosas concretas, como los sistemas de comunicación,

los sistemas nerviosos y los sistemas compuestos por moléculas de ADNy las proteínas a las que sirven de plantillas. Sin portador

material, no hay información. Claude Shannon publicó su teoría de la información en 1948,

el mismo año que Norbert Wiener presentó la cibernética o ciencia general del control. Ambas disciplinas se hicieron famosas de forma

instantánea y, a causa de su generalidad, pronto fueron bien y mal aplicadas. Como se sabe, Wiener (1948, pág. 155) escribió que “la

información es información, ni materia ni energía. Ningún mate-

rialismo que rehúse admitirlo puede sobrevivir en la actualidad”, Pese a ello, todas las definiciones técnicas de “información” muestran

con claridad que, lejos de ser autoexistente como la materia, la información es una propiedad de ciertos sistemas materiales muy es-

peciales, tales como el sistema nervioso y las cadenas de TV y, como tal, es inseparable de la materia y la energía. La inmensa mayoría de las cosas no trasporta información, al

tiempo que toda la información se trasporta mediante flujos de energía, todos los cuales son materiales. En consecuencia, la infor-

mación es, al fin y al cabo, tan material como la energía, aunque mucho menos ubicua, porque supone la codificación, y los códigos

son convencionales además de artificiales. Por ejemplo, los semáforos sólo funcionan para la gente que sabe la convención de que 131

la luz verde denota “avanzar” y la luz roja “detenerse”. En cambio,

el tráfico que tiene lugar en las redes neuronales sólo “obedece” ,

ciertas leyes naturales, tales como las que “gobiernan” las respectivas señales eléctricas y químicas.

En resumidas cuentas, el concepto de información €s derivado,

no primario; en concreto, depende del concepto de matería. En

efecto, toda la información se trasmite a través de algún proceso físico, del mismo modo que cada porción de energía es la energía

de cierta entidad material y toda trasferencia de energía es un proceso físico que conecta dos o más entidades físicas. (Lo que sí es verdad es que las teorías de la información son tan generales que no especifican la composición de los sistemas de comunicación:

son neutrales respecto al material). Un ejemplo de ello es un interruptor, puesto que puede estar en uno de dos estados, “encendido”

y “apagado”, y de ese modo codifica un bit de información. A continuación, invirtamos el famoso lema de John A. Wheeler: siempre obtenemos bits a partir de cosas, nunca a la inversa. Con todo, la idea de que la información es más básica que la

materia y la energía se hizo muy popular en todos los campos de

investigación durante la segunda mitad del siglo pasado, desde la

física, la bioquímica y la biología hasta la psicología y la sociología. Baste recordar los intentos de considerar que el ADN está com-

puesto por las “letras” A, C, G y T; la propuesta de Hilary Putnam de concebir la mente como un conjunto de programas de ordena-

dor y la afirmación de Niklas Luhmann de que la sociedad es un sistema de comunicación en el cual las personas no son importantes: un grafo sin nodos. Estas fantasías navegan en la estela de la revolución informática, pero no han aportado nada a nuestra comprensión de la realidad. La razón de ello es que están centradas en un

único aspecto de las cosas y los procesos, y proponen concepciones superficiales de los mecanismos que hacen que las cosas funcionen.

Por ejemplo, si bien es verdad que todos los intercambios sociales van acompañados de intercambios de información, también lo es

que sólo los comprendemos cuando estudiamos sus características específicas, tales como las que distinguen la industria del politiqueo, y el coqueteo del comercio. 132

4.3 La metafísica digital

La metafísica digital es la doctrina que afirma que los bits son los componentes básicos del universo (y que Dios es un programa informático). Se trata de una nueva versión del mito pitagórico, tal

como ha reconocido Gregory Chaitin (2006), un miembro destacado de esta nueva hermandad esotérica. La idea parece tener varios orígenes. Una primera raíz, obvia en Wilczek (2008) y otros científicos distinguidos, es la confusión entre las cosas reales y los modelos que tenemos de ellas. Esta confusión es un rasgo del pensamiento mágico implicado en el asunto de pinchar alfileres en

muñecos como método de asesinato barato y seguro. Otra fuente

del digitalismo es el culto a los ordenadores y la correlativa ado-

ración de los programadores por considerarlos seres omniscientes, así como de los modelos informáticos como si fueran infalibles y tuvieran vida propia. Otra fuente independiente de la “filosofía digital” es la vieja confusión positivista entre la prueba (¿Cómo lo sabes?) y la referencia (¿De qué se trata?). En efecto, sabemos que una observación o me-

dición no se completa hasta que no es registrada, es decir hasta que se la traduce a una porción de información. A partir de ello, Wheeler dedujo que la información crea la realidad. Según lo ha expresado Paul Davies (2004, pág. 10). Wheeler intentó “invertir la

relación explicativa convencional materia

—>

información

—=>

observadores

y colocar al observador en la base de la cadena explicativa, observadores +

información

—=>

materia

para llegar a su famosa sentencia ¿t from bit, “cosas a partir de bits”,

en la cual “it”, “cosas”, se refiere a un objeto físico, por ejemplo

un átomo, y “bit” es la información relacionada con ese objeto.

En la concepción propia de cosas a partir de bits, el universo es, fundamentalmente, un sistema de procesamiento de la informa133

ción del cual la apariencia de materia surge en un nivel superior de realidad”. En el argumento anterior falta un paso; se trata de la fórmula

de Berkeley: “Ser es ser percibido o percibir”. En efecto, el razona-

miento de Wheeler parece correcto si se interpola de manera ex-

tesis de plícita ese eslabón, pero entonces se hace obvio que la

Wheeler no es más que un refrito del subjetivismo de Berkeley, la fuente original de todas las interpretaciones antirrealistas de la cienantes cia (Bunge, 1955, 20062). Peor aún, la existencia del universo

de la emergencia de la física atómica se torna muy problemática.

en Otra fisura en el cuento de las cosas a partir de bits consiste . ¿Cómo el mecanismo por el cual las cosas surgen de los símbolos

abstractos que, coes posible que se cree energía a partir de objetos

inventadas mo el 0 y el 1, carecen de energía y obedecen a reglas

recibir por el hombre en lugar de a leyes físicas? ¿Cómo es posible un choque eléctrico al tocar el diagrama de un circuito? ¿Y cómo ples posible que un físico urda una versión más del misticismo emtagórico sin preocuparse en lo más mínimo por las pruebas píricas?

Otra fuente, bastante inesperada, del digitalismo es el empirismo (o positivismo), la concepción de que todo el conocimiento €s Un

montón de datos y, especialmente, que las teorías son sólo conden-

saciones de los datos. Esta opinión supone la tesis de que nO NECE

sitamos más que números computables o, expresado en términos negativos, que no necesitamos más números reales que las fracciones, dado que el resultado de toda medición es una fracción. Un

positivista tolerante aceptará que los matemáticos jueguen con nú-

meros trascendentes o no computables, tales como 1, definibles como series infinitas: 1/4 = 1-1/3+1/5-1/7 + ... Este número se puede calcular hasta cualquier aproximación

que se desee mediante el expediente de truncar la serie anterior y sumar el polinomio resultante. Sin embargo, un positivista radical intentará convencer a los matemáticos de que deben resignar los 134

mimeros reales y reconceptualizar las rectas como sartas de fraccio-

nes. Vale decir, el empirista radical intentaría digitalizar todas las ciencias, Esto incluiría la enorme mayoría de los números, que no

son computables, Por consiguiente, también nos obligaría a enterrar el cálculo infinitesimal y reemplazar las ecuaciones diferenciales por ecuaciones de diferencia finita. Afortunadamente, la inmensa mayoría de los matemáticos y científicos ha desoído la sirena digital, ¿Y qué hay de la realidad virtual? ¿Cómo de reales son los mundos virtuales que los entusiastas de los ordenadores gustan de explorar? Es verdad, esos mundos no existen fuera de las pantallas de los ordenadores y de los cerebros que las miran; sin embargo, las

realidades virtuales son tan reales como los cerebros, puesto que

estos las conjuran, al igual que a los sueños. La localización en el mundo externo de alguien es suficiente pero no necesaria para la existencia real: su mundo interno está en tu mundo externo. Detengámonos en este por un momento.

4.4 Lo que hay ahí fuera “¿Por qué existe algo en lugar de nada?”. Esta pregunta, a menudo atribuida a Heidegger, fue formulada en realidad por Leibniz (1956,

vol. Il, pág. 1038) y siempre se la ha debatido en la teología islámica. La pregunta tiene sentido para los teólogos que se preguntan

qué motivo pudo haber tenido Dios para crear el universo. Sin embargo, no hay lugar para ella en una ontología secular, que da por sentada la existencia del mundo e intenta explicarlo. Sólo la existencia de las cosas particulares, por oposición a la totalidad de las cosas, podría interesarnos a algunos. Por ejemplo, a los biólogos les gustaría saber por qué existen los organismos, especialmente en

vista del popular mito de Richard Dawkins de que no son más que medios de trasmisión de los genes y, por tanto, que en principio son prescindibles y por consiguiente “paradójicos”. Los economistas deben preguntarse por qué hay emociones, ya que sólo distorsionan

y hasta obstaculizan los perspicaces cálculos de un actor racional. 13

Además, los hilósotos políticos deberán preguntarse si el socialismo

democrático puede existir, dada la fuerza de los intereses indivi. duales, ln su obra principal, Sery tiempo, el famoso escritor existencialista Martin Heidegger sólo se ocupa de la existencia humana o, mejor dicho, de un puñado de rasgos de ella. Una generación más

tarde, esto es todo lo que tenía que decir sobre el ser:

“La esencia

del Ser es ELLO mismo” (Heidegger, 1954). Además, Jean-Paul

Sartre, en una época imitador de Heidegger, afirmó que “no hay existencia más que en la acción”. Ninguna de estas frases nos ayuda

a entender preguntas tales como: “¿existen los gravitones*”, —¿EXIsten los átomos cuando no se los manipula?” o “¿existen los mercados

libres en equilibrio?”, , filosófico, Los lógicos, que ocupan el otro extremo del espectro nos aseguran que el cuantificador “existencial” 3 precisa el concepto de existencia. ¿Es así? Tomemos dos frases: “Existen supercuerdas y “Existen números irracionales”. Según los imperialistas lógicos,

ambas oraciones se formalizan exactamente de la misma forma, es decir “xPx” o “Existen 2”. Con todo, la primera oración afirma la existencia real o material de algo, en tanto que la segunda afirma

la existencia ideal de ciertos objetos matemáticos que no se hallan

en el mundo real, La lógica no puede distinguir, mucho menos poner a prueba,

las dos principales clases de existencia: la real y la ideal. Esto no acarrea ningún problema para la matemática, que se ocupa exclusivamente de objetos ideales, pero deja el problema de la existencia

en manos de los científicos fácticos y los filósofos cuerdos. La am-

bigiledad del símbolo 3 sugiere que hemos de interpretar “JxPx como “Algunos individuos son P”, sin asumir ningún compromiso

existencial, del modo en que un ateo podría decir que algunas deidades (imaginarias) son benévolas si se las soborna (en la imaginación). Volveremos a este problema en el capítulo 5. ¿Cómo se relaciona la existencia con la materialidad? No sirve definirla materialidad como existencia real, como hacen los materialistas dialécticos, porque un idealista objetivo —como Platón, Hegel, Dilthey o los metafísicos de los mundos posibles— podría 136

alivia que las ideas en sí son tano quizá más, reales que los trozos

de matería, Un consecuencia, la relación entre materialidad y exis-

tencta debe alirmarse o negarse de manera explícita e independiente

dela definición de materialidad. Este es el motivo de que proponpamos ol

Pasrulado 4. Vodos los objetos materiales, y sólo estos, existen de

torma objetiva (realmento.

De forma abreviada: realidad = materialidad. Adviértase que esta

no es una detinición (identidad) sino un supuesto, Una consecuencia lógica inmediata del mismo es el

Corolario 3. Ningún objeto ideal (o imaginario) existe de forma objetiva (realmente).

Á su vez, este enunciado implica el Corolario 4. Las estructuras matemáticas no existen ahí fuera.

Con los últimos dos corolarios se busca descartar el idealismo objetivo, el cual continúa teniendo éxito entre los filósofos, los matemáticos y hasta los físicos teóricos, que necesitan que se les re-

cuerde que es absurdo preguntar, por ejemplo, cuál es el número

que corre más rápido o si las 4lgebras de Boole pueden curar el resfriado común. Si se tienen dudas acerca de la presencia de platónicos entre nosotros, consúltese la abundante literatura sobre los

universos paralelos (por ejemplo, Everett, 1957; Lewis, 1986; Tegmark, 2004).

Esperamos que nuestros anteriores supuestos diluciden lo que

significa “existencia real”, pero no que nos ayuden a reconocer que un objeto existe ahí fuera. Para realizar esta segunda tarea nece-

sitamos un puente entre la ontología y la epistemología normativa, es decir, la metodología. O sea, necesitamos criterios explícitos de existencia real (o material). He aquí dos, cada uno en dos

partes.

137

Criterio 1 (necesidad y suficiencia). Un objeto (1) posiblemente exista realmente (materialmente) si y sólo si la hipótesis de su existencia es verosímil, es decir, si esta pertenece a

una teoría que ha sido confirmada empíricamente O es CONgruente

con otras teorías suficientemente confirmadas;

(ii) existe realmente (materialmente) si y sólo si se lo ha detectado de forma directa (mediante los sentidos) o de forma indirecta (con el auxilio de instrumentos científicos).

La parte (1) de este criterio se utilizó al juzgar la posibilidad de

que existieran las ondas electromagnéticas (Maxwell), los positrones

(Dirac) y las ondas gravitatorias (Einstein) antes de obtener las res-

pectivas pruebas experimentales. En cuanto a la parte (1), ladetec.

ción directa es, desde luego, sensorial, mientras que la detección

indirecta se consigue con la ayuda de instrumentos de observación,

ya sean simples como las lupas o complejos como los amperímetros

y los radiotelescopios. Además, necesitamos el Criterio 2 (suficiencia). Un objeto existe realmente (materialmente) si (1) reacciona cuando algo actúa sobre él;

(11) ha sido reproducido o fabricado.

La reactividad a un estímulo, supuesta en la parte (1), es suficiente pero no necesaria, porque nuestra acción puede no ser lo

bastante enérgica como para provocar una reacción comprobable, como cuando apuntamos una linterna hacia el Sol. La parte (11) es válida para el laboratorio, el banco de trabajo o el campo. Un ejem-

plo reciente es el experimento realizado en el CERN para producir y detectar el bosón de Higgs que había sido postulado por la teoría.

Los físicos se percatarán de que nuestros criterios de realidad difieren de forma sustancial de los propuestos por Einstein, Podolsky y Rosen (1935) en su famoso artículo. Con la ventaja de la mirada 138

retrospectiva, advertimos que habían confundido “real” con “clá-

sico”, porque lo que ellos llamaron “elementos de realidad” son en-

tidades o propiedades clásicas, tales como la separabilidad y la posesión simultánea de valores de posición y velocidad definidos (Bunge, 1979b). También habían subordinado el problema onto-

lógico de la realidad a la pregunta gnoseológica de la predictibilidad: habían convenido que X existía si X podía predecirse con certeza,

Bohr y sus seguidores utilizaron esta desafortunada confusión del realismo con el clasisismo para defender su propia confusión: el

contrabando del positivismo subjetivista con el atuendo de la me-

cánica cuántica. Al mirarlo de manera retrospectiva, nos percatamos

de que el realismo puede conservarse junto con la teoría cuántica

(Bunge, 1967b).

A pesar de todo, sin el materialismo el realismo gnoseológico es

vulnerable y, además, inútil para la ciencia porque es posible adoptar

el realismo objetivo de Platón y Hegel, es decir, la concepción de que las ideas existen de forma independiente. Para un platónico,

el criterio de existencia (o de realidad) es la no contradicción: una

idea existe siempre que no sea autocontradictoria. Evidentemente,

este criterio no es válido para las entidades materiales, ya que la contradicción y su contrario, la coherencia lógica, son propiedades

peculiares de los constructos y ponerlas a prueba no requiere de la

aplicación de procedimientos empíricos. La mejor manera de apuntalar el realismo gnoseológico es combinarlo con el materialismo, de lo cual resulta lo que podemos llamar hilorrealismo (Bunge, 2006a). Por consiguiente, un hilorrealista

aceptará una teoría científica que propone la existencia de cosas antes desconocidas, sin importar cuán extrañas o “paradójicas”, a

condición de que estén suficientemente confirmadas y no contradigan el grueso del conocimiento anterior. En cambio, un hilo-

realista rechazará la llamada metafísica digital ("cosas a partir de bits”) diciendo que la noción de información y, en concreto, el

concepto de bit o unidad de información, sólo tiene sentido en relación con los sistemas de información, todos los cuales son artefactos concretos.

Comentarios finales

Los conceptos de materia y energía han experimentado cambio, enormes en el trascurso de la historia de la ciencia, al igual que

otros conceptos ontológicos clave, como los de espacio, tiempo,

causación, azar, vida y mente. En nuestra opinión, lo que todos es. tos CONCeptos tienen en común, en otras palabras, el concepto más general de cosa material es el siguiente: Para todo x: (x es material = x es mudable).

Puesto que, a su vez,

mutabilidad = que posee energía, de lo cual se sigue que Para todo x: (x es material = x posee energía).

Además, dado que la energía se conserva, también se conserva

la materia, aunque no la masa. Y como no es posible destruir la materia, más vale que los filósofos le presten atención al concepto contemporáneo de materia, antes de que los físicos lo modifiquen

otra vez. Este concepto es tan amplio que vale para los seres VIVOS

y los sistemas sociales.

El concepto amplio de materia sugiere que debemos ampliar el

fisicalismo hasta convertirlo en lo que podemos llamar materialismo amplio (inclusive materialism), el cual puede resumirse en los postulados siguientes: materialidad = mutabilidad realidad = materialidad.

Ampliaremos esta concepción en el capítulo 7. Antes de hacerlo,

sin embargo, nos conviene examinar en mayor detalle algunas de

las clases suprafísicas (pero no “no físicas”) de la materia. 140

5 La emergencia y los niveles

La cosmovisión que dio forma a la vanguardia de la comunidad científica occidental, aproximadamente entre 1600 y 1850, veía el universo como el mecanismo máximo que funcionaba por sí mis-

mo: recuérdese el capítulo 2. Al final de esta época, diversos descubrimientos e invenciones contribuyeron a la decadencia de esta primera cosmovisión científica: las maravillas de la física de campos, la síntesis química, la embriología y la evolución biológica y social. Estos y otros descubrimientos probaron que la materia, lejos de ser

la sustancia pasiva imaginada por los metafísicos tradicionales, era capaz de autoorganizarse de forma espontánea: las trasmutaciones y las metamorfosis soñadas por los antiguos alquimistas y naturalistas. Algunos de esos procesos resultaron ser reales y no fueron

admirados con “piedad natural”, a la manera de los holistas, sino analizados en términos de sus componentes elementales. En algunos casos, se intentó recrearlos en el laboratorio y hasta hacerlo mejor que la naturaleza; por ejemplo, fabricando materiales artificiales

tales como papel y plásticos, los trasuranianos, los organismos modificados genéticamente y, desde luego, organizando sistemas sociales completamente no naturales, tales como escuelas, iglesias, negocios, ejércitos y gobiernos.

A mediados del siglo XX, se supo que los constituyentes elemen-

tales del plomo y del ADN son los mismos, es decir, los electrones y los nucleones, y los gluones que los mantienen unidos; el platino [Z = 78] sólo tiene un electrón más que el iridio [Z = 77]; com141

partimos alrededor del 99% de nuestros genes con los chimpancés;

tanto Nueva York como una aldea primitiva del Amazonas están habitadas por miembros de la misma especie biológica; Con las mismas palabras se pueden componer poemas sublimes y calumnias

ho 1minfames, y así sucesivamente, Estas características comunes a plican identidades fundamentales: el platino no es

de 78 posibles, el lector no es 99% chimpancé, el senado de Estados tribu priUnidos no es básicamente un consejo de ancianos de una mitiva, y así sucesivamente.

ición

La moraleja filosófica es obvia. Aunque esencial, la Compost no lo es todo: la estructura y el mecanismo son igualmente impottantes (para el modelo composición-entorno-estructura-Imeci ao de un sistema, véase Bunge, 2003a). En consecuencia, € Pr poA sicionismo, reduccionismo ingenuo o individualismo a : es simplista. En otras palabras, para comprender una totalidad, Nunca suftanálisis o descomposición es siempre necesario, pero ciente. Debemos descubrir, también, los vínculos que

e

unidas las partes y explican la emergencia de laspropicias 8 de bales; por ejemplo, los enlaces de hidrógeno entre las moléct a e

un cuerpo de agua, y los vínculos psicológicos y económicos que

L

entre los miembros de una empresa. Además, debemos colocar a cosa de interés en su contexto en lugar de tratarla como un individuo solitario. Por ejemplo, los átomos que están en el centro de la Tierra pierden sus electrones externos, las neuronas se comportan de manera

diferente en diferentes redes neuronales, y los jefes tiránicos pueden comportarse mans y amorosamente en casa,

La lección metodológica es que debemos complementar cada

análisis de abajo hacia arriba (bottom-up) con un análisis de arriba hacia abajo (top-down), porque la totalidad impone restricciones a las partes: piénsese en las tensiones de un componente de una estructura metálica o en la tensión de un miembro de un sistema social en virtud de sus interacciones con otros constituyentes del

mismo sistema. Véase la figura 5.1. Esta conclusión contradice el principio de la cosmovisión fisi-

calista (o materialista vulgar), según el cual el universo está dispuesto

en un único nivel, el de las cosas físicas, por lo que los físicos po142

totalidad A

originan

|

|

restringe

partes

Figura 5.1. Los análisis ascendentes y descendentes se complementan entre sí.

drían elaborar alguna vez la teoría del todo. (En el fisicalismo del siglo XIX, y más tarde en el físicoquimismo, tuvo éxito el mecanicismo que había prevalecido durante los dos siglos anteriores). El correlato metodológico de lo anterior es que el programa atomista, consistente en explicar el todo por las partes, fracasa cada

vez que el comportamiento de la parte está fuertemente influido por la posición de la misma en el todo. Por ejemplo, toda la familia de las teorías de la elección racional, tan difundida en los estudios

sociales, ha fracasado porque la conducta individual está fuertemente influida por circunstancias macrosociales, tales como la si-

tuación política y económica. En general, es más fructífero interrelacionar los niveles que in-

tentar reducirlos bien hacia abajo (microrreducción) o bien hacia arriba (macrorreducción). Por consiguiente, es probable que apa-

rezcan diagramas de Boudon-Coleman (Bunge, 1996; Coleman, 1990) en todas las disciplinas que abarquen dos o más niveles de organización: véase la figura 5.2. En el trascurso de los dos últimos siglos, la química, la biología y las ciencias sociales han encontrado sistemas de millones de clases Macronivel

Innovación

tecnológica

Micronivel

Aumento de ingresos de los terratenientes

Debilitamiento del orden semifeudal

Disminución de la dependencia 2

individual

Figura 5.2. El diagrama de Boudon-Coleman explica el impacto político de los progresos en la tecnología agrícola de una sociedad semifeudal. Tomado de Bunge, 1996. Otros procesos

colectivos, como la ebullición, el crecimiento mediante división celular, la inflamación y las epidemias se inician en el micronivel.

143

diferentes, con lo cual han confirmado la imposibilidad de crear

una teoría adecuada para todo. En efecto, conocemos unas 200

clases diferentes de “partículas elementales”, más de 100 clases diferentes de átomos, unos dos millones de clases de moléculas, cientos de millones de especies biológicas y cientos de clases de sistemas

sociales. En otras palabras, algunas colecciones de cosas, sean átomos, moléculas, motas, fibras, piezas de Lego, personas o lo que

sea, se pueden combinar y formar sistemas cualitativamente diferentes. De este conjunto de procesos, que incluye saltos cualitativos,

trata la emergencia en su sentido ontológico (véase, por ejemplo, Alexander, 1920; Bedau y Humphreys, 2007; Blitz, 1992; Bunge,

1969, 1979a, 2003a; Lewes, 1874; Luisi, 2006; Morgan, 1933;

Needham, 1943; Sellars, 1970; Wimsatt, 2007). La emergencia y los niveles se encuentran en todos lados, con excepción de la mecánica clásica, la cual se ocupa exclusivamente

de cuerpos pequeños y grandes. Esta ciencia ignora el hecho de que una colección de partículas, tal como una colección de moléculas de agua, puede organizarse por sí sola de diferentes maneras: Como copos de nieve, granizo, gotas líquidas, lagos, ríos, mares O nubes.

Cada una de estas cosas posee propiedades que las demás no tienen. Otros ejemplos conocidos de emergencia y niveles son: montón

de ladrillos-pared-casa-ciudad, población-pandilla-empresa-con-

glomerado de empresas, y letra-palabra-frase-oración-texto. Los niveles superiores dependen de los inferiores, pero no son reducibles a ellos en un sentido ontológico, aun cuando se pruebe que las

cosas complejas (sistemas) emergen de la interacción de sus cons-

tituyentes. El análisis debe explicar la emergencia, en lugar de intentar eliminarla (más sobre la reducción en la sección 9.8).

Si bien todo lo anterior se sabe desde hace mucho tiempo, la

noción explícita y general de nivel de integración, o nivel de organización, es bastante reciente (Bunge, 1960a, 1969, 1980b; Hart-

mann, 1949; Novikoff, 1945). Además, ni este concepto ni el de

sistema han llegado a la metafísica ortodoxa. Pasar por alto la estructura de niveles del universo es todavía peor porque resulta más

oneroso y consume más tiempo, a causa de que ha facilitado la pro-

liferación descontrolada de teorías del nivel más fundamental, como 144

la prometida “teoría sobre todo”, las teorías cuánticas del universo

y las fantasías sobre la naturaleza física (no biosocial) de la mente, así como sobre la posibilidad de reducir las ciencias sociales a la biología. Por tanto, es necesario recordar algunos de los rasgos más

sobresalientes de la doctrina de los niveles.

5.1 La materia física Los atomistas antiguos y, 2000 años después, también la mecánica

estadística, contradijeron la doctrina del nivel único afirmando que las cosas cotidianas estaban compuestas por entidades imperceptibles. Sostenían, además, que los objetos macrofísicos poseen propiedades emergentes, como la temperatura y la entropía, que sus componentes microfísicos no poseen. Más aún, los puentes micro-

macro suponen el concepto de azar objetivo, el cual no aparece ni en la mecánica clásica ni en la electrodinámica clásica.

La consecuencia gnoseológica de la división micro/macro es obvía: necesitamos dos conjuntos de teorías físicas, microfísicas y ma-

crofísicas, para describir y explicar la realidad física. La física cuántica ha confirmado esta conclusión, si bien el descubrimiento

de entidades cuánticas macrofísicas, como los anillos superconductores, desplazó la frontera entre los dos estratos, de micro/macro a cuantón/clasón o cuántico/clásico. En todo caso, la esperanza de elaborar una única teoría acerca de todo fue disipada incluso antes de nacer tanto por la filosofía materialista como por la física moderna.

El programa original de la física atómica desde la antigiiedad ha sido claro: dar cuenta de las macrocosas perceptibles en términos de las microcosas imperceptibles. En nuestra terminología, el obJetivo era obtener clasones a partir de cuantones. Gran parte de este programa ha sido llevado a cabo con éxito. Por ejemplo, hace

un siglo las células fotovoltaicas se explicaron en términos de electrones eyectados por fotones incidentes; los imanes se explicaron en términos de los espines (y momentos magnéticos asociados) de los átomos que componen los imanes; y las macropropiedades de

145

OzOS de materia condensada de ciertas clases, en particular los se-

miconductores utilizados en los artefactos electrónicos, se explican actualmente en términos de las propiedades de sus constituyentes

atómicos. De todos estos logros, el último ha tenido el mayor im-

pacto en la industria, ya que el ordenador electrónico digital es hijo del matrimonio de la física cuántica del estado sólido con la teoría

matemática de la computación.

Sin embargo, la interpretación ortodoxa (o de Copenhague) de

la teoría cuántica cuenta una historia diferente: según esta, la teoría sólo calcula los resultados posibles de las observaciones. Por ejemplo, se postula que los valores propios de un operador que representan un “observable” (una variable dinámica) son los resultados posibles de las mediciones de dicho observable, como si hubiera medidores universales. Más aún, se supone que todas las mediciones y experimentos incluyen únicamente dispositivos que pueden describirse en términos clásicos. Sin embargo, esto es falso, ya que explicar la

ionización que tiene lugar en la cámara de niebla y en el contador

Geiger, así como las reacciones fotoquímicas que ocurren en una placa fotográfica, exigen la utilización de la física cuántica. En todo

caso, la ortodoxia de Copenhague erige una dualidad estricta entre

los cuantones y los clasones, según la cual se ha de considerar que estos últimos son irreducibles. A decir verdad, el dogma afirma que el observador, su instrumental y el objeto observado constituyen

una totalidad imposible de analizar. La astrofísica, que depende en

gran medida de la teoría cuántica, desmiente esta tesis, dado que

ningún instrumento de medición, y mucho menos un observador, podría acercarse a una estrella,

Esta dualidad micro-macro, en obvia contraposición con la propuesta del programa atomista, no es fruto de un resultado científico sino de una interpolación filosófica. De hecho, deriva del principio

subjetivista (o positivista) que afirma que no hay una realidad objetiva: solo habría fenómenos, es decir, apariencias para un observador, En particular, los hechos cuánticos surgirían únicamente de la observación. Lo cierto es que, tal como afirmaron Bohr y Hel-

senberg alguna vez, hasta los macrohechos, tales como el paso de

un tranvía, serían producto de observaciones repetidas. Un lector 146

ingenuo podría preguntar: “¿Observación de qué, si no es de áto-

mos, de tranvías o de lo que sea?”. Pero le responderían —tal como se le respondió a mi profesor, Guido Beck, cuando trabajaba para

Heisenberg en Leipzig— que esta y otras preguntas parecidas no debían formularse. La consigna de Mussolini: “Creer, obedecer, combatir”, fue adaptada para convertirse en: “Creer, obedecer, cal-

cular”,

Hasta hace poco, sólo se podía contrarrestar la ortodoxia de Copenhague mediante el análisis conceptual: probando que ni los axiomas de la teoría ni los datos experimentales se refieren a observador alguno. Esta circunstancia se modificó en la década de 1990, con el desarrollo de la teoría de la decoherencia y los experimentos asociados a ella (véase Schlosshauer, 2007). Recordemos, por ejemplo, la difracción de bolas de Bucky, tales como las moléculas de Cro, las cuales tienen alrededor de 1 nm de espesor. A temperaturas inferiores a los 1000 “K [726 “C], estas cosas difractan cuando pa-

san a través de rendijas dobles: son cuantones. Sin embargo, al calentar las moléculas con un rayo láser hasta 5000 “K [4726 *C], el

patrón de interferencia desaparece gradualmente: los cuantones se trasforman gradualmente en clasones a consecuencia de la decoherencia. Un resultado de estos experimentos es que la frontera entre cuantón y clasón se puede desplazar hacia el entorno macrofísico, el cual puede ser, en concreto, el instrumental. Véase

la figura 5.3. observador manipula

conjura

/

instrumental

clasón

|

A

entrelazamiento——»-

decoherencia

|

ma

cuantón

(a)

(b)

Figura 5.3. La dualidad cuántico/clásico. (a) Ortodoxla de Copenhague: el observador omnipotente manipula el instrurnental, el cual a su vez conjura los hechos cuánticos. (b) Programa decoherentista: los clasones emergen de los cuantones, en concreto cuando estos se entrelazan

con el entorno (natural o artificial).

147

Estos recientes avances han restablecido el objetivo original del programa Cuántico, es decir, la derivación de la física clásica a partir

de la teoría cuántica.

Sienifica esto que podremos prescindir, fi-

nalmente, de CONCeptos clásicos tales como los de fricción, calor, temperatura, viscosidad, vorticidad, elasticidad, imantación, tensión

superficial y humedecimiento? Estos conceptos continuarán siendo necesarios Porque representan propiedades globales y procesos obJetivos que emergen a partir de mirfadas de hechos Cuánticos. Asi-

mismo, la explicación neurocientífica de los procesos cognitivos y

afectivos no nos permite prescindir de palabras tales como “miedo”, “imaginación” y “amor”. La emergencia continúa siendo emergencia aunque haya sido explicada.

En otras palabras, la gnoseología no puede borrar la ontología

porque el universo está estratificado de manera objetiva. Las diferencias cualitativas entre los niveles de realidad imponen una mul.

tiplicidad de niveles de descripción. Cierto es que quienes defienden

la tesis de que la teoría cuántica es universal escriben símbolos que,

según se afirma, designan funciones de estado para gatos, observa-

dores, instrumentos de medición y hasta para el universo. Pese a

ello, sostengo que esos símbolos son espurios porque no son soluciones de ecuaciones que contengan hamiltonianos: no son más

que garabatos. Véase la figura 5.4. En resumidas cuentas, los clasones emergen de los cuantones,

por lo que es legítimo intentar derivar la física clásica de la teoría cuántica, en lugar de considerar a la primera totalmente dada, un

punto de partida absoluto. Con todo, el objetivo último del “programa de decoherencia”, es decir, prescindir totalmente de las ideas

clásicas, parece ser pura fantasía porque las propiedades clásicas, como la forma, la viscosidad y la temperatura, son tan reales como

las propiedades cuánticas, como por ejemplo el espín y la no separabilidad. En pocas palabras: la distinción entre los niveles cuántico

y clásico es objetiva, no sólo un asunto de niveles de descripción y análisis.

FCI describe

observador-instrumental crea

(

predice

clasones

Y

observaciones

A

|

Y

constituyen todo

RA /

explica»

FCI

implica

/

cuantones

explica

F Cu

F Cu

F Cu

(a)

(b)

(c)

Figura 5.4. Niveles de descripción. FCI = física clásica. FCu = física cuántica. (a) Doctrina de Copenhague. (b) Programa decoherentista. (c) Concepción realista.

Si se abriga alguna duda, recuérdese la cadena que comienza en

el centro de nuestra estrella y acaba como rayo de sol, viento, lluvia, corriente oceánica, reacción química o metabolismo. Toda la energía

que obtenemos del Sol proviene, en última instancia, de las reac-

ciones termonucleares que tienen lugar en el centro de las estrellas. La mayoría de estas reacciones incluye tranmutaciones (el sueño de los alquimistas), tales como deuterio + tritio + helio + neutro-

nes. A su vez, la luz solar producida por las reacciones nucleares en

el Sol resulta crucial para la fotosíntesis, un proceso cuántico sin el cual no habría plantas ni, por tanto, animales. Adviértase los niveles sucesivos: cuantones-moléculas ligeras-macromoléculas-orgánulos-

células-organismos pluricelulares,

5.2 La materia química

Los insumos (reactivos) y productos de las reacciones químicas son

cosas físicas; más precisamente, son cuantones, clasones y semicla-

sones. Pero la materia que emerge en el instante en que se inicia la reacción, y subsiste hasta que se detiene, es cualitativamente diferente de los insumos y los productos involucrados, aun cuando,

como sucede a menudo, dure períodos tan cortos como un fem-

149

tosegundo, o 10” segundos. Ese material es, ciertamente, un trozo

de materia que experimenta incesantes cambios radicales (cualita.

tivos). Ejemplos conocidos de materia química son las llamas, las tuberías de hierro que se oxidan, las cubas de fermentación, los contenidos de las ollas mientras se cuecen y la materia viva en de.

cadencia. (Los químicos podrían sentirse tentados de considerar que los seres vivos son reactores químicos com plejos.

Sin embargo,

los biólogos saben que las miles de reacciones químicas que tienen lugar en los organismos en cada instante dado son programadas y coordinadas de tal modo que se aseguren tres características que

no son químicas: la homeostasis, la autorreparación y la supervi-

vencia).

Por lo general, se piensa que las moléculas son trozos de materia compuesta por átomos. Sin embargo, su modo de composición es mucho menos conocido. Por ejemplo, la molécula de hidrógeno,

Hp, la más simple de todas, no emerge de la sola yuxtaposición de

dos átomos de H. En realidad, estos átomos son precursores de la

molécula de H», no componentes de la misma, puesto que cuando

ellos se combinan los protones y electrones originales se redistribuyen de una forma poco intuitiva. En efecto, a pesar de su repul-

sión electrostática mutua, los dos electrones atómicos se unen y se interponen entre los dos protones, y este par constituye el enlace

químico (o covalente). Los enlaces de esta clase, descubiertos en 1916, son muy diferentes del enlace iónico, como por ejemplo el

que mantiene unidos el sodio y el cloro en la molécula de sal. Mientras que el enlace iónico ejemplifica la atracción electrostática, Conocida desde la antigijedad, la explicación del enlace covalente

supone el concepto de electrón, el cual no se inventó hasta 1898.

Dicho sea de paso, cuando Nature conmemoró el 50% aniversario de este hecho, incluyó un debate acerca de si se trató de un descubrimiento o de una invención. Para un realista la respuesta es obvia:

el electrón fue descubierto, pero las diversas teorías sobre el electrón fueron inventadas. Tanto es así que los haces de electrones pueden producirse y manipularse en el laboratorio, en tanto que las teorías

sobre los electrones sólo pueden expandirse, corregirse o reempla-

zarse unas por otras con lápiz y papel. 150

Como todos los emergentes, H) posee propiedades de las cuales sus precursores carecen, como por ejemplo una energía de disocia-

ción característica y un espectro de bandas, en lugar de un espectro de líneas. Una molécula mucho más compleja es la bola de Bucky, el Cóo, un importante recurso utilizado en nanotecnología. Esta

molécula imprevista, que no fue descubierta hasta 1985, es un objeto mesofísico, puesto que posee una forma definida (parecida a

la de un balón de fútbol), pero se difracta al pasar a través de un sistema de rendijas, al igual que los cuantones: se trata, pues, de un semiclasón (o semicuantón). Adviértase que los conceptos ontológicos clave de la descripción previa —los de materia, energía,

sistema, precursor y emergencia— brillan por su ausencia de la me-

tafísica ortodoxa y hasta de los diccionarios filosóficos convencionales.

A continuación, pensemos en las moléculas que emergen de las colisiones no elásticas entre moléculas más simples. Una de las más simples es la del agua, la cual normalmente se simboliza mediante la fórmula HO. Esta fórmula exhibe los componentes —o mejor

dicho, los precursores— atómicos del sistema, pero nada dice de su estructura, la cual se muestra de forma parcial en la fórmula estructural H—O—H, junto con los datos de que este sistema tiene

forma de V, con un ángulo de aproximadamente 1040 y distancias interatómicas de alrededor de 1 Á. Si se reune un gran número de moléculas de agua emerge un cuerpo de agua líquida, un objeto que pertenece al cuarto nivel de integración, el que sigue a los correspondientes a las partículas ele-

mentales, los átomos y las moléculas. Todos sabemos algo sobre el agua líquida, pero sólo un químico cuántico sabe por qué existe. En efecto, puesto que la molécula H20 es bastante ligera, a temperatura normal el agua sería un gas, si no fuera por la fortaleza del

enlace de hidrógeno, un tipo de acoplamiento molecular no clásico.

Paradójicamente, este y otros tipos de enlaces químicos incluyen dos características clásicas, la distancia interatómica y el ángulo, ninguna de las cuales desempeña un papel importante en la física

atómica, en la cual las propiedades dinámicas, como el momento y el espín, tienen prioridad sobre las propiedades geométricas y ci151

nemáticas, La lorma emergió con las moléculas: los componentes del llamado universo primigenio eran amortos, El agua posee propiedades peculiares que la hacen esencial pan la vida. Una de ellas consiste en que es gregaria: las moléculas H 0

tienden a agruparse en copos de nieve y bolitas de granizo, gotitas

V lagos,

glaciares

Y mares,

Los vínculos

que

hacen

surgir

estos Sis-

temas son de dos clases: el enlace covalente y el enlace de hidrógeno,

Como hemos visto antes, un enlace covalente es un par de electrones compartido por dos átomos, como en el caso de la ya mencio-

nada molécula de hidrógeno, Ho. En cambio, un enlace de hidrógeno hidrógeno consiste en una interacción entre un átomo de

v un átomo electronegativo, como el oxígeno. En un cuer pos

intercam agua están presentes las dos clases de enlace, los cuales lugar en rápida sucesión, una característica dinámica

e

DR

E

Una peculiar! conocido modelo molecular de esferas y barras.

del agua es el número total de enlaces de cada molécula, que puede

en llegar a cuatro y explica el elevado punto de ebullición del agua o, estado líquido. Véase la figura 5.5. la química cuántica, sp Supongamos, por un momento, que a

aún escá en pañales, consiguiera explicar de manera

y emergencia de algunas biomoléculas características, Como el así como algunas de las reacciones químicas más CO mplejas, COMO H 0

H

H H

H

Oia H X

0

H A

N

O

H

Figura 5.5. Instantánea imaginaria de un sistema compuesto por moléculas de agua. Las líneas continuas representan los enlaces covalentes, en tanto que las líneas discontinuas simbolizan los enlaces de hidrógeno.

152

la síntesis del ARN, Si esto ocurriera, la teoría química se reduciría

a (se deduciría de) la teoría cuántica más algunos supuestos subsidiarios. La mayoría de los científicos afirmaría que tal reducción

refutaría la tesis ontológica de que hay un nivel químico. Me permito disentir: sostengo que sí hay un nivel suprafísico, definido como el conjunto de todos los sistemas en los cuales los enlaces químicos cambian. Además, para obtener como resultado la quí-

mica cuántica es necesario enriquecer la mecánica cuántica con hipótesis subsidiarias (véase Bunge, 19824). La materia química debería atraer más la atención de los meta-

físicos, siquiera por su notable capacidad para sintetizar, de forma

espontánea, moléculas de varios millones de clases. Este poder morfogenético espontáneo, especialmente en el caso de los compuestos

de carbono, es mucho mayor que el de la materia física, en la cual

se limita al crecimiento de los cristales y a la formación de rocas y

grandes cuerpos líquidos. La química sintética, la síntesis de mo-

léculas en el laboratorio, controla las fuerzas espontáneas de la au-

toorganización. Y supuestamente, la vida sintética, la producción de células vivas a partir de la materia química, es un objetivo factible, si bien lejano, de la bioquímica. En resumidas cuentas, hemos de admitir la existencia de trozos de materia, es decir, moléculas, que pertenecen a un nivel estruc-

tural propio y tienen su origen en procesos igualmente suprafísicos, como ejemplifican el fuego, la oxidación, la reducción, la hidrólisis,

la electrolisis y la síntesis molecular. El nivel en cuestión es, desde

luego, el químico. En general, se acepta que los componentes y precursores de los miembros de este nivel son físicos. Todo ello sugiere que la química, aunque depende de la física, no es un capítulo de la misma. 5.3 La materia viva

Las cosas vivas son tan diferentes de las no vivas que hasta hace un siglo estaba muy difundida la creencia de que se caracterizaban por

un comportamiento finalista o, incluso, por una entidad inmaterial

153

llamada de maneras diferentes: entelequia, Bildungskraft o élan vita)

Esta doctrina, el vitalismo, fue destruida por la llamada concepciós mecanicista de la vida. Este audaz programa de investigación surgjs

a partir de la biomecánica y la física médica inauguradas por Gio. vanni Borelli alrededor de 1650. Tres siglos después, esta perspectiva

mecanicista se convirtió en el físicoquimismo, según el cual los or.

ganismos no son otra cosa que reactores químicos muy complejos

(Loeb, 1912).

Con todo, las cosas vivas poseen diversas propiedades interrela-

cionadas que los sistemas químicos no tienen. He aquí algunas de ellas: celularidad, metabolismo, homeostasis, autorreparación, evolución, valor, enfermedad y muerte. La celularidad es el correlato

biológico de la atomicidad. Consiste en el hecho de que las unidades de la materia viva son las células, las cuales son sistemas dotados

de una envoltura o membrana semipermeable. En otras palabras,

todos los organismos son o celulares o plucelulares: no hay vida

subcelular. El metabolismo es, desde luego, el proceso de autorre-

novación química, en particular el que tiene lugar mediante la síntesis de proteínas y la incorporación y trasformación de elementos

ambientales (nutrientes). La homeostasis es la capacidad de man-

tener un medio interno relativamente constante (especialmente en

su temperatura y acidez) en virtud de ciertos mecanismos de control

(vías de realimentación) existentes dentro del organismo. La división

celular, que incluye la autoduplicación del ARN y el recorte de las

hebras de ADN por determinadas enzimas, es el destino último de todas las células, con excepción de la mayoría de las neuronas.

La morfogénesis es un proceso que incluye la diferenciación celular

y la construcción de órganos con funciones específicas, es decir,

procesos que no puede realizar ningún otro componente del organismo.

La herencia es la capacidad de los organismos que se reproducen de trasmitir algunos de sus rasgos a la descendencia. Habitualmente

esta trasmisión es bastante fiel porque las unidades de la herencia, las moléculas de ADN, son muy robustas e inertes. Pero, desde luego, estas moléculas son sensibles a los estímulos ambientales fuertes,

como los rayos cósmicos y ciertas enzimas. Por ejemplo, puede que 154

dos gemelos idénticos posean el gen de la esquizofrenia, pero mientras uno de ellos tiene, además, la enzima que hace que ese gen se

exprese, puede suceder que el otro carezca de ella, por lo que se evitará esa terrible enfermedad mental. Este hecho debería bastar para descartar el mito del gen egoísta. En cuanto a la evolución, la mayoría de los biólogos está de

acuerdo en que es producto de la operación conjunta de la mutación, la selección ambiental, la construcción de un nicho, la hibri-

dación (principalmente en las plantas) y unos pocos mecanismos más presentes en todos los niveles, desde el de la moléculas hasta el del organismo y desde el de la población hasta el de la comunidad. Una opinión muy difundida es que la evolución no es más

que el cambio de las frecuencias de los genes y que el ADN es la

unidad evolutiva. Esta idea es errónea, porque lo que impulsa la evolución es la selección natural y lo que se selecciona (para reproducirse) es el organismo como totalidad, no su genoma. Además, no sólo los genes están sometidos a la mutación: las proteínas también pueden mutar y, por tanto, evolucionar, tal como ha indicado la resistencia a nuevos fármacos que pueden adquirir ciertas proteínas.

Como era de esperar, la primera disciplina que propuso el concepto de emergencia fue la biología evolutiva, ciencia que probó que la historia de la vida es una sucesión de especiaciones y extinciones. Curiosamente, la evolución sugirió gradualidad a algunas personas (a Darwin el primero de ellos) y saltación a otras. En la actualidad, por lo general se coincide en que la negación de la sal-

tación es tan incompatible con la evolución como la negación de la continuidad: la evolución, en todos los niveles, es gradual en algunos aspectos y discontinua en otros (Blitz y Bunge, 1989). Finalmente, se puede suponer que el valor emergió con la vida, ya que las preguntas del tipo: “¿Cuál es el valor de X para Y?” tienen

sentido únicamente con referencia a los organismos y sus creaciones,

tales como madrigueras, nidos, diques, máquinas y organizaciones.

Por ejemplo, podemos decir que los montones de compost metabolizan, pero lo hacen en beneficio de su propietario, no en bene-

ficio propio. Una pregunta como, por ejemplo, “¿Cuál es el valor

155

de cia eno

O proceso para tal molécula (piedra, rayo de luz o es-

trella): ¿No merece ninguna respuesta. En cambio, a una pregunta como: “¿Cuál es el valor de la sustancia, Órgano o proceso X para el organismo Y?” sí se le puede dar respuesta en principio: podemos

de la buena averiguar cuál es el papel de X en el mantenimiento salud de Y mediante el expediente de inhibir, o hasta eliminar, ex-

perimentalmente a X y controlar el efecto de esta modificación sobre el estado de salud del organismo. El valor es coextensivo con la vida y contemporáneo de esta, pero esto no implica que todo lo ejemque hacemos sea adaptativo, es decir, que preserve la vida. Por

plo, ni la música ni la filosofía son adaptativas; la procreación sin límites y la guerra son decididamente antiadaptativas.

En resumen, la vida no se caracteriza por una o más propiedades especiales. Antes bien —como insistió Alexandr Oparin (1953)

hace cerca de 100 años—, se caracteriza por todo un sistema de

propiedades especiales interrelacionadas. Sin embargo, también los

físicos caracterizan así las cosas físicas. Por ejemplo, hasta los humildes electrones y positrones están caracterizados por una docena

de propiedades básicas, relacionadas unas con otras por una pe-

culiar ecuación de estado (o de onda). De momento, los biólogos

han encontrado algunas de las variables bióticas básicas, pero no

el equivalente a una ecuación de estado física. Lo máximo que

ofrecen son listas de propiedades clave, como la que hemos propuesto antes. La concepción materialista de la vida, sugerida por la filosofía,

así como por la bioquímica y la biología evolutiva, inspiró el am-

bicioso proyecto de sintetizar células en el laboratorio. Este proyecto experimental, iniciado por Alexandr Oparin en 1924, está actualmente en desarrollo en varios laboratorios de todo el mundo (véase,

por ejemplo, Lazcano, 20073; Luisi, 2006). Los expertos coinciden

en que la vida en la Tierra surgió hace alrededor de 3500 millones de años, pero no están de acuerdo en la secuencia exacta que tuvo lugar desde la molécula hasta la primera célula. De hecho, en la ac-

tualidad compiten al menos 10 hipótesis acerca de la biogénesis.

Con todo, se las puede agrupar en dos grandes escuelas. La mayoría de quienes trabajan en el tema (la escuela heterotrófica o “pri-

MN

mero la genética”) conjetura que el material genético (en particular el ARN) y la evolución darwiniana fueron esenciales. Una minoría poderosa (la escuela autotrófica o “primero el metabolismo”), en

cambio, especula que la biogénesis fue un proceso puramente fisicoquímico que condujo directamente de ciertas redes de macromoléculas catalíticas no genéticas a las primeras células. Puesto que ambas escuelas utilizan el método científico, la rivalidad ha estí-

mulado su productividad en lugar de degenerar en una controversía estéril. Además, esa rivalidad se esfuma cuando la controversia se pone en un contexto más amplio, ya que la escuela genética reconoce que los primeros materiales genéticos se autoensamblaron a partir de materiales abióticos. Véase la figura 5.6. En 1953, dos espectaculares avances reforzaron la hipótesis de que la materia viva es tan material como la materia no viva: la regenomas basados en el ADN

A y

vías metabólicas

|

a

polímeros genéticos

metabolismo

redes metabólicas

A

polímeros genéticos

Y

redes metabólicas

compuestos orgánicos prebióticos Concepción metabólica

Concepción genética

Figura 5.6. Las dos principales hipótesis científicas actuales sobre el origen de la vida, según

Lazcano, 2007b, pág. 60.

157

volución de la biología molecular y la primera síntesis de amíno4. cidos, realizada con éxito por Miller y Urey, seguida de la síntesis

de largas cadenas de ácidos nucleicos por Khorana.

Lamentablemente, la biología molecular condujo a la exagera-

ción reduccionista de que los genes gobiernan la vida, por lo cual la secuenciación exitosa del genoma humano revelaría el secreto de la misma. Otro aspecto negativo de la revolución de la biología molecular fue el modo descuidado en que se ha utilizado la ambi-

gua expresión “información genética”. En efecto, a menudo se la ha interpretado de manera antropomórfica, como el conjunto de Lego, instrucciones para ensamblar un organismo Como sl fuera un

para re(La “información genética” es, en realidad, una abreviación Este conferirse al orden de los nucleótidos en los ácidos nucleicos.

cepto no está relacionado ni con el concepto físico de do

de inforcomo entropía o desorden ni con el concepto estadístico Con mación que se utiliza en la ingeniería de comunicaciones).

todo, no debemos quejarnos en voz demasiado alta po

cada novedad conceptual se ha de pagar un precio: la vaguedad,

En resumidas cuentas, en el transcurso de un siglo y medio, la

biología ha hecho a la filosofía por lo menos tres regalos: el concepto

de nivel de integración y las tesis de materialidad de la vida y de bioevolución mediante modificación y selección natural. Asimismo, la biología se deshizo del creacionismo, del vitalismo y del reduccionismo radical (la perspectiva de que sólo es importante la composición de un sistema). Invitamos al lector a comparar esta abundante cosecha con las aportaciones hechas por los metafí-

sicos, tanto a su disciplina como a la ciencia, durante el mismo período.

5.4 La materia pensante Nos adherimos a la tesis de la identidad psiconeural. Es decir, suponemos que la res cogitans no es la mítica alma inmaterial, sino el

cerebro de los animales altamente evolucionados. Este supuesto filosófico, cuyo origen se encuentra en la antigua medicina griega, 158

ha sido el principio orientador de la neurociencia cognitiva y afectiva, la reciente fusión de la neurociencia y la psicología. Desarrollaremos esta tesis en los capítulos 9-11. La formulamos aquí sólo para no pasar por alto el peldaño correspondiente en la escala de niveles que ofreceremos más adelante.

Se podría pensar que si los procesos mentales se consideran procesos cerebrales, la psicología se torna prescindible. Sin embargo, esa eliminación —que, efectivamente, han propuesto los autode-

nominados materialistas eliminacionistas— no sería aconsejable. La razón es que los psicólogos estudian los procesos mentales de

animales altamente gregarios, cuyos cerebros están bombardeados por estímulos sociales que provienen de otros cerebros y que, a su vez, afectan a los procesos afectivos y cognitivos que experimentan otras personas. Esta es la razón de que necesitemos la psicología social, la interciencia que investiga el modo en que la materia pen-

sante interacciona con la materia social. Volveremos a este tema en

el capítulo 9. 5.5 La materia social

Las interacciones sociales, desde los emparejamientos sexuales hasta las luchas políticas, producen, mantienen o modifican los sistemas

sociales, desde las familias y las empresas hasta las naciones y otros sistemas mayores. Todos ellos están compuestos por animales, pero no poseen ni una sola propiedad biológica; para comenzar, no me-

tabolizan. Con todo, son tan concretos o materiales como sus componentes: podemos decir que constituyen la materia social, de forma parecida a como los organismos constituyen la materia viva. Aunque resulten obvias para el materialista, las afirmaciones anteriores serán rechazadas no sólo por los idealistas, quienes sostienen

que todo lo social es espiritual (gezstig, moral) y, por tanto, objeto de estudio de las Geisteswissenschaften (ciencias del espíritu o de la cultura).

La afirmación de que la materia social existe también será rechazada por los llamados individualistas metodológicos, que niegan 159

la existencia misma de las totalidades sociales y, por tanto, no pue.

den hacer contribuciones originales al estudio de las mismas. Pero esta negación equivale a negar la existencia de los cuerpos sólidos

basándose en que están compuestos por átomos O moléculas 04 negar la existencia de las oraciones basándose en que están com. uestas por letras,

: Todo aquel que desee estudiar individuos, en lugar de rotalidades sociales, deberá dedicarse a la biología humana o a la psicología, y menos que hasta en este caso, su investigación pasará por alto nada la matriz social de la existencia humana. Además, s1 se Ignora el entorno social de la persona también quedará en la

a

su

comportamiento en el amor, el aprendizaje, la paternida xa du bajo, el estrés, la rebelión y muchas otras circunstancias més. A de sus términos generales, un sistema no es sólo el conjunto

e

ponentes. Se puede analizar todo sistema concreto distinguiendo

sus conssu composición, estructura (el conjunto de vínculos entre procesos e tituyentes), entorno (o ambiente) y mecanismo (los lo hacen ser lo que es). Esta es la razón de que la comprensión de los sistemas exija un enfoque sistémico, en lugar de una Concepción

bien individualista, bien holista. Los matemáticos, los físicos, los químicos y los biólogos siempre han sabido esta verdad de Perogrullo (véase, por ejemplo, Bunge, 2003a). 5.6 La materia artificial

Podemos decir que los artefactos —o cosas construidas— corporeizan o materializan ideas o sentimientos porque se los ha diseñado,

a menudo con la ayuda de un conocimiento tecnológico de elevado nivel. Así es como el joven Marx distinguió entre una casa y una colmena, una diferencia que Popper pasó por alto al colocar las casas en la misma bolsa que los nidos, los hormigueros, las madrigueras de los conejos y los diques de los castores. No cabe duda de que los artefactos de los animales pueden ser muy complejos, pero

no hay ningún indicio de que se los construya siguiendo un plan determinado: la capacidad de construirlos es innata y el proceso de 160

construcción es un resultado automático de la combinación de la

programación genética y los materiales y circunstancias del entorno. Puesto que los artefactos corporeizan ideas o sentimientos, puede decirse que constituyen una materia de una clase diferente, es decir,

la materia artificial o hecha, por oposición a la materia natural o descubierta. Para percatarnos de las diferencias entre la materia natural y la

materia artificial, recordemos algunas características notables del proceso de fabricación de un bien cualquiera, por ejemplo una hogaza de pan o un libro. Véase la figura 5.7. La materia artificial puede ser de una de dos clases: no significante —como por ejemplo un puente, una casa, una máquina o

una organización formal— y significante, como por ejemplo un texto o un diagrama. Es verdad, con frecuencia se dice que los sistemas sociales artificiales tienen significado, pero este uso de la palabra “significado” es metafórico: lo que en realidad se quiere decir es que esos sistemas tienen una finalidad o, mejor dicho, que se los utiliza como medios para conseguir ciertas finalidades.

Otra útil clasificación de la materia artificial es la que sigue: « artística: música, pintura, escultura

« semiótica: poesía, ficción, literatura de no ficción « tecnológica: diagrama técnico, máquina, tubería, medios de

transporte, cadenas de TV « social: organizaciones sociales formales (empresa, escuela, mer-

cado, Estado, iglesia). naturaleza

——3>

materia prima

industria

——3>

herramientas

Su proceso de producción ——=3> producto

tecnología

——=»>

diseño

gestión

——

políticas y planes

/

Figura 5.7. La materia artificial es materia natural trasformada mediante acciones guiadas por ideas de ingeniería y gestión.

161

Todas las organizaciones sociales formales, como las escuelas, las empresas y los gobiernos, son artefactos puesto que han sido di.

señadas —aunque a menudo de manera exigua— antes de ser mon. tadas.

Por consiguiente,

contrastan

con

las Organizaciones

informales, como las familias y las pandillas, las cuales emergen, se

desarrollan y descomponen de forma bastante espontánea. La ar-

tificialidad de las organizaciones formales es importante a Causa de

la popularidad comparada, en los círculos conservadores, de la tesis

de Hayek de que todo lo social es espontáneo y, a la vez, no existe

como social propiamente dicho puesto que, según este mismo autor, sólo se trata de individuos.

5.7 La emergencia la Las páginas anteriores deben haber preparado el escenario para

ogía: presentación formal de tres conceptos clave de nuestra ontol los de emergencia, nivel y escala de niveles (o “erarquía ). En 1 877,

el polígrafo George Lewes introdujo el término “emergencia , que

ahora está de moda, aunque el concepto ya había sido inventado

por John Stuart Mill (véase Blitz, 1992). En efecto, Mill advirtió

que la síntesis del agua a partir del hidrógeno y el oxígeno involu-

craba la emergencia de ciertas propiedades, las peculiares del agua, de las cuales carecían sus precursores.

Un platónico intentaría explicar la emergencia de las propie-

dades sin incluir a sus portadores. Los aristotélicos y los científicos

están mejor encaminados. Por ejemplo, la síntesis del agua es Un caso particular de una reacción química de la forma: A + p=C, La cinética química describe este proceso mediante la siguiente

ecuación para la tasa de cambio de la concentración del producto

de la clase Cen términos de las concentraciones de los reactivos

de las clases A y B: d [Cl/dt = k [4].[B]. Sin portadores no hay propiedades. Desde el punto de vista lógico y gramatical: todo predicado se atribuye al menos a un sujeto, como sucede en Px y Rxy. Al principio, el concepto de emergencia se entendió como una

categoría ontológica sinónima de la aparición de novedades cuali162

tativas en el trascurso de un proceso y, por consiguiente, claramente ejemplificada por la cristalización, la síntesis química, la morfogénesis, el desarrollo biológico, la evolución biológica, el aprendizaje

de nuevas habilidades, la organización social y la historia (véase,

por ejemplo, Bunge, 2003; Coleman, 1990; Luisi, 2006; Moes-

singer, 2008; Piaget, 1965). Sin embargo, a causa de que algunos filósofos y psicólogos irracionalistas pusieron el acento en la emergencia y, a la vez, negaron

la posibilidad de explicarla en términos de procesos pertenecientes

a niveles inferiores, se ha acabado pensando que la palabra representa una categoría gnoseológica. (En ocasiones, a la opinión oscurantista de que lo nuevo y complejo no puede explicarse en

términos de lo antiguo y más simple se le llama engañosamente

“emergencia fuerte”). Aquí mantendremos el concepto ontológico original o, mejor dicho, los conceptos ontológicos originales: equipararemos “emergencia” con el surgimiento de objetos, propiedades O procesos cualitativamente nuevos. Distinguiremos dos conceptos ontológicos de emergencia: sincrónica o emergencia, y diacrónica o emergencia. El primer con-

cepto coincide con el de propiedad global o cualidad Gestalt, en tanto que el segundo está relacionado con los procesos. En efecto, una propiedad global (o emergente:) de un objeto es una propiedad que no posee ninguna parte ni ningún componente del objeto en cuestión. Por ejemplo, la liquidez es una propiedad de grandes colecciones de moléculas de agua y el significado es una propiedad de ciertos encadenamientos de fonemas o letras. Christian von Ehrenfels introdujo este concepto en 1890 y se convirtió en la palabra de moda de la psicología gestáltica, la cual la proclamaba contra el asociacionismo, según el cual toda novedad es combina-

toria. Lamentablemente, el movimiento de la Gestalt negó que el de emergencia: fuera un concepto analizable: se adhirió al intuicionismo.

En cambio, una propiedad emergente. de una cosa es una pro-

piedad cualitativamente nueva de la cual los precursores de la cosa en cuestión carecen. Por ejemplo, la adaptación es un rasgo emergente de la mayoría de los organismos, tanto porque se trata de una 163

propiedad global como porque surgió en el trascurso de la evolución

al mismo tiempo que la síntesis de las primeras células a partir de sus precursores abióticos. El opuesto o complemento de la emergencia», como sucede en la especiación, es desde luego la extinción,

al igual que en las especies (para mayores precisiones, véase el capítulo 14).

La figura siguiente ilustra la idea de que las propiedades nuevas, lejos de surgir ex níhilo, emergen a partir de propiedades preexistentes, Si una cosa a, con propiedades A y B, origina una Cosa P

con propiedades 4, B y C, entonces la cosa $ y la nueva propiedad

C son emergentes relativamente a Q, Á y B. Más todavía, si Ay B

están vinculadas por la ley La», entonces C está relacionada con sus precursores Á y B a través de las leyes emergentes adicionales Lac y Lac: véase la figura 5.8. La idea de que pueda surgir algo radicalmente nuevo ha encontrado resistencia desde que el Eclesiastés afirmó que

no hay nada

nuevo bajo el Sol” (para una historia de esta idea y de su opuesta, véase Merton y Barber, 2004). La idea más difundida acerca de la

novedad es que, en realidad, eso que parece ser nuevo ya existía

con anterioridad, de forma latente: que todas las cosas y todos los

hechos están “preñados” de lo que sea que pueda surgir de ellos,

Un ejemplo temprano de esta neofobia es la concepción de que las

causas ya contienen sus efectos según la expresa la fórmula escolástica: “Nada hay en el efecto que no haya estado antes en la causa”. El preformacionismo, la antigua doctrina biológica que afirma que todas las etapas del proceso morfogenético están contenidas en el zigoto, supone otra negación de la novedad. Su sucesor actual es la doctrina de que toda forma nueva está ya contenida en las “instrucciones codificadas” heredadas: el genoma impondría el des-

Figura 5,8. Leyes que relacionan tres propiedades: A, B y C.

164

tino. La información genética es, en consecuencia, la heredera del

destino teológico y el preformacionismo secular (véase Mahner y

Bunge, 1997, págs. 280-294). En cambio, los químicos modernos

evitaron el preformacionismo. En concreto, ningún químico ha

conjeturado que el hidrógeno y el oxígeno estén “preñados” del agua, al igual que ninguna persona en su sano juicio ha afirmado

que las niñas nacen embarazadas. Desde luego, la potencialidad precede a la actualidad, pero esta última no está contenida en la primera, sino que emerge de una conjunción de posibilidad y circunstancia. No existe un mecanismo universal de emergencia: puesto que todos los mecanismos son específicos de la materia en la que acontecen, las cosas de clases diferentes cambian de manera diferente. Con todo, cuando están cerca de sus puntos críticos, muchas cosas

pertenecientes a clases diferentes tienen propiedades macrofísicas similares, algo a lo que solemos referirnos como universalidad. Por ejemplo, desde el punto de vista termodinámico, el agua y el dióxido de carbono se comportan del mismo modo cuando se separan sus fases líquida y gaseosa. Además, todos los procesos evolutivos (o históricos) comparten ciertas características comunes. Involucran la formación de nuevas clases a partir de clases viejas, según ciertas

leyes y en ciertas circunstancias ambientales, algunas de las cuales favorecen la emergencia de ciertas novedades (en tanto que otras se oponen a esta). En particular, lo adquirido [nurture] o bien fa-

vorecerá o bien frustrará lo natural [nature], y lo natural, a su vez, reaccionará influyendo sobre lo adquirido. Si bien no existe ningún mecanismo de emergencia universal,

podemos suponer sin riesgos que nada emerge de novo: que cada cosa nueva se desarrolla o evoluciona a partir de cosas preexistentes, de forma que hay continuidad o conservación además de discon-

tinuidad o novedad. En particular, tal como conjeturó Darwin, la evolución biológica se asemeja a un árbol, por lo cual los organismos complejos de géneros muy diferentes poseen antepasados comunes normalmente más simples (lo mismo sucede con la evolución social). Por ejemplo, los ojos de todos los organismos modernos, sean arañas o personas, descienden de los fotorreceptores 165

de ciertos animales unicelulares; no han surgido de forma inde-

pendiente unos de otros. Algo parecido ocurre con las extremidades de los tetrápodos. La pista está en ciertos bloques de genes (home-

obox) y ciertos mecanismos reguladores genéticos que son comunes a todos los tetrápodos (Shubin, 2009). En consecuencia, la idiosincrasia de algunos rasgos se combina con la universalidad de otros, Estos y otros descubrimientos relacionados con ellos sugieren

que, después de todo, puede que haya leyes evolutivas. Dos candi-

datos posibles son los que siguen: 1) los entornos parecidos favorecen la emergencia de fenotipos parecidos (evolución convergente); y 2) los entornos diferentes favorecen la emergencia de genotipos diferentes (evolución divergente). Estas no son fantasías descabelladas sino hipótesis que pueden ponerse a prueba mediante experimentos, Por ejemplo, en una investigación con una bacteria común, que abarcó alrededor de 1100 generaciones en diferentes ambientes, MacLean y Bell (2003) encontraron una evolución fenotípica convergente, acompañada por conjuntos radicalmente diferentes de mutaciones beneficiosas (evolución genotípica divergente).

En otras palabras, la evolución comprende tanto la conservación —y, por tanto, la repetición en algunos aspectos— como el cambio cualitativo (emergencia) —y, en consecuencia, la singularidad en

otros—. Graham Bell (2008) propone esta sugerente metáfora

musical. La evolución incluye unos pocos temas —los genes principales, en los cuales pueden tener lugar las mutaciones beneficio-

sas— e incontables variaciones sobre esos temas, algunas a causa de las mutaciones y otras a causa de las circunstancias, pero todas ellas sometidas a la selección. Además, cada cierto tiempo, las va-

riaciones se acumulan hasta el extremo de que emerge una nueva especie o se extinguen especies antiguas. La emergencia (especiación) y su opuesto, la extinción, constituyen la trama principal de

la evolución: los detalles son los comentarios y las notas al pie. Más todavía, la evolución se inicia en el nivel molecular. Por ejemplo, ciertos experimentos recientes han probado que, como

resultado de las mutaciones, ciertas proteínas adquieren funciones

nuevas de forma irreversible (Bridgham et al. 2009). Este y otros descubrimientos confirman el énfasis de Gould (2002) en la sin166

gularidad y la contingencia (circunstancia) histórica, La evolución es irreversible (ley de Dollo) porque cada faxe de ella ne erige sobre sus predecesoras. Un ingeniero de sistemas podría expresarlo de la manera siguiente: si se modifica una característica importante de

un sistema, otras características del mismo deben también modificarse para que el sistema continúe funcionando, Si no lo hacen, el sistema se cac.

La irreversibilidad es válida no sólo para las moléculas complejas, los organismos y las sociedades, sino asimismo para los materiales con memoria. Por ejemplo, los imanes “recuerdan” las imantaciones

anteriores, y las espadas “recuerdan” el proceso de templado, En todos estos casos, la reversibilidad exacta (o sea, la recuperación de

todos los rasgos ancestrales) es imposible. El antiguo mito del eterno retorno, popularizado por Nietzsche, no es más que eso: un mito,

Mientras que algunos pensadores han puesto el acento en las le-

yes y la uniformidad, otros lo han hecho en las circunstancias (o contingencias). Sin embargo, aquí no hay ninguna oposición: se

puede suponer que las circunstancias (o condiciones iniciales y restricciones) actuales no son más que el estado final de un proceso previo que ha ocurrido según leyes diferentes. Así, que una semilla trasportada por una corriente de aire caiga en suelo fértil y germine, o sobre una piedra y sea devorada por un ave, no sólo depende de las leyes de la aerodinámica, sino también de la distribución del suelo, las rocas y las aves de esa región. Además, nada hay de azaroso en esas distribuciones: incluyen accidentes, pero no azar o aleatoriedad, en su sentido técnico (estadístico) de desorden.

Para finalizar esta sección, advirtamos que los conceptos de emergencia analizados más atrás sólo están relacionados débilmente con el de superveniencia, ya familiar para los filósofos. Esta idea fue in-

troducida por G. E. Moore, filósofo conocido por la “falacia natu-

ralista”, en un debate contra la posibilidad de definir los conceptos axiológicos, tales como “bueno” y “bello”, en términos de conceptos de las ciencias naturales, como los de simetría y eficiencia. Jaegwon

Kim (1993) ha intentado dilucidar el concepto de superveniencia. En mi opinión, Kim fracasó en el intento de conquistar esa valiosa meta porque se ocupó de propiedades en sí mismas, separadas de

pp

sus portadores, y adoptó un punto de vista estático QuE pasa po;

alto el hecho de que toda emergencia tiene lugar en el trascurso de

un proceso. En resumen, Kim adoptó inadvertidamente la doctrina de las formas de Platón. Más aún, identificó las propiedades con sus conceptualizaciones, es decir, con los predicados. En efecto, postuló que el conjunto de todas las propiedades constituye un dl, gebra de Boole, pero este supuesto tiene la absurda consecuencia de que para cada propiedad hay una propiedad negativa, y que para

dos propiedades cualesquiera hay tanto una propiedad disyuntiva como una propiedad conjuntiva. En consecuencia, una cosa podría

poseer un rasgo del cual carece: podría tener las propiedades de no tener espín, ser un pez o un contable (y esta “o” es incluyente) y de ser a la vez un elefante y luz. Un conocimiento más próximo de las ideas que tienen los científicos sobre las propiedades y su emergencia podría haber evitado estos errores (más sobre ello en Bunge,

1977a, 2003a; Mahner y Bunge, 1997). 5.8 Los niveles

Otro concepto clave de nuestra ontología es el de nivel o, más precisamente, el de nivel estructural o de organización o de integración, que es diferente del concepto de nivel de análisis (véase

Bunge, 1959b, 1960; Needham, 1943; Novikoff, 1945; Simon,

1962). Un nivel estructural es un conjunto de objetos, cada uno

de los cuales posee propiedades que les son peculiares, tales como ser capaces de metabolizar o de formar sistemas sociales. Sin embargo, esta definición es defectuosa porque es aproximadamente

la misma que la de especies de cosas tales como una especie química o biológica. En ambos casos, el concepto en cuestión está definido por un sistema de propiedades, es decir. un conjunto de propiedades interrelacionadas. Busquemos, pues, mayor preci-

sión. Para caracterizar de manera singular la noción de nivel de rea-

lidad, necesitamos también la de relación entre dos niveles adjuntos. Estipulamos que el nivel L,.: precede al nivel L, si todo objeto de £:

está compuesto por objetos de £,.1. En consecuencia, la relación parte-todo define la relación de precedencia de nivel, Suponemos

que el conjunto de todos los niveles está ordenado por la relación de precedencia de nivel. Podemos llamarle escala de niveles o, sí se

lo prefiere, gran cadena del ser, una gran idea antigua (Lovejoy,

1953).

La escala de niveles no debe equipararse a las capas de una ce-

bolla por los tres motivos siguientes. Primero, porque las capas de una cebolla son todas cualitativamente semejantes, en tanto que el

motivo de utilizar el concepto de nivel es señalar diferencias cualitativas. Segundo, en tanto que las capas de la cebolla y otras capas o estratos son reales, los niveles estructurales son conjuntos y, en

consecuencia, objetos conceptuales: no son reales de forma independiente, aunque suponemos que son realistas. (Adviértase que mientras “real” es una categoría ontológica, “realista” o “verdadero” es una categoría semántica y gnoseológica. Por ejemplo, todas las teorías son irreales, puesto que carecen de existencia independiente,

pero algunas son más realistas, es decir, más verdaderas que otras), Nuestros niveles difieren de los estratos de Nicolai Hartmann

(1949).

A las escalas de niveles también se les llama “jerarquías”, lo cual está bien a condición de que esta palabra no se entienda en el sentido tradicional de suponer una relación de poder o dominación, como sucede en las organizaciones formales y en las jerarquías celestiales imaginadas por Plotino, Pseudo Dionisio Aeropagita y Dante, por no mencionar un sinnúmero de filósofos modernos. La pertenencia a un peldaño dado de una escala de niveles natural no confiere ningún valor mayor o poder en relación a los miembros de otro peldaño, ya sea superior o inferior, puesto que la depen-

dencia puede ser recíproca. Por ejemplo, la supervivencia depende del agua pero, a su vez, la capacidad para explorar el entorno facilita el acceso al agua.

Proponemos la escala de niveles que se muestra en la figura 5.9. Sin embargo, cada uno de los niveles indicados puede dividirse en varios subniveles. Dicho sea de paso, ya hemos distinguido dos níveles físicos, el de los clasones y el de los cuantones. Los químicos 169

AE] smell pisa Hha Hill YI

elle HésleH Parr Be dro ptos He pollas] brasgs es les Jalea. Invltatrios al lector a que, €n cada Hrierd parrspab a llares mp0 estr Allin.

pra

Dres entre las moléculas pequeñas y las tmacromoléculas,

tiles amo los polímeros. Los biólogos, entre los organismos univellares y hna plunicelulares. Y los científicos sociales, entre lo miernciad, lo mesvaocial y los macrosocial.

]

ll concepto de nivel nos permite refinar el de emergencia del

modo algulente, Ln lupar de decir que la propiedad /? es emergente,

debemos decir que (emerge en el nivel La, lo cual sugiere que las entidades del nivel precedente L,1 carecían de P. Por ejemplo, 4 lector que la propiedad de ser valioso emergió al surgir el nive

dela vida y que actuar de manera intencionada emergió con el sur-

aliento del nivel compuesto por animales provistos de una Corteza prebrontade a puras trazos, meuníleros y aves. Adviértase el círculo

virtuonos el concepto de emergencia define el de nivel, el cual a su ves relina el concepto de emergencia.

9,9 1 compañero groscológico Lor niveles examinados en la sección anterior son ónticos, no epispémicos aun conbtuyentes son cosas materiales, no ideas. El co-

pelato epistémico de la escala Óntica (figura 5.9) se muestra en la jura 5.10, Mientras que los niveles ónticos están ordenados por la relación

úntica de precedencia, los niveles epistémicos lo están por la relación

de reducibilidad, como cuando los físicos explican los imanes re170

Tecnología Ciencias sociales

| y

Psicología Reducción Biología Química Física

Figura 5.10. La escala de niveles epistémicos. Advertencia: indicadas se hayan llevado a cabo.

no afirmamos que las reducciones

curriendo al espín de sus átomos constituyentes y al magnetismo

asociado a aquel, y cuando los científicos sociales afirman que todos

los hechos sociales emergen a partir de acciones individuales. La tesis reduccionista radical es que todos los constructos de un nivel superior son deducibles de (reducibles a) otros de nivel inferior, por lo que finalmente todas las ciencias fácticas podrán derivarse de la física. El caso de reducción más famoso es el de la

termodinámica, la cual es, en efecto, deducible de las leyes que sa-

tisfacen los componentes microfísicos de los sistemas termodinámicos. Sin embargo, no hay muchos ejemplos como este, ni siquiera en la física (véase Bunge, 1973a). El limitado éxito del proama reduccionista tiene sus raíces en dos características del mundo

real. Una de ellas es que la emergencia y la estructura de niveles de la realidad correlativa a ella son ubicuas (Bunge, 2003a).

La segunda característica que limita la viabilidad de la reducción es que, si bien las totalidades emergen a partir de sus constituyentes, una vez que las primeras han emergido, les imponen restricciones

alos últimos (recuérdese la figura 5.1). Por ejemplo, los fuertes enlaces que hay entre las moléculas de un cuerpo de agua, que se

muestran en la figura 5.5, explican el punto de ebullición comparativamente elevado de este líquido: una propiedad del nivel físico se explica en términos químicos. Segundo ejemplo: hace medio siglo, Ronald Melzack descubrió que los perros criados de forma ais-

lada de otros canes son insensibles a los estímulos que causan dolor a los perros normales: el dolor (como el amor y la vergiienza) sería

en gran medida aprendido. O pensemos en el conocido caso del

hombre que es un tirano en casa y un esclavo en el trabajo: su per.

sonalidad cambia con el entorno. Asimismo, las restricciones ma.

croeconómicas y las circunstancias explican una parte de lo que , mienhace una empresa (una cosa microeconómica). En resumen

pettetras que en algunos casos nuestro conocimiento de las cosas

Lo neciente a L, puede derivarse de trozos de conocimiento sobre episen otros casos ocurre a la inversa. En pocas palabras, los niveles

basta para témicos no son isomórficos con los niveles del ser, lo cual reflejo (Bunge, echar por tierra la teoría del conocimiento como

1959b).

o

Las diferencias señaladas entre lo superior y lo inferior no deben

conducirnos a la tesis holista e idealista de que lo superior no debe

do que nada a lo inferior. Pese a ello, todos los idealistas han sosteni

s) el espíritu o mente (la sucesora secular del alma de los teólogo

biocarece de restricciones materiales, en concreto de limitaciones

lógicas y económicas. Kant, los neokantianos, los hermenéuticos,

afirlos intuicionistas, los fenomenólogos y los existencialistas han

mado que su tesis ontológica de que lo espiritual está muy por encima de lo material implica el principio metodológico de que el estudio del espíritu y sus obras requiere un método propio, tal como el de la intuición o “interpretación” (Verstehen), que nada debe al método científico. En suma, los dualistas ontológicos de todo tipo Ñ se adhieren al dualismo metodológico.

A primera vista, la doctrina de los niveles proporciona auxilio y

consuelo al bando dualista, ya que además parece violar el monis-

mo: el principio de continuidad defendido por todos los naturalistas y la mayoría de los materialistas. Además, esta doctrina parece chocar con el realismo científico, que por ser científico sostiene la va-

lidez universal del método científico. Con todo, aquí como en otras partes, las apariencias pueden resultar engañosas. En efecto, la doctrina de los niveles es compatible con el monismo respecto de la sustancia, aunque no con el monismo respecto de las propiedades:

más aún, el monismo acerca de la sustancia se puede combinar con

el pluralismo acerca de las propiedades. Recordemos los significados

de estos términos.

179.

En consecuencia, los materialistas emergentistas están de acuerdo

con Spinoza (una sustancia, infinitas propiedades), al tiempo que discrepan de Descartes (dos sustancias, cada una con una única

propiedad: la extensión en el caso de la materia, el pensamiento en el de la mente). En cuanto al método, la doctrina de los niveles no

hace más que confirmar la opinión, ampliamente difundida en la comunidad científica, de que aunque el método general es el mismo en todos los campos de investigación seria, cada nivel exige un con-

junto de técnicas especiales distintivas. Esta es la razón de que la

contemplación mística del propio ombligo, el “método” dialéctico de Hegel, la comprensión empática de Dilthey, la intuición global y súbita de Bergson y la intuición de las esencias de Husserl no hayan producido ni una sola verdad nueva. Estas alternativas al método científico son estériles porque miran hacia dentro del sujeto y son dogmáticas, además de rechazar la ciencia y aceptar las corazonadas sin someterlas a ninguna comprobación, Este fracaso justifica el lema cientificista: método científico o nada, Comentarios finales

La realidad es estratificada, no simple, porque las cosas tienden a organizarse en sistemas y todo sistema posee propiedades (emergentes) de las cuales sus componentes carecen. Por tanto, para ser congruente con la ciencia, el materialismo debe ser a la vez sistémico

(en lugar de individualista) y emergentista (en lugar de fisicalista).

Si se toma en serio este mandato, se advierte que el naturalismo es

insuficiente. Sin embargo, el naturalismo es una cosmovisión tan importante que merece un capítulo propio, el siguiente.

6 El naturalismo

Podemos dividir las cosas en naturales y no naturales. Á su vez, las cosas naturales pueden existir o en la naturaleza o en la sociedad; y las cosas no naturales pueden ser artificiales, como los libros, o

sobrenaturales, como los dioses. El naturalismo es la concepción filosófica, propuesta por primera vez por Tales de Mileto, de que

el universo y la naturaleza son lo mismo, en virtud de lo cual no existe nada sobrenatural ni nada irreduciblemente social. Por ejem-

plo, según Aristóteles (1941, 1253a) “es obvio que el Estado es una creación de la naturaleza y el hombre es un animal político por naturaleza”.

Podemos distinguir dos clases de naturalismo: uno ingenuo y otro sofisticado. Los naturalistas ingenuos afirman que todo lo deseable “es natural”, es decir, que es parte de la naturaleza humana,

es innato o está preprogramado en el cerebro. Por consiguiente, tanto el egoísmo como la agresividad —o, en caso contrario, la

ecuanimidad— estarían “en nuestros genes”, y la racionalidad y la ciencia no serían más que extensiones del sentido común. Además, todo lo natural sería superior a todo lo artificial, de donde se desprende la preferencia por la medicación “natural” (curanderismo)

y el aborrecimiento de los organismos modificados genéticamente. Las consignas románticas “¿Volver a la naturaleza!” y “El sentimiento es superior a la razón” son ejemplos de este naturalismo ingenuo. Y también lo es el animismo, precursor de la religión, que postula que todas las cosas están “animadas”. 175

Aunque es posible que el naturalismo ingenuo sea “natural”, es

falso y autodestructivo. Lo primero porque es sabido que la artificialidad es tan distintivamente humana como la versatilidad: hasta los cazadores-recolectores más primitivos fabrican o utilizan herra-

mientas de varias clases, inventan convenciones sociales y se Organizan en sistemas sociales, todos ellos bastante poco naturales puesto que son construidos y finalmente reformados o destruidos. Además,

el naturalismo ingenuo es autodestructivo porque se lo puede Usar

para justificar la ley positiva, la religión y otras CONStrucciones So-

ciales: recuérdese la afirmación de que la esclavitud (o si no el ca-

pitalismo) es el orden social natural. El naturalismo sofisticado es diferente: sólo es un recordatorio de que, pese a toda nuestra sofisticación, los humanos somos ant

males y, por tanto, debemos satisfacer nuestras necesidades biológicas

así como anclar las diversas ciencias sociales en la biología. Los na-

turalistas sofisticados exigen, en concreto, que la ciencia social,la

vez, hay tres varieética y la gnoseología sean “naturalizadas”. A su dades de naturalismo sofisticado: el humanístico (como el de Spi-

noza), el vitalista (como el de Nietsche) y el pragmatista (como el

de Peirce, James, Dewey y Hugo Dingler). Echémosles un vistazo.

Spinoza fue un naturalista humanista porque sostenía a la vez

la identidad de la realidad y la naturaleza, la identidad de la natu-

raleza y Dios, y la sacralidad de nuestro prójimo humano. Kant re-

formuló esto último en la norma de que todas las personas deben

ser tratadas como fines y no como medios, un principio que, tomado en serio, debe considerarse que se adhiere al igualitarismo.

El vitalismo es la doctrina que afirma que todas nuestras ideas y acciones tienen como fin la supervivencia del individuo, en tanto

que el pragmatismo está orientado a la acción. Aunque diferentes, el vitalismo y el pragmatismo están bastante cerca el uno del otro. Por consiguiente, Goethe, el gran poeta romántico y naturalista aficionado, afirmó en su obra maestra, Fausto, que “el verde árbol

de la vida” es, con mucho, superior a la “gris teoría”, y que “en el principio era la acción”, no la palabra. Las versiones vitalista y pragmatista del naturalismo son completamente diferentes del naturalismo de Spinoza: son antropocén176

tricas y bastante egocéntricas. Mientras que Spinoza escribía siempre

en tercera persona, los vitalistas y pragmatistas se interesan principalmente en lo que para ellos es conveniente creer y hacer. Por lo

demás, los pragmatistas son muy diferentes de los vitalistas.

Mientras que los vitalistas rechazan por completo la razón y la ciencia, a los pragmatistas no les interesa la investigación desinteresada: quieren usar la ciencia y la tecnología para mejorar las cir-

cunstancias humanas. Esto explica la conocida conexión entre el

vitalismo y el fascismo (a través de la doctrina de “la sangre y la tie-

rra”) y explica también la relación entre el pragmatismo y la demo-

cracia. Un gran problema del pragmatismo es que, al sostener que

la investigación desinteresada es una pérdida de tiempo, menos-

precia las humanidades y desatiende, y hasta descarta, la investigación básica desinteresada, la cual no sólo enriquece nuestras vidas sino que es el origen último de la tecnología.

Un ejemplo reciente de pragmatismo es la política científica reticente a financiar la investigación básica. Un ejemplo relacionado es la afirmación de que toda investigación se realiza con fines uti-

litarios, por lo que deberíamos hablar de “tecnociencia” en lugar de ciencia y de tecnología como empresas diferentes e interrelacionadas. De ahí que investigar en cosmología, biología evolutiva, historia y filosofía se considere una pérdida de tiempo. Pero volvamos al naturalismo en general. El naturalismo sofisticado promueve la exploración científica de la naturaleza, pero desatiende la matemática e intenta meter por la fuerza la investigación social en la caja naturalista, de lo cual dan

testimonio la sociobiología humana y su descendiente, la psicología

evolucionista. Me apresuro a señalar que el naturalismo es limitado

no porque excluya lo cultural, algo que no hace, sino porque niega su especificidad e irreducibilidad. En resumidas cuentas, el natura-

lismo promueve la investigación, pero sólo hasta cierto punto. Además, cuando se combina con el escepticismo radical, como en los casos de Sexto Empírico, Hume y el “naturalismo trascendental” o “misterismo”, el naturalismo desalienta la investigación. Según esta última perspectiva, “la realidad misma es rotundamente natural en todas partes”, pero “nuestra arquitectura epistémica obs-

177

taculiza el conocimiento de la verdadera naturaleza del mundo ob-

jetivo” (McGinn, 1993, pág. 2). ¿Cómo es posible para unos seres

epistémicamente discapacitados saber que el universo es tanto “ro-

tundamente natural” como básicamente incognoscible? Un miste-

rio. Además, ¿cómo pueden saber los científicos cuándo han llegado al final del camino? Otro misterio. Por consiguiente, lo que los científicos consideran la más audaz y provechosa de las exploraciones resulta ser una versión laica de una misa cristiana. Sea basto o refinado, el naturalismo se opone al espiritualismo en todas sus formas, desde la religión y la filosofía idealista hasta los estudios sociales que minusvaloran y hasta ignoran la llamada base material de la existencia humana. La teoría económica ortodoxa es un caso pertinente, ya que postula, como hizo Adam Smith en su obra fundacional de 1776, que la única fuente del valor, y especialmente de la riqueza, es el trabajo. Al desentronizar la naturaleza, la teoría sanciona las prácticas industriales que han destruido los recursos naturales en los últimos dos siglos. La dicotomía naturaleza/cultura y el correspondiente cisma de la ciencia en natural y social es todavía un problema filosófico y práctico abierto.

De ello se deriva el plan de este capítulo: un rápido repaso al espiritualismo, seguido de un vistazo a los logros del naturalismo y, finalmente, la sugerencia de que el materialismo científico incluye todo lo que de bueno pueda tener el naturalismo y, a la vez, trasciende sus limitaciones.

6.1 El espiritualismo Las cosmovisiones tradicionales era espiritualistas porque giraban en torno a seres imaginarios: intentaban comprender los hechos en términos de ficciones y lo supuestamente inferior en términos de lo supuestamente superior. Recordemos los siguientes ejemplos destacados. Platón afirmó que las cosas concretas no eran más que sombras de las ideas (o “formas” o universales). Juan el Evangelista pensaba.que “al principio ya existía la Palabra y la Palabra se dirigía a Dios, y la Palabra era Dios” Juan, 1,1). Aristóteles sostenía que

178

AN MA

]

1

IN

t

ll

|

O!

AN

|

Mol

|

Dios era ol primer motor o la primera causa de todos los cambios; Heel, que cl imán es la materialización del argumento (Sedltss),

Cuda escuela ilosófica y cada religión se caracterizan por la po-

sición que asumen en relación con la naturaleza de la realidad y su

conocimiento, Ásí pues, los positivistas lógicos prescribieron que

siempre debíamos utilizar el “modo formal" co lugar del “modo

material": debernos decir “la palabra X significa Y”, no “X es Y” o “X hace Y”, Heidegger sostenía que “la palabra es la casa del ser”,

algo que Derrida tradujo como “no hay nada fuera del texto", y

Charles Laylor es muy conocido por haber escrito que los hechos

sociales “son textos o como textos”, Todas las religiones han afirmado explicar lo mundano en términos sobrenaturales. Asimismo,

las filosofías de la historia dominantes mantienen que lo que mueve la sociedad es o bien las mentes individuales, o bien el “Espíritu

del Mundo”. Así, por ejemplo, el manifiesto inicial de la UNESCO decía que “las guerras nacen en las mentes de los hombres”. En síntesis, según el pensamiento mágico, “lo superior” prima sobre “lo

inferior” tanto en el tiempo como en el poder; de ahí su capacidad

explicativa, La teología explicaría la metafísica, la cual a su vez ex-

plicaría la física. Asimismo, la filosofía explicaría la psicología, la

cual a su vez explicaría las ciencias sociales. En cambio, el pensamiento científico da por supuesta la existencia real del mundo externo: es realista u objetivista. Además, las sociologías de la ciencia, la tecnología y la religión intentan explicar en términos sociales la emergencia y la suerte de sus objetos de estudio. Más aún, las cosmovisiones inspiradas en la ciencia no admiten almas Incorpóreas, dioses ni otras ficciones: también son

naturalistas o materialistas en cierto sentido, sin necesidad de negar la existencia ni el poder de lo mental. Los naturalistas y materialistas tampoco rechazan la espiritualidad, si bien la redefinen. En efecto, mientras que en las culturas

tradicionales la espiritualidad se identificaba con la religiosidad, en las culturas modernas la espiritualidad consiste en cultivar o apreciar las ciencias básicas, las humanidades y las artes. Esto incluye aprender teoremas, leer filosofía, historia o poesía, admirar Notre Dame

o la Casa de la Ópera de Sidney y sobrecogerse con Beethoven.

179

6.2 El naturalismo

El naturalismo es la cosmovisión según la cual todos los existentes

son naturales y ninguno es espiritual o sobrenatural. Expresado de forma negativa: no hay nada fuera de la naturaleza (véase, por ejem-

plo, Bechtel, 2008; Knitschider, 1996, 2007; Krikorian, 1944; Pa. pinau, 1993; Ryder, 1994; Sellars, 1969; Shimony, 1993; Vollmer,

1986). Muchos materialistas se llaman a sí mismos “naturalistas”, algunos para evitar ser confundidos con codiciosos cazadores de bienes materiales y otros para eludir la acusación de ser materna:

listas crasos” o, peor aún, “blandos con el marxismo. En conse-

cuencia, a menudo el naturalismo es sólo un materialismo tímido,

del mismo modo que muchos agnósticos son ateos vergonzantes,

Sin embargo, con la misma frecuencia es una forma de no-es-más-

que-ismo o reduccionismo radical. Esta perspectiva se centra en los componentes últimos de las cosas y desatiende su estructura y su modus operandi o mecanismo; o bien, cuando propone mecanismos, niega que estos sean legales, una concepción que abre la

puerta a los milagros.

di

El naturalismo es especialmente obvio en los casos del fisicalis-

mo, el genetismo —según el cual el genoma impone el destino—

y la sociobiología, que sostiene que, en el fondo, todas las cosas sociales son biológicas. También es evidente en los fisiócratas, los economistas que afirmaban que toda la riqueza procede de la tierra (en lugar de provenir del trabajo o el comercio) y que hay un orden

social natural que los gobiernos deben respetar en lugar de interferir en él. Resulta discutible el que la escuela ¡usnaturalista sea otro caso de naturalismo, porque fue propuesta y defendida no sólo por los antiguos estoicos, que eran naturalistas radicales, sino

también por teólogos como santo Tomás de Aquino. Además, Jeremy Bentham criticó el derecho natural, pero intentó explicar

toda la conducta humana en términos de placer y dolor. Los términos “natural” y “naturalismo” “aparecen naturalmente”

en todas las áreas, pero son ambiguos, por lo que su utilización da lugar a confusiones. Por ejemplo, la neofobia, la aversión a todo lo amasdesconocido, es natural porque la mayoría de las novedades, al no

haber sido planeadas por nosotros ni para nosotros, probablemente

nos resulten perjudiciales o nos exijan un esfuerzo o hasta un sa-

crificio extra. En resumen, el conservadurismo parece “natural”. Sin embargo, también somos naturalmente curiosos y estamos naturalmente deseosos de mejorar nuestras circunstancias, especialmente

cuando

son

insatisfactorias,

como

es normalmente

(naturalmente) el caso de la inmensa mayoría de las personas. Por tanto, la neofilia, la curiosidad y el reformismo que acompaña a la

curiosidad, parece ser tan “natural” como la neofobia y el conservadurismo que esta inspira. Lo pregunta “natural” (obvia) es si un

equilibrio “natural” (razonable) entre estos dos opuestos es viable y deseable. Intentemos con este precepto: Preservar todo lo que sea (objetivamente, naturalmente) bueno (beneficioso para la mayoría) y modificar todo lo que no lo sea. En todo caso, “natural” es una herramienta retórica tan ambigua y potente como “útil”, “noble” y “bello” y, por tanto, se la ha de manejar con cuidado. En cuanto al naturalismo, incluye doctrinas un poco diferentes, aunque relacionadas, en filosofía de la religión, teoría de los valores,

ética, ontología, lógica, gnoseología y filosofía de las ciencias sociales. Recordemos brevemente estos diferentes significados a fin de poner claridad en algunas controversias filosóficas recientes. En relación con la religión, “naturalismo” supone, habitualmente, el rechazo del sobrenaturalismo. Los antiguos estoicos griegos,

Spinoza y Einstein pueden considerarse naturalistas religiosos por haber identificado a Dios con la naturaleza. Esta táctica, sin embargo, nunca engañó a los religiosos, ya fueran judíos, católicos,

luteranos o calvinistas, quienes se olían el ateísmo disfrazado. Sus sospechas estaban justificadas, puesto que si todo lo existente es natural, entonces nada es sobrenatural. Es decir, para el naturalista no hay Dios en la acepción ordinaria de la palabra, que designa un ser caracterizado por propiedades sobrenaturales, como la inmaterialidad, la omnipotencia y la omnisciencia. De ahí que la ecuación de Spinoza “Dios = Naturaleza” sea autocontradictoria y debe entenderse como un subterfugio. Después de todo, el lema de Spinoza era Caute, es decir: “Sé prudente”. Por consiguiente, la caracterización vulgar de Spinoza como un panteísta es incorrecta: era un 181

ateo encubierto, porque era un naturalista. Lo mismo vale para

Einstein, quien dijo una vez que su religión era la de Spinoza, o

sea, ninguna.

En otras ocasiones, “naturalismo” ha significado el intento de derivar creencias religiosas a partir de la razón pura antes que de la revelación (la “religión natural”). Otras veces se ha caracterizado

por la búsqueda e interpretación de las huellas supuestamente de-

jadas por Dios al crear el mundo (la “teología natural”). La doctrina

del “diseño inteligente”, a la que se adhiere la mayoría de los repu-

blicanos estadounidenses contemporáneos, es el intento más reciente en esa dirección. Sin embargo, limitemos nuestra exposición

de esta sección al naturalismo filosófico.

Debemos distinguir diversos componentes O ramas del natura-

lismo filosófico (véase, por ejemplo, Koppelberg, 1999; Mahner, 20074). Esbocemos y analicemos brevemente las siguientes varie-

o dades, comenzando por la raíz. En el naturalismo metafísico el universo y la naturaleza coinciden,

por lo que lo sobrenatural no es más que una ficción. Esta ontología presenta dos variedades: una radical y otra moderada. El naturalismo radical niega la existencia de lo mental o espiritual y, en con-

secuencia, la de la conciencia y el libre albedrío, motivo por el cual a menudo se le llama “eliminacionista”. Por ejemplo, el destacado

neurocientífico Rodolfo Llinás (2001, pág. 128) ha afirmado que el yo es un constructo que “sólo existe como entidad calculada”, a

saber, “un complicado vector propio”; pero no propuso el operador o la matriz correspondiente, a consecuencia de lo cual su afirmación resulta desconcertante. En todo caso, probablemente a la lectora

no le guste la afirmación de que ella no es más que un objeto ma-

temático y que, como tal, no es capaz de hacer nada por su libre

albedrío.

Muchos naturalistas eliminacionistas juzgan que el cerebro es básicamente un ordenador y que, como tal, carece de curiosidad

desinteresada, autoconocimiento (conciencia), iniciativa y libre albedrío (por ejemplo, Churchland y Sejnowski, 1993; Churchland, 1984). Por consiguiente, no explican la creatividad, la capacidad de producir ideas radicalmente nuevas. Los naturalistas moderados, 182

en cambio, reconocen la existencia de mentes creativas. Además, algunos de ellos —en concreto, Donald Hebb (1980), el padre de

la neurociencia cognitiva contemporánea— hasta han reconocido el libre albedrío. Con todo, a diferencia de los materialistas cientlficos, los naturalistas de ambas variedades tienden a infravalorar la influencia del contexto social y, por consiguiente, ignoran la psicología del desarrollo y la psicología social, las cuales dan cuenta de las diferencias entre las capacidades cognitivas de los humanos modernos y los primitivos (Mithen, 1996), de los instruidos y los no instruidos (Vygotsky, 1978), y de los gemelos idénticos criados en hogares separados. Dicho sea de paso, la hipótesis del libre albedrío comenzó como una fantasía teológica que constituyó una manera cómoda de culpar a los humanos por lo que podría haber sido considerado como perversidades de Dios (así es como usó el libre albedrío Agustín de Hipona para combatir el maniqueísmo). Pero el castigo moralmente

justificado presupone la autoconciencia, la capacidad de distinguir el bien del mal y el libre albedrío. Este es el motivo de que en las naciones desarrolladas los animales no humanos, los niños y los

discapacitados mentales, a los que se añadieron en años recientes las víctimas de lesiones en el lóbulo frontal, están exentos de los rigores de la ley penal. Hasta donde yo sé, los naturalistas eliminacionistas no han abordado este problema. Por ello, no se sabe si sostendrán que no debe culparse a nadie por sus crímenes o que no puede haber circunstancias atenuantes, en ambos casos porque la conciencia y el libre albedrío son ilusorios. El naturalismo lógico se ofrece en dos versiones, una fuerte y otra

débil. La primera afirma que la lógica es la ontología general: que contiene las leyes más generales de todos los objetos, reales e imaginarios, razón por la cual el matemático Ferdinand Gonseth (1937) lo llamó “la física del objeto arbitrario”. Esta concepción, cuyos primeros indicios encontramos en Aristóteles, es falsa porque las leyes de la ciencia son específicas respecto de la materia, en tanto que la lógica es neutral en relación con el tema de que se trate (Nagel, 1956). Lo que sí es verdad es que la lógica se refiere a cualquier cosa, aun cuando no describe nada extralógico en particular (véase 183

Runge, 1974b), En efecto, los predicados de la lógica de predicados,

al igual que los conjuntos de la teoría de conjuntos y las funciones del análisis funcional son arbitrarios, motivo por el cual la lógica

se refiere a cualquier cosa, lo que a su vez la hace notablemente

trasportable de un campo de investigación a otro. Con todo, la lóvica formal no incluye el concepto de cambio, que a su vez define ol concepto de materia (recuérdese el capítulo 4). Presuntamente,

esta es la razón por la que Hegel (1926[1812]) pensaba que la lógica formal era subjetiva, en tanto que su propia “lógica” (su metafísica) giraba en torno a la noción de devenir.

La versión débil del naturalismo lógico sostiene, como hizo

George Boole, que las leyes de la lógica son leyes del pensamiento y, como tales, leyes psicológicas (o neurocientíficas). Dewey (1938)

fue todavía más naturalista lógico: para él la lógica era un producto

biológico y la cumbre de la evolución. Esta posición es falsa, tal como lo prueba el hecho de que el pensamiento más “natural

(es-

pontáneo, indocto) es lógicamente inválido (véase, por ejemplo,

Johinson-Laird y Wason, 1977). Estas son algunas de las falacias más comunes: a) confundir “algunos” con “todos” o “un” con “el 5 b) identificar la necesidad con la necesidad y suficiencia, o “A > B

con “A $ B”; c) concluir A a partir de “Si A, entonces B” y “B”. En realidad, las leyes de la lógica son reglas y, como tales, artefactos. A ello hay que añadir que no hay una única lógica: además de la lógica convencional o tradicional, hay numerosas lógicas no tradicionales (véase, por ejemplo, Haack, 1996).

Gran parte de lo dicho vale también para las leyes de la mate-

mática pura: no son naturales ni intuitivas; si lo fueran, no les parecerían un misterio a la gran mayoría de personas. Unos pocos

ejemplos confirmarán lo que sostengo. Primero, resulta natural

pensar que la cantidad de números impares es la mitad que la de números enteros, pero esto es falso, tal como demostró Galileo hace 400 años, Segundo, cuando se les pide que dibujen un trián-

gulo cualquiera, la mayoría de las personas escogen un triángulo agudo, aun cuando hay tres veces más triángulos obtusos que agudos. La mayoría de las personas no cree en la igualdad 0” = 1, a

pesar de que sólo se trata de un caso especial de la identidad “y = 184

| para todo x”. En síntesis, a la mayoría de nosotros la matemática no se nos da de una manera natural (véase Kanitscheider, 2006,

para un análisis y defensa del naturalismo matemético; y Bunge, 2006b, para una crítica), La discrepancia entre las matemáticas y la intuición explica por qué la lógica y las matemáticas surgieron hace menos de 3000 años: tenían que ser inventadas, al igual que el bronce, el dinero, la es-

critura y el Estado. En resumen, el naturalismo lógico es insostenible. En cambio, los materialistas sí tienen algo que decir sobre la lógica y las matemáticas: a saber, que al igual que los arados y los

poemas, son creaciones humanas en lugar de habitar en el subsuelo o en el elevado mundo de las ideas de Platón, Quine propuso una vez lo que él llamó “realismo matemático”, que Putnam adoptó en una de sus numerosas etapas. Esto suena a

naturalismo matemático, pero en realidad es una especie de platonismo generalizado, puesto que afirma que los objetos matemáticos

existen del mismo modo que los átomos y las estrellas. Además, parece obvio para cualquiera lo bastante ingenuo como para creer

que hay un único concepto de existencia, es decir, el precisado por el mal llamado cuantificador “existencial” 3, tal como aparece en

el principio politeísta “Ax (x es un dios). Sin embargo, de igual manera que distinguimos entre objetos abstractos —con atributos conceptuales— y objetos concretos —con propiedades no conceptuales—, debemos distinguir también entre la existencia formal (o

conceptual) por un lado, y la existencia real (o material) por otro. Si hubiera un único concepto de existencia, también habría un único método para demostrar la existencia de un objeto cualquiera. Sin embargo, mientras que la existencia formal debe postularse o demostrarse de forma rigurosamente formal, la existencia material o real viene dada. Más aún, se la debe justificar mediante comprobaciones empíricas: probando que, de hecho, podemos “influir” en la cosa cuya existencia se ha supuesto, y esta, a su vez, puede re-

accionar “influyendo”. La razón de ello es que, a diferencia de los objetos abstractos, las cosas materiales poseen energía, así como la

capacidad de absorberla y liberarla: son mudables (recuérdese el capítulo 1). 185

Como todas las opiniones aisladas, el realismo matemático es

wmeompler, conluso y arbitrario, Puesto que no incluye una defi-

mción del concepto de objeto fisico, esta perspectiva ni siquiera es

capaz de distiaguir entre la existencia material y la conceptual. Peor

todavia, Quine nunca formuló una ontología precisa y abarcadora

que esbazara las características más destacadas de las cosas que componen su universo, Este es el motivo por el cual todas sus opiniones

tilosóticas, al igual que las de Wittgenstein, se han hecho populares de torma instantánea: se ofrecen en pequeñas dosis y con una redacción impresionante, a lo que se añade que son extravagantes y,

por tanto, originales después de todo,

Una versión todavía más débil del naturalismo lógico es esta: al-

gunos supuestos son más naturales (familiares, obvios, verosímiles?)

que otros, y algunos métodos de demostración (en particular, el de

Gentzen y el de Beth) son más naturales (¿sencillos, intuitivos, di-

dácticos?) que otros. Pero aquí de nuevo no hay acuerdo sobre el significado mismo de “natural”. Además, en todo caso, puesto que

la lógica formal tiene ya más de 2000 años y es bastante difícil de enseñar, parece poco natural llamarla fnatural”. El naturalismo semántico sostiene que es necesario dar cuenta

del significado y la verdad, dos conceptos centrales de la semántica filosófica, de una manera naturalista. Por ejemplo, a finales del siglo

xix, Franz Brentano (1960) equiparó la referencia —un componente del significado— con la “intencionalidad”. De hecho, Bren-

tano sostenía que lo que tienen de peculiar los fenómenos mentales

es su referencia a un objeto diferente del propio fenómeno mental, un claro caso de obscurum per obscurius. También Searle (2007,

pág. 6) confundió la intención (o intencionalidad), una categoría

psicológica, con la referencia (o acerca de lo que se trata), una Categoría semántica. Algo parecido a sostener que la misma teoría

puede usarse para abarcar las dos acepciones principales de la pa-

labra inglesa race: un tipo de competición [carrera] y un grupo ét-

nico [raza].

John Dewey (1958), afirmó que el significado no es un objeto mental sino una propiedad de la conducta: las palabras producen disposiciones al comportamiento manifiesto. Quine (1968) sead-

hirió a este proyecto conductista sólo para saltar repentinamente a

la tesis criptoidealista de que “es absurdo decir cuáles son los objetos [los referentes] de una teoría, más allá de decir cómo interpretar o reinterpretar dicha teoría en otra” (op. cit., pág. 202). Si bien esta propuesta puede resultar útil en el estudio de la reducción de los números a conjuntos, o en algún otro tema de los fundamentos de

la matemática, resulta completamente inútil para averiguar algo acerca de los referentes de una teoría científica como, por ejemplo,

la mecánica cuántica. Esta tarea se realiza analizando los postulados de la teoría y el modo en que esta se utiliza para dar cuenta de los hechos de cierta clase. Por ejemplo, no es necesaria ninguna otra teoría científica para

descubrir que la mecánica se refiere a los cuerpos físicos: baste señalar que todos los predicados específicos o técnicos de esta teoría representan propiedades de los cuerpos. La “ontología” (universo

del discurso o clase de referencia) es el conjunto de todos los cuerpos. Aquí toda “relatividad ontológica [referencial]” quedaría fuera

de lugar. Pero confieso que no sé cómo “interpretar o reinterpretar” la mecánica en otra teoría y, en todo caso, Quine no ofrece ninguna pista de cómo hacerlo. Puesto que menciona de forma repetida el

teorema de Skolem, sospecho que lo que tenía en mente eran modelos (ejemplos) de teorías abstractas, tales como la teoría de conjuntos. Sin embargo,

las teorías de las ciencias fácticas son

completamente distintas: sus universos del discurso o clases de re-

ferencia se fijan desde el principio mediante sus postulados, tales como “X(p, f; £) representa la posición de la partícula p, relativamente al marco de referencia f en el instante 1”. Para comprender

una teoría fáctica intentamos mirar dentro de la misma, no fuera de ella. En una obra posterior, Quine (1973) procuró desarrollar su res-

paldo a la filosofía del lenguaje conductista de Dewey e intentó explicar la referencia mediante el modo en que los niños y los extranjeros aprenden a dominar una palabra “atestiguando la pre-

sencia de un objeto”. Sin embargo, el proceso de aprendizaje relacionado con cómo utilizar una palabra no resulta pertinente para

averiguar el objeto que esa palabra nombra. Por ejemplo, no se ,

187

aprende economía investigando cómo adquieren los niños los con.

ceptos de bien, precio, mercado y otros afines. Además, un análisiy psicológico de la referencia no puede ayudarnos a averiguat, clip.

mos, si la mecánica cuántica se refiere o no a los observadores, en lugar de a las cosas físicas. En suma, el naturalismo no proporcion: ninguna teoría del significado, del mismo modo que no explica q

surgimiento de los códigos legales, razón por la cual la expresión “ley natural” es un contrasentido. Hay dos clases de proposiciones semánticas: las convenciones

lingilísticas, tales como “Sea f que designa un marco de referencia arbitrario”, y supuestos semánticos, como “La función frepresenta la propiedad ?”. Como todas las convenciones, las primeras sor arbitrarias y, por tanto, pueden reemplazarse libremente. En cam.

bio, los supuestos semánticos son comprobables y, por consiguiente, están sometidos a la posibilidad de error y su posterior rectificación, (Por eso sus nombres habituales, “definición operacional” y “regla de correspondencia” son incorrectos: las definiciones son conven-

cionales y las reglas son más o menos eficientes). Por ejemplo, hay hipótesis rivales respecto del operador que representa correctamente

la velocidad de un objeto mecanocuántico (Bunge, 2003c). En

todo caso, sean convencionales o hipotéticas, las estipulaciones semánticas no crecen en los árboles: son tan poco naturales como los códigos legales. Pero pasemos ahora del significado a la verdad, el

otro núcleo de la semántica junto con el significado. Nietzsche, un destacado naturalista de la vertiente vitalistay pragmatista, consideraba que la verdad no era más que una herra-

mienta para la lucha por la vida: ni definió el concepto de verdad ni propuso criterios o condiciones de verdad. Peor aún, Nietzsche exaltó la mentira, especialmente la “mentira noble” de Platón, como

un arma aún más potente que la verdad en la lucha del superhombre por la supremacía. Más que un naturalista, era un brutalista. Esta es la razón de que Nietzsche haya sido el héroe de innumerables reaccionarios, entre ellos Hitler, Heidegger y Leo Strauss.

Sin embargo, el hecho de que la concepción pragmatista de la verdad sea falsa, no descalifica todas las tentativas de naturalizar la “verdad”. En realidad, es posible interpretar el concepto de verdad A

88

fáctica, O verdad como correspondencia o adecuación del pensamiento a un hecho externo, en términos de un proceso cerebral

que, de algún modo, “se corresponde con” su referente (o “hacedor de verdad”, como está de moda decir). Esto mismo es, desde luego, lo que ha propuesto quien escribe estas páginas (Bunge, 1983b, pág. 119; capítulo 15 del presente libro). El naturalismo gnoseológico sostiene que la cognición es un pro-

ceso natural y, como tal, tema de investigación científica: que el mundo de las ideas de Platón es ficticio, al igual que su idea de conocimiento en sí, es decir, sin sujeto cognoscente. La versión fuerte

del naturalismo gnoseológico afirma, además, que la gnoseología ha perdido su autonomía: que está siendo reemplazada por las ciencias cognitivas. Con todo, puesto que el desarrollo y la evolución

humanos son procesos biosociales, en lugar de puramente psicológicos, resulta dudoso que la gnoseología naturalizada, alias ciencia cognitiva, pueda resolver problemas importantes sin el auxilio de la gnoseología social, alias neurociencia cognitiva social. Esto vale especialmente para la evolución. El naturalismo metodológico puede entenderse de tres maneras muy diferentes. Lo que podemos llamar naturalismo metodológico tácito es la práctica común de excluir lo sobrenatural y lo paranor-

mal del diseño, la construcción y la operación de los instrumentos de medición. En otras palabras, se debe descartar de antemano la

posibilidad de que los instrumentos sean afectados por entidades sobrenaturales, como los fantasmas, el demonio maligno de Descartes o supuestas facultades paranormales como, por ejemplo, la telequinesia. En otras palabras, no se interpondrá ninguna entidad

espiritual entre el observador y la cosa observada. La razón es que si fuera posible dar cuenta de las lecturas de los instrumentos en términos no físicos, nos proporcionarían información acerca de

compuestos cosa-espíritu, en lugar de sobre cosas “normales” (naturales o sociales).

Además del naturalismo metodológico tácito, están los que po-

demos llamar naturalismo metodológico débil, fuerte y muy fuerte.

La versión débil afirma que la filosofía debe utilizar los métodos y los descubrimientos de las ciencias naturales. La versión fuerte del

DUDAe

e

189

naturalismo metodológico es idéntica al cientificismo, la tesis de que el método científico puede aplicarse en todos los campos de investigación, entre ellos las ciencias sociales. Esta versión del naturalismo, a menudo llamada cientificista, fue defendida por los

positivistas, los positivistas lógicos y Quine, entre muchos Otros,

En cambio, Putnam, Davidson, Rorty y otros han defendido lo

que podemos llamar el naturalismo xo cientificista, el cual es poco más que un gesto superficial de aprobación dirigido al naturalismo ontológico (véase De Caro y Macarthur, 2004).

Por último, el naturalismo metodológico muy fuerte es el pro-

grama que consiste en reducir las ciencias sociales a las naturales, Su paradigma es la sociobiología de Edward O. Wilson. Este audaz proyecto estuvo condenado desde un principio, porque pasa por alto las diferencias entre lo artificial o convencional, por un lado,

y lo natural por el otro. Lo mismo sucede con la sucesora de la sociobiología, la psicología evolucionista, la cual se centra en el sexo, Si bien es cierto que emparejarse es natural, el cortejo y el matri-

monio son construcciones sociales que varían en las diferentes sociedades. El fracaso de la sociobiología debió haberse previsto,

porque la propia expresión “naturalismo social” es un oxÍmoron, Volveremos sobre este asunto en la sección 6.5. 6.3 El fenomenismo

Es bien sabido que a los lagartos les gusta tomar el sol. Sin embargo, no saben que ese calor se debe al Sol ni que el calor que sienten se debe a su sistema nervioso. La razón de ello es que, como lo ha ex-

presado Lovejoy (1955, pág. 401), un sujeto cognoscente “tiene la

capacidad de añadir otredad y distanciamiento a lo que percibe y no necesita, por tanto, permanecer ciego ante el resto del universo”.

Tiene esta capacidad porque su sistema nervioso, a diferencia del

que tiene el lagarto, puede pensar además de percibir. En otras palabras, mientras que la cosmovisión del lagarto es necesariamente

fenomenista y, por lo tanto, “saurocéntrica”, la de una persona pue-

de ser naturalista y objetiva. 190

El fenomenismo sostiene que sólo hay fenómenos, es decir, las

apariencias para alguien, ls la ontología del empirismo y, en con:

creto, del positivismo lógico, Los positivistas lógicos

especial.

mente los miembros del Círculo de Viena — fueron los herederos de Mach, quien siguió a Comte, quien a su vez se adhirió al idea:

lismo subjerivista de Kant, el cual había sido inventado por Ber-

keley. En su primera Crítica, Kant (1787) sostuvo que el mundo es un montón de fenómenos (apariencias), en lugar de una colección de noúmenos o cosas existentes en sí; que aunque todas las cosas existen en el espacio y el tiempo, estos son, a su vez, formas de la intuición y no características del mundo real, por lo cual las

cosas están en la mente y “Dios es sólo una idea”, Por consiguiente, Kant fue un naturalista tímido, una posición que no podía satisfacer ni a materialistas ni a idealistas. Lo mismo vale para Hume, su precursor, aunque, a diferencia

de Kant, Hume dio por sentada la existencia independiente del mundo externo. Con todo, negó la posibilidad de conocer otra cosa que los fenómenos (las apariencias), y eso en una época en la cual los físicos y químicos estaban estudiando hechos no fenoménicos tales como las órbitas planetarias, ciertos gases imperceptibles y las reacciones químicas invisibles. No es que Hume no estuviese al tanto de estas novedades: las rechazó de forma explícita porque contradecían el fenomenismo. Un siglo más tarde, Ernst Mach (1914), el gran físico experi-

mental y psicólogo fisiológico, llevó al extremo el fenomenismo de Berkeley, Hume y Kant. Mach sostuvo de manera inequívoca la tesis que afirma que los constituyentes básicos del universo son las sensaciones. Obviamente, esta afirmación es naturalista, pero a la

vez es acientífica porque es antropocéntrica. Un origen posible de esta idea —además de sus raíces históricas en Berkeley y Hume— es la confusión de la referencia con la prueba empírica (Bunge, 19672). Así, por ejemplo, oír los clics de un contador Geiger si-

tuado cerca de un trozo de material constituye una prueba empírica a favor de la hipótesis de que ese material es radiactivo. En mi ju-

ventud, podíamos comprar una pequeña muestra de material radiactivo montado sobre una pantalla, del cual vefamos salir chispas 191

cuando lo colocábamos en la oscuridad. Pero, por supuesto, ny

identificábamos la radiactividad con la percepción de esas efímeras chispas: estas no eran más que la prueba empírica de la presencia del material radiactivo. En resumidas cuentas, el fenomenismo todavía está muy difun-

dido porque es de sentido común: después de todo, son necesarias las teorías y los experimentos para desvelar la cosa en sí que subyace a la cosa para nosotros o fenómeno. Con todo, cuando Bas van Eraasen (1980) afirmó que la finalidad de la ciencia es “salvar los fenómenos”, muchos filósofos creyeron que era un soplo de aire

fresco, cuando en realidad no era más que la vieja gnoseología

de

dos milenios de Ptolomeo. A H. G. Wells le habría complacido saber

que los filósofos podían conducir su máquina del tiempo.

6.4 El fisicismo

El fisicismo es la tesis de que todo es físico y nada es suprafísico,

mucho menos sobrenatural. Por ejemplo, un naturalista coherente

afirmaría que las banderas no son más que trozos de tela; en consecuencia, no comprendería por qué hay tanta gente que ha Aus

por su bandera. Como todos los ¡smos, el fisicismo [o fisicalismo] se ofrece en dos variedades: una dura y otra blanda. El fisicismo

duro sostiente que sólo hay entidades y propiedades físicas, en tanto

que el blando prescribe la utilización exclusiva del lenguaje de la

física y, en particular, que lo describamos todo en términos espa-

ciotemporales. Este fisicismo duro es idéntico a lo que normalmente

llamamos “materialismo craso (o vulgar)”. En cambio, el fisicismo

blando es con frecuencia un subjetivismo bajo una apariencia científica, es decir, un fenomenismo.

Un ejemplo de fisicismo blando lo constituye el punto de vista propuesto por Otto Neurath (1981) y compartido en una época por Rudolf Carnap, dos de los pilares del Círculo de Viena. Se trata de la tesis empirista que afirma que, en última instancia, todos los enunciados científicos pueden reducirse a “oraciones protocolares”, las cuales, a su vez, son de la misma clase que “Otto, en el lugar X 192

y en el instante Y, percibió Z”, Mediante la recolección de todos estos “enunciados empíricamente básicos” se extrac el máximo rendimiento de la física general, ciencia unificada o fisicismo, que no

es otra cosa que “un tejido de leyes que expresan relaciones espaciotemporales” (op. cit. L, pág. 414). Evidentemente, Neurath, un

sociólogo con base matemática, no cayó en la cuenta de que las leyes básicas de la física, como las ecuaciones de Maxwell, no contienen referencias a los procedimientos para someterlos a compro-

bación, por la misma razón que referencia * prueba empírica. El energismo es la variedad, actualmente olvidada, del fisicismo según la cual todas las cosas, desde los cuerpos hasta los valores, están hechas de energía. Su creador, el destacado físicoquímico Wilhelm Ostwald (1902, pág. 373), pensaba que la materia era “una

apariencia secundaria que ocurre en forma de la coexistencia de ciertas clases de energía”. Además, pensaba que, puesto que la ener-

gía no es ni materia ni idea, el energismo era una alternativa tanto al materialismo como al idealismo. Ostwald dedicó su libro a Ernst

Mach, quien no podría haberlo aprobado porque para Ostwald la energía tiene prioridad sobre la sensación.

Pero, desde luego, la energía en sí no existe: la energía es una

propiedad de las cosas concretas (o materiales) y, ciertamente, su característica distintiva (véase capítulo 4). Que esto es así resulta

obvio al examinar cualquier fórmula física que contenga el concepto

de energía, por ejemplo la más famosa de todas ellas: E (sistema ce-

rrado) = constante y E (cuerpo de masa m) = me. Sin los portadores

de energía, que son todos los objetos materiales, no hay energía.

Por último, el fisicismo fuerte o auténtico es la tesis que sostiene

que todos los objetos existentes son físicos, si no de forma mani-

fiesta, por lo menos tras haber sido analizados hasta sus compo-

nentes últimos. Por ejemplo, el cerebro sería un sistema físico, y

sentir y pensar serían procesos físicos. El fisicismo puede entenderse

también como un naturalismo radical, en el sentido de que afirma

que todo en el universo es natural y niega que haya diferencias cualitativas entre lo físico, por un lado, y lo químico, biológico, social, semiótico y tecnológico, por otro. Comprensiblemente, los físicos son los más entusiastas entre los fisicistas.

o

193

Sin embargo, ser uN filósofo fisicista coherente no es sencillo, Por ejemplo, Papineau (2003, pág. 353), quien se ha declarado fi.

sicista, considera que un estado mental es “la ejemplificación de

una propiedad mental”, Sin embargo, esta locución es platónica,

no materialista, y ello por partida doble. Primero, porque propone

que las propiedades preceden a sus “ejemplos” (portadores), en

ranto que para el materialismo las propiedades acompañan a sus portadores. Segundo, porque la frase en cuestión identifica tácitamente las propiedades que poseen las entidades físicas con sus respectivos atributos o conceptualizaciones.

Un materialista sofisticado pondrá el acento en la distinción propiedad-atributo por dos motivos. El primero es que sólo los conceptos generales y las proposiciones pueden ser ejemplificados (“instanciados”). Segundo, porque mientras que las propiedades

naturales son características de los objetos naturales y, por tanto, inseparables de ellos, los atributos son componentes de nuestras

concepciones, en particular de nuestras teorías sobre ellos (más sobre el tema en Bunge, 1977a). Por ejemplo, los cuerpos poseen

masa, pero esta propiedad se conceptualiza de manera diferente en

la mecánica clásica y en la mecánica relativista. En todo caso, para un materialista, como para cualquier científico, todo estado es un

estado posible de una entidad material (véase el capítulo 14). A menudo se afirma que las propiedades fenoménicas, tales co-

mo la rojez y la amargura, no pueden explicarse en términos físicos. Por ejemplo, David Chalmers (1995) sostiene que, aunque hay un acuerdo general acerca de que la experiencia surge a partir de una base física, no disponemos de una buena explicación de por qué y

cómo surge. Esta afirmación es verdadera, pero no refuta el naturalismo, puesto que el fisicismo no es más que la primera y más

basta de sus versiones. Un naturalista que no sea fisicista mantendrá que los fenómenos sólo tienen lugar en los organismos sensibles

cuando interaccionan con su entorno. Los hechos fenoménicos O experiencias son hechos de la vida animal y, por consiguiente, su estudio requiere de la biología, además de la física y la química. Sostener que la ocurrencia de los fenómenos refuta el naturalismo o el materialismo es un signo de ignorancia de las numerosas va194

ricdades de uno y otro. Sin duda, un materialista emergentista con-

temporáneo sabrá especialmente que quienes investigan la visión, la audición, la olfacción y otros procesos parecidos son los neurocientíficos, no los físicos.

6.5 El biologismo A continuación, pasemos a examinar una versión mucho más li-

mitada del naturalismo, a saber, el biologismo: el programa que consiste en explicar hechos que no son biológicos mediante conceptos biológicos. El biologismo tiene dos versiones: una fuerte o

radical y otra débil o moderada. El biologismo fuerte es la antigua concepción animista que considera que el universo está vivo (o

“animado”). Esta cosmovisión fue común en la antigua India y Platón la compartió en parte, ya que en su Tímeo sostuvo que la Tierra es un animal. Sin embargo, esta particular creencia de Platón no contaminó el resto de su obra, que es completamente racionalista.

En cambio, los vitalistas coherentes, como por ejemplo Nietzsche y Bergson, eran irracionalistas y, en particular, intuicionistas.

El biologismo débil afirma que se puede entender todo lo humano en términos puramente biológicos, sin necesidad de recurrir

a conceptos psicológicos ni sociológicos. Dentro del biologismo se cuentan varias doctrinas modernas: el vitalismo de Nietzsche, el darwinismo social, el culto nazi a la raza y el instinto, la sociobiología

humana, la hipótesis Gaia y la actual psicología evolucionista. La antropología filosófica de Ludwig Feuerbach (1845), la cual influyó en Marx y Engels, partenece a la misma tradición. Su famosa máxima Man ist was man isst (“El hombre es lo que come”), inspiró al biólogo y filósofo catalán Ramón Turró, quien en 1912 afirmaba

que, a diferencia de lo que enseñaba Aristóteles, no es la curiosidad

la que origina el conocimiento sino el hambre; de ahí el nombre de “trofología”, el estudio de la alimentación, que tuvo su doctrina.

La trofología está viva y goza de buena salud: Hillard Kaplan y colaboradores (2000) mantienen que el rasgo distintivo de nuestra

E

|

encia a procurarse recursos alimenticios ricos en 195

calorías, concentrados en grandes trozos O grupos, cuya consecución

requiere gran destreza. Puede que todo esto sea verdad, siempre

que se lo complemente con la cooperación y compartir el alimen. to. En su Genealogía de la moral (1887), así como en algunos de los

aforismos recogidos en La voluntad de poder, Nietzsche pide la “na-

turalización de todo el conocimiento humano, especialmente de

la ética. Nietzsche se percató de que la moral convencional boicotea nuestros instintos, que él deseaba liberar, y rechazó todas las limitaciones "no naturales” al egoísmo, en particular a “la voluntad de

poder”: que prevalezcan los más fuertes, que rija la “ley de la selva”, De ahí el desprecio de Nietzsche por la compasión y la cooperación, y su odio a la democracia, el sindicalismo y el socialismo. No es de extrañar que fuera el filósofo pop preferido de Hitler, admiración que este compartía con su camarada el profesor Heidegger. Cierto

es que también los anarquistas y otros inconformistas han admirado

a Nietzsche, pero sólo por su iconoclasia y su panfletismo feroz. Nietzsche fue lo bastante radical, superficial, incoherente y cáus-

tico como para ganarse la admiración de los rebeldes semiinstruidos,

así como de los partidarios del capitalismo “salvaje”, como lafilósofa

pop Ayn Rand, naturalista, realista y vehemente defensora del “ego-

ísmo racional”. Su alumno estrella, el superbanquero Alan Greens-

pan, está acusado de ser parcialmente responsable de la crisis financiera de 2008. Greenspan admitió que la crisis lo tomó por

sorpresa, porque él tenía confianza en que el “egoísmo racional conduciría a los banqueros y financieros a tomar las decisiones Correctas. Pero sigamos adelante.

La sociobiología humana es el programa de explicación de todo

lo social en términos biológicos, con lo cual “excluye las ciencias sociales”, tal como lo ha expresado Alexander Rosenberg (1980).

Este programa ha tenido un fuerte impacto tanto en las ciencias sociales como en la cultura popular y en ambos casos ha sido am-

bivalente. En efecto, la sociobiología humana insufló un poco de

biología en las ciencias sociales; asimismo, ha debilitado tanto el sociologismo como el idealismo. El sociologismo incluye la tesis,

preconizada por Karl Marx y Émile Durkheim, de que las totali196

dades sociales determinan el comportamiento de sus componentes (acción de arriba-abajo); sostiene, además, que las ciencias sociales

no deben nada a la biología ni a la psicología. La escuela idealista

de estudios sociales, defendida por Wilhelm Dilthey, difundida por Heinrich Rickert, ensalzada de boca hacia afuera por Max Weber practicada, entre otros, por Pitirim Sorokin, Alfred Schiitz, Cli£ford Geertz y los ernometodólogos, afirma que los científicos sociales deben centrarse en las vidas interiores o espirituales de las personas; de ahí los nombres de sciences morales y Geisteswissenschaf ten: ciencias de la cultura o del espíritu, respectivamente. La reacción naturalista tanto frente al sociologismo como al idealismo fue especialmente intensa y exitosa en la antropología pop,

tal como lo prueba el superventas Imperial Animal [El animal imperial), de Lionel Tiger y Robin Fox (1971). Estos pioneros de la

sociobiología humana hicieron hincapié en nuestra animalidad,

intensa sexualidad, egoísmo, competitividad y agresividad. También proclamaron la superioridad del macho, así como la primacía de la fuerza bruta y la dominación sobre el trabajo, la inteligencia, la cooperación, la transigencia y la moralidad. Según estos autores,

cazar, pelear por las hembras y practicar el sexo han sido siempre más importantes que la sociabilidad. La falta de pruebas empíricas provenientes de la arqueología no impidió estas fantasías. En par-

tícular, la ausencia de las escenas de guerra de las pinturas rupestres realistas, que abarcan 25 000 años de historia, no les dice nada sobre la naturaleza humana. Hobbes y Nietzsche han llegado final-

mente a los departamentos de ciencias sociales. A diferencia de la mayoría de sus colegas, Tiger y Fox adoptaron el individualismo ontológico y metodológico: se centraron en los individuos, en lugar de hacerlo en los sistemas sociales, tales como las familias, bandas, tribus, empresas, fuerzas armadas o iglesias.

Además, no se interesaron por la manera en que la gente se ganaba la vida y adaptaba su entorno a sus necesidades: representaron a los hombres obsesionados por el poder para obtener sexo. Por lo

tanto, Tiger y Fox no tenían paciencia con la democracia, el feminismo, el Estado de bienestar ni el pacifismo. En opinión de estos autores, la naturaleza humana quedó fijada hace 100 000 años y

197

es tan fuerte que las reformas sociales están condenadas al fracaso, Lo que necesitan los hombres, proponían, no eran líderes demo.

cráticos, y mucho menos obreros de la “industria del mejoramiento humano”, sino despiadados guardias de zoológico.

Algunos genetistas comportamentales y antropólogos molecu-

lares que les siguieron utilizaron la genética pop de Richard Day. kins para intentar “naturalizar las desigualdades sociales”, tal como

lo ha expresado Jonathan Marks (2002) en su devastadora Crítica. El menos reservado de estos intentos fue La curva de campana

(1994), un superventas escrito por el profesor Richard Herrnstein

y el periodista Charles Murray. Su tosco mensaje estaba en sintonía con la virulenta ideología neoconservadora de la época: puesto que la ciencia ha demostrado que la condición social depende de la in-

teligencia, y esta es innata, no hay nada que podamos hacer para mejorar la suerte de los pobres.

La biología evolutiva tuvo desde sus comienzos un fuerte impacto en la teoría social y la política, tanto de la izquierda como de

la derecha. Los marxistas vieron en ella una prueba indirecta de la

opinión que propone que las instituciones son históricamente mudables. Los conservadores, por su parte, interpretaron que confir-

maba el dogma de que las personas nacen o plebeyas O de clase alta, así como racialmente inferiores o superiores. El biologismo ha ins-

pirado, además, empresas puramente académicas, como el intento

de explicar la evolución de las lenguas por analogía con la evolución biológica, con total descuido de los factores económicos y políticos

del caso. Con todo, parece evidente que el inglés actual no sería la

lengua preferida si Gran Bretaña y Estados Unidos hubieran continuado siendo países culturalmente atrasados y no hubieran conquistado grandes extensiones del planeta. Las lenguas evolucionan

con las culturas que las hablan. En concreto, prosperan O decaen

junto con las comunidades científica, tecnológica, artística y hu-

manística a las que sirven; y cuando las personas migran, se llevan

sus palabras además de sus genes (véase, por ejemplo, Cavalli-Sforza

et al., 1994).

Asimismo, el rock no dominaría el mercado musical de nuestros

días si hubiera surgido en Albania o Nepal, en lugar de Gran Bre198

páñnÑ

taña y Estados Unidos, o si no hubiera estado vinculado a la industria discográfica, las guitarras eléctricas, las drogas, el mundo del espectáculo y la televisión; ni si a los jóvenes de las naciones

ricas se les hubiera mantenido la pequeña paga que recibían sus an-

tepasados. Los historiadores de la música no pueden pasar por alto

que el culto a Wagner alcanzó su apogeo con los imperios coloniales europeos, del mismo modo que no pueden ignorar el poderoso factor comercial en el surgimiento de la música comercial a gran escala,

ocurrido alrededor de 1950. En suma, los historiadores de la cultura tienen mucho que aprender de los historiadores sociales, económi-

cos y políticos, pero nada de los biólogos, salvo que hasta los artistas

más refinados tenían que comer. ¿Podrían explicar los biólogos por qué murieron pobres Mozart y Schubert, en tanto que Elvis y los Beatles acabaron en la opulencia? Ni siquiera pueden explicar por

qué los mercaderes de la muerte y los traficantes de armas ganan

mucho más dinero que los buenos padres y madres de familia. Después de todo, la medida del éxito biológico no es el número de ba-

Jas, sino la eficacia biológica o darwiniana (el número descendientes).

de

Los cambios sociales rápidos y radicales, como por ejemplo la emergencia de la agricultura y el Estado, la urbanización, la industrialización, la militarización, la alfabetización, la democratización

y la secularización refutan el biologismo, puesto que tales procesos no están grabados en el genoma y no son producto de las modificaciones biológicas. Por el contrario, causan cambios en la nutri-

ción, el metabolismo, la higiene y el modo de pensar. Por ejemplo,

la emergencia de las ciudades favoreció la difusión y la mortalidad

de las plagas; la desaparición de la civilización maya fue seguida por una reducción de la estatura; el “descubrimiento” y saqueo de América diezmó las poblaciones indígenas porque diseminó gér-

menes occidentales entre ellas; la desigualdad social provoca estrés y las patologías que lo acompañan, etc. Del lado positivo, baste recordar los beneficios de la recogida de residuos urbanos, la reduc-

ción de la jornada laboral, la liberación de la mujer y la legislación

social progresista en la sanidad. En resumidas cuentas, la organización social posee un fuerte impacto biológico. Esta es la razón gr

199

de que desarrollar las ciencias y tecnologías biosociales sea mucho más importante y urgente que la tentativa de reducir las ciencias sociales a la biología (Bunge, 2003a, 2009). En conclusión, el enfoque zoológico (o etológico) de lo social

fue algo positivo en sus comienzos, en la medida que recordó a los científicos sociales que somos animales. Sin embargo, su impacto negativo fue, con mucho, más intenso y perjudicial: desvió la aten-

ción de lo específicamente social y fue utilizado por la nueva derecha estadounidense para justificar su ataque al Estado de bienestar y su predilección por la agresión militar antes que por la cooperación internacional. En resumen, desde Nietzsche y el nazismo hasta

la sociobiología humana y la psicología evolucionista han fracasado como nuevo fundamento para las ciencias sociales y han acabado

como ideología de derechas.

En el mundo académico, el biologismo está en decadencia. La concepción que va ganando adeptos es que somos producto tanto

del genoma como de la cultura, y que estos dos “factores” han co-

evolucionado (por ejemplo, Cavalli-Sforza y Feldman, 1981; Ri-

chardson y Boyd, 2005). No podría ser de otro modo, puesto que

la sociabilidad es una propiedad esencial de los humanos y Casi todo lo social es artificial, no natural. Por ejemplo, comer es natural,

pero comer comida basura no lo es; sentarse es natural, pero no lo

es permanecer sentado largas horas delante de una pantalla. Además, la combinación de los malos hábitos alimentarios y la seden-

tariedad ha causado las actuales epidemias de obesidad, diabetes,

artritis y enfermedades cardiovasculares, todas las cuales contribuyen al descenso de la fertilidad.

En resumidas cuentas, el biologismo es erróneo porque ignora

el hecho evidente de que los humanos son en gran medida artificiales. Tal como lo ha expresado Merlin Donald (1991, pág. 382),

“el universo darwiniano es demasiado pequeño para contener a la

humanidad. Nosotros somos algo muy diferente”. Con todo, el fracaso del biologismo es el del naturalismo, el cual es una versión del materialismo vulgar, no del materialismo emergentista, que es

una concepción de materialismo mucho más amplia que defenderemos en el próximo capítulo.

2300

6.6 Los tres mosqueteros del naturalismo

Los escritos de los mecanicistas, o materialistas “vulgares”, Ludwig, Biichner, Jacob Moleschott y Karl Vogt, fueron muy populares en la segunda mitad del siglo XIX. Btichner, un médico, fue con mucho

el más original e influyente de los tres, Su Huerzay materia (1855)

se difundió en varios idiomas por toda Europa y se mantuvo en catálogo durante medio siglo, Es cierto, la unión de la biología, la psicología y las ciencias sociales permaneció en un estado progra

mático, pero la cosmología espiritualista sufrió un duro golpe en

casi todos los terrenos. Las burlas de Frederick Engels (1954) no

contribuyeron a desacreditar el materialismo mecanicista, en particular porque Engels opuso a aquel la supuesta profundidad y su-

tileza de la dialéctica de Hegel. Es natural que los partidarios de la

ciencia se alinearan con Biichner, Moleschott y Vogt, en lugar de

hacerlo con su enemigo más estridente. Un siglo después, otra troika encendió el entusiasmo de los naturalistas: la compuesta por Richard Dawkins (por ejemplo, 1976), Steven Pinker (por ejemplo, 2003) y Daniel Dennet (por ejemplo,

1995). Estos populares autores gozan de una ventaja frente a sus

antecesores: predican desde el púlpito académico. Lamentablemente, tal como se verá a continuación, el naturalismo de estos tres

mosqueteros incluye una cuota de mala ciencia de su propia cose-

cha, a consecuencia de lo cual en realidad han debilitado la causa naturalista.

Para comenzar, los tres autores en cuestión han difundido el innatismo, cuyo dogma central es: “Lo natural prima sobre lo adquírido” o “El genoma es el destino”. Esta doctrina está basada, a su vez, en una versión extravagante de la genética, según la cual la molécula de ADN es “egoísta” y tiene el cometido de difundir su clase tanto como sea posible. Además, los genes serían autosuficientes; en concreto, se duplicarían a sí mismos, estarían sujetos a la selec-

ción natural y serían la unidad de selección. En cambio, la existencia

misma del organismo completo sería “paradójica”, ya que su única función sería la de servir de medio para la trasmisión de material genético de una generación (¡de organismos!) a otra. 201

Irónicamente, el genetismo va a contracorriente de la genética.

En efecto, el ADN es bastante inerte y sólo las enzimas pueden dividirlo. Más aún, el ADN no “especifica” la forma en que se pliegan las proteínas, la cual está bajo la fuerte influencia del medio celular, Segundo, nadie sabe todavía cómo hacer que una bolsa de molé-

culas de ADN y una mezcla de agua y biomoléculas empiece a me-

tabolizar, proceso que constituye la primera condición de la vida, En consecuencia, la biología sintética, que se propone fabricar células a partir de sus componentes abióticos, deberá abarcar mucho

más que la ingeniería genética.

Tercero, el organismo completo —no su genoma— €s el que

está sometido a la selección natural y es, por consiguiente, la unidad

de la evolución. La razón es que la selección natural tiene que ver

con la supervivencia y la reproducción, algo que sólo los organismos

pueden hacer. Si un individuo muere antes de reproducirse, sus

preciosos genes no se trasmiten a la generación siguiente. Más to-

davía, a diferencia del gen pasivo, el organismo reacciona ante su entorno: participa en la construcción de su propio hábitat, se adapta

y adapta su ambiente (véase, Lewontin y Levins, 2007; OldingSmee et al., 2003).

o

Cuarto, los autores en cuestión comparten la concepción, tan

difundida como errónea, de que la selección conserva todas las

adaptaciones y elimina todos los rasgos disfuncionales. Aunque la

selección natural es, desde luego, un maravilloso mecanismo de adaptación, es demasiado lenta e imperfecta como para eliminar

del todo ciertas características disfuncionales, como por ejemplo las uñas de los pies (que en la actualidad sólo benefician a los podólogos), las muelas del juicio (pensadas, evidentemente, para enriquecer a los ortodoncistas), así como algunas enfermedades debilitantes como la depresión, que sólo benefician a los psiquiatras,

pese a que Nesse y Williams (1994) la han considerado adaptativa porque juzgan que conduce al paciente a abandonar las batallas perdidas. (Más sobre el adaptacionismo en Gould, 2002).

Otra contribución original, aunque equivocada, de nuestros au-

toproclamados hombres “brillantes” es la idea de que la evolución ha sido programada mediante “algoritmos evolutivos” (Dennet, 202

1995). Sin embargo, este proceso no puede ser natural y, a la vez, estar gutado por algoritmos, porque estos últimos son artificiales.

Además, los algoritmos se diseñan para producir un resultado de una clase predeterminada, mientras que la especiación no es predecible, salvo, desde luego, en el caso de la creación deliberada de híbridos como el tangelo. Además, como han insistido con acierto Stephen Jay Gould y

Richard Lewontin, la evolución se caracteriza por su contingencia, por su dependencia de circunstancias externas no biológicas, tales

como las catástrofes geológicas y climáticas. Asimismo, como ha sugerido Francois Jacob (1977), el proceso evolutivo se parece más al trabajo de un oportunista hojalatero itinerante, que trabaja con

lo que encuentra en su caja de herramientas, que al de un ingeniero que empieza de cero, sabe de antemano lo que quiere y planifica

cómo conseguirlo. Es decir, las moléculas y los órganos cambian de función según lo permita la oportunidad. Por ejemplo, las esponjas, que son organismos sumamente primitivos, tienen los mis-

mos neurotransmisores que desempeñan papeles importantes en los seres humanos; y las glándulas suprarrenales humanas, que en un cuerpo bien diseñado estarían dentro del cerebro, están situadas sobre los humildes riñones. La naturaleza es una artista del collage,

no una escultora.

Quinto, los tres autodenominados “brillantes” paladines de Darwin admiran y difunden las fantasías de la llamada psicología evolucionista (véase, por ejemplo, Buss, 2004). En concreto, estos autores comparten la creencia de que, básicamente, la mente humana está adaptada al “ambiente del Pleistoceno”, un período que

comenzó hace aproximadamente 1,6 millones de años. En consecuencia, básicamente seríamos fósiles vivientes: caminaríamos por

las principales calles de Miami, algunos de nosotros por el seguro parque de Harvard, y hasta por la Luna, provistos de cerebros pre-

históricos. Nada, ni siquiera la revolución del Neolítico, la Revo-

lución francesa o la Revolución industrial pudieron haber

modificado la naturaleza humana: la evolución del hombre se detuvo hace alrededor de 100 000 años para que pudiera inventarse la psicología evolucionista. La razón de ello, se nos dice, es que la 203

naturaleza humana reside en el genoma, el cual —se supone— es inmutable, básicamente autosuficiente y el primer motor de todo lo humano. Es cierto que ninguno de los autores en cuestión niega la “in-

lo Nuencia” del ambiente, especialmente del contexto social, pero

que los tres pasan por alto es que la sociabilidad y la artificialidad las comson parte de la “naturaleza” humana, una parte que excede

petencias de la biología. El problema no es solamente que los seres humanos participemos en relaciones sociales y utilicemos artefactos, sino que ni unas ni otros son naturales y, a pesar de ello, codefinen la humanidad de la misma manera que tener 23 cromosomas, descender de ciertos homínidos y poseer un cerebro plástico capaz de aprender casi cualquier cosa. Es verdad que esta capacidad parece estar arraigada en una colección de genes ARN (las regiones humanas aceleradas 1 y 2) característicos de los seres humanos. Sin embargo, las potencialidades no pueden actualizarse sin las circunstancias sociales favorables.

Por último, tanto Pinker como Dennet, junto con Hilary Put-

nam, Margaret Boden, Patricia Smith Churchland y otros filósofos,

han defendido la metáfora del cerebro como un ordenador. A pri-

mera vista, esta perspectiva parece naturalista porque prescinde del

alma inmaterial, aunque algunos de los autores mencionados han

afirmado que lo que importa es la función, no el material. Sin em-

bargo, los ordenadores no son precisamente naturales. Peor aún, a diferencia de los cerebros humanos, aquellos se limitan a realizar

operaciones algorítimicas. Carecen de espontaneidad, creatividad, intuición, de la capacidad de sentir emociones y de sociabilidad.

En efecto, a los ordenadores hay que programarlos; no puede haber

programas para inventar ideas originales. Un ordenador emocional sería poco fiable y, por tanto, muy difícil de comercializar; y los or-

denadores que se asociaran libremente entre sí no nos serían útiles

(más sobre esto en el capítulo 11).

En resumidas cuentas, los tres mosqueteros no han aportado mucho a la causa del naturalismo: los mosquetes están obsoletos.

204

6.7 El psicologismo El psicologismo es la tentativa de dar cuenta del comportamiento

social y los rasgos sociales en términos psicológicos, desarendiendo los elementos sociales irreducibles, como la estructura social, las

instituciones y los movimientos sociales. Las incursiones sociales

de Freud y Searle son dos ejemplos de psicologismo. Lo es, también, el enfoque de la elección racional, tan difundido en las investigaciones sociales. Freud sostenía que, en última instancia, todos los conflictos so-

ciales son un producto del complejo de Edipo: los hombres se rebelan contra la autoridad porque identificarían a su jefe con su

padre. La mujeres también pueden rebelarse contra el orden establecido y a Freud no se le ocurrió que podamos poner reparos a una enfermedad social sin dejar que las animosidades personales nos nublen el juicio. En todo caso, ahora la interpretación psicoanalítica de los hechos sociales está pasada de moda. Searle (1995) intentó explicar los asuntos sociales en términos

de “intencionalidad”, un término ambiguo, como vimos en la sección 6.2. Sin embargo, él ha restringido su atención a trivialidades

tales como el hecho de que el valor del papel moneda depende de una convención, y “casos en los que estoy haciendo algo sólo como parte de que estamos haciendo algo”. Una sola categoría —por ejemplo, la intencionalidad, la utilidad económica o la clase social—

no puede proporcionar teorías que expliquen hechos macrosociales como la pobreza, la inflación, la desigualdad, la discriminación, el autoritarismo, el desempleo o la guerra, todos los cuales son sisté-

micos. El psicologismo estuvo muy extendido en los estudios sociales a partir de la década de 1870, cuando la microeconomía neoclásica

se tornó predominante y se difundió a todas las disciplinas sociales con el nombre de “teoría de la elección racional”. En efecto, esta

teoría postula que la acción individual es la raíz de todos los acontecimientos sociales, y que todos los individuos, independiente-

mente de su lugar en la sociedad, actúan para maximizar sus beneficios esperados. Ahora bien, obviamente, el concepto de uti%

2 205

e como lidad social es una noción psicológica, puesto que se defin

el producto del beneficio (o utilidad) subjetivo por la probabilidad

Dado que subjetiva (o intensidad de la creencia) de una acción. la medición ninguna de estas características es asequible mediante

edimienobjetiva, normalmente ambas se suponen a prior: UN proc

to que dista de ser científico (véase Bunge, 1996)...

cienEn cambio, la economía experimental es la investigación

tífica del comportamiento económico de los individuos Como, por

varias ejemplo, la relación de la productividad con los incentivos de clases y la relación entre la satisfacción laboral y la posibilidad de influir en las decisiones de los directivos. Sin embargo, estos estudios an —por ejemplo, los de Daniel Kahneman y Ernst Fehr— se ocup

de los individuos, no de los sistemas económicos tales como las

compañías y las economías nacionales. Por consiguiente, clasificarsu rrecto: esta investigación como economía experimental es inco

practilugar es la psicología social, aun cuando la mayoría de sus cantes trabajen en departamentos de economía. De momento, la un economía experimental propiamente dicha no es n1 siquiera proyecto de investigación, aunque debería ser interesante y útil, es-

pecialmente si evitara el psicologismo. El rechazo del psicologismo no supone negar que los actores sociales estén motivados, en gran medida, por sus creencias. En 1928, el sociólogo W. 1. Thomas señaló que las personas no reaccionan

ante los hechos sociales en sí sino a su percepción de los mismos (Merton, 1968, págs. 19-20). En consecuencia, es cierto que (parte)

del ser social está en los ojos de quien mira. También es verdad que

actuamos impulsados por nuestros valores y creencias, pero siempre dentro de un contexto social que precede y normalmente supera

al individuo, como señaló Marx. Además, estos contextos reaccionarán, sin duda, ante las acciones del actor individual. Como resultado, algunas de las acciones de este serán frustradas, mientras

que otras tendrán consecuencias imprevistas. En otras palabras, las

consecuencias de una acción “no se limitan al área específica en la cual su influencia está prevista y suceden en campos interrelacionados ignorados de manera explícita en el momento de la acción”

(Merton, 1976, pág. 154),

El naturalismo predispone al estudioso de la sociedad a adoptar un enfoque individualista, es decir, a comenzar por la acción individual. Sin embargo, da la casualidad que toda acción tiene lugar

en un contexto social preexistente. Piénsese en la búsqueda de trabajo en un período de recesión económica. Hay poco que el individuo aislado pueda hacer para modificar la situación social,

independientemente de lo listo que sea y lo bien informado que esté. Sólo las organizaciones, como los Estados, los partidos políticos

y las grandes empresas, pueden modificar los hechos sociales. Ade-

más, esas organizaciones no pueden entenderse desde la psicología individual porque esta disciplina estudia los cerebros, no los sistemas sociales. En suma, el naturalismo no puede hacer frente a los asuntos sociales porque estos son artificiales.

6.8 Naturalización de la lingiiística, la axiología, la ética, el derecho y la tecnología A continuación, echemos un vistazo a cuatro proyectos de natura-

lización, comenzando por el naturalismo lingúístico o biolinguístico. Se trata de la tesis de que la lengua es natural y, además, instintiva, por lo que la lingiiística es, básicamente, una ciencia natural (Pinker,

2003). A la vez, la mayoría de los defensores de este punto de vista se han adherido al dualismo mente-cuerpo cartesiano, lo cual, dicho

sea de paso, confirma la necesidad de distinguir entre el naturalismo y el materialismo.

Parte de este proyecto de naturalización es la atrevida afirmación de que nacemos con una gramática universal (GU), la intersección

de todas las gramáticas particulares. Lamentablemente, nadie se ha

molestado en formular de manera explícita las reglas de la GU y los genetistas no han encontrado el presunto gen o genes de la GU.

Tampoco hay ninguna razón para esperar su descubrimiento, ya que las lenguas son altamente convencionales: la relación palabraobjeto (o signo-significado) es artificial, y lo es, asimismo, el orden

de las categorías gramaticales. Por ejemplo, ¿por qué habría de ser más natural el uso de río que de potamós, o viceversa, para denotar 207

un curso de agua en español? ¿Y por qué habría de ser el orden su¡eto-verbo-objeto (SVO), el más común en las oraciones del espa-

ñol, más natural que el orden sujeto-objeto-verbo (SOV), que predomina en japonés? No hay ninguna prueba de que uno sea más adaptativo que el otro. En cambio, se puede decir que los ór-

denes VSO y VOS son más lógicos que sus alternativas porque Cuan-

do se formalizan oraciones en el cálculo de predicados, se comienza

por el predicado más notable. Por tanto, se formaliza “b dijo c* co-

mo Shc. Con todo, la racionalidad es de todo menos natural, como

indica lo reciente de su aparición. Lejos de ser algo natural, como la digestión o caminas, el habla

es social. Esto es así porque, a diferencia de la vocalización animal, el habla es una herramienta de comunicación simbólica y, Como tal,

está sometida a la evolución cultural. Sin embargo, podemos olvi-

darnos de todo esto si, por conveniencia, olvidamos la existencia de

la lingiiística histórica y negamos la legitimidad de la sociolingúiística, tal como hacen Chomsky y su escuela. Semejantes descuidos obstaculizan la comprensión de los cambios de la lengua producidos

por las conquistas y las migraciones en masa. Por ejemplo, la tras-

formación del inglés antiguo (o anglosajón) en el inglés moderno sería imposible de entender si no conociéramos los profundos cam-

bios sociales provocados por la conquista normanda. Asimismo, la llegada en masa de inmigrantes europeos a EE UU ayuda a comprender algunas de las diferencias entre el inglés americano y el inglés británico. En cambio, todavía desconocemos las causas del llamado

gran desplazamiento vocálico que aconteció entre Chaucer (quien pronunciaba A, E, I, O, U, al igual que lo hacían, y todavía lo hacen,

alemanes y españoles) y Shakespeare. En todo caso, este desplazamiento fue inadaptativo y, por consiguiente, no natural.

Nada de esto supone negar la legitimidad de la faceta biológica del estudio de la lengua, entendida como algo diferente del lenguaje, para usar la importante distinción de Saussure entre parole, proceso

que ocurre en humanos vivos, y langue, objeto abstracto que resulta de simular que las expresiones lingúísticas existen por sí solas. Por

ejemplo, el aprendizaje del habla (su ontogenia) y los defectos del habla, tales como el tartamudeo y la dislexia, son rasgos biológicos, Pe

208



va que Genen lugar en los cerebros, Pero esos cerebros están insertos en redes sociales, las cuales son construidas, reformadas y destruidas

von la ayuda de ciertas herramientas de comunicación, principal-

mente de los lenguajes “naturales”, todos ellos artificiales. Por tanto,

we debería investigar la lingitística biosocial en lugar de la biolinglistica. Pero pasemos a estudiar otros aspectos del programa naturalizador, El naturalismo axiológico sostiene que nuestros valores básicos san naturales, no convencionales, e intersubjetivos en lugar de subjerwos, La razón aducida es que todos los seres humanos tienen

más o menos las mismas necesidades básicas, lo cual, a su vez, se debería a los aspectos comunes de nuestra constitución biológica.

Además, ello debe ser válido para todos los seres vivos, ya que todos pertenecemos al mismo “árbol de la vida” y también porque la valoración es una condición de la superviviencia. Por tanto, los valores

emergieron hace unos 3500 millones de años, junto con la vida. En consecuencia, nada hay de falaz en el naturalismo respecto a los valores. Por el contrario, la que es falaz es la famosa condena de

G, E. Moore de la “falacia naturalista”. Los neurocientíficos cognitivos perpetran esta “falacia” sin remordimientos cada vez que, fundándose en los estudios de imágenes cerebrales, concluyen que

evaluar la finalidad de una acción humana se “correlaciona” con la

actividad de la corteza orbitofrontal media (por ejemplo, Hare ez al,, 2008). La biología ha arrollado al idealismo axiológico. Creo que el naturalismo axiológico es convincente para el caso de los valores biológicos, especialmente para el bienestar, pero no

para el de los valores sociales, morales y estéticos. Estos, como los

gustos adquiridos, dependen estrechamente de la experiencia, la posición social y el entorno social. Con frecuencia, en Cuestiones so-

ciales, morales y estéticas, lo que agrada a una persona desagrada a otra. Por tanto, hay preferencias subjetivas además de objetivas. Además, la mayoría de los valores económicos, políticos y culturales no

son naturales, ya que dependen del trabajo, la tradición, las pers-

pectivas y las expectativas. Por ejemplo, nada hay de natural en las

convenciones sociales, los precios (a diferencia del valor de uso) o

la reputación. 209

Sin embargo, el supuesto básico del naturalismo axiológico, que los valores, o al menos algunos de ellos, son “reales” en lugar de subjetivos, se sostiene, con la salvedad de que debemos incluir en

la realidad no sólo la naturaleza sino también la sociedad, así como

el yo, el cual es moldeado, en gran medida, por el entorno social

(véase Boudon, 2001; Railton, 2003).

El naturalismo ético es la tesis de que las normas morales son o bien naturales, o bien reducibles a las ciencias naturales. Podemos llamar naturalismo ético ingenuo a la primera concepción y Naturalismo ético sofisticado a la segunda. Los antiguos griegosy los estoicos romanos, como Zenón el estoico, y los modernos filósofos morales emotivistas, desde Hume hasta los positivistas lógicos, fueron naturalistas éticos ingenuos, ya que ambos grupos recomiendaban “seguir la naturaleza”. Cuando algunos de los primeros darwinistas sugirieron que la evolución tenía una flecha moral,

Thomas Henry Huxley (1983), conocido como “el bulldog de Darwin”, reaccionó enérgicamente y afirmó que la moral es comple-

tamente artificial, ya que tiene como finalidad suprimir el egoísmo,

el cual es natural porque es una consecuencia del instinto de auto-

conservación. Contrariamente a lo que predicaban los esto1cos, €s

bien sabido que Huxley afirmó que “el progreso ético de la sociedad

no depende de imitar el proceso cósmico, mucho menos de huir del mismo, sino de combatirlo”. Con todo, recientemente el naturalismo ético ingenuo ha sido

respaldado en parte por la investigación experimental en dos campos: la primatología y la economía comportamental. De hecho, mediante

la observación de chimpancés y bonobos, Frans de Waal (1996) des-

cubrió que, lejos de ser siempre agresivos, estos parientes cercanos nuestros son, en general, amables, lo cual explica por qué forman grupos bastante estables. Sin duda, los simios engañan y luchan, por el poder y por acceder al harén del macho alfa, pero a menudo

colaboran para consegir sus objetivos y no son crueles. En resumen, no se comportan del modo malvado que la antropología pop solía decirnos. Pero tampoco son buenos samaritanos. A diferencia de los chimpancés, los humanos adultos parecen

ser “reciprocadores fuertes” imbuidos del sentido de ecuanimidad. 210

De hecho, en sus trabajos con humanos, algunos economistas com-

portamentales (o experimentales), desde Daniel Kahneman hasta

Ernst Fehr y sus colegas de la Universidad de Zúrich, han corroborado lo que todo padre, madre y docente sabe, pero los economistas ortodoxos y los autoproclamados psicólogos evolucionistas ignoran, a saber, que la mayoría de nosotros somos básicamente justos (Fehr y Fischbacher, 2003; Gintis et al., 2005), (En cambio, los chimpancés son básicamente egoístas: Jensen er al, 2007). Ade-

más, se trata de una faceta de la naturaleza humana, ya que el sentido de desigualdad tiene un “correlato” neural, es decir, la ínsula, En efecto, en los humanos, la actividad de esta región de la corteza

prefrontal es más intensa cuanto más injusta resulta una situación a ojos del sujeto (Hsu er al. 2008; Purves et al. 2008, pág. 615). En resumen, la aversión por la desigualdad es algo generalizado. Sin embargo, no es innata, tal como se verá en la sección 10.1.

Por tanto, la psicología contemporánea ha refutado la concepción pesimista judeocristiana de la naturaleza humana, a la vez que

ha confirmado las ideas de Adam Smith acerca de que las emociones morales son la fuente de nuestras actitudes respecto a la ecuanimidad y la justicia distributiva. Pero, como todas las disposiciones naturales, el sentido de ecuanimidad se modifica con la educación y la reflexión, como lo prueban las diferencias individuales en las reacciones ante la desigualdad. Por ejemplo, las consideraciones prácticas pueden obligar a alguien a negociar la equidad por la eficiencia, como cuando se realiza una selección de pacientes según ciertas prioridades (triaje) en el ámbito médico, En este caso, el putamen, que responde a la ineficiencia, compite con la Ínsula, y otra

región más, el área subgenual septal/caudal, también se activa (Hsu

et al., 2008). La moraleja de esta historia es que el sentido de la ecuanimidad incluido en la justicia distributiva no es sólo una cuestión académica y mucho menos un espejismo (Hayek): está profundamente inserto en todos los cerebros que no han sido irremisiblemente dañados por la economía ortodoxa o por una ideología conservadora. Una lección más general es que nuestras ideas poseen fuertes raíces emotivas que pueden entrelazarse con las raíces

cognitivas. Este descubrimiento refuta el utilitarismo y constituye 210

una reivindicación parcial del emotivismo, pero es sólo parcial porque el motivismo pasa por alto el componente cognitivo. Lo que he llamado naturalismo ético sofisticado es el proyecto de reducir las normas morales a las ciencias naturales, especialmente a la biología humana (Edel, 1944). Elliot Sober y David Sloan Wil-

son (1998) han abordado con valentía este ambicioso proyecto sit:

viéndose de la biología evolutiva. En concreto, se han adherido a el comla “regla” (hipótesis) de William Hamilton, según la cual portamiento altruista aparece de forma espontánea en todas las es-

pecies cuando se cumple cierta condición. Esta condición es que el coste c del comportamiento altruista sea menor que su beneficio

b por el coeficiente de relación genética r entre el actor y el bene-

ficiario: c < 7.6. Se han citado algunos casos confirmatorios nteresantes, pero no incluyen a los humanos. Entre estos, la relación social prima sobre la relación biológica.

Por ejemplo, es probable que ayudemos a nuestras esposas, amigos

y socios, que no están relacionados genéticamente con nosotros,

antes que a nuestros parientes genéticos. (En estos casos 7 = 0, por

lo que la condición de Hamilton para el comportamiento altruista

se convierte en “c < 0”, lo cual no tiene sentido). La violencia doméstica no es menos frecuente o letal que la violencia callejera. Lo

mismo sucede con la guerra: recuérdese que tres de los principales líderes de los Estados que participaron en la Primera Guerra Mun-

dial, a saber, el káiser alemán y los emperadores británico y ruso,

eran primos. En cambio, la “familia” mafiosa no está basada en el parentesco. En suma, entre los humanos, ni el conflicto ni la cooperación están determinadas por la cercanía genética: el interés (o

valor), los vínculos sociales y los conflictos sociales priman sobre la proximidad genética.

Curiosamente, mientras que es probable que el altruismo llene de consternación a los biólogos y los economistas ortodoxos, nO

sorprende demasiado a los psicólogos ni a los científicos sociales.

Estos saben que dar puede ser más placentero que recibir, y que compartir es una condición para mantener la posición social o la reputación en toda red social. Sin embargo, tal como Robert Louis

Stevenson señaló hace ya mucho tiempo, las personas normales 212

son mitad y mitad o egotruístas, en lugar de totalmente egoístas o

wralmente altruistas, Necesitamos ser un poco egoÍstas para subsistir v un poco desinteresados para coexistir

La moralidad no se puede naturalizar con éxito porque los hechos morales son sociales en lugar de biológicos a causa de que

amnrecen en contextos sociales: Robinson no tenía dilemas morales antes de encontrar a Viernes. Por ejemplo, el trabajo como volun-

tario y el delito son hechos morales porque el primero es prosocial

v el último es antisocial. Segundo, todas las morales pertenecen a

alguna tradición y existen en algún contexto social, Es decir, las normas morales las inventan y aplican actores humanos con intereses determinados y en circunstancias sociales determinadas. Si se cambia el actor o las circunstancias, seguramente será apropiado un conjunto diferente de reflexiones morales. Esta es la razón por la cual la moral difiere de una sociedad a

otra y ha cambiado a lo largo de la historia, así como de por qué

puede haber progreso moral, como en los casos de la abolición de

la esclavitud y la pena de muerte (véase, por ejemplo, Westermark,

1906-1908). En conclusión, la moralidad no puede naturalizarse

porque es un capítulo del manual de mantenimiento social. Sin

embargo, sí puede “materializarse” en el sentido de que puede y debe considerarse una característica de la coexistencia social de los

agentes materiales (personas) de los sistemas materiales pertene-

cientes a la clase de los sistemas materiales sociales. Lo que vale para la moral vale también, cambiando lo que haya que cambiar, para la ética, el estudio de la moral. La ética analiza

y evalúa las reglas de conducta y, como tal, es una tecnología social,

no una rama de la historia natural. Además, a diferencia de las artes sociales, se supone que las tecnologías sociales utilicen leyes científicas de forma deliberada. Ahora bien, si se da el caso de que resulta aplicable, una ley científica es tecnológicamente ambiva-

lente puesto que permite la obtención de dos reglas o preceptos tecnológicos opuestos (Bunge, 1967a). En efecto, una ley L que

incluye un medio M y un objetivo de interés práctico G, posee la forma:

213

Ley. Si ocurre el antecedente M, le sigue (o es probable que le siga) la consecuencia G. [1]

Una ley de esta forma sugiere dos reglas tecnológicas Opuestas

entre sí:

Regla 1. Para conseguir G, póngase en práctica M. [La]

Regla 2. Para evitar G, impídase que suceda M. [2b] Adviértase que mientras el esquema de ley [1] carece de valor, las reglas [2a] y [2b] basadas en este (pero que no se deducen del esquema) sí poseen valor. Además, si existe la posibilidad de que

las consecuencias de G afecten a otros individuos, la elección entre

procurar o evitar G y, por tanto, entre aplicar [2a] o [2b], supondrá

reflexiones morales. En consecuencia, el proyecto naturalizador supone un círculo lógico: el intento de derivar todas las normas morales a partir de la ciencia supone normas morales. Por sí sola, la biología no puede explicar la naturaleza humana

porque, tal como expresó el arqueólogo británico Gordon Childe

en 1936, el hombre es el animal que se hace a sí mismo. Por consiguiente, sólo una combinación de evolución biológica y evolución cultural puede explicar la emergencia, reforma y abolición de las normas sociales morales y legales. En concreto, sería tonto explicar las constituciones en términos puramente biológicos. Lo mismo

vale para los códigos internacionales, como la Carta de Naciones

Unidas, así como para hechos sociales. He aquí la razón por la cual la expresión “ciencia social naturalizada” constituye un oxÍmOron. El naturalismo jurídico sostiene que las leyes son naturales. Sin

embargo, la historia muestra que las leyes naturales no existen:

todos los códigos jurídicos son artificiales. Además, como todos

los artefactos, las llamadas leyes positivas serán seguramente imperfectas, aunque también serán perfectibles mediante la investigación, el debate y la lucha. Lamentablemente, el debate contemporáneo acerca del derecho natural ha sido distorsionado por los

positivistas jurídicos: en su ansiedad por defender la racionalidad

y el secularismo, así como el statu quo y el correspondiente orden jurídico, sostienen que debemos escoger entre dos escuelas, la del derecho natural y el positivismo jurídico, y que la primera no es 214

más que un vestigio de la tradición, en tanto que la ciencia o, al menos, la racionalidad, está del lado de la escuela de “la razón de

la fuerza”. En realidad, esta elección no es obligatoria, porque hay un tertium quid, es decir, el realismo jurídico. Esta escuela sostiene que el derecho es más que una herramienta de control social: tam-

bién puede ser un instrumento de progreso social, en particular un

auxiliar de toda política orientada a procurar la justicia social (véase Bunge, 1998; Pound, 1954). La disyunción del derecho y la mo-

ralidad que mantiene el positivismo jurídico es incorrecta porque las leyes regulan nuestro comportamiento respecto a los demás y, como tales, son reglas morales objetivas que deben evaluarse por sus consecuencias (Wikstróm y Treiber, 2009).

Lo que vale para la tecnología social, en concreto para la ética y el derecho, vale también para las demás ramas de la ingeniería: estas también son actividades artificiales centradas en el diseño de artefactos. Lo que también es cierto, aunque paradójico, es que la ar-

tificialidad sea la esencia de la naturaleza humana: sin importar lo primitivos que sean, los seres humanos usan o inventan y dan forma

aartefactos de muchas clases, desde herramientas y armas hasta

instituciones y palabras. Únicamente los artefactos construidos por los animales no humanos, como las arañas, las abejas, los castores,

los cuervos y los pájaros tejedores, son naturales en el sentido de que los respectivos animales los fabrican de forma instintiva, sin

hacer bocetos primero y sin necesidad de educación formal. Los artefactos materiales humanos y sus correspondientes artes y tec-

nologías son tan poco naturales como los poemas, las canciones, las reglas de etiqueta, los códigos jurídicos, las religiones y las teorías científicas. Puesto que la antropología naturalista no puede dar cuenta de lo artificial, pasa por alto nada menos que la completa artificialidad que distingue a los seres humanos de otros animales. En consecuencia, no es adecuada para el consumo humano.

Por último, echemos un vistazo a un programa de naturalización especial: el intento de reducir todas las ciencias del hombre a la

neurociencia.

215

6.9 Neuro esto y neuro aquello En los últimos tiempos, la neurociencia ha reemplazado a la física naen su papel de la ciencia más sexy y ha completado con éxito la

turalización de la psicología iniciada en la antigijedad por Hipócrates y Galeno. En efecto, la neurociencia cognitiva y afectiva ha

reemplazado al conductismo, que era científico pero extremada-

mente estrecho, al mismo tiempo que al psicoanálisis, que era am-

plio pero pseudocientífico. Por fortuna, la neurociencia cognitiva

no ha eliminado la psicología social, sino que se ha combinado con ella. En efecto, actualmente la psicología social tradicional, nacida en la década de 1930, se está enriqueciendo con la neurociencia cognitiva para producir la neurociencia cognitiva social (véase, por

ejemplo, Cacioppo et al. 2006).

Puede que fuera inevitable que el éxito en la captación de lo

mental conseguido por el programa de naturalización inspirara algo

que podemos llamar neuroimperialismo: el intento de explicar cada

comportamiento en términos neurocientíficos. Efectivamente, en

estos últimos años hemos visto el nacimiento de la neuroeconomía,

la neurohistoria, el neuroderecho, la neuroética, el neuromárketing y la neuropoética. ¿Cuánto de esto es ciencia o tecnología legítima, y cuánto nada más que promesas vacías? Veámoslo.

La neuroeconomía es el estudio del comportamiento económico

de los individuos a la luz de la neurociencia cognitiva y afectiva (Camerer, 2003). Esta naciente disciplina ha mostrado ciertas diferencias entre la compra planificada y la compra impulsiva: en tanto que la primera está guiada por la corteza prefrontal, la segunda

se encuentra bajo la fuerte influencia de los sistemas subcorticales, como había de esperarse. Los resultados de este tipo son interesantes

pero también limitados porque se refieren a los individuos, no a las empresas y los mercados, y porque estos descubrimientos en el

laboratorio son una pobre guía para lo que sucede en la vida real.

El neuroderecho es el estudio científico de lo que los juristas llaman mens rea, O sea, la mente delictiva, Se sabe desde hace décadas

oe

Jóvenes forman nuevos vínculos 216

lejos del control del hogar y la escuela y cuando sus cerebros están

empapados de testosterona, mientras que sus cortezas prefrontales todavía son inmaduras. Pero el neuroderecho no puede explicar por qué la tasa de criminalidad es mucho mayor en Estados Unidos que en el vecino Canadá, país que, a su vez, posee una tasa más alta

que la de Europa Occidental, la India o Japón. Esta disciplina tampoco puede explicar qué impulsa a la trasgresión persistente, es decir, al delito en los adultos. Estas limitaciones del neuroderecho se deben a que, a diferencia de la poesía o la matemática, el delito es

idéntico a la conducta antisocial, y la comprensión de esta clase de comportamiento exige la exploración del entorno social (véase, por ejemplo, Wikstróm y Sampson, 2006). La neuroética es el estudio de la forma en la cual el cerebro interioriza las normas morales, así como la investigación de las causas patológicas del fracaso de esa enculturación moral. El caso clásico es, desde luego, el de Phineas Gage, quien perdió su conciencia

moral como consecuencia de una lesión grave en el lóbulo frontal. Sin embargo, este es un caso muy excepcional: en la enorme mayoría de los casos, el comportamiento inmoral resulta o bien de una socialización incompleta, o bien de una patología social, no de una deficiencia neurológica. ¿Y qué hay de los siete pecados capitales? ¿La neurociencia será capaz de explicar la ira, la codicia, la gula y los demás, tal como ha

propuesto hace poco, un programa del Canal Historia? Eso es sumamente improbable por dos razones. Una es que cualquier lista

de pecados está determinada culturalmente. Por ejemplo, la agresión, la esclavitud, el robo y la insensibilidad social no aparecen en la lista

de pecados de los cristianos. Las peores de todas las agresiones, las militares, no se perpetran por ira; asimismo, la motivación de los

ladrones comunes no es la ira ni la codicia: la mayoría de ellos roba

para alimentar a sus familias en épocas de desempleo o de desintegración social. Centrarse en el cerebro como fuente de los males so-

ciales equivale a distraer la atención de su origen estructural, La razón de que la neurociencia no pueda hacer frente a los problemas sociales por sí sola es que esta disciplina estudia lo que ocurre dentro de los cerebros de las personas, no entre ellas: sólo las 217

ciencias sociales y biosociales tienen las herramientas adecuadas para ocuparse de las relaciones sociales. Por consiguiente, tenemos que aceptar el enfoque neurocientífico del comportamiento hu-

mano en todas sus clases con precaución. La razón de ello es que cualquier persona es miembro de varios círculos o sistemas sociales,

lo cual limita ciertas facetas del comportamiento a la vez que estímula otras. En consecuencia, si bien es cierto que las transacciones

en la bolsa de valores están influidas por el temor y la codicia, estas emociones no tienen su origen en los cerebros internos: su fuente está en hechos macrosociales, tales como las catástrofes naturales

o políticas, la inflación, el desempleo, la agitación social, la guerra y la innovación industrial. Piénsese en esta conocida situación hi-

potética: una catástrofe azota una comunidad, cuyos miembros se reúnen para poner remedio a algunas de las consecuencias del desastre: véase la figura 6.1.

En conclusión, se debe expandir el naturalismo para hacer lugar

a la economía, la organización social y la cultura. Esta expansión se llama “materialismo sistemista emergentista”, y la estudiaremos en el próximo capítulo. Comentarios finales

El gran mérito del naturalismo es que debilita el pensamiento má-

gico y, especialmente, el sobrenaturalismo. Sin embargo, el natu-

ralismo es limitado y, por tanto, débil ya que no da cuenta de las

peculiaridades de lo social, lo moral, lo legal, lo científico, lo tecnológico y lo artístico. Esta es la causa de que haya fracasado en su

intento de explicar los procesos sociales a gran escala, desde la emergencia de la cultura hasta el surgimiento y caída de los imperios.

Después de todo, ser humano consiste en “violar el orden natural” para representar la paradoja de que la naturaleza humana es en gran medida artificial. Más aún, según el naturalismo, la naturaleza humana es biológica, de lo que se sigue que la reforma social es ineficaz, o algo peor,

tal como Pinker (2003, pág. 294), Tiger (2008) y otros han afir-

218

ae

-

mavhecho

nuevo macrohecho

mierahecho

Firbora €,

Un macrobecho,

como



nuevo

microhecho

una inundación o una revolución, despierta emociones

sor mebilizan a los individuos que cooperan para llevar a cabo un cambio en el medio. Insinsado en Coleman, 1990, pág. 10 y ss.

mado (obviamente, Noam Chomsky no ha caído en la cuenta de gue su intatismo y su antievolucionismo entran en conflicto con

su posición política de izquierdas). Curiosamente, el naturalismo, gue tue científica y políticamente progresista entre el Renacimiento y la Uustración, se utiliza en la actualidad para apoyar el conserva-

dursmo, Peor aún, algunos de los paladines más activos del secu-

isrismo y la ciencia combaten con razón el creacionismo y la parapsicología, pero pasan por alto otras doctrinas que, además de ser igualmente pseudocientíficas, son mucho más perniciosas, como la economía ortodoxa y las teorías políticas convencionales. Asimismo, los defensores de los derechos de los animales, que también

son naturalistas, se desentienden normalmente de las violaciones

de los derechos humanos.

En suma, el proyecto de naturalización es válido en lo que toca a las ciencias naturales, pero resulta engañoso en las cuestiones pro-

pias de las ciencias sociales: en estas intenta despolitizar la política, en el mejor de los casos, y en el peor sirve de disfraz a un programa político retrógrado oculto. Dichas limitaciones y excesos del natu-

ralismo indican que esta cosmovisión debe expandirse para abarcar lo artificial y lo social, que son casi por completo no naturales (tienen orígenes o raíces naturales, pero son construidos, no descu-

biertos O encontrados).

En otras palabras, antes del surgimiento del hombre moderno,

el universo era totalmente legal. Después de este suceso, en un minúsculo rincón del universo, es decir, en las regiones habitadas de

nuestro planeta, ha habido reglas (o normas) además de leyes. Por

ejemplo, los conceptos matemáticos están sometidos a las reglas de

la lógica; los sistemas sociales “obedecen” leyes, tanto naturales

219

como sociales, además de convenciones y normas sociales, muchas de las cuales son locales, y los ordenadores funcionan de acuerdo tanto con las leyes de la electrónica como con los programas que

sus usuarios les imponen. Cualquier ontología realista debe ir más allá del naturalismo y hacerle sitio a lo artificial y lo social. La ampliación del naturalismo (fisicismo o materialismo vulgar)

que hemos propuesto no debe confundirse con el sociologismo, es decir, con la tentativa de explicar todo lo humano en términos puramente sociales, olvidando que los humanos somos animales so-

ciales. En otras palabras, los defectos del naturalismo no se corrigen mediante la exageración del aspecto no natural de la naturaleza humana, sino mediante la combinación de estas dos facetas. Sostengo

que, cuando se lo combina con el enfoque sistémico y el método

científico, el materialismo posee todas las ventajas del naturalismo y del sociologismo y, es de esperar, ninguna de sus desventajas. Pero esta clase de materialismo se merece un capítulo propio: el siguiente.

220

7 El materialismo

La palabra materialismo es ambigua, ya que designa tanto una doc-

trina como una filosofía. En la lengua cotidiana, “materialismo” es

sinónimo de “hedonismo”, nes materiales. En cambio, movisión según la cual todo doctrinas son mutuamente

es decir, la búsqueda de placer y bieel materialismo filosófico es una coslo que existe es real y material. Las dos independientes desde el punto de vista

lógico: el hedonismo es coherente con el inmaterialismo, y el ma-

terialismo filosófico es compatible con los más nobles valores mo-

rales. Epicuro, el famoso materialista de la antigiiedad, era conocido por ser extremadamente austero. Además, en la actualidad, a algu-

nos de los magnates y políticos corruptos más codiciosos, les gusta condenar el materialismo y predicar la espiritualidad, que confun-

den con la religiosidad.

No sorprende que el materialismo haya sido denigrado durante

más de 2000 años: debilita la religión, uno de los pilares de los gobiernos conservadores. Por ejemplo, Francis Collins, el actual di-

rector de los Institutos Nacionales de Salud [NIH, por sus siglas

en inglés] de EE UU, ha sostenido recientemente que “las afirmaciones del materialismo ateo deben ser rechazadas categóricamente”. Lo que no dijo es por qué, tal vez porque no sabe qué significa re-

almente “materialismo”. Es de suponer, y de esperar, que el Dr. Co-

llins, quien tiene una sólida carrera como investigador, no aprobaría

que ningún investigador de los NIH repitiera la afirmación de John

Eccles (1951) de que la mente inmaterial es la causa de la actividad pampas

>

22

del cerebro. En efecto, se espera que los científicos dejen sus cre-

encias religiosas e idealistas fuera de sus laboratorios. El materialismo filosófico se solapa en gran medida con el na-

turalismo, ya que ambos rechazan el sobrenaturalismo y coinciden

en que el universo o realidad está compuesto exclusivamente por objetos concretos. Con todo, estas corrientes de pensamiento di-

fieren respecto de las características de la materia. En efecto, el naturalismo incluye un concepto de materia muy especial, a saber, el

que investigan la física, la química y la biología. En consecuencia,

los naturalistas niegan la existencia de otras clases de materia: pensante, social y artificial, en particular la materia semiótica O materia

significante, como por ejemplo esta página de materla impresa.

Por consiguiente, el naturalismo es menos abarcador que el materialismo sistémico y emergentista que defenderé en este capítulo, Es decir, se puede ser naturalista sin ser materialista. Por ejemplo,

se puede afirmar que los componentes básicos de la realidad no son las cosas, sino los hechos (Wittgenstein), el estado de cosas (Armstrong) o los procesos (Whitehead), formas inadvertidas todas ellas de inmaterializar el mundo. A la inversa, es posible ser un ma-

terialista sin ser naturalista, como en el caso de los materialistas que, como este autor, hacen hincapié en la especificidad de lo social

y lo artificial, los cuales exceden lo natural aun cuando sus componentes últimos sean naturales. En conclusión, la relación entre

el naturalismo y el materialismo es de solapamiento parcial: nin-

guno incluye al otro.

En todo caso, hemos de admitir que, aunque antiguo, el mate-

rialismo es aún inmaduro. Esto es así, en parte, porque ha sido

proscrito por la mayoría de las escuelas filosóficas desde los tiempos

de Platón y, en consecuencia, ha estado mayormente en manos de aficionados, desde el médico Biichner, conocido por su obra Fuerza

y materia (1855), hasta Lenin, el revolucionario profesional que escribió Materialismo y empiriocriticismo (1907). Sin embargo, ni siquiera el famoso lógico de Harvard, Willard Van Orman Quine,

quien escribió sobre ontología durante la mayor parte de su larga vida académica y se llamaba a sí mismo fisicista, tuvo éxito en pro-

mover el materialismo. Además, Quine fue de todo meno un ma-

222

y

rerialista fuerte, ya que sostenía que el cuantificador “existencial” 3 abarca tanto la existencia conceptual como la real, un caso de im-

perialismo lógico, no de fisicismo (recuérdese la sección 6.2). Quine tampoco consiguió dilucidar el concepto de lo mental, que le desagradaba, aunque le dedicó muchos comentarios imprecisos y al pasar (véase, por ejemplo, Lycan y Pappas, 1976). Lo mismo vale, en gran medida, para su estudiante David Lewis, el autoproclamado materialista quien trabajó principalmente sobre mundos posibles (o sea, imaginarios).

Dado que el término “materialismo” es polimorfo, es aconsejable

matizarlo, es decir, distinguirlo de algunos otros miembros de la

familia de ontologías que representa. Comencemos por la forma más antigua de materialismo, es decir, el fisicismo.

7.1 El materialismo clásico El materialismo clásico es igual al mecanicismo: se trata de la concepción según la cual el mundo es una colección de cuerpos. De forma nada sorprendente, el mecanicismo sostiene que la mecánica

es necesaria y suficiente para explicar el mundo. Una versión más fuerte del mecanicismo sostiene que todos los cuerpos complejos,

tales como el nuestro, son máquinas. Sin embargo, esta doctrina, propuesta por La Mettrie (1748), tuvo muy pocos seguidores antes del surgimiento de la cibernética, la teoría de la información y la

inteligencia artificial, a mediados del siglo XX. Si hemos de creer a sus entusiastas, el universo es un sistema de información y los humanos somos, básicamente, ordenadores autoprogramados (recuér-

dese la sección 4.2 y véase el capítulo 12). El materialismo mecanicista es la cosmovisión secular más an-

tigua: fue inventada en la India y en Grecia, en algún momento

hace más de 2500 años, junto con el atomismo (véase, por ejemplo, Charbonnat, 2007; Lange, 1905; Plekhanov, 1967). Lucrecio lo inmortalizó en su bello poema filosófico De la naturaleza de las co-

sas. Los nominalistas medievales, en particular William Ockham,

así como los seguidores occidentales de Averroes, eran materialistas BZ

de alguna clase, si bien no especificaron la naturaleza exacta del

amoblamiento del mundo. El mecanismo inherente a la Revolución

científica era decididamente materialista y la primera cosmovisión

científica, por añadidura. Durante la Ilustración, el materialismo

fue extendido a la mente y la sociedad por filósofos tan influyentes como Holbach, Helvétius y La Mettrie. Se lo consideraba subver-

sivo con razón y, en consecuencia, fue proscrito. Fue necesaria la

Revolución francesa de 1789 para levantar la censura oficial sobre el materialismo, Con todo, ¿cuántos profesores se atreven a llamarse materialistas en nuestras sociedades tolerantes y liberales?

Durante el siglo siguiente, el materialismo mecanicista casi fue

olvidado en Francia, pero en cambio se lo difundió ampliamente

en Alemania y Gran Bretaña: recuérdense los populares libros de

Ludwig Biichner y John Tyndall. Sin embargo, el materialismo no

tomó por asalto la ciudadela académica, la cual estaba ocupada por

los kantianos (idealistas subjetivos) y los hegelianos (idealistas objetivos), aun en el Nuevo Mundo.

En el curso del último siglo, el materialismo se tornó académi-

camente respetable en dos lugares improbables: primero en Estados

Unidos, con George Santayana y Roy Wood Sellars, y después en

Australia, con David Armstrong, J. J. C. Smart y U. T. Place. No

obstante, puede decirse que el materialismo siempre ha sido practicado por todos los científicos, aun por aquellos que tenían creencias religiosas, ya que las entidades inmateriales no desempeñan ningún papel en sus teorías ni en sus experimentos. Por ejemplo, pese a que Newton era un devoto unitarista, Dios no desempeñó ningún papel en sus ecuaciones de movimiento. Sin embargo, el materialismo es todavía una perspectiva mino-

ritaria en la comunidad filosófica, en gran medida porque ha tenido

mala prensa desde su nacimiento. En realidad, el materialismo ha sido difamado con acusaciones de craso e inmoral desde la época

de Platón, y sólo unos pocos profesores se han atrevido a enseñarlo. Hasta nuestros días, las ideas ontológicas de Hobbes, Gassendi,

Holbach, Helvétius, Priestley, Feuerbach, Engels y Haeckel son sis-

temáticamente distorsionadas, denigradas o simplemente ignoradas en los cursos de historia de la filosofía (por ejemplo, Randall Collins 224

dedica al marerialismo una sola de las 1000 páginas de su tratado sole la sociología de las hlosofías). Además, lo poco de materia-

limo que se enseña corresponde a su primera versión, es decir al

materialismo vulgar o eliminacionista, es decir, al fisicismo. Habimalmente, hasta el materialismo mecanicista de los dos tratados

de Descartes es silenciado, en tanto que a menudo los superficiales atorismos de Wittgenstein, así como las absurdas expresiones de Heidegger, se consideran perlas de sabiduría.

| Hay varias razones, unas buenas y otras malas, para rechazar o

ignorar el materialismo. Seis de ellas solían ser las siguientes. El

materialismo es una colección de tesis aisladas e incompletas en lu-

gar de una teoría suficientemente elaborada y coherente; se ha mantenido analíticamente basto y, en particular, ajeno a la lógica moderna; ha subestimado el poder de las ideas; ningún materialista

ha explicado la matemática; pocos materialistas, si es que alguno

lo ha hecho, han ido más allá del utilitarismo en cuestiones de teoría de los valores y ética; y la mayoría de ellos han sido aficionados en

lugar de investigadores profesionales. En todo caso, ninguno de los

materialistas contemporáneos de Platón, Leibniz, Berkeley, Kant

o Bolzano alcanzó la sofisticación ni la prominencia de estos filósofos idealistas.

Pero, desde luego, las malas razones aducidas para ignorar o re-

chazar el materialismo han sido más efectivas, aunque poco filosó-

ficas. Una de ellas fue, y todavía es, que el materialismo debilita las

industrias del miedo; en concreto pone en riesgo las industrias del

temor de Dios y las del miedo a la muerte y al progreso científico.

Otra razón ilegítima para rechazar o ignorar el materialismo ha sido la íntima relación entre el materialismo dialéctico y la versión

marxista-leninista del comunismo. Con todo, la primera razón está

injustificada porque el idealismo, especialmente el subjetivismo,

puede ser tan irreligioso como el materialismo: recuérdese que en su primera Crítica, Kant afirmó que “Dios es sólo una idea”.

La segunda razón para rechazar el materialismo tampoco está Justificada, porque ha habido numerosos materialistas conservado-

res, desde Thomas Hobbes y Nietzsche hasta los darwinistas sociales y los psicólogos evolucionistas contemporáneos, según los cuales 225

“la biología es el destino”. Algo semejante sucede con el idealismo.

Por ejemplo, ha habido neohegelianos tanto liberales como fascistas,

como en los casos de Benedetto Croce y Giovanni Gentile respec-

tivamente. En pocas palabras, no hay ninguna relación lógica enure o el materialismo y una ideología sociopolítica determinada: ningun implica al otro. (En cambio, el realismo, una escuela gnoscológica, está intensamente correlacionado con el progresismo pol ce

el

los cuales se distribuyen por todo el espectro político, de

Marx a

fuera que la reforma social da por supuesto que la sociedad existe de la mente del sujeto y que la acción política consiste En intentar modificar la realidad social). El materialismo debería ser juzendo por sus méritos teóricos, no por sus socios políticos rio es,

Nietzsche.

Pero pasemos a examinar las razones honorables para

es 2

su rechazar el materialismo, porque un examen de este tipo puece

gerirnos todo un programa de actualización de dicha concepción del matefilosófica. Para comenzar, volvamos al pariente cercanO rialismo, es decir al naturalismo. Estas dos posiciones

pea

muchos rasgos decisivos. Tanto es así que Dewey, Hook y Nage

(1945), los filósofos estadounidenses más influyentes de su época,

tuvieron dificultades para distinguir entre las dos filosofías. La única diferencia que identificaron se relacionaba con la hipótesis de iden-

aba tidad psiconeural, la cual consideraban una conjetura que necesit

comprobación científica, una evaluación justa en aquella época, puesto que la neurociencia cognitiva todavía se encontraba en estado embrionario.

La materia de la mente ha sido siempre el principal punto de litigio entre el naturalismo y el materialismo. En tanto que los materialistas sostienen que las funciones mentales son funciones cerebrales, un naturalista puede creer en la mente inmaterial. Por consiguiente, mientras que un materialista nunca es religioso, UN naturalista puede admitir que hay cierto espacio para una religión,

aunque sería una religión con un Dios despreocupado y sin vida después de la muerte. Esta diferencia tiene un correlato político:

mientras que jamás ha habido un emperador epicúreo, sí hubo un emperador estoico: Marco Aurelio; además, uno de los ministros 226

de Nerón fue un filósofo estoico: Séneca. Dicho en pocas palabras,

el naturalismo es disidente, pero políticamente inofensivo, en tanto que el materialismo siempre debilitará los regímenes basados en la le, lo cual constituye el motivo por el que ha tenido tan mala prensa

desde los tiempos de Platón, En resumidas cuentas, al igual que el naturalismo, el materia-

lismo clásico, es fisicista o fisicoquimista y, por tanto, vulnerable a

la acusación de tosquedad, es decir, de incapacidad para apreciar los valores más elevados. Posee, sin embargo, la virtud de la claridad

y, en particular, la de evitar las pseudosutilezas de la dialéctica hegeliana, de la cual nos ocuparemos a continuación, 7.2 El materialismo dialéctico

La siguiente versión del materialismo que obtuvo cierta popularidad fue la del materialismo dialéctico esbozada por Friedrich Engels en 1877. Esta ontología estaba dirigida a ser el correlato materialista

de la “lógica” de Hegel. Como esta, el materialismo dialéctico se

centraba en el concepto de conflicto (“contradicción”) y se convirtió en parte de la ideología comunista del siglo XX. En consecuencia, experimentó la recepción ambivalente de dicha ideología: fue adoptado como dogma oficial en el ámbito soviético, a la vez que deni-

grado o ignorado de la misma forma dogmática en otras partes. El materialismo, tanto marxista como no marxista, fue practicado por prestigiosos historiadores británicos y franceses de mediados del siglo Xx, y más tarde por algunos importantes antropólogos y

arqueólogos británicos y norteamericanos, comenzando por Gor-

don Childe y Marvin Harris, los cuales han llegado a un público amplio.

A menudo se acusa con ligereza al materialismo dialéctico de ser una ideología y, por tanto, se lo desestima sin mucha conside-

ración. En realidad, se trata de una ontología seria, aunque defectuosa. Karl Marx y Friedrich Engels improvisaron el materialismo dialéctico a partir del materialismo del siglo XVI! y del materialismo de Feuerbach, por un lado, y de la dialéctica hegeliana por el otro 227

(véase, por ejemplo, Cornforth, 1954; Engels, 1940, 1954; Shiro-

kow, 1937; Wetter, 1958). A primera vista, esta síntesis posee las virtudes del materialismo clásico y del dinamismo (o metafísica procesal) de Hegel. Sin embargo, al examinarlo con mayor detenimiento, el materialismo dialéctico resulta ser confuso y, a la vez, ni tan materialista ni congruente con la ciencia moderna, Permí-

tame el lector aportar las pruebas para estas acusaciones.

|

Las que siguen son sólo algunas de las confusiones más notorias

del materialismo dialéctico (Bunge, 1981). Una: la confusión entre la contradicción lógica y la oposición óntica y la lucha, además del

consecuente discurso sobre la “lógica dialéctica”, que abarcaría la lógica ordinaria como una especie de aproximación en cámara lenta.

Tanto la confusión entre la contradicción y la oposición óntica como el proyecto (inconcluso) de construir una lógica dialéctica re-

sultan comprensibles en el contexto del sistema hegeliano, donde

todos los existentes son ideales, por lo que “todo lo real es racional y todo lo racional es real”. Sin embargo, estas confusiones resultan

inexcusables a la luz de la lógica matemática, cuyas leyes sólo son válidas para los predicados y las proposiciones, y de la ciencia fáctica, cuyas leyes valen, aunque sólo de forma aproximada, para las

cosas materiales exclusivamente.

Otra confusión de la dialéctica materialista es la llamada tercera

ley de la dialéctica, es decir, la “transformación de la cantidad en cualidad y viceversa”. Semejante trasformación es sencillamente imposible. Lo que se quiere decir con esta frase tan torpe es que

ciertos cambios cuantitativos dan lugar a nuevas cualidades (propiedades) y que con ellas surgen nuevas regularidades cuantitativos. Por ejemplo, cuando una aldea crece hasta trasformarse en una cludad, la clase de gobierno político cambia, a consecuencia de lo cual el crecimiento poblacional puede pasar a estar controlado. Este es solo un ejemplo de emergencia, el surgimiento de una novedad ra-

dical como característica de la combinación de dos o más cosas. (La

llamada teoría de la complejidad se ocupa de la emergencia en el caso de los sistemas compuestos por muchos elementos). Las otras dos “leyes” de la dialéctica afirman que todo lo existente es una “unidad de opuestos” y que todos los cambios provienen de 228

la “contradicción” o “lucha” entre esos opuestos. Ambas hipótesis son falsas. La primera es falsa, tal como lo prueba la existencia de cuantos elementales (indivisibles), por ejemplo los electrones y los fotones. Además, el enunciado en cuestión conduce a un regreso al infinito: en efecto, cada uno de los dos “opuestos” en cuestión debe estar compuesto, a su vez, de dos opuestos, y así sucesivamente, sin fin. La segunda hipótesis, que se refiere al origen del cambio, es falsada por todos los casos de cooperación tanto en la naturaleza como en la sociedad. Por ejemplo, los átomos se combinan para formar moléculas y estas para formar líquidos o sólidos, y las personas cooperan para formar familias, empresas, pandillas y otros sistemas sociales. De hecho, se puede suponer que todo lo existente

es o bien un sistema, o bien un componente de un sistema. Esta

es, desde luego, la hipótesis central de la ontología sistémica (Bunge,

1979a). Regresemos, sin embargo, a las confusiones del materia-

lismo dialéctico.

La tercera confusión importante es la que hay entre “cambiante” y “relativo”. Esta confusión aparece en los recurrentes enunciados de Engels y Lenin acerca de que “todo conocimiento es relativo”, con

lo que querían decir que el conocimiento es temporal en lugar de eterno. Esta confusión es inofensiva cuando la perpetra Planck al escribir acerca del “progreso desde lo relativo hacia lo absoluto”, cuando se refiere al avance desde las propiedades y leyes covariantes hacia las invariantes; es decir, de los ítems válidos relativos a un marco de re-

ferencia hacia los que, como las leyes básicas y la velocidad de la luz en el vacío, valen para todos los marcos de referencia, Con todo, cuando se la combina con la tesis de Marx de que el conocimiento es creado por la sociedad como totalidad, y no por los individuos o

los equipos, dicha confusión conduce fácilmente al relativismo antropológico y gnoseológico, uno de los flagelos posmodernos. Por último, todos los materialistas dialécticos —especialmente

Lenin— han confundido repetidamente el materialismo, que básicamente es una tesis ontológica, con el realismo, que consiste

en una familia de gnoseologías. Con todo, es posible ser realista

e inmaterialista a la vez, o no ser realista pero sí materialista. En

realidad, hay cuatro combinaciones posibles de estas escuelas.

229

MR (p. ej., Demócrito)

MR (p. ej.. Tomás de Aquino)

MR (p. ej. Nietzsche)

MR (p. ej., Kant)

A continuación, examinemos mi acusación de incoherencia. Lejos de ser monista, el materialismo dialéctico es dualista tanto en hecho, su filosofía de la mente como en su ontología social. De

considera que la mente es inmaterial y que la sociedad está compuesta por una “superestructura espiritual” apoyada sobre una

in-

fraestructura material”. La primera tesis es obvia en la denuncia que hace Lenin de la afirmación de Joseph Dietzgen de que los pensamientos son materiales: “Si se hace esta inclusión, el contraste

gnoseológico entre la mente y la materia, el idealismo Y el mate-

rialismo, un contraste sobre el cual el mismo Dietzgen Insiste, pler

de su significado” (Lenin, 1947, pág. 251).

Dicho sea de paso, el heredero político de Lenin criticó ese con-

traste y, sin advertirlo, reinventó el monismo neutral —o concepción del doble aspecto— que había sido propuesto por Spencer

como alternativa tanto al materialismo como al idealismo. Según

Stalin, “lo mental y lo material son dos formas diferentes del mismo

fenómeno”, como nos informan Rosenthal y Yudin (1945) en la

entrada “dualismo” de su autorizado diccionario de filosofía soviética marxista. Con todo, dos décadas después, el nombre de Stalin fue borrado de esa obra y, con él, la confusión del materialismo

con el monismo neutral (Rosenthal y Yudin, 1967). Volvamos, sin

embargo, al maestro de Stalin.

Lenin (1981, pág. 182) avanzó otro paso en la misma dirección

inmaterialista al comentar la Lógica de Hegel: pasó del dualismo al trialismo. En efecto, afirmó la misma tesis que Popper (1967) iba

a popularizar medio siglo después con el nombre de “mundo 3”: que “en realidad, objetivamente, hay tres miembros: 1) la naturaleza, 2) la cognición humana = el cerebro humano (como el producto

más elevado de esa naturaleza) y 3) la forma de reflexión de la naturaleza en la cognición humana, y esta forma se compone, preci-

samente, de conceptos, leyes, categorías, etc” (cursivas en el

original), Si a esta tríada se le añade el Uno, el resultado es la cosmología espiritualista de Plotino. Esta no fue la única vez que Lenin 230

se anticipó a Popper: también señaló en 1908 lo que Popper pro-

clamó en 1952: que Berkeley fue un precursor de Mach. No cabe duda, se trata de puras coincidencias. Sin embargo, estas coinci-

dencias deberían obligar a los admiradores de Popper a ser más crí-

ticos. No es ninguna sorpresa que el dualismo psiconeural haya sido la filosofía de la mente soviética oficial y que la tesis de la identidad psiconeural (o materialista) fuera rechazada por ser considerada un materialismo vulgar”, tal como nos cuenta Jarochewski (1975,

pág. 168). Las defensas de la identidad psiconeural que el autor de

estas páginas hizo en la publicación rusa Filosofskie naukie (1979),

así como en su correlato húngaro (Bunge, 1982b), fueron atacadas COSER idad por ser críticas con el dualismo. Curiosamente, mien-

tras que mi crítico soviético era, supuestamente, un experto marxista, mi crítico en la revista húngara de filosofía marxista era un

destacado neurocientífico, Janos Szentagothai, quien daba la ca-

sualidad de que era también un cristiano devoto.

Con todo, algunos materialistas dialécticos han dirigido acertadas

críticas

a numerosas filosofías espiritualistas e irrealistas. Engels,

por ejemplo, criticó diversas confusiones y errores de Eugen Diiring.

Sin embargo, Dúring era un oscuro erudito independiente y un blanco fácil. Mucho más útil habría sido si Engels hubiese escogido

a los filósofos más influyentes de su época, como Schopenhauer,

Comte y Mill, así como algunos parafilósofos mucho más populares, como Nietzsche y Spencer. Además, en su Materialismo y emprriocriticismo Lenin (1947) criticó las erradas concepciones

idealistas de diversos físicos prominentes de su época. Aunque al-

gunas de sus críticas dieron en el blanco, el procedimiento de Lenin

cra dogmático en lugar de científico: equivalía a escribir enunciados vehementes del tipo “Esto es erróneo porque contradice a Engels”, y acusar a los idealistas de ser “lacayos de la burguesía”. Lamentablemente, la mayoría de los profesores soviéticos siguieron este

ejemplo que habían dado los religiosos 2000 años antes. En resumidas cuentas, el materialismo dialéctico es confuso en

lugar de exacto, y el grueso de sus tesis inteligibles son inconsistentes con la ciencia moderna. Peor aún, aunque afirman amar la ciencia, 231

MN

las materialistas dialécticos proceden típicamente de manera dogmática. Hasta algunos grandes científicos, como el físico John D, Bernal y el biólogo ]. B. S, Haldane, cayeron bajo el encantamiento

del charlacin Utofim Lysenko sólo porque era el protegido de Stalin, Lo cual prueba, dicho sea de paso, que la experiencia científica no

es suficiente inmunización contra la pseudociencia. Sólo el cono-

cimiento científico, combinado con una rigurosa reflexión filosófica

(en particular, metodológica), puede vacunarnos contra esta enfermedad.

7.3 Los materialismos histórico y australiano Repasemos a continuación dos escuelas materialistas con un alcance más restringido que las que hemos estudiado hasta aquí: la histórica y la australiana. El materialismo histórico, propuesto originalmente por Marx y Engels sin nada del sinsentido dialéctico, es la ontología social y filosofía de la historia según la cual los primeros motores de la sociedad son las necesidades biológicas y el interés económico en lugar de las ideas. Hay dos versiones principales de materialismo histórico: una apolítica y otra política. Todo investigador de la sociedad que comience preguntando cómo se ganan la vida las personas —€n lugar de cuáles son sus creencias, ceremonias y orden político— cumple los requisitos para ser considerado un materialista histórico. Por consiguiente, podemos decir que Ibn Jaldún y los miembros de la escuela francesa de los Annales, como Fernand Braudel, Marc Bloch y Lucien Febvre, así como el estadounidense Immanuel Wallerstein,

practicaron el materialismo histórico, al igual que lo hicieron los marxistas ingleses Eric Hobsbawm, Edward P. Thompson y Eric Wolf (véase, por ejemplo, Bloch, 1949; Braudel, 1969; Hobsbawm, 1997).

Un gran mérito de los materialistas históricos de los Annales fue que, en lugar de ser economicistas, practicaron lo que llamaban una histoire totale. También podemos llamarle historiografía sistémica,

ya que va del entorno geográfico, la demografía y el comercio €x232

Y

rerior a los asuntos de la vida cotidiana, como el sexo y el sabor de la comida, sea en la pequeña aldea pirenaica de Montaillou o en la

vasta cuenca mediterránea: el de ellos, como el de Ibn Jaldún, fue

un materialismo sistémico. Dicho sea de paso, lósif Stalin, un autoproclamado materialista histórico, fue en realidad un idealista histórico, porque sostenía que las personas están impulsadas principalmente por consideraciones políticas, morales y espirituales (Wetter, 1958, pág. 219). Lo mismo vale para el marxista Antonio

Gramsci, quien estaba mucho más interesado en las ideas y la po-

lítica que en la llamada base material de la existencia. El materialismo histórico tuvo dos grandes méritos. Primero,

fue propuesto por primera vez en una época en la cual las filosofías seculares dominantes eran el neohegelianismo, una rama del idealismo objetivo, y el neokantismo, una versión del idealismo sub-

jetivo. Más aún, Marx y Engels propusieron prestar atención primero a la economía y considerar todo lo social en una perspectiva histórica y, por tanto, como algo transitorio en lugar de eterno.

Esta propuesta fue original y, a la vez, inmensamente fértil. En opi-

nión de Geoffrey Barraclough (1979, pág 64), un erudito no mar-

xista, se trata de “la única teoría coherente de la evolución del

hombre en sociedad y, en este sentido, la única filosofía de la his-

toria, que ejerce una influencia demostrable sobre las mentes de los historiadores en la actualidad”. La influencia marxista sobre la

arqueología, especialmente obvia en la obra de Gordon Childe y

la arqueología soviética, fue asimismo fuerte y positiva (Trigger,

2006), en fuerte contraste con la censura marxista de los avances

de la física, química, biología, psicología y sociología. Está muy difundida la creencia de que Max Weber fue antimarxista porque afirmaba seguir el ejemplo del filósofo idealista Wil-

helm Dilthey, el paladín del enfoque de la Verstehen. Sin embargo, la sustancial obra de Weber es bastante incongruente con la filosofía

que preconizaba (Bunge, 20074) y su importancia ha sido muy exagerada, ya que él nunca llevó a cabo una investigación empírica

personalmente y pasó por alto todos los grandes movimientos sociales de su época: el nacionalismo, el militarismo, la democratización, el sindicalismo, el socialismo, el feminismo, la secularización, 233

la trasformación de la industria y la vida cotidiana mediante la tecnología basada en la ciencia y, sobre todo, el surgimiento del Im-

perio alemán, así como la globalización a través del imperialismo.

En mi opinión, la popularidad actual de Weber se debe más a su inmensa erudición y a sus puntos de vista conservadores que a sus

aportaciones originales a las ciencias sociales. Además, a Causa del

mito de que era antimarxista, Weber se benefició de la Guerra Fría, el mismo proceso político que fracturó y finalmente destruyó la escuela de los Annales.

Sin embargo, el materialismo histórico marxista tenía tres graves

defectos. Uno de ellos era que, especialmente en el caso de Engels,

no estaba basado en investigación original. Por ejemplo, su brillante libro Orígenes de la familia (1884) estaba fundado exclusivamente

en el trabajo de campo de Lewis Henry Morgan (1877), un pionero de la antropología evolucionista. Otra desventaja del mater talismo

histórico marxista era que se permitía la profecía: sostenía que el socialismo era inevitable y, por tanto, provocaba la pasividad política

sin advertirlo. Hemos aprendido a un gran coste que en la evolución, sea social o biológica, nada es inevitable: hay accidentes de

todas clases, así como innovaciones impredecibles como las armas nucleares, la informática y el desplazamiento de la clase obrera hacia la derecha.

El tercer defecto del materialismo histórico de Marx y Engels es que no era materialista de forma coherente, pues suponía que la sociedad estaba dividida en dos aspectos: la infraestructura material (o económica) y la superestructura espiritual (o politicocultural) (Engels, 1954). Sostengo que un materialista coherente pensará

que la totalidad de la sociedad constituye un sistema material, aun-

que uno compuesto de subsistemas igualmente materiales, entre ellos su cultura (Bunge, 1981). En las sociedades tradicionales, las

relaciones de parentesco y las “identidades” étnicas resultan decisivas y, en consecuencia, las personas se asocian para formar tribus, clanes

o grupos étnicos, En cambio, las sociedades modernas están constituidas esencialmente por subsistemas de tres clases: la economía,

la organización política y la cultura. Una concepción de la sociedad que sea coherentemente materialista considerará que los tres sub234

sistemas son cosas concretas. En particular, las culturas (en el sen-

tido sociológico) son sistemas materiales porque están compuestas de personas concretas que producen o intercambian bienes culturales, desde poemas y teoremas hasta planos y recetas mediante canales de comunicación concretos (Bunge, 1981).

En su versión marxista, la separación de la infraestructura y la superestructura está acompañada por un postulado adicional que

afirma que la primera mueve a la segunda y que, además, actúa como un motor inmóvil. Sin embargo, en una ontología científica no hay partes separables, aun cuando, desde luego, sean distingui-

bles. Una ontología social científica considerará que los tres subsistemas mencionados interaccionan entre sí. En concreto, la economía no sólo actuará sobre la organización política y la cultura,

sino que también estará sometida a la influencia de insumos políticos y culturales. Por ejemplo, en la sociedad contemporánea, cada movimiento político favorecerá o perjudicará los negocios; y la in-

dustria no sólo se nutre de trabajo y capital sino también de tecnología, la cual a su vez depende de la ciencia. Piénsese en el Impacto que ha tenido la electrónica en todas las ramas de la eco-

nomía. Véase la figura 7.1.

Por último, ocupémonos brevemente de la filosofía de la mente materialista propuesta por los filósofos australianos Ullian T. Place (1956), Jack Smart (1963b) y David Armstrong (1968). Los tres

defendieron lo que llamaban “materialismo de estados centrales”. Se trata de la vieja “teoría de la identidad”, según la cual todos los procesos mentales son procesos cerebrales (véase O'Connor, 1969). En

particular, la conciencia es “un proceso en el cual una parte del cerebro escudriña otra parte del cerebro” (Armstrong, 1968, pág. 94).

superestructura Ideal

A

infraestructura materlal

(a)

AX CULTURA

4 ECONOMÍA
).

sentir enfado o turbación (un circuito que 261

mceluye al hipotálamo, la corteza orbifrontal u otras regiones de

cerebro) — activación de los circuitos motores del cerebro — dilata.

ción de los capilares de la cara. Admito, sin embargo, que todavía

tenemos que averiguar los detalles, Con todo, a grandes rasgos la descripción es esa y se trata de una descri pción que constituye todo

un proyecto de investigación, no únicamente una historia.

FILOSOFO: Sin embargo, lo que acabas de describir es un caso

de causación descendente desde un nivel superior a otro inferior,

CIENTÍNCO: Si lo quieres ver así. Yo prefiero decir que se trata

de un proceso de arriba abajo, que tiene lugar en la cabeza. Lo importante es que ese proceso ocurre en el cerebro y puede describirse

en términos puramente neurocientíficos.

FILÓSOFO: Hay algo en lo que no estoy de acuerdo: la palabra “turbación” es un término psicológico que no es parte del vocabulario neurofisiológico. Además, estoy seguro de que lo mismo vale para el resto del vocabulario psicológico. CIENTÍFICO: SÍ, es cierto, pero lo que importa es que los procesos

mentales se pueden explicar, por lo menos en principio, en términos neurofisiológicos. Sin embargo, los procesos neurofisiológicos que llamamos “mentales” son cualitativamente diferentes de todos los demás: después de todo, son llegadas recientes a la evolución. Además, esos procesos no suceden en un vacío social. De hecho, la turbación, al igual que la vergiienza y la compasión, es una emoción social. FILÓSOFO: Así que no eliminas ni lo mental ni la psicología. Conservas una distinción entre niveles y admites la psicología y tal

vez también la sociología. CIENTÍFICO: Exactamente. Identificamos lo mental con lo neural de una clase muy particular y combinamos la psicología con la neurociencia, y también con la sociología cuando se trata del aprendi-

zaje social y la acción. En pocas palabras, efectuamos a la vez una reducción ontológica y una fusión epistémica. FILÓSOFO: Me lo pensaré. CIENTÍFICO: Hazlo. Pero recuerda que el problema mente-cuerpo es científico a la vez que filosófico y teológico. Recuerda también que ninguna idea se puede discutir de forma fructífera en el vacío. 262

En particular, una idea materialista de la mente debe examinarse en el contexto de una ontología materialista amplia. Hacerlo de otro modo sería filosóficamente ingenuo.

FILÓSOFO: Touché.

8.2 La intersección ciencia-filosofía-religión Algunas de las Grandes Preguntas conceptuales más interesantes se encuentran en la intersección de la ciencia, la filosofía y la reli-

gión. Los problemas de la naturaleza y origen del universo, la vida, la mente, la sociedad, la ciencia y la religión entran en esta catego-

ría, así como los problemas de lo que es bueno y lo que es correcto, y lo que debemos hacer para identificar y resolver los problemas

morales y sociales suscitados por la acción y la inacción humanas. Todos estos problemas son un contraejemplo de la tesis positivista

de que estos tres dominios —la ciencia, la filosofía y la religión— están separados entre sí. Pero aunque esa tricotomía no sirve para los problemas, sí vale para el enfoque de esos problemas. En efecto, mientras que los teólogos recurren bien a la revelación, bien a la exégesis de las llama-

das escrituras reveladas, los científicos investigan los problemas tanto de forma empírica como de forma teórica: procuran conocimiento nuevo para resolver problemas, sean viejos o nuevos. Por consiguiente, la tranquilizadora tesis de que la ciencia y la religión

pueden coexistir pacíficamente, dado que se ocuparían de “magisterios no superpuestos”, tal como afirmaba el gran Steven Jay Gould (1997b), es falsa.

La religión y la ciencia discrepan entre sí en el ámbito ontológico. La primera afirma, mientras que la segunda niega, la existencia de entidades sobrenaturales así como de almas incorpóreas. Asi-

mismo, son metodológicamente incompatibles entre sí, porque

mientras que los científicos buscan verdades, los religiosos afirman haberlas encontrado. Esta es la razón por la cual no hay búsqueda de nuevas verdades en una teocracia, como no la hay en un régimen totalitario. 263

Algo parecido ocurre con la relación entre la ciencia y la filosofía,

En efecto, muchos problemas son científicos y filosóficos a la vez, Ejemplos: ¿qué son la materia, la causación, el azar, la vida y la

mente? Aunque a primera vista la física y la química han resuelto el primer problema, en realidad todavía plantea diversas preguntas

filosóficas, tales como las que muestra Michael Frayn en su famosa

obra de teatro Copenhague. Por ejemplo, ¿los sucesos microfísicos

sólo ocurren cuando un experimentador los provoca? Asimismo, los biólogos todavía tienen que responder a “¿qué es la vida?” y los

psicólogos a “¿qué es la mente?” de forma satisfactoria para todos, ¿Cómo debemos abordar estos problemas híbridos? En estas

cuestiones, los filósofos se dividen en dos bandos: el procientífico y el acientífico. Mientras que los primeros buscan la guía de la ciencia, los filósofos acientíficos practican la especulación sin control.

No sorprende, pues, que estos constituyan la inmensa mayoría,

Después de todo, ignorar la ciencia es mucho más fácil que apren-

der un poco de ella,

No me refiero sólo a los conocidos enemigos de la ciencia, como

Berkeley, Vico, Rousseau, Fichte, Schelling, Hegel, Nietzsche, Berg-

son, Croce, Gentile, Husserl y Heidegger. Tampoco a los que son indiferentes a ella, como Moore, Wittgenstein, Strawson, Kripke,

David Lewis y Habermas. Entre los filósofos acientíficos también incluyo a algunos grandes e influyentes pensadores que normalmente se consideran procientíficos, como Locke, Hume y Kant.

La razón es que los tres creían que lo único que podemos conocer son los fenómenos o apariencias, caracterizados por propiedades

secundarias o qualia, como el color y el sabor. Así pues, Locke (1690, libro 1v, sec. iii, pág. 28) advertía que

“no podemos tener conocimiento preciso” de los movimientos de los cuerpos más allá de nuestra experiencia porque no comprendemos cómo esos cuerpos causan sensaciones en nosotros, salvo

por la intercesión de “un Agente infinitamente sabio”. En consecuencia, “somos completamente incapaces de obtener un conoci-

miento universal y cierto” de los cuerpos que nos rodean. Locke

no sospechaba que su escepticismo acerca del poder de la ciencia estaba retrasado respecto a su época pues la Revolución científica 264

ya estaba bastante avanzada. En concreto, no sabía que la obra magna de Newton (1687) —que contenía, precisamente, algunas de las leyes del movimiento que Locke decretaba incognoscibles— se

publicó el mismo año en que él acabó su Ensayo. Afortunadamente,

ni siquiera la inmensa autoridad intelectual de Locke consiguió impedir la marcha triunfal del newtonismo. Con todo, su escepti-

cismo respecto del poder de la ciencia eclipsó la importante obra

de su casi contemporáneo Thomas Willis, uno de los primeros neu-

roanatomistas modernos, que consideraba que el cerebro era el órgano de la emoción, la percepción y la memoria (Zimmer, 2004).

Se trata de un ejemplo más del perjuicio que pueden causar las fi-

losofías superficiales, tales como el fenomenismo. Por ejemplo, en

aStONOMmÍA, los fenomenistas defendieron la concepción geocéntrica

del sistema planetario; en física, atacaron la teoría atómica; y en

psicología, se adhirieron al conductismo.

Peor aún, ni siquiera la mayoría de los filósofos que proclaman

su amor por la ciencia la utilizan para abordar las grandes preguntas

en cuestión. Por ejemplo, algunos positivistas han afirmado que el problema mente-cuerpo es un pseudoproblema y otros han repetido la doctrina del doble aspecto. Lenin y sus seguidores han sostenido que las ideas son lo opuesto de la materia. Ludwig Wittgenstein afirmó que sólo de un ser humano (no de su cerebro) podemos decir que percibe o está consciente, porque esta es la forma en la que

se utilizan los predicados psicológicos en el lenguaje corriente. Hilary Putnam ha propuesto que la mente no es más que un conjunto de programas de ordenador, una concepción adoptada por

Daniel Dennet y otros filósofos de la mente. Karl Popper defendió el dualismo psiconeural y resucitó la analogía de Platón: la mente

es al cerebro lo que el piloto es al barco. Otros, incluso, por ejem-

plo John Searle, mantienen que el cerebro causa la mente, que es como afirmar que las piernas causan el caminar, en lugar de decir que caminar es la función específica de las piernas. La diversidad de opiniones filosóficas extravagantes acerca de la naturaleza de la mente tiene su origen en las convenciones tácitas,

pero erradas, de que la imaginación filosófica no debe estar limitada imorún descubrimiento científico y que los problemas filosó-

por-mingún

265

ficos pueden abordarse uno por uno, en lugar de en manojos. Yo

mantengo que la filosofía debe estar acotada estrechamente por la

ciencia, y que ninguna de las Grandes Preguntas que implican hechos puede tratarse de manera adecuada si no es a la luz de teorías precisas y empíricamente comprobables acerca de la naturaleza y del conocimiento de la realidad (Bunge, 20064).

En suma, el problema de la naturaleza de la mente siempre ha

sido de gran interés para científicos, médicos, filósofos, teólogos, chamanes y aficionados a lo esotérico. Como sucede con Otros problemas importantes, mientras unos pocos filósofos han hecho propuestas útiles, la mayoría ha obstaculizado su investigación seria; por ejemplo, diciendo que se trata de un problema insoluble o que

se lo debe tratar mediante el lenguaje o la tecnología informática. Echemos un vistazo a tres influyentes concepciones de la mente,

cada una de las cuales ha sido respaldada con entusiasmo por alguna escuela filosófica.

8.3 El dualismo psiconeural clásico En la actualidad hay tres concepciones principales de la mente: el dualismo psiconeural, el computacionalismo y la tesis de la identidad psiconeural. Echémosles un vistazo. (Más sobre el dualismo

en Armstrong, 1968; Bunge, 19804; Bunge y Ardila, 1987; Ingenieros, 1946; Kim, 2006; Lovejoy, 1955). El dualismo psiconeural

es, por supuesto, la antigua opinión de que la materia y la mente

son entidades o sustancias distintas, que una puede existir sin la

otra y que pueden interaccionar, pero ninguna contribuye a explicar la otra. El dualismo ha sido defendido por filósofos famosos

—como

Platón, Descartes y Popper— y por unos pocos neuro-

científicos destacados —entre ellos Jackson, Sherrington, Penfield, Sperry y Eccles—, además de ser un componente de todas las re-

ligiones y las cosmologías primitivas, así como del psicoanálisis y la New Age. Sus grandes ventajas son que parece obvio; parece ex-

plicar sin esfuerzo toda la conducta humana y es inherente al dogma de la supervivencia del alma tras la muerte.

266

Además, a primera vista, el dualismo psiconeural goza del respaldo de la lógica. Efectivamente, piénsese en el conocidísimo argumento que sigue, a la luz de la ley de Leibniz que afirma que dos

objetos son idénticos si y solo si poseen las mismas propiedades. 1. Tengo conocimiento directo de mis estados mentales.

2. No tengo conocimiento directo de mis estados cerebrales. Por tanto, según la ley de Leibniz, mis estados mentales no son

idénticos a mis estados cerebrales.

Este argumento es falaz porque tener o no tener conocimiento

directo de ellos no es una propiedad de los elementos en cuestión, es decir, de los estados mentales y los estados cerebrales. En efecto,

“la 'propiedad' atribuida en la premisa (1), y negada en la premisa (2), consiste únicamente en que el objeto del sujeto sea reconocido, percibido o conocido como una cosa u otra. Sin embargo, esa aprehensión no es una propiedad del ítem en sí mismo, adecuada para

adivinar su identidad, puesto que el mismo objeto puede ser reco-

nocido con éxito con un nombre o según una descripción y, pese a ello, no ser reconocido según otra descripción (precisa, correferencial). Dicho sin rodeos, la ley de Leibniz no es válida para estas propiedades' espurias” (Churchland, 1984, pág. 42).

Más aún, el dualismo psiconeural es vulnerable a varias objecio-

nes letales. Recordemos algunas de ellas. 1. El dualismo es conceptualmente impreciso. En efecto, la propia

expresión “estado mental” es taquigráfica en el mejor de los casos, porque todo estado es un estado de una cosa concreta (material)

en un instante dado. (Por ejemplo, el estado de un paciente hospitalario en un instante dado está indicado de modo general por los valores de los signos vitales en ese instante). Además, la expresión

“interacción mente-cuerpo” es un oxímoron ya que, por hipótesis, la mente inmaterial es insensible a los estímulos físicos, del mismo modo que la materia no puede ser influida directamente por los

pensamientos o las emociones. El concepto mismo de acción sólo está bien definido para las cosas materiales. Piénsese, por ejemplo,

De

rs

267

en la acción del campo gravitatorio terrestre sobre un avión, en la

acción del ácido nítrico sobre una moneda de cobre o en la del café,

el vino, las anestesias o la cocaína sobre el cerebro.

2. El dualismo es experimentalmente irrefutable, ya que no se puede manipular una cosa inmaterial, como se supone que es el alma

o mente, con medios materiales tales como lancetas o píldoras. En otras palabras, sólo los objetos materiales son mudables y pueden actuar sobre herramientas materiales, tales como los instrumentos de medición, El cerebro es un objeto de esta clase, pero la mente inmaterial no lo es, como lo prueba el completo fracaso de los clarividentes, los médiums y los parapsicólogos. 3. El dualismo sólo se ocupa de la mente adulta. Por tanto, no es

coherente con la psicología del desarrollo, la cual muestra cómo se desarrollan (crecen y decaen) las capacidades cognitivas, emocio-

nales y sociales junto con el cerebro y el contexto social del individuo.

4. El dualismo es incompatible con la etología cognitiva, especialmente con la primatología, que prueba que compartimos algunas capacidades mentales con nuestros parientes evolutivos más próximos. También es incongruente con la psicología comparada y la arqueología cognitiva, pues estas ciencias proponen que nuestras

capacidades mentales han evolucionado como resultado de los cam-

bios biológicos y sociales. Es cierto, algunas de estas pruebas proceden de un simple antropomorfismo. Con todo, también hay pruebas sólidas provenientes de estudios anatómicos y fisiológicos. Después de todo, no habría fisiología humana —desde las disec-

ciones de monos de Galeno y los clásicos experimentos con ani-

males de Claude Bernard hasta nuestros días— sin el estudio de

los animales, aun de los que son filogenéticamente distantes de nosotros, como las moscas de la fruta y los gusanos.

5. El dualismo viola la fisica, especialmente la ley de conservación de la energía. Por ejemplo, se crearía energía si la decisión de dar un paseo fuera un suceso de un alma inmaterial. Además, el dua-

lismo es incongruente con la ontología naturalista que subyace a todas las ciencias fácticas. Esto convierte a la psicología sin cerebro

en una disciplina anómala y solitaria. Asimismo, priva a la ciencia 268

de la mente del arsenal de herramientas quirúrgicas y farmacológicas que permite tratar con éxito los trastornos mentales que no res-

ponden a la psicoterapia,

6. El dualismo confunde incluso a los investigadores que están contribuyendo a su derrumbamiento. De hecho, en la literatura sobre neurociencia cognitiva, afectiva y social, a menudo se leen

oraciones del tipo: “N es el sustrato (o correlato) neural de la función

mental M” y “el órgano O implementa (o instancia o ejemplifica) la función mental M”, como si las funciones estuvieran adosadas ac-

cidentalmente a los órganos o fueran previas a ellos, y los órganos fueran medios al servicio de las funciones. ¿Por qué no decir, simplemente: “El órgano O realiza la función [o hace] F?”. Después de todo, no decimos que las piernas implementan el caminar ni que las vísceras imstancian la digestión, etc. Tampoco preguntamos qué apareció primero, si la nariz o el olfato. ¿Por qué no decir, simplemente, que el cerebro siente, se emociona, conoce, tiene una intención, planea, desea, etc.? Hablar de

sustrato, correlato, implementación e instanciación no es más que

un vestigio de dualismo y promueve la idea de que lo que importa es la función (funcionalismo), que puede estudiarse de forma in-

dependiente de la materia. Pero sin piernas no hay caminar ni res-

piración sin pulmones. En general, no hay función sin órgano ni órgano sin funciones. La sonrisa del evanescente gato de Cheshire pertenece a la ficción, no a la ciencia. Es verdad que la mayoría de los neurocientíficos cognitivos utiliza las expresiones “correlato neu-

ral” y “sustrato neural” sin suponer que hay algo “arriba y por encima” de la función cerebral. Pero esto no es ninguna excusa:

deberían aprender a decir lo que quieren decir. 7. El dualismo aísla a la psicología de la mayoría de las demás disciplinas, toda vez que ninguna de ellas admite la dicotomía materia/función. Imagínese el lector que se generaliza el discurso de

los correlatos: “los correlatos planetarios de las órbitas de Kepler”, “el correlato luminoso de la refracción”, “los correlatos moleculares de las reacciones químicas”, “los correlatos fluidos de los arroyos y

las contracorrientes”, “los correlatos organísmicos de la evolución”, etcétera. Prácticamente lo mismo es válido para el discurso sobre 269

los “sustratos”, como en la frase común “el sustrato neural de la to. ma de decisiones”, Algo parecido vale para el uso del término “im. plementar”: es un vestigio tanto de dualismo como de finalismo y, especialmente, del principio idealista platónico (Las leyes, X, pág.

$96) de que “el alma es lo mismo que el primer principio de la ge-

neración y del movimiento, de la corrupción y del reposo, en todos

los seres pasados, presentes y futuros”.

S. El dualismo es estéril en el mejor de los casos y contraproducente en el peor de ellos. En efecto, este punto de vista ha engendrado su-

persticiones y pseudociencias a granel, desde las creencias en lo sobrenatural y en el más allá hasta la parapsicología, el psicoanálisis y la memética. Además, el dualismo ha frenado el progreso de todas las disciplinas que se ocupan de la mente, especialmente de la psicología biológica, la neurología, la psiquiatría, la psiconeurofarmacología y la neuroingeniería. Sin embargo, no ha disuadido a algunos de estos expertos de estudiar o hasta recomendar el uso de agentes psicotrópicos con fines militares y control antidisturbios. En pocas palabras, el dualismo psiconeural es científica y filosóficamente insostenible. Peor aún, continúa siendo uno de los principales obstáculos para la investigación científica de la mente, así como para el tratamiento médico de los trastornos mentales.

Aun así, está todavía muy difundido, especialmente en su versión informática, que incluye el dualismo hardwarelsoftware. Sin embargo, pospondremos el examen de esta forma de dualismo tan en

boga hasta el capítulo 12. 8.4 ¿La mente por encima de la materia?

El control cognitivo de la conducta, como en los casos de excavar, conducir, dibujar, escribir y autocontrolarse, se ha considerado tradicionalmente una prueba del poder de la mente sobre la materia o “causación descendente” (Campbell, 1974b). Con frecuencia, el

efecto psicosomático y el efecto placebo se interpretan del mismo modo. En particular, se ha dicho que los beneficios del optimismo 11

para la salud y los efectos nocivos de la baja estima y el estrés social son ejemplos del poder de la mente sobre la materia. Sin embargo, desde una perspectiva científica no puede haber causación mente — materia, aunque sólo fuera porque eso violaría

la conservación del momento y la energía. Solo hay a) relaciones entre sucesos naturales en el mismo nivel, como la alegría o la tris-

teza que nos causa enterarnos de cierta noticia; y b) relaciones cau-

sales de abajo arriba y de arriba abajo entre sucesos corporales neurales y no neurales, como la estupefacción causada por un golpe en la cabeza y el aumento del ritmo cardíaco causado por la visión de la persona amada. En concreto, actualmente los efectos placebo incluidos en la mi-

tigación del dolor y la promoción de la recuperación de la salud se explican en términos puramente científicos, aunque sólo de manera incompleta, en parte gracias al descubrimiento de los nervios que conectan la corteza cerebral al sistema inmunitario (véase, por ejemplo, Cacioppo et al., 2006 y la revista Brain, Behavior, and Immunity). Por ejemplo, el poder sanador o perturbador de un símbolo

(símbolo —> significado — comportamiento) puede explicarse en ocasiones como un caso de condicionamiento clásico (Benedetti,

2009). En cambio, la analgesia producida por un placebo puede involucrar opioides endógenos generados por el cerebro. Los efectos placebo que incluyen la expectativa de una recompensa, como

en el caso del alivio del dolor provocado por la sola visión de un estetoscopio sobre un delantal blanco, son un proceso de un com-

plejo circuito cerebral. Finalmente, se ha probado que los dolores y placeres sociales, tales como la envidia y la Schadenfreude [regodeo], incluyen el mismo circuito neuronal que los causados por

"E

los estímulos físicos dolorosos (Takahashi ez a/., 2009). En síntesis,

los efectos placebo son reales: se trata de eslabones de cadenas causales fisiológicas. Sin embargo, sus beneficios son limitados. Por ejemplo, los tratamientos placebo pueden reducir las incomodidades y los dolores causados por el cáncer, pero no pueden detener el crecimiento de un tumor. En pocas palabras, los que solían considerarse casos de acción mente — cuerpo han resultado ser cerebro —> cerebro, o cerebro => 271

soprocesos del resto del cuerpo. Este cambio, de la fantasía psico

remática Freudiana a la neuroendrocrinoinmunología, ha sido un sultado tardío de los experimentos pioneros de Walter Cannon (famoso por la homeostasis) y Hans Selye (padre de la investigación

del estrés). Ellos y sus seguidores probaron de forma concluyente Un yen que los sistemas nervioso, endocrino e inmunitario constitu

imsupersistema, un triunfo más del materialismo sistémico. La portancia de esta síntesis para la farmacología y la medicina, espe-

cialmente la psiquiatría, debería resultar obvia. Curiosamente, la psiconeuroendocrinoinmunología explica por qué los chamanes y los logoterapeutas son eficaces algunas veces,

una así como por qué la exclusión social puede producir realmente enfermedad. En consecuencia, las tasas de morbilidad y mor talidad

de los pobres son más altas que en el resto de NOSOtros, NO sólo por-

también que no pueden satisfacer sus necesidades y carencias, SIno depriporque experimentan una valoración social negativa, la cual me la inmunidad (por ejemplo, Kemeny, 2009). Este resultado confirma el descubrimiento anterior de los psicólogos sociales de

que la desigualdad relativa puede hacer más daño que la pobreza

absoluta. Pero regresemos al problema mente-cuerpo. Recientemente, los neuroingenieros han inventado artefactos

que, cuando se implantan en el cerebro de un parapléjico O de un mono inmovilizado, permiten al animal controlar el cursor de un ordenador o un brazo robótico. Los dualistas interpretan estas hazañas tecnológicas como pruebas del poder de la mente sobre la

materia. Sin embargo, está claro que para el bioingeniero lo que

ocurre es que una parte del cuerpo, es decir, una región de la corteza

prefrontal, activa la prótesis neural y hace que ejecute los movimientos deseados. Asimismo, el efecto analgésico de los placebos

y el poder (poco fiable) de las oraciones pueden entenderse como efectos de procesos del cerebro sobre otras partes del cuerpo. Es la

materia sobre la materia, de los pies a la cabeza. No podría ser diferente, porque las cadenas causales son secuencias de sucesos y todo

suceso es un cambio de una cosa material. Véase la figura 8.1. _ La explicación de la determinación y fortaleza de los monjes budistas tibetanos que se prendieron fuego alrededor de 1970 para JE"

272

|

e

|

corteza

prefrontal*

-————3= corteza

motora*

———»3=

dedo*

Figura 8.1. La cadena causal entre la decisión de mover un dedo y el movimiento real del mismo pasa por la activación de la corteza motora. El asterisco simboliza un suceso y la flecha

un impulso nervioso. En el caso de los pacientes con prótesis neurológicas, el último eslabón es el cursor de un ordenador o una mano

mecánica.

protestar por la guerra es similar. Sin embargo, ese es un caso mu-

cho más complejo que el del control necesario para las actividades de la vida cotidiana, puesto que supone el libre albedrío y un grado

de abnegación y regulación emocional aprendidas que sobrepasa cualquier cosa que las personas comunes podamos hacer. Dicho

sea de paso, la regulación de las emociones, sea deliberada o automática, es un tema de actualidad en la psicología (véase Gross, 2007).

El monista materialista no piensa que estos casos sean ejemplos del poder de la mente sobre la materia, sino del control que ciertas partes del cerebro, especialmente la corteza prefrontal, pueden ejercer sobre el resto del cuerpo. En consecuencia, los casos en cuestión

son ejemplos —no contraejemplos— de la identidad psiconeural. Tanto es así que el control cognitivo del comportamiento se ha transformado en un capítulo convencional de la neurociencia cog-

nitiva, así como en la base científica de la neuroingeniería (véase DiLorenzo et al., 2008). Inténtese simplemente fundar la neuroingeniería en una filosofía de la mente alternativa, tal como las ver-

siones del dualismo mente-cuerpo de Descartes, Hume, Kant,

Hegel, Husserl, Wittgenstein o Popper.

Pensemos en un ingeniero que diseña o implanta una prótesis

neurológica motora que permita a una persona paralizada del cuello para abajo mover el cursor de una pantalla o un brazo mecánico mediante el único expediente de imaginar esta acción. Ese tecnólogo o técnico introduce un electrodo en la corteza motora del ceebro, no en una mente inmaterial. Esta reorientación ha ido “ompañada por un ligero cambio de terminología: los neurocienúficos y bioingenieros hablan de causación hacia abajo [top-down) Cn lugar de descendente [downward). La cadena causal en cuestión O está interrumpida por un abismo inmaterial: es completamente 273

alma

corteza prefrontal

'

y

cuerpo

resto del cuerpo

corteza prefrontal

y corteza

motora

prótesis neural

brazo mecánico

(a)

(b)

(c)

Figura 8.2. Causación de arriba abajo. (a) Dogma dualista. (b) Hipótesis materialista. (c) Neuroprótesis.

material. El monismo materialista subyace y motiva la neuroingeniería y la industria de las prótesis neurales, mientras que el dualismo psiconeural las desalienta. Es bueno saber que la filosofía correcta puede producir salud y dinero, además de promover u obstaculizar el progreso social. Véase la figura 8.2.

Por último, recordemos la inversa de la causación de arriba

abajo, es decir, la causación de abajo arriba [bottom-up] O de la

molécula al cerebro. Esto sucede cada vez que bebemos una taza de café o un vaso de vino. En efecto, se consume cafeína y al-

cohol precisamente por sus efectos sobre la cognición y el humor respectivamente. Aunque las funciones de estas sustancias son

notables, la forma en que actúan todavía se está investigando

(véase, por ejemplo, Iversen et al., 2008). Lo cual es una prueba

de que los científicos, a diferencia de la mayoría de los filósofos

de la mente, no son funcionalistas: no se quedan satisfechos has-

ta que descubren el mecanismo que hay detrás de la función de interés.

En pocas palabras, los dualistas y los monistas materialistas ven

las flechas causales mente-mente y mente-cuerpo del siguiente modo:

274

3

Tipo de suceso

Dualismo

Monismo materialista

Mismo nivel

mental, + mental,

neural; + neural,

Descendente

mental —> corporal

neural —+ corporal

Ascendente

corporal —+ mental

corporal + neural

8.5 El dualismo es peligroso Un dualista congruente rechazará todo tratamiento de las enfermedades mentales que incluya medios materiales como la neurocirugía y las pastillas psicotrópicas (o neuroactivas). También rechazará las prótesis neurales que los ingenieros diseñan para ayudar a la gente que ha sufrido lesiones cerebrales. Con todo, a causa de la eficacia de esos medios, el neurólogo, el psicólogo o el psiquiatra clínico dualistas pueden estar dispuestos a sacrificar su imtegridad filosófica y recomendarlos para manipular las mentes supuestamente inmateriales. Después de todo, tienen que dar de

comer a su familia. Lamentablemente, el diagnóstico de las enfermedades mentales todavía se encuentra en una etapa bastante primitiva. Esto es así

hasta el extremo de que cada nueva edición de la obra estándar en la materia, el Manual diagnóstico y estadístico de trastornos mentales [Diagnostic and Statistical Manual of Mental Disorder o DSM) ofrece

nuevos criterios. Por ejemplo, parece difícil distinguir entre la psicosis maníaco-depresiva y la dementia praecox, así como identificar la esquizofrenia. En ocasiones se dice que la razón de esta dificultad

es que algunos de los síntomas clave de los diferentes trastornos son los mismos. Pero esta situación es común en medicina: la relación causa-síntoma es de muchos a uno, no de uno a uno. Esta

ambigiiedad es característica de todos los problemas inversos (o mal formulados), tanto en medicina como en ingeniería o en física (véase Bunge, 20064).

¿Cómo podríamos mejorar esta situación? Sostengo que el remedio es reemplazar las tipologías sintomáticas (o clínicas) normales por clasificaciones somáticas (o neurocientíficas). (En una clasificación 275

propiamente dicha, las clases son mutuamente disjuntas, lo que no

ocurre en el caso de una tipología). Para poner un ejemplo cono-

cido: una incomodidad digestiva corriente puede estar causada por un mal funcionamiento del estómago, el intestino, el hígado o la vesícula biliar. Sólo un examen minucioso de estos órganos podría identificar la causa y, por tanto, sugerir una terapia adecuada. Sostengo que el caso de los trastornos mentales es análogo: su diagnóstico continuará siendo incierto mientras predomine el dualismo psiconeural, puesto que esta filosofía de la mente recomienda centrarse en los síntomas o fenómenos mentales en lugar de co-

menzar por ellos, pero seguir hasta los hechos cerebrales objetivos.

Por ejemplo, la cleptomanía y el abuso de drogas son conductas con muy diferentes, pero ambos trastornos se tratan exitosamente naltrexona, una droga que bloquea los mismos receptores opioides, lo cual indica que en estas dolencias participan de los mismos circuitos cerebrales. Los síntomas no resuelven el problema del diagnóstico: sólo lo plantean. , , Por todo lo anterior, propongo completar las tipologías psicológicas existentes con clasificaciones neurocientíficas, en las que los

enunciados diagnósticos no son del tipo “muy nerviosa, bulímica”, “obsesivo-compulsiva, “patológicamente indecisa”

O excesiva-

mente desinhibida”, sino “posible trastorno de la amigdala”,

posible

problema del hipotálamo”, “posible problema del núcleo caudado ,

“posible lesión de la corteza prefrontal” y “posible daño orbitofrontal”, respectivamente. Adviértase que en todos estos Casos se supone

que los trastornos mentales son trastornos de un Órgano y no anormalidades de todo el cerebro ni moleculares. En todo caso, las enfermedades mentales no son dolencias del cerebro como totalidad. Por ejemplo, la enfermedad de Parkinson es un trastorno de la substantia nigra, la depresión implica un dese-

quilibrio de la serotonina, la enfermedad de Alzheimer se inicia en forma de placas de f$-amiloides en las neuronas, la esclerosis múl-

tiple se debe a una pérdida severa de mielina en los nervios perifé-

ricos, etcétera. En resumen, todos los trastornos psiquiátricos son

Orgánicos: ninguno es puramente mental o funcional. Por consi-

guiente, se los debe clasificar en términos neurocientíficos. Esto 276

implica que la psiquiatría genética, en concreto la búsqueda de genes singulares “responsables” de las enfermedades mentales, no parezca prometedora, al menos de momento. Se necesita más que un gen corrupto o desaparecido para influir sobre la mente, o sobre cualquier otra función de un sistema celular altamente complejo.

El foco debería dirigirse al medio de la escala de niveles. A propósito, la concepción funcionalista de la mente, a la que se adhiere la mayoría de los filósofos de la mente contemporáneos, debería abandonarse por ser superficial desde el punto de vista científico, a la

vez que arriesgada desde el punto de vista médico. Esto no implica que debamos adoptar el llamado modelo de la

navaja suiza, defendido por los frenólogos y los psicólogos evolucionistas. Se trata de la opinión de que el cerebro está formado por módulos mutuamente independientes, cada uno de los cuales realiza una única función mental. Los neurocientíficos saben que no es así: que cada componente del cerebro interacciona con diversos subsistemas del cuerpo. Saben también que en algunos casos dos trastornos mentales muy diferentes se deben a la alteración de un

solo órgano cerebral. Por ejemplo, tanto la enfermedad de Huntingron como el trastorno obsesivo-compulsivo se deben a alteraciones del núcleo caudado, uno de los ensamblados de neuronas comprendidos en los ganglios basales. Con todo, es verdad que en todo circuito neural hay un componente dominante. Por ejemplo, se puede inducir el pánico mediante estímulos visuales, auditivos o hápticos, pero la amígdala será parte de todas las variedades de pánico. De ahí la regla: para tratar los episodios recurrentes de pá-

nico, contrólese la amígdala. Asimismo, para tratar los problemas recurrentes de estómago de todo tipo, revísense los intestinos, aun cuando después se constate que el culpable último es el hígado, la vesícula o incluso la corteza cerebral. (Véase más sobre la localiza-

ción y coordinación en el capítulo 9).

. El mecánico de automóviles procede de manera semejante: clasifica los problemas del coche en problemas de ignición, cilindros, trasmisión y electricidad, entre otros, e intenta conjeturar los daños

en las partes del automóvil a partir de las descripciones del conuctor. Este es el motivo de que, en conjunto, los mecánicos sean

277

máx eficientes que los psicólogos clínicos y los psicoterapeutas : no

separan el síntoma del órgano. Van del síntoma a la disfunción y a la parte problemática. Por esta razón, prefieren las clasificaciones exenctalistas profundas a Las tipologías sintomáticas superficiales. (Hi esencialismo es la tesis ontológica de que las cosas poseen

propiedades de dos clases: esenciales y accidentales. El compañero

metodológico del esencialismo es este: para definir una clase, sólo no deben utilizar propiedades esenciales. Por ejemplo, la tabla pe-

riódica de los clementos se basa en las propiedades esenciales de lor átomos, a saber, los números de sus protones y neutrones. Un

tomo no cambia de especie si sólo pierde o gana uno o dos electrones, Desafortunadamente, el notable biólogo evolutivo Ernst

Mayr escribió algunas páginas muy influyentes contra el esencialimo; y como crefa que la biología era una ciencia autónoma, no se tomó la molestia de prestar atención al modo en que otras ciencias, como la química, definen las especies). Para terminar, no es necesario que las filosofías sean socialmente útiles, pero sí lo es que no sean socialmente perjudiciales. Sostengo

que las filosofías de la mente dualistas son arriesgadas para la salud mental porque distraen la atención del investigador y el terapeuta

del cerebro para centrarla en un ftem inmaterial y, por tanto, inaccesible, Esto no quiere decir que negemos los efectos positivos de algunas terapias habladas: después de todo, las palabras son esmalos lísicos y algunas de ellas pueden mejorar los procesos de autocuración del cerebro, en tanto que otras pueden inducir al paciente a corregir malos hábitos. Dicho de otro modo, algunas palabras son tan buenas como los hechos porque afectan al cerebro, no a la mítica alma,

8.6 La explicación objetiva de la subjetividad Los filósofos subjetivistas reniegan del mundo real e intentan describirlo en términos de experiencias subjetivas. En consecuencia, elweltfundador de la fenomenología descubrió los placeres del Lebenso mund

o de la vida (Husserl, 1970) sólo después de pasar toda

278

su vida académica inmerso en sí mismo (“egología”) y afirmando que la esencia de las cosas sólo puede captarse “poniendo entre paréntesis” el mundo externo (es decir, fingiendo que no existe).

Acto seguido, abandonó su búsqueda de la trascendencia y propuso que el origen de todo, incluso de la matemática, debe rastrearse hasta los términos de la vida cotidiana: una especie de sociologismo barato.

Por supuesto, ni Husserl ni sus cada vez más numerosos adeptos han llevado a cabo jamás su programa epistémicamente reaccionario. Por ejemplo, ni siquiera intentaron explicar en lenguaje co-

rriente cómo se forma la lluvia, cómo se enciende el fuego, cómo tiene lugar el metabolismo o cómo se originan las crisis económicas. En todo caso, el Husserl maduro no inventó nada: reescribió, sin

percatarse de ello, el proyecto fenomenista que Hume había esbozado dos siglos antes y que adoptaron Kant y los positivistas. Este proyecto consistía en explicar la objetividad en términos subjetivos (o en primera persona). Por ejemplo, Ernst Mach intentó dar cuenta del mundo físico en términos de sensaciones. Esto es exactamente lo opuesto a lo que la psicología científica,

especialmente la neurociencia cognitiva, afectiva y social, ha estado

haciendo: explicar la subjetividad en términos objetivos (o en tercera

persona). Tomemos, por ejemplo, la experiencia del miembro fantasma sufrida por innumerables veteranos de guerra. Nadie niega que esta experiencia es subjetiva, puesto que sólo pueden tenerla quienes la sufren. Sin embargo, es real: el amputado trata su parte fantasma como si fuera real, y con frecuencia sufre realmente dolor

y lo localiza en un lugar que ya no posee. Puesto que son procesos reales, se los debe explicar en términos objetivos (o no experienciales). En realidad, las experiencias de miembros fantasmas se explica-

ron primero en términos teza somatosensorial, un Ronald Melzack (1989) así como incapaz de dar

del “esquema corporal” grabado en la corengrama que persiste tras la amputación. juzgó que esta teoría era demasiado vaga, cuenta de todos los datos disponibles, co-

mo las personas que nacen sin un miembro y pueden sentir dolor, en tanto que algunas personas a las que les falta parte de un miem-

279

bro son incapaces de sentir dolor cuando están sometidas a est-

mulos que normalmente lo producirían. A continuación. Melzack

propuso su propia teoría: conjeturó que nacemos con una “neu ro-

matriz” del yo corporal, la cual se modifica posteriormente con la

experiencia; y que esta particular red neuronal, en lugar de aceptar

todos los datos que envía el cuerpo, los filtra y nos proporciona la sensación de tener un cuerpo propio completo. Esta hipótesis da cuenta de los casos extremos de insensibilidad congénita al dolor y de la aparición espontánea de dolor (neuropatía). Posteriores investigaciones pueden modificar esta conjetura,

pero probablemente todas las alternativas conserven la idea central

de que nuestro cerebro construye nuestra imagen corporal y, en ge-

neral, todas nuestras experiencias y, sobre todo, la unidad de experiencia. Evidentemente, el proyecto de explicar la subjetividad de forma

objetiva está en sintonía tanto con la Revolución científica como

con la Ilustración, puesto que es materialista y realista en lugar de

idealista y subjetivista. La ejecución de este proyecto requiere desplazar la atención desde las mentes descerebradas hasta los cerebros “mentantes” *, porque explicar equivale a desvelar mecanismos, y Estos son procesos que hacen que los sistemas mareriales funcionen (Bunge, 20064). En efecto, tal como lo expresa un reciente libro de texto, “el objetivo supremo de la neurociencia cognitiva es explicar los procesos mentales y el comportamiento en términos

de la estructura y la función de las regiones correspondientes del cerebro y del resto del sistema nervioso” (Purves et al., 2008,

pág. 57).

La consecución de este objetivo ha sido el sueño de los filósofos materialistas desde la antigúedad. Si se abandona esta filosofía, est

gran proyecto no puede ser siquiera formulado; si se elimina el ce* Utilizamos el verbo “mentar” y sus derivados (por ejemplo, el adjetivo “men-

tante”) como neologismo para traducir el uso, también neológico, que el autor

hace del verbo inglés to mind y sus derivados (p. ej., el adjetivo minding). La 10”

tención es mantener el acento en que “mentar” es la acción específica de algunos subsistemas del cerebro, (N. del T.)

280

co

q

AI

rebro, no queda mente alguna; si se ignora la “base”, el “sustrato” o “correlato” neural de los procesos mentales, no se puede tener esperanza razonable en comprenderlos. Toda filosofía de la mente sin cerebro tiene que borrar 2500 años de ciencia de la mente. Comentarios finales

De todas las grandes y venerables cuestiones científicas, el problema mente-cuerpo es el más difícil y el que está rodeado por la muralla

teológica más gruesa y la niebla filosófica más espesa. No es ninguna sorpresa, porque el alma ha sido tradicionalmente propiedad de sa-

cerdotes, chamanes, charlatanes y filósofos que rechazan aprender psicología moderna y, aun así, proclaman confiadamente que ese

problema no existe, bien porque ya lo resolvió Platón, bien porque la mente no existe, bien porque la mente es misteriosa.

Por ejemplo, Colin McGinn (1993, pág. 36) comparte la opi-

nión de John Tyndall, un físico del siglo XIX citado por William

James (1890, vol. I, pág. 147), de que “el paso de la física del cerebro a los correspondientes hechos de la conciencia es impensable”.

Sin embargo, “pensable” (o “concebible”) es un concepto psicológico, no un concepto gnoseológico como el de la plausibilidad (o

verosimilitud) de una hipótesis a la luz de un cuerpo dado de conocimientos. Además, se supone que los filósofos no deben recurrir a argu-

mentos de autoridad, como hace McGinn, especialmente cuando la supuesta autoridad se ha ganado su reputación en un área muy lejana. En el caso del problema mente-cuerpo, esperamos que los filósofos se basen en la neurociencia cognitiva. Esta ciencia es la única autoridad (provisional) que un filósofo de la mente debe admitir. Pero la bibliografía de cuatro páginas de McGinn sólo incluye dos referencias científicas y ninguna en absoluto de los defensores de la identidad psiconeural que, da la casualidad, es el motor filosófico de la neurociencia cognitiva. Averigiiemos qué piensan los científicos de la mente contemporáneos acerca de la materia de la mente. 281

9 La materia mentante:

el cerebro plástico

La filosofía de la mente es el capítulo de la ontología que se ocupa

de los rasgos más básicos y universales de la mente humana. Puede ser o tradicional (precientífica) o contemporánea (procientífica). La filosofía de la mente tradicional es, en pocas palabras, la hipótesis de que todo lo mental sucede en la mente inmaterial. Esta es la

concepción propia de los chamanes y los sacerdotes, así como de los psicoanalistas, los clarividentes y de quienes siguen la New Age.

Los filósofos idealistas, los lingiiistas indiferentes a los hablantes reales, así como muchos psicólogos, coinciden. El famoso filósofo Hilary Putnam (1975, pág. 291) lo ha expresado de forma memorable: “Podríamos estar hechos de queso suizo y no tendría ninguna importancia”. Además, el fundador de la metafísica de los mundos posibles negó la identidad de los estados mentales y los estados cerebrales porque es posible ¿maginar un estado cerebral que no es un estado mental, así como la existencia de un estado mental sin el correspondiente estado cerebral (Kripke, 1971, págs. 162-163). Por tanto, el hecho de que los zombies sean imaginables se utiliza para justificar una filosofía de la mente indiferente a la ciencia de

la mente. En cambio, los investigadores médicos y los filósofos materia-

listas desde la antigiiedad, al igual que los neurocientíficos desde Broca y Wernicke, han sostenido que todos los hechos mentales

tienen lugar en el cerebro. Expresado de modo más simple: pensa-

nos y sentimos con nuestras cabezas, razón por la cual la decapi283

tación se ha considerado siempre la mejor defensa contra los pensamientos peligrosos, El compañero metodológico de esta filosofía de la mente materialista es, desde luego, la estrategia que se puede resumir en la siguiente regla: Para comprender la mente, estúdiese el cerebro viviente. Esto es, precisamente, lo que ha estado haciendo la neurociencia cognitiva desde que Donald Hebb (1949) escribió su proyecto de investigación (véase, por ejemplo, Purves ef al., 2008). Por ejemplo, las huellas de la memoria están hechas de grupos de neuronas con una distribución dispersa. Por eso los recuerdos de los miedos, que están tallados en la amígdala, pueden destruirse realmente mediante la ablación de ciertas partes de ese subsistema cerebral. Hay que reconocer que la psicología sin cerebro puede describir de forma correcta algunos fenómenos mentales. Pero no puede explicar ni uno solo de ellos, porque una explicación genuina supone

el descubrimiento de los mecanismos correspondientes (Bunge, 1967a; Machamer et al., 2000); más aún, todos los mecanismos son procesos de sistemas materiales (Bunge, 2006a). La consecuen-

cia médica es que los trastornos mentales graves son enfermedades cerebrales que requieren terapias que alteren ciertos procesos neu-

rológicos. No obstante, puesto que los cerebros vivos están inmersos en un entorno social, la neurociencia cognitiva y afectiva debe fundirse con la psicología social. El resultado es la neurociencia cognitiva social (vése, por ejemplo, Cacioppo, 2006).

La tesis de que el cerebro es el órgano mental sólo puede sostenerse si se supone que siempre está en actividad, incluso durante el sueño, cuando no hay estimulación externa y mientras realiza tareas rutinarias: si se lo considera capaz de autoestimularse y reorganizarse a sí mismo, es decir, provisto de espontaneidad, automotivación y de las capacidades de mantenerse funcionando automáticamente, autoprogramarse y autorrepararse.

También hemos de admitir que la suposición de que sólo la comprensión del cerebro puede ayudarnos a entender la mente implica inversiones mucho mayores en ingenio y trabajo experimental

que la adopción de cualquiera de las concepciones rivales, desde la vieja psicología del alma hasta el computacionalismo en boga, por284

que da la casualidad de que el cerebro humano es el sistema más complejo del mundo. Como ha afirmado Ken Hill, conocido por su trabajo en inteligencia artificial, “si el cerebro fuera tan simple como para comprenderlo, nosotros seríamos tan simples que no

podríamos hacerlo”.

9.1 La identidad psiconeural A continuación echemos un rápido vistazo a la alternativa más importante al dualismo clásico, es decir, la teoría —o, mejor dicho, la hipótesis— de la identidad psiconeural (en las ciencias exactas, una teoría propiamente dicha no es una conjetura aislada, sino un

sistema hipotético deductivo). Se trata de la conjetura reduccionista que afirma que todos los procesos mentales son procesos neuroló-

gicos. Expresado con mayor precisión: Para todo proceso mental M,

hay un proceso N de un sistema del cerebro, tal que M = N. Por ejemplo, ver es la función específica del sistema visual, sentir temor es una función específica del sistema cuyo centro es la amígdala; reflexionar y tomar decisiones son las funciones específicas de la corteza prefrontal, y así sucesivamente (véase, por ejemplo, Bindra,

1980; Bunge, 1980a; Changeaux, 2004; Hebb, 1980; LeDoux, 2002; Mountcastle, 1998; Zeki, 1993).

En este contexto, se entiende que una función es un proceso de

una cosa concreta, como la circulación de la sangre en el sistema cardiovascular y la formación de una decisión en la corteza pre-

frontal. Además, una función específica de un sistema $ es una función que sólo S puede realizar. Por ejemplo, el cerebro realiza muchísimas funciones, pero sólo el cerebro puede pensar. Los fun-

cionalistas eliminan las S de la descripción anterior o conciben órganos sólo como medios para la realización de las funciones. ejemplo de esta forma teleológica de pensar lo ofrece el título libro de Popper y Eccles La mente y su cerebro. ¿Por qué no El

los Un del ca-

minar y sus piernas, La digestión y sus vísceras y otros parecidos?

Los funcionalistas caen en el mismo error del que Aristóteles acusó a Platón: hablar de movimiento en sí, en lugar de hacerlo de 285

órgano

función específica

amíadala

sentir miedo

sistema auditivo

oÍr

tronco del encéfalo

vigilia

corteza entorrinal hipocampo

mapa del entorno espacial memoria de corto plazo, orientación espacial

Ínsula

desagrado

núcleo accumbens

placer

bulbo olfativo

olfacción

corteza prefrontal

control cognitivo, funciones ejecutivas

sistema visual

visión

corteza prefrontal media

valoración y decisión

todo el cerebro

conciencia

Tabla 9.1. Fisiología de la mente en pocas palabras.

cuerpos en movimiento. En cambio, los neurocientíficos COgnitivos y afectivos intentan localizar los procesos mentales en el cerebro y desvelar sus mecanismos: trabajan en la fisiología de la mente, al igual que otros científicos trabajan en la fisiología de la digestión. Véase la tabla 9.1. Desafortunadamente, con frecuencia la hipótesis de la identidad

psiconeural se formula de forma errónea, un error que cometen

hasta las personas que afirman defenderla. En una difundida versión de la misma, “el pensamiento y la conciencia son productos [Erzeugnisse] del cerebro” (Engels, 1954, pág. 55). En otra, “el cerebro causa la mente” (Searle, 1997) y, en general, “la anatomía

neural causa la función mental”. Ambas son formulaciones inadvertidas del epifenomenismo, la doctrina dualista que sostiene que los sucesos mentales son el producto secundario pasivo de la actividad del cerebro, al igual que el ruido es un subproducto de los motores. La versión del epifenomenismo que afirma que la mente es un producto del cerebro es incorrecta, porque habitualmente se en-

tiende que el producto es algo separable de aquello que lo origina,

así como que es incapaz de reaccionar con el material que le da orisi

| [ 1

1

y]

gen; por ejemplo, la bilis es un producto del hígado. La versión

causal del epifenomenismo es errónea, además, porque las relaciones causales se dan entre sucesos, no entre las cosas y los sucesos que

tienen lugar en ellas. Por ejemplo, la rotación no es un efecto de la rueda sino, simplemente, lo que la rueda hace; es su función específica, además de derrapar, calentarse con la fricción, hacer ruido,

etcétera. La rueda tampoco es el correlato físico” o “sustrato” de la rotación. Resulta igualmente absurdo decir que la rueda “imple-

menta” o “ejemplifica” la rotación o que es el “sustrato material” de la rotación. En lugar de todo eso, decimos que la rueda gira. Además, al contrario de lo que sostiene el epifenomenismo, si el

cerebro causara la mente, esta reaccionaría, a su vez, sobre el primero, ya que todo suceso inicia una nueva cadena causal (Lachs,

1963). Las funciones mentales no son productos ni efectos del cerebro: son lo que el cerebro puede hacer. Asimismo, la contracción muscular no es un producto ni un efecto del músculo: se trata, senci-

llamente, de la actividad muscular específica (para una formalización del concepto de función específica, véase Bunge, 1980a). La hipótesis monista de la identidad psiconeural consiste, simplemente, en que los procesos mentales son procesos de ciertos sistemas del cerebro, tales como las “áreas” del lenguaje en la corteza cerebral.

Esta hipótesis ha sido fundamental para la psicología médica desde Hipócrates y Galeno, así como el blanco de teólogos y filósofos idealistas. Además, desde luego, es el supuesto central de la neurociencia cognitiva que, como la anterior, intenta ímapear la

mente en el cerebro”. Sin embargo, permítame el lector apresurarme a señalar que ese mapa ha resultado ser algo muy diferente de un mapa uno a uno de un territorio: véase más adelante la sección 9.4. Para hacer hincapié en que el monismo materialista afirma una identidad y no simplemente una correlación o paralelismo, reformulémoslo de una forma más explícita, aunque también más pe-

dante: Para todo proceso mental M, existe un proceso N de un sistema

cerebral, tal que M = N. De forma equivalente: Para toda función

287

mental E existe un sistema cerebral B que realiza E Corolario médico: Sí B se lesiona o no existe, E se altera o no sucede.

Formulada de este modo, la hipótesis de la identidad psiconeural es empíricamente comprobable. En efecto, es posible modificar los sistemas neurales por medios farmacológicos O quirúrgicos o, tam-

bién, mediante la EMT (estimulación magnética trascraneal), y medir los cambios en el comportamiento. A diferencia de las IRM

(imágenes por resonancia magnética), las cuales revelan ciertas fun-

ciones mentales, la EMT, además de medir algunas de sus caracte-

rísticas, las modifica.

9.2 Superventencia y emergencia os filósofos de la mente, como Hilary Putnam y Saul Kripke,

discuten el problema mente-cuerpo a la luz de meras fantasías. Algunas de las más populares son las del cerebro en una cuba, la Tierra sin agua, los zombis y el “teletrasportador” de la serie Star Trek. Echémosle un vistazo a este último, utilizado por Jaegwon Kim

(2006, págs. 8-9) para ejemplificar lo que llama “la superveniencia

de lo mental sobre lo físico” y apuntalar la versión fisicalista o reduccionista del materialismo.

El mencionado “teletrasportador” es un artefacto imaginario

que desintegra de forma instantánea a una persona, recoge toda la información acerca de sus componentes moleculares y sus posicio-

nes relativas y trasmite esa información a otro lugar, donde otro dispositivo utiliza esa información para sintetizar una copia idéntica de la persona original. Sostengo que esta fantasía es precisamente eso, una fantasía, puesto que se basa en un concepto equivocado

de la materia viva, un concepto según el cual todo lo que importa de un sistema es su composición y estructura, sin importar su me-

canismo ni la interacción con el entorno. El modelo composición-estructura de un organismo —-o, en re-

alidad, de todo sistema material— es deficiente porque es estático:

pasa por alto el hecho de que, para estar viva, una cosa debe expe-

rimentar miles de reacciones químicas —algunas simultáneas y

288

otras de forma secuencial—, que están reguladas y coordinadas temporalmente con una precisión exquisita. Algunas reacciones no pueden comenzar a menos que otras se hayan completado, senci-

llamente porque aquellas “utilizan” los productos de estas. Siquiera por esta sola razón, la idea de la vida instantánea es ingenua, por decirlo educadamente. Lo dicho vale hasta para los reactores más simples que se utilizan en la industria química. Por tanto, colocar todos los compuestos químicos que constituyen algo vivo en sus posiciones correctas no “animará” el sistema

ni aunque lo sometamos a descargas eléctricas, como fantaseó Mary Shelley al imaginar su Frankenstein. La producción de vida sintética requiere mucho más que eso. Por fortuna, la hipótesis de la identidad psiconeural no se sostiene o se derrumba con las fantasías de la ciencia ficción: se funda y, a la vez, motiva una sólida investigación neurocognitiva, algo que los filósofos de la mente rara vez consultan (por ejemplo, las 10 páginas de bibliografía del libro que Kim publicó en 2006 no incluyen ni un solo artículo de neurociencia cognitiva). Todavía no me he encontrado ningún científico que analice seriamente imposibles artefactos de ciencia ficción. Asimismo, todavía tengo que encontrar la palabra superveniencia en una publicación científica. Cuando tratan con la novedad cualitativa, los científicos

prefieren la palabra emergencia. Como hemos visto en la sección 5.7, “emergencia” tiene dos sentidos que se complementan entre

sí: a) una peculiaridad de un sistema que ninguno de sus constituyentes posee, como la capacidad de tomar decisiones, que sólo poseen ciertos sistemas de varios millones de neuronas de la corteza prefrontal; y b) una propiedad radicalmente nueva que surge en el

trascurso de un proceso, como la capacidad de “leer” las mentes de otros individuos, una novedad que surge tanto durante el proceso de desarrollo como en el proceso evolutivo. Ambos conceptos, el estático y el dinámico, se pueden representar como un nuevo eje

lo coordenada) del espacio de estados para cosas de una cierta clase (véase Bunge, 1977b y la figura 9.1). Decir que una propiedad nueva P» surge o emerge a partir de propiedades anteriormente ausentes en las cosas de la clase K es 289

» P:

—_—>

= —

-

>>

P;

Figura 9.1. Una nueva propiedad P» emerge en una cosa con las propiedades P: y P»,

una forma abreviada de decir que “en el transcurso de su historia, las cosas de la clase K adquieren la propiedad P;”. Como como argumentó Aristóteles contra Platón, no hay propiedades sin los portadores de esas propiedades: toda propiedad lo es de una cosa (más información sobre esto en el capítulo 14). En el caso de las cosas vivas, la historia en cuestión puede ser o bien la historia de vida (ontogénesis), o bien la historia de la especie (filogénesis). En con-

secuencia, se puede investigar a qué edad y en qué circunstancias los niños aprenden normalmente a pensar en los procesos mentales de otras personas o cuál de nuestros antepasados distantes adquirió esa capacidad. En todo caso, mientras que el concepto de emergencia está claro y se utiliza con frecuencia en las ciencias, desde que George Lewes lo propuso en 1874 y, especialmente, desde que Lloyd Morgan (1923) la difundió en biología y psicología, la noción de superveniencia ni está bien definida ni su uso es habitual fuera del ámbito de la filosofía de la mente contemporánea. 9.3 El cerebro plástico

Las hipótesis más conocidas sobre la naturaleza del cerebro son que, básicamente, está fijo desde el nacimiento y que la experiencia sólo puede modificar la sintonía fina o modularlo (innatismo), que se trata de una hoja en blanco al nacer y, en consecuencia, se encuentra totalmente a merced de su entorno (empirismo, conductismo y

computacionalismo); o que es plástico: que cambia a medida que aprende, olvida, inventa, planifica y decide, sea de manera espon290

Y —L

»

Y





Y

A

(a)

(b)

|

LK

> >

—K

h

Y (c)

Figura 9.2. Tres concepciones del cerebro: (a) rígido y autosuficiente (innatismo), (b) plástico

y pasivo (empirismo), (c) plástico e interactivo (neurociencia cognitiva).

tánea o ante una estimulación externa. La primera hipótesis se ajusta bien a la concepción de Charles Sherrington, de que la principal

función del sistema nervioso es coordinar las diferentes partes del

organismo. Puesto que se centró en la función homeostática del

cerebro, Sherrington (1964) pasó por alto sus funciones mentales y se inclinó por el dualismo psiconeural. La segunda hipótesis es consistente con el postulado de Ivan Pavlov de que el cerebro es “el órgano de las relaciones más complicadas del animal con el mundo externo”. No sorprende que se adhiriera a la hipótesis de la identidad psiconeural (Pavlov, 1955). La tercera hipótesis es la de la neurociencia cognitiva a partir de Hebb (1949). Como Pavlov,

Hebb (1980) defendió el monismo psiconeural; pero a diferencia de aquel, procuró instruir a sus colegas en lugar de atacarlos. Véase la figura 9.2. La tercera hipótesis integra las verdades parciales del determinismo genético así como las del determinismo ambiental, especialmente la hipótesis de que el cerebro regula tanto el medio interno

del animal como las interacciones de este con el entorno. Con todo,

esta perspectiva va mucho más allá de las de Sherrington y Pavlov,

ya que pone el acento en la incesante actividad neuronal autogenerada o espontánea, aun durante el sueño.

Una prueba decisiva a favor de esta concepción es la naturaleza

constructiva de la memoria episódica (Bartlett, 1932; Tulving,

2002). Es decir, que cuando recordamos un episodio a menudo combinamos diferentes recuerdos, en lugar de reproducir fielmente

lo que sucedió en realidad. Expresado en términos neurales, el re-

cuerdo de un suceso consiste, con frecuencia, en la agregación de 291

diferentes vestigios de recuerdos. Esta es la razón de que los testi-

monios no sean fiables. También es la razón de que el modelo compuracionalista de la mente esté tan errado. % Otra prueba convincente a favor de la hipótesis de la actividad cerebral espontánea es que el 60%-80% del presupuesto energético del cerebro se invierte en la comunicación interneuronal, mientras

que las respuestas a las exigencias puntuales del ambiente pueden requerir una proporción tan pequeña como el 1% del presupuesto energético total (Raichle, 2006).

Desde luego, la tasa de gasto energético depende de la naturaleza de la tarea y es probable que sea mayor durante las etapas tempranas de un aprendizaje, mientras el animal le “coge el tranquilo a la tarea. Por ejemplo, el estudio neurobiológico del hipocampo de las ratas mientras aprenden una tarea y, después, cuando la recuerdan, condujo a Gyórgy Buzsaki y colaboradores a la siguiente conclusión:

“Durante el aprendizaje, el orden temporal de los sucesos externos resulta fundamental para especificar y obtener las representaciones neuronales adecuadas, en tanto que durante el recuerdo, la imagi-

nación o la planificación de una acción, la secuencia de actividades [de las neuronas que participan) está determinada por la dinámica

intrínseca de la red” (Pastalkova et al., 2008).

“Una propiedad fundamental del cerebro es su plasticidad, su capacidad de cambiar como respuesta a la experiencia y el uso” (Feldman, 2009, pág. 34). Estos cambios son funcionales (fisiológicos) o estructurales (anatómicos), y mientras algunos de ellos

están causados por estímulos externos, otros ocurren de forma espontánea. Aprender, olvidar, imaginar, inventar, tomar decisiones

y las modificaciones que nuestros recuerdos sufren con el tiempo

constituyen, posiblemente, las pruebas más convincentes a favor de la hipótesis de que ciertas partes de nuestro cerebro son plásticas,

en lugar de clásticas (no queda huella) o rígidas (incapaces de apren-

der u olvidar algo).

Ramón y Cajal intuyó, y 50 años después Donald Hebb (1949)

tcorizó, que el mecanismo básico del aprendizaje y el olvido es la

plasticidad sináptica, es decir, cambios en la fortaleza de las cone-

xiones entre las neuronas. En 1948, Jerzy Konorski confirmó la re292

alidad de la plasticidad y acuñó el término, y en 1966 Terje Lomo

confirmó de forma experimental la hipótesis de Cajal-Hebb. Siete años después, Lomo y Timothy Bliss fortalecieron esas conexiones irradiándolas con ondas electromagnéticas de alta frecuencia

(el

nombre técnico de esta facilitación sináptica es LTD, siglas en inglés de “potenciación a largo plazo”). Posteriormente, Áttila Losonczy añadió un cambio anatómico, la modificación de las espinas dendríticas, como mecanismo de la plasticidad (para un análisis de este

gran proyecto de investigación multinivel, así como multidisciplinario, véase Craver, 2009). Aproximadamente al mismo tiempo,

se descubrió en varias regiones del cerebro un mecanismo inter-

neuronal de largo alcance y mayor velocidad: las ondas progresivas (v= 10 cm.s”).

La investigación de la plasticidad neural, que ya lleva todo un siglo, constituye un claro ejemplo de la naturaleza de largo plazo, interdisciplinaria e internacional de la investigación básica referente a las llamadas Grandes Preguntas, así como del íntimo en-. trelazamiento de las hipótesis y la experimentación. Más aún, la misma investigación ha probado que en el aprendizaje y el olvido están implicados procesos de varios niveles, desde la liberación y recepción de moléculas de diversas clases —ligeras como el calcio

y pesadas como el glutamato— hasta la síntesis y degradación de proteínas, cambios morfológicos en las espinas dendríticas y el ensamblaje y desmantelamiento de ensamblados de células, tal

como llamó Hebb (1949) a los sistemas compuestos por varias

neuronas. La plasticidad sináptica ha refutado la concepción nativista —y en concreto, la concepción genética— que considera al cerebro rigurosamente determinado por la herencia, y la ha reemplazado por

la concepción epigenética. Esta última “postula que las conexiones

entre las neuronas se establecen en etapas con un importante mar-

gen de variabilidad y están sometidas a un proceso de selección que se produce mediante ensayo y error” (Changeaux, 2004, pág. 185). En vista del corpus de pruebas, abundante y cada vez mayor, en

favor de la concepción dinámica del órgano mental, la persistente

Popularidad de la perspectiva opuesta en sus diversas versiones —el |

l

|

|

Pg

293

determinismo genético de Dawkins, las ideas innatas de Chomsky y el computacionalismo— resulta desconcertante. Estos descubrimientos sobre la plasticidad sugieren la siguiente concepción del cerebro de los vertebrados superiores (mamíferos y aves). Este cerebro contiene subsistemas de dos clases: unos con

conectividad constante y otros con conectividad variable, o comprometidos y no comprometidos, respectivamente. Los primeros

están a cargo de funciones de rutina, mientras que los segundos son capaces de realizar funciones nuevas, es decir, de aprender. Toda

función mental es una función específica de un sistema neuronal que es plástico, o lo fue antes de que el animal aprendiera la tarea

en cuestión hasta el punto de que se trasformara en una rutina. Podemos llamar psicón al ensamblado neuronal de menor tamaño capaz de realizar una función mental. En pocas palabras, todo proceso mental es un proceso de un psicón o de un sistema de psicones (pa-

ra más detalles, véase Bunge, 1980a; Bunge y Ardila, 1987).

Esto responde la pregunta sobre el objetivo y dominio de la psi-

cología que formulamos al comienzo del capítulo anterior. La psicología es el estudio científico de la mente entendida como la colección de procesos, distintos de los de mantenimiento —como

la síntesis de proteínas o la circulación sanguínea— que tienen

lugar en los subsistemas plásticos del cerebro de los vertebrados superiores (mamíferos y aves), así como del comportamiento contro-

lado por esos subsistemas.

9.4 Localización más coordinación

Una controversia recurrente en la neurociencia es la que tiene como

protagonistas a localizacionistas y holistas. Los localizacionistas,

como Galeno y Gall, han tendido a ser monistas, en tanto que los

holistas, como Jackson y Freud, han tendido a ser dualistas. La ra-

zón de esta fuerte correlación es obvia: los hechos están en algún nugar del espacio, mientras que los objetos inmateri ales, como las

,E y

eres o no están en ningún lado o están en todas

quí porqué en sus Meditaciones (1641), Descartes sos294

tenía que la res cogitans estaba fuera del espacio, una afirmación que provocó la burla de Leibniz. Con todo, como era más un cien-

rífico que un teólogo, Descartes se retractó finalmente de su dua-

lismo respecto a la sustancia, y en Las pasiones del alma (1649)

conjeturó que la glándula pineal era “el asiento del alma”. Franz Joseph Gall fue un neuroanatomista que, a fines del siglo

xvi1l, afirmó ser capaz de conocer las facultades mentales de las personas mediante la localización de ciertas protuberancias de sus crá-

neos: Gall creía que cada protuberancia indicaba la presencia de

un “órgano mental” altamente desarrollado. Esta doctrina, la frenología, combinó el monismo psiconeural de Hipócrates con la

hipótesis de Galeno de que todas las regiones del cerebro realizan

una función mental en concreto. Las principales ideas de Gall, que

los procesos mentales son procesos cerebrales y que el cerebro es un sistema de subsistemas especializados, eran básicamente correc-

tas; lamentablemente, su metodología no lo era, puesto que no se romó la molestia de poner a prueba sus audaces conjeturas.

Dos siglos más tarde, el filósofo Jerry Fodor (1983) resucitó la

frenología. En efecto, postuló que la mente —no el cerebro, que

no le interesaba— es una colección de módulos mutuamente in-

dependientes, cada uno de los cuales es “específico del dominio”,

es decir, realiza por sí mismo una tarea específica. Esta hipótesis,

llamada de la navaja suiza, se iba a convertir en uno de los pilares

del innatismo a lo Chomsky y Pinker, así como de la psicología evolucionista pop. Los módulos imaginarios de Fodor no se desarrollaban, sino que

nacían completamente funcionales: uno para la visión, otro para la gramática, etcétera. En resumen, la teoría de Fodor, como la psi-

colingiiística de Chomsky, no casa con el descubrimiento más im-

portante de la psicología del desarrollo: que todo conocimiento es

aprendido. Asimismo, contradice las conjeturas verosímiles de que la modularización (especialización) es un proceso constructivo gra-

dual y que cada módulo está funcionalmente relacionado con, al

menos, otro módulo. En otras palabras, la especialización no es congénita sino que emerge en el trascurso del desarrollo individual] (Elman er a/., 1998). Por ejemplo, normalmente nacemos con

295

un sistema visual, pero si deseamos ver detalles microscópicos y

patrones globales debemos aprender a mirar. Se necesitaba el genio de Cajal para advertir, por primera vez, las redes neuronales que

otros habían interpretado como una masa homogénea. Sea como fuere, todos los casos conocidos de módulos cognitivos

“específicos del dominio” y sus respectivos déficits se han encon» trado en cerebros adultos. El cerebro del neonato es ignorantey

sus carencias, si las tiene, son anatómicas O arquitecturales, no fi-

siológicas o funcionales (Karmilof£-Smith, 2006). En conclusión, los módulos innatos, rígidos y mutuamente independientes de Fodor

no proceden de la neurociencia cognitiva, sino que ya estaban en la

tradición de la Naturphilosohie apriorista de Hegel y Schelling.

Gran parte de lo anterior vale también para su Opuesto, la extravagancia holística de Bennet y Hacker (2003), que sostiene que

la portadora de los predicados mentales es la totalidad de la persona,

en lugar del cerebro. (Si esto fuera así, los tetrapléjicos no tendrían

mente, la decapitación no constituiría un impedimento para el

pensamiento mayor que la amputación de un dedo y los neurocirujanos deberían empezar cortando los dedos de los pies).

El enfoque de la enfermedad en la “totalidad de la persona” ca-

racterístico de la “medicina holística” constituye un impedimento para la investigación neurocientífica y la práctica neurológica, como subrayó Normand Geschwind (1974) en su artículo clásico de 1965

sobre los síndromes de desconexión. Este influyente artículo informaba sobre un estudio del propio Geschwind con Edith Kaplan sobre un paciente que había sufrido la sección de su cuerpo calloso, el puente que une los dos hemisferios cerebrales. El paciente en cuestión “parece comportarse como si tuviera dos medios cerebros casi aislados que funcionan de forma independiente” (pág. 23). Por

ejemplo, el paciente no podía decir el nombre del objeto que conocía de un modo no verbal y sostenía en su mano derecha (otros pacientes neurológicos muestran la conducta opuesta: no pueden

manipular objetos que sí pueden nombrar). Al principio, este comportamiento consternó a los científicos, que no habían “pensado

que el paciente estaba compuesto por partes conectadas y no era

un todo indisoluble” (pág. 224). Las partes en cuestión eran el sis-

296

OUDQ Figura 9.3. (a) Holismo: todas las cosas constituyen una totalidad sin fisuras. (b) Atomismo: todas les cosas complejas son series de individuos mutuamente independientes. (c) Sistemismo: todas las cosas complejas son sistemas o constituyentes interdependientes de los sistemas.

tema visual y el área del lenguaje. Por tanto, Geschwind (pág. 225)

rechazó tanto el holismo como el atomismo y consideraba al animal “como la unión de totalidades laxamente unidas”. Es decir, de forma tácita, Geschwind adoptó el enfoque sistémico. Véase la figura 9.3. Si se juzga que la extensión de la mente a la totalidad de la persona resulta insuficiente, piénsese en la “mente extendida” de Andy

Clark (2008), la cual incluye el papel, el lápiz, el ordenador y la bi-

blioteca del pensador. (¿Por qué no generalizar y considerar que la cocina pertenece a la “víscera extendida”, el gimnasio al “sistema locomotor extendido”, y así sucesivamente?). Esto no sirve, porque

los cerebros no pueden reemplazarse, repararse ni descartarse como se hace con los instrumentos. Un paso más en la operación de la

extensión de la mente nos situaría en el panpsiquismo, lo cual ilustra el principio cínico que dice que, dada una extravagancia arbitraria, hay al menos un filósofo capaz de inventar otra extravagancia aún más estrafalaria.

A continuación, retrocedamos un siglo. Desde sus comienzos a

mediados del siglo X1x, la neurolingiiística pareció confirmar el lo-

calizacionismo estricto, es decir, la hipótesis que propone una re-

lación unívoca entre área cerebral y función mental. A comienzos del siglo XVIII se descubrió que una lesión en un lado del cerebro

afectaba el control del movimiento del lado opuesto del cuerpo.

En el siglo siguiente, Pierre-Paul Broca descubrió que las lesiones del hemisferio izquierdo de las personas diestras afectaban a la pro-

ducción del habla, y una generación más tarde Carl Wernicke des297

cubrió que los daños en cierta región del mismo hemisferio cerebral afectan a la comprensión del habla. Mucho tiempo después se descubrió que ciertas lesiones borran las preposiciones y que Otras hacen desaparecer los artículos; que mientras algunas afasias son

sintácticas, otras son semánticas según el lugar del accidente o la

lesión; que en las personas bilingiies las lesiones cerebrales locali-

zadas en ciertos sitios disminuyen el desempeño en uno de los idio-

mas pero no en el otro; que ciertas lesiones causan la pérdida de

palabras que designan objetos inanimados pero no organismos y

viceversa; que algunos trastornos psicóticos sólo ocurren en uno de los idiomas de las personas bilingiies, etcétera (Paradis, 2004).

Además, hace poco se descubrió que las diferentes regiones del sistema visual reaccionan a estímulos vivos y no vivos incluso en adultos que son ciegos de nacimiento (Mahon et al, 2009). Pero como esas reacciones son automáticas, no constituyen conocimiento innato.

El estudio de la percepción en pacientes neurológicos ha revelado que la visión es también un mosaico: pese a que vemos las cosas

como entidades unitarias con diversas propiedades fenoménicas

(secundarias), al parecer cada una de ellas es aprehendida por un

sistema cerebral diferente. Por eso algunos pacientes no pueden ver

formas, en tanto que otros no pueden percibir el color, la textura

o el movimiento, y otros reconocen lo que perciben pero no pueden

decir dónde está o viceversa. Por consiguiente, al contrario de lo

que sostenía la escuela de la Gestalt, el cerebro es primero analizador

y sólo después, en una segunda fase, sintetizador. Pero todavía no sabemos con exactitud cómo se produce la síntesis de las diferentes sensaciones: este es el famoso problema de la integración. A comienzos del siglo XX, Korbinian Brodman, al observar ce-

rebros muertos mientras trabajaba con un microscopio, 52 áreas distintas en la corteza cerebral compuestas por tipos diferentes. Medio siglo después, Wilder Penfield boradores descubrieron que los pacientes cuyas cortezas

descubrió células de y sus colacerebrales

eran sometidas a estimulación eléctrica recordaban repentinamente

episodios olvidados hacía mucho tiempo, sentían olores, tarareaban una canción o tenían alucinaciones (Penfield y Rasmussen, 1968). 298

Una de sus colaboradoras, Brenda Milner, descubrió que los recuerdos están localizados: los recuerdos visuales en la región visual,

los recuerdos verbales en el lóbulo temporal izquierdo, los recuerdos motores en la región motora, y así sucesivamente. Por tanto, parece que el localizacionismo materialista ha sido confirmado tanto ana-

tómica como funcionalmente. Más tarde, numerosos estudios de lesiones condujeron a la ge-

neralización de que aprender algo puede ser una función de diversos sistemas del cerebro, pero en la mayoría de los casos hay uno que es un circuito neural esencial: necesario y suficiente (Thompson, 2005). Por tanto, el conocimiento está bastante localizado, motivo

por el cual se borra cuando se secciona el área correspondiente. Con todo, ninguno de los diversos descubrimientos sobre la loca-

lización debilitó la fe de Penfield en el dualismo psiconeural, como si la ciencia y la religión estuvieran localizadas en diferentes partes del cerebro. Más recientemente, el trabajo con técnicas de neuroimágenes,

especialmente con £MRI (siglas de “imágenes por resonancia magnética funcional” en inglés), dio luz a la neurociencia cognitiva y pareció confirmar el localizacionismo materialista. Por ejemplo, el

miedo es una función de un circuito que implica a la amígdala, y

la exclusión social activa la ínsula junto con una región de la corteza prefrontal y otra de la corteza cingulada. Además, dirigir una luz brillante sobre ciertas neuronas especiales de las larvas de la mosca

de la fruta puede activar circuitos neuronales íntegros que controlan comportamientos innatos, como la respuesta de huída. Esta clase de trabajos ha provocado comentarios maliciosos de boca de algunos veteranos de técnicas muy anteriores y espectacularmente fructíferas, es decir, los estudios de lesiones y la electro-

fisiología de una unidad celular: acusaron a quienes usaban las neuroimágenes de hacer frenología. Esta impresión fue pronto corregida por una plétora de descubrimientos hechos con la F£MRI, un método que permite obtener imágenes de la totalidad del cerebro de una sola vez. Estas investigaciones revelaron que vemos prin-

cipalmente con el área visual primaria, oímos con el área auditiva, olemos con el bulbo olfativo y evaluamos y tomamos decisiones 299

con los lóbulos frontales. Incluso un examen superficial del Journal of Neural Engineering mostrará que el diseño de prótesis neurales

presupone la localización de las funciones mentales. Si el holismo fuese verdadero, esas prótesis no servirían o podrían implantarse

en cualquier parte del cerebro en lugar de en ciertas regiones muy localizadas.

Otros trabajos realizados con esta misma técnica confirmaron la diferencia entre la inteligencia fluida (o capacidad de resolver problemas) y la inteligencia cristalizada (habilidades y conocimien-

to) señalada originalmente por Cattel (1987). Resultó que la primera está localizada en la corteza prefrontal, en tanto que la segunda es una función de las áreas posterior y parietal (Ferrer et al., 2009). Siempre se ha sabido que nuestras capacidades de razonamiento

mejoran con la edad (o, mejor dicho, con el aprendizaje). Sin embargo, ahora también sabemos que esas mejoras proceden de la maduración de la corteza prefrontal, especialmente de la región rostrolateral (Wright et al., 2008). A medida que se desarrolla lo declina) nuestro cerebro, también lo hace nuestra inteligencia, Además, las diferencias individuales en inteligencia fluida corres-

ponden a diferencias en la estructura del cerebro (Gray y Thompson, 2004).

Sin embargo, nada de esto confirma la modularidad tal como

la proponen Gall o Fodor, dado que otras investigaciones realizadas con la misma herramienta también han revelado que un área del cerebro puede tener funciones diferentes y participar en diversos

circuitos neurales. Por ejemplo, vemos con el sistema visual y, en particular, con la corteza visual primaria. Pero, cuando miramos

algo con atención, también participan en ello las áreas frontal y pa-

rietal (Bressler er a/., 2008). Asimismo, olfatear implica el lóbulo temporal además del bulbo olfativo (Sobel et al., 1998). Esto explica

la diferencia entre ver y mirar; también la que hay entre oler y olfatear, así como la que existe entre oír y escuchar. Asimismo, cuando

tomamos una decisión o controlamos un comportamiento, las áreas

afectivas se combinan con las cognitivas. Además, aunque la función específica del hipocam po es recordar lugares y orientar nuestros

desplazamientos entre el] os, también participa en la imaginación 300

del yaa, excl el lnipocampo es compartido por el sistema (o ct ie traia los sucesos Futuros, Pu peneral, como han escrito Dehaene y Naccache (2001, pág.

1, dende los procesadores especializados, la arquitectura del wstls iman comprende también un sistema neural o “espacio

derabajo líxtribuido, con conectividad de larga distancia que

¡ud intenamnectar multiples áreas cerebrales especializadas de for-

inaamordinada pero variable”, Estas conexiones de larga distancia

envie sul sistemas del cerebro lejanos entre sí se hace manifiesta

vada ves que, al aplicar la estimulación magnética transcraneana

(PM

en un lugar dado, esta se difunde a regiones cerebrales dis-

tan (Bestmana es al., 2004),

blo esperable si se considera que el cerebro es un sistema de

sbxistonias más o menos intensamente vinculados, como conse-

cuencia de lo cual al aplicar un estímulo en un blanco determinado

también se atectan áreas distantes. Pero suena paradójico (o antiin-

tuitivo) si se presupone que el cerebro ha sido diseñado de forma

inteligente y cada componente realiza una única función. Pero no

exasti el cerebro ha sido montado por un artesano oportunista, es

decir, por la evolución. Esta es una de las muchas lecciones de la biología evolutiva: que la inteligencia es un producto de un proceso que no es inteligente en absoluto que produce órganos imperfectos y deja atrás residuos.

La coordinación de los diversos subsistemas del cerebro es una

condición necesaria para que puedan acontecer los estados cons-

cientes (véase, por ejemplo, Singer, 2009). Esta coordinación sub-

yace también a la relación entre cognición y emoción. Explica, por

ejemplo, que la respuesta de los pacientes con daños en la parte trontal del cerebro sea más débil que la de los sujetos normales (Damasto, 1994), En términos profanos, la cognición y la emoción,

aunque distintas, están interconectadas y se modulan mutuamente

(Phelps, 2006).

El consenso emergente es que la integración de la cognición y la emoción tiene lugar, principalmente, en la corteza prefrontal la-

teral y que “la base neural de la emoción y la cognición debe considerarse fuertemente no modular” (Pessoa, 2008, pág. 148). Una

301

consecuencia metodológica obvia es que los nombres “psicología cognitiva” y “neurociencia afectiva” ya eran obsoletos en el momento de nacer: se debería haber usado “neurociencia cognitiva” desde el principio. Aún mejor, se debería haber conservado el nombre

original de “psicología fisiológica”, acuñado alrededor de 1880. Su sinónimo, psicobiología, es todavía mejor porque es más Corto y todavía más comprehensivo. En pocas palabras, hay localización funcional junto con Interacción y, a menudo, también coordinación. Podemos llamar a esta hipótesis localizacionismo moderado y es un ejemplo de ontología sistémica, según la cual todas las cosas son sistemas O partes de un sistema (recuérdese la sección 1.3). El compañero metodológico

de esta ontología es la estrategia de investigación resumida en el lema: Distinguir sin separar. Por ejemplo, búsquense los núcleos 0

módulos cerebrales, pero sin aislarlos del resto, pues en realidad es

probable que estén anatómicamente conectados a Otros módulos. Así, la amígdala, famosa por ser el centro de la ansiedad, está conectada con la mayoría de las áreas corticales. Además, ahora se sabe que el hipocampo, del que se creyó alguna vez que era el ór-

gano principal de la codificación y recuperación de los recuerdos,

comparte esa tarea con la corteza prefrontal. En términos generales, en el cerebro hay integración O síntesis

funcional junto con segregación o especialización anatómica. Por

esta razón, las técnicas de neuroimágenes a gran escala (mediante

el uso de FMRI principalmente), las únicas que pueden identificar la totalidad del circuito neural que realiza un proceso cognitivo,

deben combinarse con la técnica de registro de unidad celular y, para estar seguros, con el estudio psicológico clásico de los animales como totalidad inmersos en su contexto social (véase Bunge y Kahn, 2009; Logothetis, 2008).

El localizacionismo moderado puede resumirse como sigue. Todo subsistema del cerebro realiza al menos una función específica, es decir, una función que sólo ese subsistema puede desempeñar. En

consecuencia, sólo la corteza visual puede ver, sólo el hipotálamo puede regular el apetito, sólo la ínsula puede sentir repugnancia, sólo la amígdala puede sentir miedo, sólo el hipocampo puede “al302

Fs función

A

A

Av

YA

área cerebral

Ai

As

As

Pa,

(a)

(b)

Figura 9.4. Relaciones entre las áreas cerebrales y sus funciones. (a) Localizacionismo radical: mapa uno a uno. (b) Localizacionismo moderado: interacciones entre las áreas junto con múltiples funciones.

macenar” lugares y rutas, etcétera. Asimismo, sólo podemos caminar con nuestras piernas, pero únicamente a condición de que el

corazón, los pulmones, el cerebro y muchos otros órganos cooperen. En el cerebro, como en cualquier otro sistema cuyos componentes son heterogéneos, la división del trabajo requiere coordinación junto con especialización. Véase la figura 9.4. Para averiguar si el “área” A de un cerebro desempeña la tarea o función FF, se desactiva A de forma temporal (por ejemplo, enfriándola por debajo de los 209 C) o de forma definitiva (mediante una

ablación quirúrgica). Si A deja de realizar F, se llega a la conclusión de que Á es necesaria para F. Sin embargo, se puede obtener el mis-

mo resultado mediante la desactivación de una parte situada antes en la cadena causal. Por ejemplo, es muy conocido el caso de Hubel

y Wiesel, quienes desactivaron la mitad derecha de la corteza visual de una cría de gato mediante el expediente de coser de forma tem-

poral sus párpados, y probaron que el desarrollo normal de esa parte

de su cerebro se había detenido de forma irreversible: el animal no recuperó la visión binocular ni siquiera después de la extracción de los puntos de los párpados, porque la mitad de su área visual se había degradado debido a la falta de estimulación sensorial. Aproximadamente al mismo tiempo, Donald Hebb y sus estudiantes probaron que la privación sensorial disminuye la capacidad de resolver problemas y causa alucinaciones. Asimismo, la limita-

ción severa del movimiento aumenta la percepción ilusoria de patrones y fantasías hasta el extremo de que el sujeto puede tornarse hipersensible a los procedimientos médicos dolorosos, puede imaginar conspiraciones y desarrollar supersticiones (Whitson y Ga303

linsky, 2008). La lección para la manipulación política debería re-

sultar evidente,

En resumidas cuentas, el cerebro humano es el órgano de la mente y siempre está sumamente activo, pero no funciona con normalidad cuando se encuentra aislado. Además, está dividido en regiones con diferentes funciones específicas, pero esas regiones no

son módulos mutuamente independientes y autocontenidos (o “al-

goritmos darwinianos”), sino que pueden combinarse hasta cons.

titurr sistemas capaces de una “inteligencia general”. Volveremos a este tema en la sección 10.5. .

.

o

.

.

»

9.5 Ventajas del monismo psiconeural A continuación, enumeremos algunas de las virtudes de la concepción materialista de la mente. 1. Se trata, nada menos, que de la hipótesis que impulsa a la

neurociencia cognitiva, afectiva, comportamental y social, la cual

constituye la vanguardia de la psicología y la psiquiatría contemporáneas.

2. Puede explicar, por lo menos en principio, todos los fenómenos mentales que conoce la psicología clásica y algunos más. Por

ejemplo, en la corteza premotora tenemos “neuronas espejo” que son estimuladas por la percepción de ciertas acciones de otras per-

sonas. Presuntamente, estas neuronas nos permiten —también a

los monos— imitar sin esfuerzo algunos movimientos hábiles de los demás (por ejemplo, Rizzolatti y Craighero, 2004). Además, constituirían la “base neural” (el mecanismo) del aprendizaje por

imitación (Prather ez a/., 2008). También se ha especulado que las

neuronas espejo participan en la formación de las “teorías de la men-

te” (conjeturas acerca de los procesos mentales de los demás) que inventamos para explicar el comportamiento de otras personas. Sin embargo, esta teoría motriz de la comprensión de la acción —que

sólo es la última de este tipo en un lapso de dos siglos— ha sido ob-

jeto de severas críticas (por ejemplo, Hickok, 2009). Por lo tanto, 304

lo mínimo que se puede decir en favor de esta conjetura es que es comprobable empíricamente, en tanto que el dualismo no lo es.

3. Ha conseguido una cantidad de descubrimientos asombrosos, por ejemplo que es posible controlar el humor mediante el uso de medicamentos regulando el nivel de la dopamina; que el cerebro posee un sistema para ver el entorno y otro para el control visual del movimiento; que se puede parar en seco la furiosa carga de un

toro mediante un pulso de radio dirigido a un electrodo implantado

en su cerebro; que se puede provocar un comportamiento com-

pulsivo con las mismas pastillas que controlan los temblores de un Parkinson; y que es posible aumentar el sentimiento de confianza,

tan fundamental para todos los lazos humanos, mediante la admi-

nistración por vía nasal de una pulverización de oxitocina, una hormona “vinculante” relacionada con el sexo, el parto, el cuidado de otros individuos y la lactancia (Kosfeld e al., 2005).

4. Puede abordar problemas que ni siquiera pueden plantearse

en la psicología sin cerebro, como los de localizar los engramas para las palabras de ciertas categorías y averiguar el efecto de ciertas sustancias en el humor, la cognición y el comportamiento social. Por

ejemplo, los neurolingiiistas han descubierto que las lesiones en unas regiones específicas de la corteza cerebral causan la pérdida de ciertas funciones del habla (véase, por ejemplo, Paradis, 2004). Además, los psicólogos han descubierto que la administración de ciertas hormonas o neurotrasmisores modifica comportamientos

tan básicos como el cuidado de los niños.

5. Está echando abajo las barreras artificiales entre las disciplinas psicológicas tradicionales, como las que hay entre cognición y emo-

ción y entre lo individual y lo social.

6. Al conceptuar las enfermedades mentales como trastornos del cerebro, el monismo materialista ha contribuido a reemplazar

la poco eficaz psiquiatría chamánica, en concreto el psicoanálisis, por una psiquiatría biológica cada vez más eficaz, aunque aún bas-

tante primitiva (véase, por ejemplo, Shorter, 1997).

7. La hipótesis de la identidad psiconeural encaja en la ontología

materialista (o naturalista) peculiar de la ciencia moderna, la cual

no incluye espíritus incorpóreos ni funciones sin órganos, aunque 305

sí admite —si bien de forma tácita— la inmensa diversidad cuali-

tativa del mundo y hasta la necesidad de distinguir varios niveles

de organización. En particular, el monismo psiconeural debilita la fantasía idealista de que el mundo es mental, puesto que si lo fuera

todo cerebro humano incluiría el universo. (A propósito, la fantasía

de que todo está en la mente no sólo fue defendida por Berkeley sino también por Kant, aunque de forma mucho menos clara).

En resumidas cuentas, el monismo psiconeural no adolece de los defectos de sus competidores, es además coherente con la ontología que subyace a todas las ciencias naturales y, lo que es más

importante, se trata de la hipótesis que sirve de guía a la neurociencia cognitiva. Con todo, algunos filósofos afirman todavía que esta hipótesis no puede dar cuenta de los qualia, la intencionalidad y la conciencia. Veamos si es así. 9.6 La objeción de los qualia

a la identidad psiconeural

Los qualia o sensaciones básicas son las sensaciones de color, sabor,

olor, tacto y otras parecidas. Sabemos que “se encuentran exclusivamente en el cuerpo sensible” (Galileo, 1953, pág. 312). Los predicados respectivos, tales como “es rojo”, son fenoménicos, no físicos. Por consiguiente, el fisicalismo no puede dar cuenta de ellos

(sin embargo, recuérdese lo dicho en el capítulo 7: el fisicalismo es sólo la versión más primitiva del materialismo). ¿Esto descalifica la tentativa de analizar los qualia en términos no fenoménicos, como la longitud de onda y la tasa de descarga neuronal? Veámoslo, Disponemos de conocimiento de los qualia de primera mano. Bertrand Russell diría que los conocemos de forma directa, y su

adversario Henri Bergson contaba los qualia entre “los datos inmediatos de la conciencia”. Con frecuencia, al conjunto de los qualía en un instante dado se le llama “conciencia fenoménica”. Sin embargo, se trata a todas luces de un nombre incorrecto porque

hasta los protozoos detectan estímulos de ciertas clases y ningún 306

científico estaría de acuerdo en que son conscientes, Por ejemplo, el organismo unicelular Euglena viridis detecta la luz, pero no sabe lo que “ve”. Además, algunas bacterias “sienten” el campo magnético

terrestre gracias a unos diminutos trozos de magnetita que hay en el interior de su cuerpo, lo cual es más de lo que pueden hacer hasta los más exaltados filósofos de la mente.

Una de las objeciones más comunes a la hipótesis de que los procesos mentales son procesos cerebrales es esta: mientras que las cosas físicas pueden detectar estímulos físicos y reaccionar ante ellos, no es posible que experimenten qualia o sensaciones básicas, tales como ver rojo o una imagen consecutiva, sentir placer o dolor. Por ejemplo, si le prendiéramos fuego, este libro no sentiría dolor.

Tampoco es capaz de compartir el placer que puede darles a algunos

lectores.

No cabe duda de que los qualia son reacciones muy especiales a los estímulos físicos, muy diferentes a las reacciones de los objetos físicos. Por ejemplo, no recordamos un golpe del mismo modo que una herradura conserva la forma que le da el herrero: hay al menos

tantas clases de memoria como especies de cosas con memoria, tal

como descubrieron los físicos, los etólogos y otros científicos hace ya mucho tiempo. Los neurocientíficos cognitivos también lo saben,

motivo por el cual estudian la memoria animal, no la memoria de

los objetos de hierro. La mayoría de los filósofos de la mente admite que la ciencia explica la memoria o puede llegar a explicarla. Por eso David Chalmers (1996) sostiene que se trata de un problema fácil (para opiniones contrarias, consúltese a cualquier experto en la memoria, desde Bartlett (1932) a Schacter (2001) y Tulving (2002).

En cambio, este mismo filósofo y sus seguidores creen que explicar el dolor es un problema dificil y puede que imposible de resolver. ¿Por qué? Kim (2006, pág. 221) lo explica: “Lo que hace del dolor dolor es el hecho de que se lo experimenta como algo doloroso, es decir, que duele”. En el caso de que el lector sospeche que hay uno o dos errores tipográficos, le invito a echar un vistazo ala página 15 de ese mismo libro: lo peculiar de los dolores es que “duelen”. Pero si el dolor duele, entonces supuestamente la vista 307

ve, el oído oye, la memoria recuerda, el pensamiento piensa, el lenguaje habla, la tristeza entristece, la muerte mata, el mundo mun-

dea, la nada nadea y así sucesivamente. Los existencialistas y OtIOS

traficantes de afirmaciones absurdas aplaudirán. Los demás lloraremos.

¿Es soluble este “difícil” problema? No cabe duda, si se lo plan-

tea de manera críptica no lo es. Kim (op. cit., pág. 223) y otros fi

lósofos de la mente no lo creen así. Afirman que algo es seguro:

la ciencia del cerebro no puede resolver ese problema. La razón de

ello sería que el concepto de dolor “ni siquiera aparece” en la ciencia del cerebro. Sin embargo, sí aparece: está en la neurociencia

cognitiva, en la neurología, la anestesiología, la psiconeuroinmu-

nología y la psiconeurofarmacología. Para poner a prueba este deenunciado, basta con revisar cualquiera de las publicaciones

dicadas a estas ciencias. Pero Kim no menciona siquiera una sola investigación sobre la neurofisiología del dolor, en particular de las migrañas, el dolor

crónico, el dolor fantasma, la incapacidad para sentir dolor o la analgesia con placebo. Tampoco menciona que hace medio siglo algunos paciente con dolor crónico sufrieron cingulotomías (lesiones de la corteza cingulada), como consecuencia de lo cual su aflicción

se calmó, pero no la intensidad del dolor ya que este es Un Proceso

de un componente diferente de la llamada matriz del dolor.

Otro ausente del tratamiento del dolor de Kim es el descubri-

miento clásico hecho por Ronald Melzack en 1957 de que los ca-

chorros de perro criados en aislamiento son indiferentes al dolor: aunque sienten los estímulos nocivos, tales como las llamas, no los temen y, por tanto, no aprenden a evitarlos ni a esperarlos. Tampoco

aparece en el libro de Kim la investigación psicobiológica de los do-

lores sociales, como la humillación y la envidia, a pesar de haber sido un tema candente durante varios años (por ejemplo, Lieberman

y Eisenberger, 2006). ¿Por qué preocuparse por la neurología si se

sabe a priori que no es posible averiguar “cómo es experimentar dolor”? No me pregunte el lector qué significa esta expresión, porque

pondrá en evidencia que ignora las artes oscuras de metamorfosear la confusión en misterio y el sinsentido en teoría. 308

Con todo, en 2006, cuando se publicó el libro de Kim, la Década del Control e Investigación del Dolor, declarada así por el Congreso de EE UU, ya iba por su sexto año, aunque con un presupuesto federal menguante. Al mismo tiempo, funcionaban en todo el mundo cientos de centros de investigación y clínicas del

dolor, además de lo cual se publicaban diversas revistas especializadas en el tema, entre ellas Anesthesiology, Cephalalgia, European Journal of Pain, Headache, Journal of Pain Research, Pain y Pain Re-

search and Management. Esto no quiere decir que se haya alcanzado una comprensión

completa del dolor. Sin embargo, se sabe que disponemos de toda una “matriz del dolor” (sistema del dolor) y que uno de sus componentes, la ínsula anterior, está más activo cuanto mayor es el tiempo que una persona ha sufrido dolor. Los neurocientíficos, los

psicólogos y los médicos saben también que el dolor constituye un tema de investigación y un problema médico de actualidad. Se trata

de un problema demasiado importante como para dejarlo en manos de unos filósofos que oscilan entre dos errores flagrantes: que el dolor está en la mente inmaterial y que es idéntico a las descargas

de las consabidas fibras C.

Los qualia son una molestia para los fisicistas y los computacionalistas (o funcionalistas), a menos que nieguen su existencia, tal

como ha hecho Dennett (1991). En cambio, los qualia no deberían incomodar a los materialistas emergentistas, que saben que la materia viva posee propiedades (emergentes) peculiares (véase Bunge,

1980, 2006a). Por ejemplo, los ciliados se alejan de los ácidos,

mientras que las monedas de cobre no lo hacen; y las amebas incluyen y digieren trozos de comida, en tanto que los helechos no

lo hacen. Asimismo, el tejido nervioso tiende a circunscribir los es-

tímulos (mediante la inhibición lateral), mientras que los medios

elásticos los propagan. Un circuito eléctrico trasforma un estímulo electromagnético en una respuesta de la misma clase, mientras que

un circuito neuronal responde de una forma cualitativamente di-

ferente. Pero a los fisicistas (materialistas vulgares) no les importan

las funciones específicas del sistema nervioso y a los computacionalistas les interesan más los símbolos que los objetos naturales. 309

Por tanto, ninguno de ellos se ocupa del estudio biológico de los qualia.

Esto se relaciona con el descubrimiento de los antiguos atomistas, subrayado por Galileo, Descartes y Locke, de que los objetos

físicos no poseen propiedades secundarias (o fenoménicas), O qualia, como el color, el olor, la sonoridad y el sabor. Sólo tienen propie-

dades primarias, como la composición y la energía. En cambio, los

qualza, o sensaciones básicas, sólo están en la mente: emergen en el cerebro cuando este percibe objetos externos y, en OCasiones, también en ausencia de estímulos externos. Según el monismo materialista y la neurociencia cognitiva, los qualia son procesos cerebrales. Sin embargo, ello no implica que sean físicos. Como descubrieron los fundadores de la psicofísica a mediados del siglo XIX, hay una diferencia radical entre un color y

la correspondiente radiación electromagnética, así como entre una sensación térmica y el calor, o entre la sonoridad y la amplitud de la correspondiente onda de sonido. Ahora sabemos que la diferencia radica en que en el primer caso hay un cerebro y puede que hasta

una descripción en primera persona, ambos ausentes en el segundo

caso.

La distinción entre propiedades primarias (objetivas) y secundarias (subjetivas) plantea serios problemas a fenomenistas y fisicistas (materialistas vulgares) por igual. En efecto, los primeros no

pueden admitir las propiedades primarias y los segundos no pueden explicar las propiedades secundarias. En consecuencia, los fenome-

nistas o bien ignorarán o bien distorsionarán todas las ciencias salvo la psicología clásica (sin cerebro), en tanto que los fisicistas admi-

tirán sólo la física y la química y, por tanto, negarán la existencia misma de los qualia (más sobre esto en Bunge 2006a). Los fisicistas (o naturalistas) niegan los qualía a pesar de que los

experimentan cada vez que perciben algo. Los materialistas que no son fisicistas no temen a los qualía: suponen que ocurren en el cerebro y, por tanto, deben ser estudiados por la neurociencia cog-

nitiva. De hecho, todo libro de texto reciente sobre neurociencia

contiene capítulos dedicados a la visión, la audición, la olfacción, el gusto, etc. En otras palabras, se trata los qualia precisamente de

AN

!

la forma materialista que los filósofos dogmáticos y anticientíficos,

somo Husserl (1970, págs. 134 y ss), habían condenado a priori.

En otras palabras, se explica la subjetividad en términos objetivos

(más en Bunge, 20062). En particular, la psicología de la percepción

explica los fenómenos (apariencias), una tarea que ningún feno-

menólogo filosófico ha intentado jamás. Los materialistas que incluyen los gualia en sus inventarios del mundo probablemente serán materialistas emergentes. Es decir, harán hincapié en que los sistemas, tales como los cerebros, poseen propiedades que sus constituyentes (por ejemplo, las neuronas y los ensamblados de neuronas tales como las columnas corticales)

no poseen. Decimos que estas propiedades globales son emergentes porque emergen (o desaparecen) en el trascurso de procesos como los de autoorganización, morfogénesis y disolución, que son notables en el desarrollo y la evolución, como vimos en el capítulo 5. Una objeción a la identidad psiconeural relacionada con la an-

rerior es que en la vida cotidiana describimos los procesos mentales

en términos que no son neurocientíficos. Por ejemplo, decimos

que tal o cual se enamoró, en lugar de describir de forma detallada el propio proceso cerebral que ha experimentado, un proceso que, de todos modos, sólo conocemos a grandes rasgos. Sin embargo,

esto ocurre normalmente con toda clase de sucesos, no sólo con los mentales. Así pues, cierto desperfecto de un automóvil puede ser descrito de forma sencilla por su conductora, de modo más complejo por su mecánico y de una manera aún más sofisticada por un ingeniero de automóviles. Asimismo, la explicación de un accidente cardiovascular —por ejemplo, de un derrame cerebral— incluye elementos, como depósitos de grasa en las arterias y P-bloqueadores, que no aparecen en su descripción clínica. Los filósofos de la mente llaman a esto, con razón, el contraste entre la psicología popular y la psicología científica.

Una forma aparentemente más técnica de formular la objeción

en cuestión es la que sigue: para que exista identidad entre un fenómeno mental y un proceso cerebral, el primero debe compartir todas las propiedades del segundo, pero esto no es así. En efecto,

mientras que los fenómenos mentales poseen propiedades secun311

darias, los procesos cerebrales sólo tienen propiedades primarias:

los primeros son dependientes del sujeto (subjetivos), en tanto que e los segundos son objetivos. Pero esta objeción no es válida porqu

Por se la podría utilizar contra todas las descripciones científicas. ejemplo, una carga elécrica débil causa un choque que el paciente

puede describir como un cosquilleo doloroso, mientras que el biofísico lo explicaría en términos de la acción de una corriente eléc-

trica sobre un tejido vivo.

que ha consternado a Para poner un ejemplo más simple, uno es la di-

los semánticos desde Frege durante más de un siglo: ¿cuál

ferencia entre el lucero del alba y el lucero de la tarde? Son el mismo

planeta, es decir, Venus, pero parecen diferentes porque tanto la atmósfera como el sujeto han cambiado. En realidad, ver Venus por

la mañana no es la misma experiencia que verlo por la tarde, aunque

el objeto físico observado es el mismo. La mayoría de los filósofos quedan perplejos ante este ejemplo porque piensan que están tra-

tando con un único referente cuando en realidad se trata de tres

referentes: Venus, el sujeto y la armósfera. Venus es lo que llamo el referente central de las proposiciones: “He visto el lucero del alba” y “He visto el lucero de la tarde”. Estas proposiciones resumen. “He visto a Venus por la mañana [o a través de una atmósfera fría

aty limpia]” y “He visto a Venus por la tarde [o a través de una mósfera un poco más cálida y contaminada)”, respectivamente (Bunge, 1974a).

Este no es más que un ejemplo del contraste entre la descripción científica de un suceso independiente del sujeto y la descripción

intuitiva o de sentido común de una experiencia humana. En otras palabras, debemos tratar con dos descripciones de dos hechos diferentes, uno que incluye a un sujeto conocedor y otro que no lo incluye.

dos Si el objeto en cuestión es un proceso mental, tenemos estos

hechos diferentes: un proceso cerebral visto por un científico desde fuera y el mismo proceso según lo experimenta y lo describe el propietario del cerebro en cuestión. Si da la casualidad que el cerebro es el de un neurocientífico cognitivo que observa su propia mente, es probable que ofrezca también dos descripciones: la objetiva, en términos de propiedades primarias, como la tasa de consumo de $12

MA] ,

|

MA

glucosa u oxígeno, y la egocéntrica, en términos de sentimientos, Imágenes y cosas parecidas.

En resumen, sí hay qualía y son exclusivos de los seres sensibles, pero pueden ser explicados en términos objetivos (independientes del sujeto), es decir, como características de procesos cerebrales, Von general, se espera que la ciencia explique la subjetividad (o expe riencia) en términos objetivos (no experienciales) y ento en de lo

que trata la psicología. Pero este argumento no convencerá a un Hi lósofo del lenguaje ordinario que, como Stoljar (2006), cree que la

ciencia, en particular la física, ignora “lo físico”, por lo cual el intento

de reducir lo experiencial a lo no experiencial sería quijotesco, Sin

embargo, sería poco cortés molestarlos mientras dormitan, 9.7 La reducción y la fusión La identidad fáctica postulada por la hipótesis de la identidad priconeural es de la misma clase que las identidades “calor = movímiento atómico o molecular aleatorio”, “Luz = radiación electromagnética cuya longitud de onda está comprendida entre los 390 y los 740 nm” y “oxidación = combinación de un metal con oxÍgeno”. Desde luego, los autores de ficción y los filósofos especulativos son libres de inventar mundos en los que las identidades fácticas no son válidas, en los que todo el mundo consigue gratis lo que quiere y la sociedad recompensa el sinsentido. Sin embargo,

las personas responsables no confunden la posibilidad conceptual — posibilidad de concebir o imaginar— con la posibilidad fáctic: —0 legalidad —, ni consideran que la capacidad de inventar mundos imaginarios sea una prueba de su existencia real.

Hay una inmensa literatura filosófica sobre la reducción, pero el tema dista de haber sido agotado. Por un lado, rara vez se deja

claro cuál es el objeto de la reducción: ¿una cosa, una propiedad o un constructo? Por ejemplo, a menudo se afirma que agua = HO, pero esta ecuación es falsa. Lo que sí es cierto es que un cuerpo de

agua, como una gota de rocío o un lago, está compuesto de moléculas de HO, pero la composición es sólo una de las características 313

de un sistema. Un cuerpo de agua tiene también una estructura, esencialmente los enlaces de hidrógeno que se muestran en la figura

5.4. Además, un cuerpo de agua posee mecanismos típicos, espe-

cialmente el movimiento molecular aleatorio en un nivel y el flujo

en el siguiente.

Segundo ejemplo: habitualmente se dice que “temperatura

=

energía cinética”. Sin embargo, esta ecuación es falsada por cual-

quier cuerpo macroscópico, por ejemplo una cuchara. Más verdadero sería decir que “temperatura = energía cinética promedio

de

un sistema de átomos o moléculas en movimiento aleatorio”, Vemos

que el primer ejemplo se refiere a una cosa y que el segundo se refiere a un constructo (una función) que representa una propiedad

física. En mi terminología, el primero es un pseudoejemplo de re-

ducción ontológica, en tanto que el segundo

mente

como

un caso

de reducción

se propone crróncea-

a

Pasemos

gnoseológica.

dilucidar los dos términos técnicos (para más detalles, véase Bunge,

1973, 1977c, 2003a; Bunge y Ardila, 1987).

Propongo que la reducción puede ser bien da

|

como en

“M =N”, bien gnoseológica, como en La M-logía es deducible de la Nogía”, donde M y N denotan propiedades tales como

mental

y “neural”, respectivamente. Afirmar que lo mental es lo mismo que lo neural equivale a realizar una reducción ontológica. Además, sostener que la psicología se ha convertido o se convertirá en un

capítulo de la neurociencia equivale a expresar la esperanza de una reducción gnoseológica. Dicho sea de paso, la reducción de lo men-

tal a lo neural no equivale a la eliminación de lo primero sino a su

explicación. Por ejemplo, los neurocientíficos cognitivos procuran explicar los fenómenos subjetivos, como sentirse enfadado o eufó-

rico, en los términos objetivos de la neurociencia. Esta reducción no elimina los conceptos fenoménicos de enfado y euforia: el mo-

nismo psiconeural no es lo mismo que el materialismo eliminacio-

nista. Asimismo, la explicación de un suceso social a pequeña escala, la explicación de la formación o la disolución como de una por ejemplo

sociedad en términos de la convergencia o divergencia de los deinter ts los indi individuos viduos, no eliimi mina los conceptos de

gación o desintegración social. 314

agre-

Ninguna de las dos reducciones, ontológica o gnoseológica, implica la otra. La tesis ontológica de la identidad de lo mental y lo neural sólo propone el proyecto de investigación de reducir la psicología a la neurociencia o fusionar las dos disciplinas. En el primer caso, el objetivo es una psicobiología, mientras que en el segundo la meta es unirlas. Pero dado que la vida mental de los animales gregarios está fuertemente influida por su vida social, a la neurociencia cognitiva se le debe añadir una buena medida de sociología: el naturalismo no sirve en el caso de la mente de los animales altamente gregarios y artificiales como nosotros (recuérdese el capítulo 6). Cuando trata con fenómenos mentales, el fisicista adopta una forma extrema de reduccionismo: se salta la química y la biología, identifica lo “mental” con lo “físico” y espera que algún día la psicología se trasforme en una rama de la física. En consecuencia, el fisicista aplana el mundo hasta dejarlo en su nivel más bajo: ignora la existencia de los niveles suprafísicos de organización, como el químico, el biótico y el social. El fisicista sobresimplifica y empobrece tanto la realidad como nuestro conocimiento de ella. Además, confirma la intuición del dualismo psiconeural de que es imposible que una cosa física piense, en tanto que la pregunta correcta es si

alguna otra cosa además del cerebro, que es una cosa biológica, puede pensar. En cambio, el materialismo emergentista supera las limitaciones ontológicas y gnoseológicas del fisicismo: recuérdese el capítulo 5.

En particular, niega que los átomos sean sólo agregados de partículas

elementales y que las células no sean más que montones de molé-

culas, que “todos somos embriones” (como ha sostenido cierto se-

nador de EE UU) y que “eres tus neuronas”, como también se ha

dicho. Desde luego, la física es la ciencia básica, pero no es omnis-

ciente porque hay niveles suprafísicos (aunque no afísicos).

Esto sugiere que la reducción tiene límites: que en la mayoría

de los casos es moderada en lugar de radical. Por ejemplo, no es verdad que el calor sea lo mismo que el movimiento molecular, como se comprende a partir del hecho de que es posible preparar un haz molecular de alta velocidad a una temperatura cercana al 315

cero absoluto. Lo que sí es verdad es que el calor es lo mismo que el movimiento molecular aleatorio. Se trata de un caso de reduc-

ción ontológica directa junto con una reducción gnoseológica par-

cial, porque incluye una hipótesis probabilística además de la

e mecánica. La diferencia lógica entre la reducción radical y la reducción iguiente. Podemos decir que una idea (concepto, mc

E ha sido reducido de forma radical (o fuerte) a

una idea A, si B es deducible, sin más, de A. Ejemplos: la estática y la cinemática han sido completamente reducidas a la dinámica, y la óptica ha sido reducida al electromagnetismo. En cambio, podemos decir que una idea B ha sido reducida de forma moderada (o débil) a una idea A si hay una tercera idea C tal que C junto con A impliquen B. Por ejemplo, la mecánica estadística es deducible de la mecánica más la hipótesis subsidiaria de Boltzmann, la cual afirma que las posiciones y velocidades iniciales de los átomos y moléculas en cuestión están distribuidas de forma aleatoria. Ade-

más, la química es reducible a la mecánica cuántica sólo cuando se

la combina con la cinética química clásica más ciertas hipótesis sobre los enlaces químicos, como que el enlace covalente (o no iónico) consiste en la compartición de electrones. En resumen, reducción radical o fuerte de B a A: A PB. reducción moderada o débil de Ba A: A 8z C FB.

Por supuesto, los fenómenos mentales son mucho más compli-

cados que los procesos físicos y químicos, pero desde un punto

de vista puramente lógico no lo son más que los de la química.

En efecto, para explicar lo mental no sólo necesitamos la neuro-

ciencia sino también algunos conceptos sociológicos tales como los de “agresión” y “cooperación”. Por ejemplo, la depresión se

explica no sólo en términos de una predisposición genética y un desequilibrio en los niveles de serotonina, sino también con ayuda

de datos relacionados con los problemas de la vida social del paciente en el seno de su familia, el lugar de trabajo y la sociedad en

general, 316

Adviértase que, al contrario de la opinión más difundida, no todas las reducciones reducen al nivel inferior. La razón de ello es que todo, con excepción del universo como totalidad, está incluido en

algún sistema de nivel superior. Por ejemplo, el desempeño académico de un niño debe explicarse no sólo en términos neurocientíficos, sino también con referencia al lugar que ocupa el niño en su escuela, la familia y el vecindario. Asimismo, las actividades micro-

económicas no pueden explicarse sin aludir a las circunstancias macroeconómicas, demográficas y políticas. Por tanto, la neuroeconomía, que intenta explicar la actividad económica en términos exclusivamente neurocientíficos, está descaminada.

En suma, la reducción puede ser de tres tipos: micro, macro o mixta. Véase la figura 9.5.

En resumidas cuentas, el programa de la neurociencia cognitiva es este: los fenómenos mentales se pueden explicar, por lo menos en principio, a través de la reducción ontológica (mental = neural)

combinada con la fusión o convergencia gnoseológica de las diversas

ramas de la neurociencia, y de estas con la psicología y la sociología (Bunge, 2003a; Bunge y Ardila, 1987). La reducción gnoseológica (o interteórica), en cambio, es rara y eso no sólo en la neurociencia,

sino también en la física (Bunge, 1973a). Craver (2009) se adhiere

a esta tesis y llama mosaico a la unidad y el desarrollo de la neurociencia producido por la fusión de sus diversos capítulos. (Este autor comparte también mi tesis de que explicar algo equivale a describir el mecanismo subyacente). Sin embargo, este mosaico está

macronivel

macronivel

macronivel

micronivel

micronivel

micronivel

(a)

(b)

(c)

i

Figura 9.5. Tres tipos de reducción:

(a) microrreducción (por ejemplo, sensación visual =

actividad del centro visual); (b) macrorreducción (por ejemplo, el dogma de la psiquiatría lrascultural, según el cual la culpa de las enfermedades mentales la tiene la sociedad, no el

Cerebro); (c) mixta (por ejemplo, sentirse fuera de lugar = tener pocas habilidades y estar en un sitio socialmente equivocado).

312

(a) Figura 9.6. (a) Análisis, divergencia o especialización. (Tomado

de Bunge,

2003a).

(b) (b) Síntesis, convergencia o fusión,

al servicio de una reducción ontológica profunda: la de lo mental a lo neural. En general, el estudio de todas las cosas exige tanto el análisis

como la síntesis. Esta es la razón de que el progreso de la ciencia moderna siempre haya estado compuesto por dos movimientos pa-

ralelos: la separación o división de una disciplina en especialidades, y la fusión o convergencia de disciplinas anteriormente separadas: véase la figura 9.6.

Comentarios finales

Las afirmaciones de la mayoría de los filósofos acerca de la natura-

leza de la mente han sido con frecuencia dogmáticas o erróneas.

Por ejemplo, Platón pensaba que el alma era inmaterial y guiaba

al cuerpo. Husserl creía en la mente inmaterial, que el cuerpo no es más que un instrumento de la mente, y que la introspección,

además de fingir que el mundo externo no existe (reducción fenomenológica), es la única manera de estudiar la mente y hasta el mundo. Wittgenstein (1967, pág. 105) escribió que “una de las

ideas más peligrosas para un filósofo es, curiosamente, que pensamos con nuestras cabezas o en nuestras cabezas”. Tanto el positivista Ayer como el racionalista Popper se adhirieron casi sin pensarlo al dualismo psiconeural, sólo porque es parte del conocimiento común. Los filósofos del lenguaje creen que la clave de la mente es la filosofía del lenguaje, lo cual desde luego presupone que los animales no humanos carecen de mente por completo. Además, los 318

adoradores del ordenador, especialmente Putnam, Fodor y Dennett,

nos han asegurado que la mente es un conjunto de programas de ordenador que pueden “realizarse” o “corporeizarse” de formas alternativas.

Pocos filósofos de la mente se han interesado por saber lo que la neurociencia cognitiva tiene que decir acerca de los procesos mentales. La mayoría de ellos ni siquiera han aprendido que el cerebro es un sistema biológico, no sólo un sistema físico, y que, por

tanto, la ciencia del cerebro no es una rama de la física. Este es el motivo de que sigan negando que una cosa fisica pueda tener experiencias, sentimientos y pensamientos. Aunque la mayoría se consideran pensadores críticos, y algunos de ellos materialistas de

una u otra especie, en realidad plenas de la forma apriorística y, por tanto, dogmática propia de los idealistas filosóficos. En consecuencia, si los científicos los hubieran leído, lejos de hacer progresar la ciencia de la mente, habrían obstaculizado su desarrollo. Es toda una lección de humildad aprender de Heródoto (libro IL, pág. 2) que hacia el año 650 a. C el faraón Psamético hizo que un pastor mudo criara a dos niños recién nacidos de forma aislada para averiguar qué lengua hablaban de manera espontánea. No importa el resultado: lo que importa es que hace más de 2500 años alguien sabía lo que muchos filósofos de la mente modernos no saben: que las preguntas empíricas exigen investigación empírica.

319

10

La mente y la sociedad

Immanuel Kant y el barón de Holbach nacieron en Alemania, con Ae

una diferencia de un año, en los inicios de la Ilustración. Si Kant

hubiera vivido en la chispeante París en lugar de en Kónigsberg, y si Holbach se hubiese quedado en la oscura Edesheim, su ciudad natal, tal vez podrían haber intercambiado sus filosofías: Kant podría haberse convertido en el gran filósofo materialista y realista de su siglo y Holbach en su equivalente idealista. Desde luego, la oración anterior es contrafáctica y, como tal, imposible de poner a prueba; en consecuencia, no es ni verdadera ni falsa. Sin embargo, no se trata de una fantasía absurda, puesto que sabemos que lo que

aprendemos y la oportunidad son tan importantes como lo que traemos al nacer. Mientras que en la remota y oscura Kónigsberg Kant no tenía a nadie de quien aprender o con quien discutir, el salón de Holbach

era frecuentado por algunos de los pensadores más interesantes, adelantados e importantes de la Ilustración: Beccaria, Condillac, Condorcet, d'Alembert, Diderot, Franklin, Helvétius, Hume, Rous-

seau y Turgot, entre otros. Por tanto, mientras que la vida mental de Kant era, básicamente, un soliloquio, la de Holbach era un cons-

tante diálogo, estimulante e ingenioso, con algunos de sus contemporáneos más brillantes y audaces. En tanto que en la lúgubre Kónigsberg era posible, y hasta cierto punto deseable, ignorar el apagado y peligroso mundo externo, una huída similar de la realidad era imposible en el desbordante y ruidoso lugar donde se es-

taban elaborando las Lumieres.

La sociedad les correspondió: mientras que los incendiarios libros de Holbach eran muy populares, a pesar de haber sido prohibidos, las obras bastante arcanas de Kant sólo circulaban entre unos pocos

eruditos. El barón de Holbach, como Voltaire y Hume, pero a diferencia de Kant, era lo que ahora llamaríamos un intelectual público, alguien cuyas opiniones eran tenidas en cuenta porque

importaban. Además, mientras que Holbach era científica y políticamente progresista, Kant era tan conservador como Hume. Y

pese a todo, a juzgar por los problemas que los dos filósofos abordaron, la inteligencia innata y la erudición de Kant eran superiores a las de Holbach. Lo anterior, si es verdad, refuerza la tesis de que lo innato sirve

de poco cuando el aprendizaje no lo acompaña, del mismo modo que un cerebro deficiente no puede aprender mucho. En Otras palabras, todo lo mental es a la vez neural y social. Por ejemplo, aun-

que todos los humanos de todas las culturas nacen con cerebros similares, el mismo estímulo puede causar placer en una cultura y repulsión en otra. La experiencia talla rasgos locales en los cerebros universales,

La lección metodológica es que la psicología no puede realizar su principal tarea, describir y explicar lo mental, sin el auxilio de las ciencias sociales. Adviértase que esta tesis es la opuesta del enfoque de la elección racional, según la cual sólo la conducta individual puede explicar lo social. También discrepa de la psicología evolucionista pop, según la cual la biología explica las ciencias sociales. A continuación, echemos un vistazo a tres áreas de activa inves-

tigación contemporánea: la neurociencia cognitiva del desarrollo, la neurociencia cognitiva social y la evolución. 10.1 El desarrollo

Según el determinismo genético, el desarrollo individual es el despliegue automático del “programa” inscrito en el genoma. En otras palabras, nuestro genoma sería nuestro destino. Un corolario de 322

esta tesis es que los gemelos idénticos y los clones poseen el mismo sistema nervioso y, en consecuencia —en virtud de la identidad psiconeural—, el mismo comportamiento y la misma vida interior,

si es que tienen alguna. Sin embargo, este corolario fue refutado en la década de 1970 por las investigaciones realizadas con pulgas de agua (Daphnia magna), con el pez partenogenético Poecilia formosa y con humanos: en los tres casos, los sistemas nerviosos de los clones mostraron diferencias anatómicas significativas (Chan-

geaux, 2004, pág. 188). Por ejemplo, los gemelos “idénticos” humanos poseen huellas digitales distintas y pueden tener diferente lateralidad. Tal como lo ha expresado Peter Medawar (1957, págs. 154-155), las diferencias innatas entre los individuos son combi-

natorias: “Un individuo difiere de los demás no porque posea unas dotes singulares, sino porque posee una combinación singular de dotes”. Obviamente, esas diferencias emergen en el trascurso del desarrollo, algunas a causa de los diferentes estímulos externos, en tanto que otras pueden ser consecuencia de las vicisitudes de la migración de las neuronas y del crecimiento de los axones y las dendritas. Gould (2002) hizo hincapié acertadamente en la importancia de la “contingencia” (los accidentes) tanto en el desarrollo como en la

evolución. El solo hecho de esa contingencia da por tierra la extra-

vagante opinión de que hay algoritmos de desarrollo. En pocas palabras, el genoma es una oportunidad, no el destino. Por cambiar

la metáfora: el ADN propone, y el medio interno junto con el ambiente disponen.

Además de ser un poco errático, el desarrollo animal tiene lugar según un marcado patrón de mosaico, al igual que la evolución. En otras palabras, las diversas partes del organismo no maduran al mismo ritmo porque su desarrollo está controlado por genes dife-

rentes. Por ejemplo, el sistema reproductor madura mucho más rá-

pidamente que el sistema nervioso. Asimismo, el sistema de recompensa y refuerzo madura antes que el sistema de control, que está situado en otra parte del cerebro. Este desfase produce notorios problemas sociales, como la impulsividad, el egoísmo y la irresponsabilidad que caracterizan el comportamiento del adolescente, a

323

diferencia de la conducta del adulto. En efecto, la corteza prefrontal

de un adolescente, una recién llegada en términos de desarrollo evolutivo y centro del control cognitivo, no está en condiciones de controlar las poderosas y nuevas emociones que surgen cuando el cerebro es repentinamente inundado por las hormonas sexuales, Esta es la causa de los embarazos adolescentes, que a su vez se manejan de forma diferente en sociedades diferentes: de forma permisiva en algunas y de forma punitiva en otras.

La maternidad a temprana edad era lo habitual cuando las personas envejecían con rapidez y, en promedio, tenían la mitad de esperanza de vida que tenemos en la actualidad. En aquella época, el comportamiento arriesgado con la gratificación instantánea como

meta a menudo favorecía el aprendizaje y, por tanto, también la supervivencia. En cambio, en nuestra sociedad moderna, rigurosamente estructurada, moldeada y controlada por personas más

maduras, que evitan el riesgo y son, por tanto, conservadoras, la innovación es cuidadosamente controlada en las escuelas y los lugares de trabajo, y se la desalienta cuando existe la sospecha de que

puede tener un efecto socialmente perturbador. Sin duda, los psicólogos del desarrollo se encontrarán una y otra

vez ante el antiquísimo debate sobre lo innato y lo adquirido: ¿esa

capacidad o conducta es innata o adquirida, intuitiva o racional, instintiva y universal o social y particular? En concreto, Chomsky y sus seguidores han afirmado que el lenguaje es “el espejo de la

mente”, en lugar de nuestra principal herramienta de comunicación, que es instintivo y hasta que nacemos sabiendo una gramática

universal y otras cosas, Los psicólogos del desarrollo y los científicos sociales siempre han sabido que no es así: sus investigaciones em-

píricas han descubierto que el habla y la gestualidad son adquiridos,

y que su función principal es la comunicación (por ejemplo, Dunbar, 2003; Tomasello, 2008).

El lenguaje es un instrumento de relación social hasta tal punto

que se reinventa cada vez que no existe. Por ejemplo, se ha obser-

vado que las lenguas criollas pueden desarrollarse a partir de lenguas

pidgins en el transcurso de una sola generación. También se sabe

que los niños sordos de Nicaragua crearon su propio lenguaje de 324

signos, sin que nadie los dirigiera, mientras jugaban en el patio de

la escuela. En cambio, los niños que pasaron encerrados varios años,

desde su nacimiento, jamás progresaron más allá de una protolen-

gua carente de sintaxis. No cabe duda de que nacemos con la capacidad de aprender lenguas, así como de aprender matemática y teología, pero esta potencialidad sólo se actualiza en los entornos

sociales apropiados.

En síntesis, aunque nadie niega que todos los humanos nor-

males nacemos con la capacidad de aprender casi cualquier cosa,

desde habilidades manuales y lenguas hasta ciencia y filosofía, no hay ninguna prueba en absoluto de que nada que se pueda aprender esté codificado en el genoma. La relación entre genotipo y fenotipo es bastante indirecta, por lo que hablar de genética cognitiva no es más que hacer una promesa. Además, este pro-

yecto adolece de un grave defecto porque se salta niveles decisivos, a saber, los propios de la célula, el ensamblado neuronal y el entorno. Quienes investigan seriamente la emergencia y la mejora de las capacidades cognitivas son los psicólogos del desarrollo y los antropólogos. Por ejemplo, sólo recientemente se ha descubierto que la capacidad tanto para recordar los detalles como para suprimir (no “reprimir”) los recuerdos no deseados emerge en la

niñez tardía. Lejos de dar el salto desde el nivel de los genes al del comportamiento, estos científicos investigan el desarrollo (ontogenia) gradual de los niños en diversos entornos sociales (véase, por ejemplo, Karmiloff-Smith, 2006). Lo que han encontrado una y otra vez es que, mientras algunos ambientes pueden actualizar ciertas predisposiciones (mediante la activación de los genes respectivos), otros pueden frustrarlas. Por ejemplo, Wright et al. (2008) han hallado la siguiente cadena causal: exposición de niños al plomo => desarrollo cerebral anormal => trastornos del comportamiento => mayor probabilidad de participación en delitos. Por supuesto, la exposición al plomo no es el único detonante posible de la conducta antisocial:

muchos pares diferentes cerebro-sociedad producen el mismo resultado. Por ejemplo, crecer en un entorno pobre y violento puede predisponer al delito aún con mayor fuerza que la exposición al 325

plomo, aunque sólo sea porque este ambiente no favorece la asis-

tencia regular a la escuela. He aquí otro ejemplo. Dehaene y colaboradores (2008) se pre-

guntaron cómo los niños y miembros de una tribu amazónica relacionaban los números con el espacio. Indicaron a sus sujetos que colocaran los números del O al 100 en una regla sin marcas, de iz-

quierda a derecha. Descubrieron que los individuos ingenuos uri-

lizaban aproximadamente la mitad izquierda de la regla para colocar los enteros más pequeños y apiñaban el resto de los números en la mitad derecha de la misma: adoptaban una escala logarítmica, como cualquier persona familiarizada con la ley psicofísica de Fechner-

Weber podría haber previsto. Sólo los sujetos instruidos distribuyeron los números de forma equitativa, es decir, asignaron el mismo valor numérico a todos los segmentos de igual longitud. Los autores

llegaron a la conclusión siguiente: en tanto que la escala logarítmica es innata y, por consiguiente, universal, la escala lineal es adquirida

y, por tanto, depende de la cultura. Además, afirmaron

que esta

solución del problema debe reconciliar las perspectivas innatista y ambientalista. Tal vez sean indebidamente optimistas, porque el

debate innato/ adquirido tiene un importante componente ideológico. (Con todo, este componente es ambiguo, contrariamente a lo afirmado por la opinión tradicional. De hecho, un innatista puede afirmar que todos los humanos nacemos iguales o bien que la posición social es innata). Otro caso obvio, que exige prestar atención tanto a la naturaleza como al aprendizaje, es el desarrollo moral. En particular, la preferencia por la equidad (o igualdad), que está generalizada entre los adultos normales, no es innata (“normal” = ni psicópata ni fun-

damentalista del mercado). Es de suponer que esa preferencia se desarrolla junto con la socialización (o enculturación), puesto que sólo surge alrededor de los 7 u 8 años y aun entonces es local, es decir, está limitada a los miembros del grupo social (Fehr et al., 2008).

Además, nuestras reacciones ante la falta de equidad dependen de forma decisiva del nivel de serotonina en nuestro cuerpo, el cual puede ser modificado experimentalmente: la intolerancia a 326

la injusticia aumenta con la reducción de la serotonina (Crockett et al., 2008). Hagamos una advertencia: este descubrimiento no

demuestra que nuestro sentido de la justicia, o cualquier otra emoción social, sea una cuestión exclusivamente de química. Lo que

sí prueba es que la moralidad es inherente a la materia mentante. Supuestamente, el sentido de la justicia no se desarrolla del todo

en una sociedad de castas en la cual cada uno “sabe su lugar” desde su nacimiento.

Lo que sucede con la justicia y el altruismo sucede también con la violencia. Sabemos que la agresión física cambia durante la vida y que en los varones norteamericanos su máximo se presenta alre-

dedor de los 17 años, cuando el cerebro, aún inmaduro, está bañado

en hormonas y el adolescente goza de nuevas libertades y oportunidades y hace nuevos amigos. Sin embargo, todavía no sabemos las contribuciones relativas de los genes, la maduración del cerebro y el entorno social respectivamente (véase, por ejemplo, Loeber y Pardini, 2008). Lo único que parece claro es esto: la conducta an-

tisocial es excepcional, incluso entre las personas que han nacido en sociedades violentas. El caso de Islandia es especialmente claro, puesto que los islandeses tienen un genoma bastante uniforme a causa de la falta de inmigración en tiempos modernos. Con todo, según sus sagas, hace 1000 años los islandeses eran principalmente

—-—

asesinos y traicioneros, mientras que en los últimos siglos han sido especialmente pacíficos y amables. Tal vez esto se deba al hecho de que el grave deterioro del clima y la deforestación trasformaron las praderas y los bosques en glaciares, y no dejaron territorios por los que pelear, además de lo cual obligaron a la gente a concentrarse en las aldeas y cooperar frente a un medioambiente cada vez más riguroso.

Adviértase, dicho sea de paso, que hay por lo menos dos conceptos diferentes de característica innata, el que se refiere al momento de la concepción y el que se refiere al momento

del

nacimiento. En cada caso, es preferible preguntar si un grupo de propiedades dado, no un rasgo único, es innato, porque las propiedades se presentan en grupos, como estudiaremos en el capítulo

14 (véase Mameli, 2008, para ambos problemas). 327

Por último, la psicología del desarrollo se está desplazando Cada vez más hacia la psicología comparativa y evolucionista. Es decir, que quienes investigan el desarrollo infantil se están preguntando qué otros animales poseen las mismas características, así como en qué etapa de la evolución pudieron haber surgido esos za0gos. Uno

de los resultados de esta convergencia disciplinaria —que habría es

cantado a Ernst Haeckel— es el principio de que los rasgos cogni-

tivos que compartimos con otros animales tienden a emerger pronto en el desarrollo humano (véase Platt y Spelke, 2009).

10.2 Yo y nosotros Resulta difícil discutir que el cerebro no sólo controla el resto del

cuerpo, sino que también modeliza el ambiente que lo rodea y nos ayuda a adaptarnos a él, así como a adaptar el ambiente a nosotros, Una de las pruebas más simples y convincentes de que el cerebro modeliza su entorno es esta: cuando una rata camina alrededor de un circuito, las neuronas de lugar de su hipocampo se disparan a la vez. En cuanto al papel del sistema nervioso en la adaptación y

la construcción del nicho —+es decir, la modificación del entorno en beneficio del animal—, baste recordar que hasta la humilde

lombriz de tierra hace pasar varias toneladas de suelo por su intestino a lo largo de su vida y con ello, sin saberlo, airea el terreno y mejora su fertilidad. Hay más: el comportamiento de un vertebrado superior grega-

rio resulta ininteligible si se saca al animal de su entorno social, porque gran parte de ese comportamiento consiste en interacciona!

con sus congéneres. Si al lector le cabe alguna duda, recuerde lo gravemente disminuida que resulta la vida mental de los niños autistas. Aun así, la mayor parte de la psicología, incluso en nuestros

días, es asocial: pasa por alto el contexto social del individuo, lo que equivale a estudiar los pulmones en el vacío. La psicología so-

cial ha corregido la ceguera social de la psicología clásica. En particular, Vygotsky (1978), Luria (1976), Humphrey (1983) y Cole

(1996) investigaron las raíces social

1

| |

funciones mentales superiores, y mostraron algunas de las diferencias culturales en el pensamiento. En años recientes, la neurociencia social ha comenzado a desvelar algunos de los mecanismos neurales del aspecto social de la vida humana (véase Cacioppo ef al., 2006).

Tomemos, por ejemplo, la autoconciencia, que no sólo utilizamos para controlar nuestra propia conducta sino también para

comprender la de los demás. De hecho, mi conocimiento de los demás, así como mi capacidad de llevarme bien con ellos o la tentativa de modificar su comportamiento, derivan en gran medida

de una analogía conmigo mismo: modelizo a los demás en función de mí mismo y, por tanto, puedo empatizar con ellos y prever algunas de sus acciones e inacciones. Cuando esta capacidad está gravemente dañada, como en el caso de los pacientes con síndrome de Asperger, los resultados son la inadaptación y la infelici-

dad. A su vez, la autoconciencia es hasta cierto punto un producto de las relaciones sociales: soy más autoconsciente cuanto más intensamente espero o temo que mi comportamiento sea observado y juzgado por mis congéneres. En los casos patológicos, como el de Jean-Jacques Rousseau, la autoconciencia degenera en el ego-

centrismo y la paranoia, una combinación que resulta de una oscilación entre la búsqueda de aprecio y la huída de la sociedad. Por consiguiente, la conciencia, especialmente la autoconciencia, es tanto efecto como causa del comportamiento social (más sobre esto

en las secciones 11.4 y 11.5). Lo que vale para la relación entre la autoconciencia y la vida social vale también para el lenguaje. Es probable que la autoconciencia y el lenguaje sean coetáneos y hayan coevolucionado junto con la so-

ciabilidad. Esta conjetura es sugerida en parte por nuestra experiencia

cotidiana con el habla silenciosa (interna). Es probable que el sistema

primitivo de comunicación animal, que finalmente evolucionó hasta convertirse en lenguaje articulado, haya permitido a los homininos y a los hombres del Paleolítico interiorizar ciertos aspectos de su

comportamiento social. A medida que perfeccionaban su sistema

de comunicación, se trasformó cada vez más en un medio de rela2D

ción social, a saber, un instrumento de autoanálisis y portador de trozos prefabricados de pensamiento que podían ser evocados y combinados casi a voluntad. Finalmente, nuestros antepasados re-

motos se volvieron capaces de hablarse a sí mismos, es decir, de in-

teriorizar conversaciones, algunas de las cuales deben haberse referido a sus propios procesos mentales. Por consiguiente, el autoconocimiento y el lenguaje pueden haber evolucionado mediante un mecanismo de prealimentación, y ambos coevolucionaron con la cultura.

Adviértase que esta hipótesis contradice tanto la hipótesis de que la mente es un subproducto del habla (Luria y Vygotsky) como la que afirma que el lenguaje es un subproducto de la mente (Chomsky y Popper y Eccles). Adviértase también que todo lo anterior se opone tanto al epifenomenismo como a la llamada teoría especular del conocimiento. Examinaremos la conciencia de forma más minuciosa en la sección 11.2. En síntesis, los psicólogos sociales proporcionaron el contexto

social de la mente. Sin embargo, algunos de ellos fueron tan radicales que mostraron a la persona como un trozo de masilla pasiva, a merced de su ambiente. Esto podría haberse evitado si hubieran tenido en cuenta que la vida mental es actividad cerebral y que el cerebro está activo siempre, aun cuando no reciba ningún estímulo

social. Sin embargo, la psicología social clásica era descerebrada y, en ocasiones, hasta hostil a la biopsicología. En particular, los conductistas afirmaban que los procesos mentales o no existían o no

eran más que procesos conductuales muy complejos. Esta opinión contradice la definición común de proceso conductual como cambios corporales manifiestos y, por tanto, directamente observables,

Además, la opinión en cuestión incluye la confusión de los hechos con sus condiciones ambientales. Así pues, aunque la respiración

es imposible en el vacío, no se trata de un proceso atmosférico, Al corregir un desequilibrio, es decir, el de la falta de atención a los

estímulos sociales, los conductistas reforzaron otro, el descuido de lo que controla la conducta, o sea, del cerebro. No obstante, el ce-

rebro modifica todas las relaciones sociales porque es el órgano que controla el comportamiento, 330

La relación entre el cerebro y la sociedad es tan intensa que puede llegar a dominar al instinto. Por ejemplo, el deseo sexual puede ser intensificado o extinguido por las relaciones sociales. La conjetura de Freud de que el deseo incestuoso es innato es la

base del llamado complejo de Edipo, pero jamás fue puesta a prueba por ningún psicoanalista. Arthur P. Wolf (1995) puso a

prueba esa conjetura mediante el expediente de investigar la historia de 14 402 matrimonios taiwaneses en el período que va en-

tre 1905 y 1945. Wolf descubrió que en esa época había dos tipos de matrimonios: el “mayor”, en el cual la novia se iba a vivir al hogar de su futuro marido, y el “menor”, en el cual marido y mu-

jer se encontraban por primera vez el día de la boda. En el primer caso, los niños crecían como hermanos psicológicos y desarrollaban una fuerte aversión a la idea de tener relaciones sexuales entre sí, a causa de lo cual sus matrimonios eran, con frecuencia, desastrosos. En resumen, la familiaridad engendra horror al incesto:

el lugar del complejo de Edipo es el cubo de basura de la psicología pop.

Otra cosa que encontraremos en ese mismo cubo es la noción de mente colectiva. A menudo se dice que las organizaciones, por ejemplo las empresas, tienen intenciones o propósitos. También se ha hablado mucho de la memoria colectiva y hasta del inconsciente colectivo, pero no ha habido ninguna investigación científica de semejantes entidades. En términos estrictos, todas son tonterías,

pues los estados mentales son estados cerebrales, y los cerebros están situados en los cuerpos de los individuos. Lo que sí es verdad es que los miembros de cualquier organización comparten algunas creencias y ciertos objetivos, y pueden participar en acciones co-

lectivas como la fabricación de un producto, una manifestación

callejera o la adoración de una deidad. En todos estos casos, 2os-

otros = cada uno de nosotros. Por eso la psicología de las masas de Le Bon, según la cual el alma de la masa es irracional, era acientífica, Sin embargo, su sucesora, la psicología del comportamiento individual dentro de un grupo, ya sea amorfo, como en un estadio

de fútbol, u organizado, como en una congregación religiosa, puede ser rigurosa.

331

10.3 De las hormonas vinculantes

y las neuronas espejo a la moral

Es curioso, pero la neurociencia ha ofrecido recientemente el argumento más convincente a favor de la necesidad de integrar la

psicología individual con la psicología social. Se trata del descubrimiento de las neuronas espejo, realizado a comienzos de la década de 1990 (Rizzolatti y Craighero, 2004). Estas neuronas se activan cuando un individuo observa el comportamiento de otro individuo. En pocas palabras, las neuronas (espejo) similares controlan comportamientos similares: son imitadoras. Por ejemplo, si una persona (o un mono) ve a otra coger una cosa, las neuronas espejo de su corteza motora se disparan como si el individuo estuviese ejecu-

tando los mismos movimientos.

El papel principal del sistema de las neuronas espejo humanas parece ser comprender el “significado” (el objetivo) de las acciones de los demás (Rizzolatti y Sinigaglia, 2008, pág. 124). Esta “com-

prensión” es intuitiva O preconceptual, así como prelingúística:

se trata de la Verstehen o comprensión empática ensalzada por Dilthey y sus seguidores como una alternativa superior al método

científico. Sin embargo, no hay duda de que el papel de esa “comprensión” es facilitar la compartición de las experiencias, el aprendizaje y la coexistencia, no el de reemplazar el estudio obJetivo y analítico de la vida social. La experiencia es personal, pero se supone que su investigación es impersonal o, mejor di-

cho, objetiva,

Se ha conjeturado que las neuronas espejo nos hacen coope-

rativos y altruistas desde el nacimiento. Lo mismo se ha dicho de

las llamadas hormonas de la vinculación, la oxitocina y la prolacpoes centrales para el sexo y la crianza de la prole. Con todo, cerca

Su he

pe

:

o

ss

980 sooperaivos, lo que indica y las neuronas e spejo pueden

ser necesarias para entender a los demás pero no bas tan para sentir

interés por ellos. Esta condición parece surgir úni camente como resultado de las experiencias sociales positivas (1 sociales negativas, como las que viven los niños c as experiencias riados en zonas 332

marginales, tienden a engendrar egoísmo, la estrategia de supervivencia a corto plazo más fácil). El descubrimiento de las neuronas espejo tendrá, sin duda, un profundo efecto en los estudios sobre la conciencia, demasiados de

los cuales han sido más literarios (“filosóficos”) que científicos. En efecto, tal como ha dicho Rizzolatti, resulta difícil pensar en un yo

sin un nosotros. Esto es especialmente cierto respecto del comportamiento moral, o sea el que es desencadenado por problemas morales, tales como decidir si ayudar o no a un extraño en dificultades. Se han propuesto diversas concepciones conflictivas entre sí para explicar el comportamiento moral: que es instintivo o aprendido, emocional o calculado, constante o situacional, etc. No sorprende

que hasta hace muy poco se ofrecieran argumentos más o menos

ingeniosos como apoyo de estas diversas hipótesis éticas, ya que se daba por sentado que la filosofía no podía someterse a pruebas experimentales, ni siquiera la filosofía práctica. Tal como sucede a menudo en otras áreas, la innovación ética

se debe a gente que proviene de fuera de la disciplina: personas que,

al no estar atadas a la tradición, no tienen reparos en retarla. Efectivamente, en años recientes algunos psicólogos, neurocientíficos y economistas han diseñado y llevado a cabo experimentos sobre el comportamiento moral, y por tanto han continuado la obra pio-

nera de Jean Piaget y algunos de sus discípulos. Este trabajo ha atraído, incluso, la atención de un filósofo de Harvard (Appiah, 2008). El reciente estudio experimental de la justicia es un caso perti-

nente. Todas las personas normales de todas las sociedades se debaten con frecuencia entre el egoísmo y el interés por los demás:

hacen lo que pueden para equilibrar estas dos condiciones bastante

naturales, de modo tal de ser todas las religiones, filosofías que debemos ser o egoístas o nómica ortodoxa afirma que

justos hasta cierto punto. Pese a ello, morales y teorías económicas afirman altruistas. En particular, la teoría ecolas personas inteligentes son egoístas:

que la “racionalidad” económica consiste en intentar maximizar

los beneficios (o utilidades) esperados propios sin preocuparse por los intereses de los demás. No obstante, en las últimas tres décadas, este dogma ha sido objeto de severas críticas. En primer lugar, a 333

causa de la imprecisión conceptual del concepto de utilidad espe-

rada (por ejemplo, Blatt, 1983; Bunge, 1996). Segundo, porque la suposición en cuestión ha sido refutada por los llamados econo-

mistas conductuales (por ejemplo, Gintis et al., 2006; Henrich er

al., 2004; Thaler, 1992).

Estos estudios han probado que la enorme mayoría de las personas somos reciprocadores fuertes: no sólo devolvemos los favores, sino que en ocasiones también nos desviamos de nuestro camino

para ayudar a los extraños y corremos riesgos para castigar las conductas egoístas. Evidentemente, al crecer interiorizamos algunas

de las reglas de comportamiento que aprendemos, hasta el extremo de que en los casos ordinarios resolvemos nuestros problemas morales de forma automática. A primera vista, algunos tipos de comportamiento parecen in-

vulnerables a la explicación fisiológica. Por ejemplo, aunque el al-

cohol es un depresivo, cuando se lo consume con moderación y en

compañía alegre puede actuar como un estimulante: parece que el estímulo social anula la respuesta fisiológica. Sin embargo, la psi-

cología fisiológica puede explicar el efecto de los estímulos sociales

y su interferencia con los que no son sociales, en tanto que la psi-

cología social clásica, a lo sumo, sólo puede describirlos.

En efecto, pensemos en dos sistemas cerebrales, N y S, sensibles

uno a los estímulos naturales y el otro a los estímulos sociales. Ambos estimulan otro sistema cerebral C que controla el humor o una conducta manifiesta de alguna clase. Más aún, supongamos que la actividad de este tercer sistema está determinada en gran medida por las actividades de NV y S, y llamemos fv, fi y fea los vectores de

estado de los respectivos sistemas neurales. Por último, supongamos

que el insumo fv del sistema C está ponderado por el factor 145, €n tanto que el insumo £ del sistema C está ponderado por un número

ws. Es decir, suponemos que fe = Www fv + ws f. Obviamente, el pro-

ducto neto f. dependerá de los valores relativos de los insumos así como de los correspondientes pesos. Por ejemplo, si ww = 0,5 y ws

= 0,2, en tanto que los estímulos son fv=-10 y K = 20, la respuesta

seráfc = -1 (inhibición). Sin embargo, si f£ va de 20 a 30, el pro-

ducto de la acción conjunta de los estímulos naturales o sociales 334

seráfe = 1, o sea, estimulación. Debemos admitir que este esqueleto necesita más carne o, mejor dicho, más cerebro, pero parece un proyecto de investigación de neurociencia social plausible.

10.4 La evolución: cuestiones

preliminares El alma inmaterial no pudo haber evolucionado junto con el cuerpo: así lo decretó el papa Juan Pablo Il en 1996, después de haber reconocido que nuestros cuerpos son el producto de una evolución larguísima (aunque no puramente natural). En cambio, si los procesos mentales son procesos cerebrales, tanto el cerebro como sus funciones, en concreto sus funciones mentales, tienen que haber

evolucionado de forma conjunta. Esto es lo que hipotetizó Darwin en El origen del hombre (1871).

La evolución de la mentalidad es el objeto de estudio de cinco disciplinas incipientes: la psicología comparada, la neurociencia

evolucionista y comparada, la psicología evolucionista, la arqueología cognitiva y la gnoseología evolucionista. Echémosles un vistazo. Los psicólogos comparados intentan averiguar en qué etapa de

la evolución emergieron las diferentes capacidades mentales mediante su identificación en los géneros animales contemporáneos. La hipótesis que orienta este proyecto consiste en que es probable que cada característica presente en todas las especies de un género moderno sea ancestral. Bastarán dos ejemplos: los orígenes del placer y del lenguaje. Michel Cabanac (1999) ha conjeturado que los

reptiles fueron los primeros animales en sentir placer, porque a los lagartos contemporáneos, a diferencia de los peces y los anfibios,

les gusta que los acaricien. De ahí que resulte probable que el placer haya surgido con los reptiles, hace unos 400 millones de años. Asimismo, Andrew Bass y colaboradores (2008) conjeturaron

que el lenguaje evolucionó desde las llamadas que algunos peces

han estado usando durante 400 millones de años para atraer a sus

parejas y defender sus territorios. El fundamento de esta hipótesis 399

es el descubrimiento anatómico de que, al parecer, todos los ver-

tebrados poseen un compartimento especial localizado en el rombencéfalo y en la médula espinal que “implementa” (realiza) la

vocalización social. Por tanto, al contrario de lo que dicta la intuición, las ranas, las aves y Luciano Pavarotti comparten algunos rasgos comportamentales importantes porque comparten el “plan corporal”, el cual, a su vez, tiene sus raíces en genes comunes.

Sin duda, las hipótesis anteriores son especulativas. Pero al menos

son filosóficamente válidas, siquiera porque son compatibles con la biología evolutiva, sugieren ciertos experimentos, no sa

la

pa

:

función del órgano y no atribuyen capacidades

a

analfabetos numéricos. Sin embargo, aunque necesaria,

resulta insuficiente para explicar la Pepin de

la

as

E a

ra-

zón de ello es que el lenguaje es simbólico, y los simbo en ya que

son convencionales, son de todo menos naturales: se trata de E e a pd trucciones sociales. Por consiguiente, toda e a a ma O la emergencia del lenguaje deberá incluir, : a a ciencia evolucionista, a la arqueología social. Véase la Los neurocientíficos evolucionistas procuran conocer la evolu-

ción del cerebro de los primates. Por ejemplo, su capa superior se llama neocórtex porque tenemos buenas razones para suponer que e se trata de la más reciente, por lo cual realiza las funciones ce fisticadas. Sin embargo, la opinión popular de que lo más pro a O es también lo más antiguo no es en general verdadera. Por ejemplo, tenemos dos sistemas visuales: el ventral y el dorsal, que es más

V Figura 10.1. La evolución del lenguaje L a partir de las vocaliza clones de los vertebrados La S en la bifurcación del árbol denota la eme rgencia del simbol Ismo,

336

V.

nuevo desde el punto de vista filogenético y realiza tareas algo di-

ferentes (Goodale y Milner, 2005). He aquí otro ejemplo: aunque las decisiones morales las realizan los lóbulos frontales, estos parecen

estar motivados por sistemas afectivos filogenéticamente más antiguos, como sugiere la expresión facial de la repulsión, que es la

misma que la del asco (Chapman et al., 2009). A diferencia del caso de los estratos geológicos, los subsistemas

del cerebro no se apilan unos sobre otros con el paso del tiempo: es probable que la emergencia de cada nuevo órgano mental haya estado acompañada por una reorganización de todo el cerebro. Sin embargo, en términos generales es cierto que moverse hacia atrás

y abajo del cerebro equivale a retroceder en el tiempo evolutivo, Por ejemplo, cuanto más abstracta y general es una idea, más probable es que acontezca en una capa cortical superior y, por tanto, más nueva. Lo que nos conduce a la psicología evolucionista. En su fase científica, la psicología evolucionista está todavía en

estado embrionario; en cambio, en su fase especulativa, la popularizada por Barkow, Cosmides y Tooby (1992), está senil. Nos

ocuparemos de la segunda en la sección 13.5 como un caso de especulación descabellada y prematura. En cuanto a la psicología

evolucionista científica, sólo recordaremos que se ha combinado hace poco con la psicología evolutiva o del desarrollo (véase Bjorklund y Pellegrini, 2002). El motivo de esta fusión es el mismo

que el de la emergencia de la evo-devo en general, es decir, que las novedades evolutivas surgen en el trascurso del desarrollo individual. Por ejemplo, la embriología puede responder a preguntas evolutivas como esta: “¿Cómo consiguieron las tortugas su caparazón?”.

Además, generalizando algo que Tulving (2002, pág. 5) ha afirmado respecto de la memoria episódica, podemos conjeturar que es probable que todos los órganos cerebrales o facultades

mentales que han evolucionado en épocas recientes se han des-

arrollado comparativamente más tarde y se deterioran con mayor

prontitud. Ejemplo: las estimaciones intuitivas del tiempo, la memoria episódica (¿qué-dónde-cuándo?) y la valoración moral.

De ahí la necesidad de prestar atención a la filogenia desde una

337

perspectiva ontogenética y a la ontogenia desde una perspectiva filogenética. En efecto, contrariamente a lo que sostenía la antigua concep-

ción preformacionista, según la cual el desarrollo está rígidamente determinado por el programa genético en un entorno constante, desde la época de Conrad Waddington y Jean Piaget se sabe que el desarrollo está determinado tanto por el genoma como por el ambiente y es, por tanto, epigenético antes que genético. Por ejem-

plo, dos gemelos “idénticos”, es decir, dos individuos con el mismo genoma, pueden adoptar estilos de vida diferentes, a consecuencia de lo cual adquieren diferentes epigenomas que pueden tranferirse

a su descendencia (la diferencia es que algunos genes resultan “silenciados” al ser recubiertos por moléculas foráneas). Por consiguiente, mientras que no podemos hacernos responsables de nuestros genomas, sí somos responsables de nuestros epigenomas,

así como de los de nuestros hijos. Por ejemplo, la falta de atención y los malos tratos durante la niñez modifican la respuesta al estrés y aumentan el riesgo de sui-

cidio; el mecanismo molecular subyacente es el recubrimiento (por tanto, el “apagado”) de un gen que participa en la regulación de los glucocorticoides (McGowan et al., 2009). Hasta la mejor herencia genética es impotente en un entorno social con graves ca-

rencias y estresante, el cual retrasa y distorsiona el desarrollo de la

corteza prefrontal del niño en un grado comparable a una lesión

en esa región del cerebro (Kishiyama et al., 2009). En resumen, en la actualidad se considera que el desarrollo es

tanto epigenético como genético: se trata de un proceso multinivel y bidireccional, tanto hacia arriba como hacia abajo: véase la figura 10.2.

Lo anterior es el motivo por el cual los neurocientíficos y psicólogos del desarrollo evolucionistas, en lugar de centrarse en el

organismo individual y su desarrollo bajo la tiranía de su genoma,

conceptuado como el motor inmóvil e insensible al ambiente, estudian todo el sistema de desarrollo, desde el gen y la célula hasta

el organismo como totalidad y su entorno (Gottlieb, 1992; Lickleiter y Honeycutt, 2003).

338

entorno

A

comportamiento

A

neural genético

Xx

Na

A

NX

A

NX -——

desarrollo

———3=»-

Figura 10.2. El proceso de desarrollo multinivel. Sobresimplificado a partir de Gottlieb (1992, pág. 186).

Sostengo que la psicología del desarrollo evolucionista ha superado el proyecto de gnoseología evolucionista esbozado en la década de 1970 por el etólogo Konrad Lorenz (1971), el psicólogo Donald Campbell (1974a) y los filósofos Karl Popper (1978) y Gerhard

Vollmer (1986). Su idea central, que la cognición es un mecanismo adaptativo sometido a la selección natural, era correcta. Sin embargo, salvo este aspecto común, los proyectos de estos pensadores eran muy diferentes, como ha subrayado Vollmer (1987). En tanto

que Popper y Campbell se interesaron por la evolución (o, mejor

dicho, por la historia) del conocimiento, Lorenz y Vollmer abor-

daron el problema de la evolución de nuestras facultades cognitivas. En particular, estos intentaron explicar por qué tantas teorías falsas, como la astronomía geocéntrica, resultaron atractivas en el pasado: a saber, porque se ajustaban a las apariencias o, como lo ha expresado Vollmer, porque eran adecuadas para el mesocosmos. Además, esta clase de gnoseología evolucionista propuso que las categorías innatas y las leyes del pensamiento de Kant son, en realidad, productos de la evolución. Con todo, la neurociencia y la psicología del desarrollo enseñan que nacemos sin mente (Bunge, 1983a, págs.

51-59).

En mi opinión, el proyecto de la la psicología evolucionista no ha dado frutos por los siguientes motivos. Primero, porque aunque

invoca la neurociencia, no la utiliza. Segundo, y a consecuencia de lo primero, porque pasa por alto la emoción pese al intenso tráfico en doble sentido existente entre la corteza y el sistema límbico, in-

tercambio que no sólo explica el hecho de que podamos controlar las emociones, sino también que se pueda investigar con pasión. 339

En tercer lugar, en los últimos años hemos aprendido que la filo-

genia no puede comprenderse bien si se la separa de la ontogenia y viceversa, de lo cual se sigue la necesidad de una psicología del desarrollo evolucionista. En cuarto lugar, es posible que las capa-

cidades cognitivas hayan coevolucionado con las capacidades ma-

nuales, artísticas y sociales, un supuesto que los arqueólogos cognitivos dan por sentado y que priva a la gnoseología evolucio-

nista de su independencia. Quinto, el proyecto de la gnoseología evolucionista pasa por alto el aspecto social (o cultural) de la evo-

lución humana. Sexto, después de más de tres décadas de existencia, la gnoseología evolucionista aún se encuentra en la etapa de proyecto.

Este enfoque no ha explicado, por ejemplo, la repentina emergencia de las pinturas rupestres ni su falta de desarrollo posterior, por qué los egipcios estaban más preocupados por el más allá que

el resto de las primeras civilizaciones, por qué los chinos nunca han adorado a ningún dios en tanto que los indios imaginaron miles de ellos, por qué los antiguos peruanos —tan hábiles en tantos ámbitos— no tenían escritura, ni por qué los antiguos griegos no to-

maron prestado el cero a los sumerios. Sin embargo, la gnoseología evolucionista nos ha enseñado unas

pocas importantes lecciones. Una de ellas es que la gnoseología clá-

sica es defectuosa porque —como quería Popper (1972)— ignora al sujeto cognoscente y, por consiguiente, pasa por alto el proceso

de construcción del conocimiento. Otra lección es que las novedades evolutivas permiten a nuestros hijos desarrollar su equipo para el aprendizaje de modo diferente al de nuestros antepasados

remotos. Aunque es cierto que, al contrario de lo que pensaba Kant,

los recién nacidos carecen de mente y tienen que comenzar de cero, puesto que todo es aprendido, los nuestros tienen la ventaja de ser recién llegados evolutivos. Por ejemplo, sus cortezas prefrontales

poseen al menos dos capacidades que nuestros ancestros homininos

ral vez SceRiaERO, Una es la de aprender a controlar los impulsos pre pl ss Otra

a

es que somos capaces de ap render có-

un Contexto social. $ sal “Uv Unme niñotodo esto eny mucho más tiene lugar en criado una sociedad muy pobre, 340

atrasada o violenta no tendrá, necesariamente, ninguna de dichas ventajas sobre sus ancestros homininos. Por tanto, una vez más, es

necesario completar el enfoque naturalista con una cuota de investigación social. En síntesis, si se concibe la mente como un conjunto de funciones cerebrales, se la debe entender desde una perspectiva evolucionista. Pero como la mente humana se desarrolla en un medio social, la evolución humana es tanto social como biológica. Y este es el tema de nuestra próxima sección. 10.5 La evolución: biocultural

La razón para ocuparse a la vez de la evolución biológica y la evo-

lución cultural es, desde luego, que el hombre no es un animal como los demás, sino el animal que inventó la cultura en el sentido antropológico de la palabra, es decir, como el sistema de actividades económicas, políticas y simbólicas que va más allá de alimentarse, copular, criar descendencia y pelear. En consecuencia, los genes y la cultura han sido las dos caras de una misma moneda desde el

instante en que emergieron los humanos “modernos”, hace unos

100 000 años, en África (Smail, 2008).

En palabras de Richerson y Boyd (2005, pág. 194), “los genes, por sí solos, no pueden adaptarse a los ambientes rápidamente cambiantes. Las variantes culturales, por sí solas, no pueden hacer nada

sin los cerebros ni los cuerpos. Los genes y la cultura están estrechamente acoplados, pero sometidos a fuerzas evolutivas que empujan el comportamiento en diferentes direcciones”. Esta es la razón de que la psicología evolucionista de moda —la cual considera que

la cultura está totalmente moldeada por los genes y que estos son insensibles al cambio ambiental— no solo sea un ejercicio de ima-

ginación sin control sino que, además, esté equivocada: véase la sección 13.4. Unos pocos ejemplos mostrarán la necesidad de combinar las perspectivas biológica y cultural. 1) La revolución neolítica hizo

posible la emergencia de las ciudades y, con ello, la llegada de nuevas

341

normas sociales, las cuales a su vez cambiaron las reglas de selección

sexual; por ejemplo, la riqueza y el poder político conferían mayor eficacia biológica a sus poseedores que la fuerza física y la gene-

rosidad. 2) Además de genes, las migraciones en masa trasportaron

ideas y hábitos (Cavalli-Sforza y Feldman, 1981). 3) El hacinamiento en las ciudades facilitó la difusión de las enfermedades

contagiosas y causó cambios heredables en el sistema inmunitario, hasta el punto de que tal vez sean el origen de las principales diferencias genéticas entre nosotros y nuestros antepasados de hace

10 000 años (Keyfitz, 1984). 4) La solidaridad intragrupal favoreció la supervivencia de grupos étnicos y culturales sometidos a

discriminación. 5) La industria láctea, nacida sólo hace unos 5000

años, no puede prosperar en las regiones en las que la gente carece

del gen que participa en la síntesis de la lactasa, la enzima que

descompone la lactosa, el azúcar de la leche. Además, allí donde

se bebe leche se favorece un estilo de vida saludable, lo que a su vez facilita la difusión del gen asociado a la producción de lactasa. 6) La revolución industrial favoreció al cerebro por encima del músculo y, con ello, proporcionó a los que eran más débiles pero más listos más oportunidades para difundir sus genes. 7) Las sociedades que fomentan el aprendizaje respaldan las escuelas y, en consecuencia, favorecen la dispersión de los (desconocidos) genes

que facilitan el aprendizaje. 8) La alfabetización causa cambios anatómicos en el cerebro: incrementa la materia blanca del cuerpo calloso y la materia gris de las circunvoluciones (Carreiras et al.,

2009). 9) La importancia cada vez mayor de la inteligencia en el

trabajo y la comunicación, junto con el progreso en la informática

y las telecomunicaciones, han conducido al incremento de la sedentariedad y, por tanto, a un aumento de diversas enfermedades

que sin duda alterarán la demografía y la diversidad humana. 10)

Las corrientes migratorias actuales son más rápidas y más intensas

de lo que jamás lo han sido, además de lo cual abarcan la totalidad

del planeta, por lo que favorecen el mestizaje y dos actitudes po-

líticas complementarias: la tolerancia y la intolerancia del otro, las cuales influyen a su vez en las políticas migratorias. Todo esto su-

giere que la evolución humana se aceleró con la invención de la 342

agricultura, hace unos 10 000 años (Cochran y Harpending,

2009). Dicho sea de paso, esta idea contradice el dogma de la psicología evolucionista pop de que la naturaleza humana ha permanecido inalterada aproximadamente durante los últimos 100 000 años.

Por último, echemos un vistazo a un campo totalmente diferente

pero complementario: el de la arqueología cognitiva. Quienes trabajan en esta disciplina abordan un problema inverso formidable:

el de “inferir” (conjeturar) las ideas que pueden haber guiado la fabricación de los artefactos encontrados en los yacimientos arqueológicos (véase Mithen, 1996; Renfrew y Zubrov, 1994; Trigger,

2003a). En principio, es posible poner a prueba la hipótesis de que un artefacto dado se utilizó para realizar cierta función y que su fabricación debe haber incluido ciertos conocimientos. Esto se con-

sigue mediante la replicación y la utilización del artefacto en cuestión. La arqueología experimental, que hace precisamente esto,

nació hace más de un siglo.

Sin embargo, las “conclusiones” (conjeturas) de la investigación arqueológica son conjeturales porque gran parte de las pruebas a

las que recurre son ambiguas. Esta piedra podría haber sido utilizada para matar O para cavar; esta vasija, para beber o para ofrecer un sacrificio; este edificio, para adorar a un dios o para hacer ostenta-

ción de poder. La megafauna norteamericana se extinguió hace unos 11 000 años, cuando llegaron los primeros humanos. Pero también fue la época del final de la última Edad de Hielo. Por consiguiente, esos animales podrían haber sido víctimas del cambio climático, especialmente de las grandes inundaciones, en lugar de haberlo sido de las débiles flechas de los recién llegados. También en Australia se extinguió la megafauna cuando llegaron los primeros

humanos, hace unos 45.000 años. Sin embargo, no tenemos pruebas independientes de que esos humanos hayan sido cazadores de grandes presas. Antes bien, los restos de vegetación quemada indie ne sa

llegados aAustralia incendiaron las praderas de

a O involuntaria y privaron de alimento a los ani-

males grandes. Sin duda, futuras investigaciones pueden resolver

estas ambigiiedades. Con todo, los arqueólogos saben que las re343

etapa

especies/periodo

MIMÉTICA — primeros homínidos,

formas nuevas

cambio manifiesto

gobierno

acción, metáfora

habilidad, gesto, mímica e imitación

estilos miméticos y arquetipo

PIAPOOOn H., erectus,

2-0,4 Ma

MÍTICA

humanos que

en H. sapiens de

0,5

al presente

TEÓRICA

tradiciones orales,

simbólica

pensamiento

representación

saben, con apogeo

sapiens,

lenguaje,

Ma

rituales miméticos,

marco mítico

de gobierno

narrativo

5

universo

formalismos,

pensamiento

simbólico

artefactos teóricos

e invención

externo

de gran escala,

cultura moderna

Tabla 10.1. Etapas de la evolución

paradig-

almacenamiento

máticos e

externo masivo

imstitucionalizados

de la cognición y la cultura humanas

(resumido

a partir

de Donald, 2001, pág. 260).

construcciones del pasado son intentos: no comparten la arrogancia de los psicólogos evolucionistas.

La conclusión de todo esto es que sabemos muy poco acerca del

pasado remoto de nuestra mente, incluso de su presente. Ese poco que sabemos se lo debemos a los neurocientíficos, los psicólogos

experimentales, los psicólogos comparativos y los arqueólogos, no

a los psicólogos evolucionistas. La tabla 10.1 resume y reune lo que

sabemos del pasado de la cognición y la cultura humanas.

10.6 Lo que nos hace humanos

Las llamadas grandes religiones fueron las pri e an puesto que su finalidad era controlarmeras ideologías totodos los aspectos e

umana. Erigieron un muro infranqueabl e entre los humanos y los demás animales. En cam bio, |

.

Aristóteles afirmó que

a las personas hacer hin-

capié o bien en nuestra animalidad, o bien en nuestra naturaleza política. Alrededor de 2000 años después, Descartes dio un paso

atrás al sostener que los animales no humanos son autómatas: que sólo los humanos tenemos alma. En época de Darwin, el famoso filólogo Max Miiller reforzó la muralla cartesiana: afirmó que el

lenguaje es privativo de los humanos y negó que pudiera haber evolucionado a partir de un protolenguaje.

Tres generaciones más tarde, Noam Chomsky ha repetido esta extraordinaria opinión y ha afirmado que hablar de evolución del lenguaje es tan absurdo como hablar de evolución molecular (la cual sí ha ocurrido y es el tema de una revista periódica especializada). Además, añadió que todos los humanos nacemos con una “gramática universal”, una especie de plantilla para todas las lenguas particulares, y que “el lenguaje es el espejo de la mente”, en lugar de haber evolucionado principalmente como el medio más sofisticado de comunicación. Además de descartar la biología evolutiva y la sociolingiiística, así como de pasar por alto la psicología del desarrollo, Chomsky y sus seguidores adoptaron el dualismo psiconeural y, por consiguiente, ignoraron la primatología y la neurociencia, disciplinas que han comenzado a elogiar de boca para afuera sólo en años recientes. Los seguidores de Wittgenstein metieron baza: Max Blak, Stuart Hampshire y Norman Malcolm afirmaron que sería completamente absurdo atribuir conceptos a un animal. Lo sabían porque habían leído a Descartes, Wittgenstein y Chomsky. En cambio, como es sabido, Darwin (1911) propuso que la diferencia entre lo humano y lo no humano es “de grado y no de clase”, y dio a luz a la psicología animal. Durante el siglo Xx, los primatólogos y los neurocientíficos continuaron investigando las semejanzas, así como las diferencias, entre los diversos primates (véase, por ejemplo, Preuss, 2007). En particular, Frans de Waal (1998) corrigió a Aristóteles cuando descubrió que los chimpancés,

nuestros parientes más próximos, son animales políticos y que, por

añadidura, son maquiavélicos.

El mayor impacto que iban a sufrir los lingilistas antievolucio-

nistas llegó cuando los primatólogos les enseñaron a unos chim-

345

pancés a utilizar la lengua de signos y símbolos gráficos para interaccionar y expresarse. Así, gracias a un teclado, la chimpancé Lana produjo varias oraciones tales como: “Por favor, máquina, haz

abrir ventana” y “¿Beverly movió detrás y Gill, 1976). Todo padre o madre de como todo inmigrante reciente, estaría mejante. No así los antievolucionistas,

habitación?” (Rumbaugh un niño de dos años, así orgulloso de un logro seque objetaron que estas

no eran pruebas de un lenguaje. Afirmaron que lo peculiar de nuestro lenguaje es la recursividad, la inclusión de unas oraciones en otras oraciones, como en: “Ricardo sabe que María ignora lo que motiva a José”. Esta reacción me recuerda a un comentario del matemático Julio Rey-Pastor: “Si alguna vez se sintetizara una

célula en un laboratorio, los vitalistas exclamarían: “Sí, pero ¿qué pasa con una jirafa?”.

En resumen, hay tres tradiciones principales respecto al problema

que nos ocupa: el espiritualismo, el naturalismo y el sociologismo. Además, parece que hemos llegado a un punto muerto en el debate entre estas doctrinas y las demás (véase, por ejemplo, Penn et al., 2008). Este punto muerto tiene dos orígenes: uno es la rigidez o

dogmatismo de algunos de los paladines de estas tradiciones en

competición; el otro es que, en realidad, hay continuidades así como discontinuidades en la evolución de todos los filos evolutivos. Por ejemplo, muchos mamíferos y aves moldean sus entornos, hacen hipótesis y las ponen a prueba, además de comunicarse entre ellos. Sin embargo, únicamente los humanos poseemos las capacidades adicionales de reflexionar sobre nuestros propios procesos mentales, de atribuir ciertos sucesos a entidades inobservables in-

ventadas, de trascender el aquí y el ahora, de adoptar los puntos de vista de otras personas, de diseñar planes a largo plazo y actuar de acuerdo con ellos, de ayudar a otros sin esperar ninguna retribución

por ello,

de aplicar el castigo altr uista,

de compartir

regu-

larmente el alimento, de organizar y reformar sistemas sociales, y

de inventar, romperO revocar normas de comportamiento social.

(Para más características de la brecha entre simios y humanos, véase o a 2009; Gazzaniga, 2008; Lorenz, 1971; Passingham,

346

Además de disentir acerca de lo que nos hace únicos, los cien-

tíficos tampoco están de acuerdo sobre la fuente de nuestras singularidades: ¿es biológica, psicológica o social? En otras palabras, ¿se tornó humano uno de nuestros ancestros remotos a causa de una mutación, de la emergencia de una nueva facultad mental, de

un cambio radical en el modo de vida y en la participación en la organización social o de todo lo anterior? Es probable que, puesto

que la cualidad de ser humanos es todo un haz de características interrelacionadas, su origen se explique finalmente gracias a los esfuerzos coordinados de los investigadores de muchas disciplinas, desde la genética y la neurociencia hasta la psicología, la lingiñística, la antropología, la arqueología y la sociología (Enfield y Levinson, 2006). En particular, cuando explicamos la emergencia de Homo sapiens, no debemos olvidarnos del trabajo, el factor que Engels (1962) identificó en su ensayo de 1876 sobre “El papel del trabajo en la transición del mono al hombre”. El motivo es que el trabajo, mucho más que la sola búsqueda de alimentos, requiere planificación, organización e instrucción. (Es cierto que las arañas, las abejas, los

castores y los pergoleros construyen cosas, pero no lo hacen según planes y normas: sus productos son “genefactos” en lugar de artefactos).

Con todo, la mayoría de las especulaciones acerca del origen del lenguaje y otras singularidades humanas pasan por alto el trabajo, tal vez porque dan por supuesto que los homininos eran básica-

mente cazadores o recolectores obsesionados con el sexo, más im-

teresados en gorronear, trampear e identificar a los tramposos que en disfrutar de la vida y cooperar para lograr hacer ciertas cosas y hacer frente a las emergencias. (La influencia del individualismo

ontológico y metodológico propio de la teoría económica estándar

y el “imperialismo económico” que ha ocasionado es manifiesta en

la literatura sobre la hominización).

Todos los animales se alimentan y tienen relaciones sexuales; muchas especies son gregarias y forjan alianzas para defenderse o Cazar; varias especies comparten el alimento cuando un congénere

se los pide, practican el altruismo recíproco y se comunican me-

347

diante llamadas y señales. En consecuencia, la humanización no puede haber sido únicamente una cuestión de subsistencia, coexis-

tencia, reproducción y comunicación. Sólo la deliberación, el trabajo y la concomitante organización social, tal como la cooperación y la división sexual del trabajo, la fabricación de herramientas, la

comunicación mediante un lenguaje articulado (sintáctico) y la instrucción de los más jóvenes son exclusivamente humanas. Lo son, asimismo, la memoria episódica, la planificación y la organización social intencionada. (Adviértase el cambio: de una única pe-

culiaridad, tal como la fabricación de herramientas y el lenguaje,

a todo un grupo o sistema de capacidades que interaccionan).

Sin embargo, todo esto exigió, y a su vez favoreció, un gran incremento de la masa cerebral, especialmente de los lóbulos frontales, así como mejores conexiones entre sus partes, como sus regiones prefrontal y temporal (Calvin y Bickerton, 2000; Passingham, 2008; Preuss, 2007). Además, por supuesto, unos cerebros mejores

hicieron posible el abordaje de problemas más difíciles, pensamientos más profundos, mejores instrumentos y la organización de sistemas sociales más complejos. Esta mejora de las operaciones mentales en el trascurso de la evolución lo sugiere la neurociencia

comparada, la cual ha descubierto que a medida que el tamaño del

cerebro aumenta, la cantidad de fibras de materia blanca —-las cua-

les interconectan las diferentes zonas corticales— crece mucho más

rápidamente que el número de las fibras de materia gris (Allman,

1999). Es decir, el de hominización no fue sólo un proceso de au-

mento de la adaptación y enriquecimiento de la sociabilidad, sino

también, y quizá principalmente, un proceso de enriquecimiento

del yo. Adviértase, dicho sea de paso, que nuestro materialismo

amplio comparte la concepción idealista en lo referente a la enorme importancia de la mente.

Por último, pero no por ello menos importante, los cerebros

mejorados facilitaron la cooperación y el igualitarismo concomitantes, una Característica moral de las comunidades de cazadores-

recolector es. Mirhen (1999) conjetura que esos cerebros mejores facilitaron la Cooperación, en particular la coordinación, así como

la compartición de información y una “lectura de la mente” más 348

biológicas

psicológicas

sociales

inmadurez al nacer

fuerte lazo madre-hijo

privilegios de los hijos

Ínsula grande gran corteza prefrontal

desarrollo toda la vida

repulsión autocontrol y planificación

aprendizaje toda la vida

continencia acción guiada por reglas

vida larga

previsión

grupos sociales grandes

enseñanza

adaptabilidad máxima

enciclopedismo

versatilidad

dieta altamente nutritiva debilidad física

esfuerzo físico prolongado imaginación técnica

trabajo dependencia de los artefactos

maduración

inseguridad en primeros años

dependencia

lenta

espontaneidad

fantasía

plasticidad socíal

Tabla 10.2. Algunas peculiaridades humanas (hasta nuevo aviso).

eficaz, lo cual expuso las mentes al escrutinio público y, por tanto, desalentó los engaños y las intrigas. Véase la tabla 10.2. Advertencia: la inclusión de algunos de los ftems en la lista es objeto de una animada controversia tanto dentro como fuera de la comunidad científica. Por ejemplo, se pensaba que la memoria epi-

sódica era característicamente humana hasta que se probó que las urracas de los matorrales también la poseían, que las arañas saltadoras pueden planear un ataque acechando a su presa, que las ballenas también poseen neuronas espejo, que los chimpancés son

tan versados en politiqueo como los profesores universitarios y que la capacidad para aplazar la gratificación hace mucho que dejó de ser privativa de los comerciantes calvinistas,

Se ha señalado que la competición feroz por los recursos favorece la impulsividad, en tanto que la alimentación en solitario permite

el lujo de aplazar la gratificación, y una posición subordinada en

una jerarquía social rígida impone el autocontrol (por ejemplo, Genty y Roeder, 2006). Se han observado comportamientos de

ambos tipos en varias especies. En cambio, sólo los humanos señalan, un gesto que, al parecer, indica intención y atención compartidas (Tomasello, 2006). Al abordar el problema en cuestión, debemos tener en cuenta

el sesgo de los especialistas. Por ejemplo, los primatólogos tienden

a poner el acento en las cosas que los humanos y los demás primates

349

tienen en común, algo que los amantes de los perros tienden a hacer con sus mascotas; en cambio, los lingiiistas, los filósofos de la mente

dualistas y los teólogos hacen hincapié en las diferencias. Los biólogos evolutivos son los mejores expertos en la materia y, sin em-

bargo, es improbable que afirmen que sus descubrimientos y conjeturas son concluyentes.

En todo caso, la clase de evolución que nos condujo al estado actual fue biopsicosocial y no puramente biológica, psicológica o

social. Además, el aspecto mental de la evolución humana es afec-

tivo tanto como cognitivo. El énfasis en el aspecto cognitivo de la evolución en detrimento de sus facetas emocional y social es arbitrario. La comprensión de nuestros orígenes requiere la convergen-

cia o fusión de todas las ciencias que estudian a los seres humanos. Comentarios finales

La concepción moderna de la mente difiere en varios aspectos del concepto de alma tradicional. Primero, las mentes son materiales,

en el mismo sentido derivado en que lo son los movimientos, las reacciones químicas y las innovaciones sociales, es decir, porque son

cambios que ocurren en cosas concretas. Segundo, lejos de ser constantes, las mentes son variables tanto desde el punto de vista onto-

génico como desde el filogénico. Tercero, las mentes se desarrollan de forma diferente en contextos sociales diferentes, y son medios para la coexistencia social. Las tres características indican que la psi-

cología tradicional, que ignoraba las sociedades y el cerebro, era gra-

vemente

defectuosa.

Necesitamos

psicología

neurocientífica,

psicología del desarrollo, psicología social y psicología evolucionista

Sinpm eo embargo, e que scan ¡entí a no especulativas, y' q an erre acionadas, en lugar de aisladas entre sí (véase, por

Ae

0,

Lacioppo et al., 2006; Corballis y Lea, 1999)

or ejem jemplo,

cuando estudiamos | el desarrollo de la moralidad e-n pdalos niños, » debe debemos recordar que, > por ser : pe a parte

más recien del cerebro, el órgano de control —es decir, la Corteza prefr _ es también la última en alcanzar la madur P—

“* completa; y también

350

necesitamos saber que las morales dependen de las culturas y que por ello están sometidas al cambio histórico, a raíz de lo cual las

normas morales se aprenden y se cumplen de forma diferente en grupos sociales diferentes y en períodos históricos diferentes. En consecuencia, cuando admiramos la valentía y la lealtad de los samuráis, debemos recordar que estos asesinos mercenarios vendían esas virtudes a un señor feudal bárbaro y cruel. Además, cuando

nos preguntamos cómo tratar a un joven que ha cometido un delito, en lugar de contentarnos con el veredicto de que se trata, simplemente, de un mal chico, debemos tener en cuenta todo: su

cerebro, que puede ser anormalmente inmaduro; su familia, que

puede ser disfuncional o inexistente; su escuela, que puede ser el habitual fastidio, aburrido y autoritario; y el vecindario, que puede estar infestado de vendedores de drogas, así como carecer de instalaciones deportivas y centros culturales. Por último, adviértase que el problema yo-tú-eso evoca el trilema individualismo-holismo-sistemismo (Bunge, 1996, 1998, 2003a).

Las tres perspectivas son manifiestas en cada rama de la filosofía, aunque, como es habitual, la ontología está en la base. El indivi-

dualismo ontológico sostiene que la realidad es una colección de individuos; el holismo, que la sociedad consiste en un todo indi-

visible o que la totalidad es superior a sus partes desde los puntos

de vista ontológico y gnoseológico; y el sistemismo afirma que la realidad es un sistema analizable del cual es posible distinguir su composición, entorno, estructura y mecanismo.

La psicología comparte el trilema individualismo-holismo-sistemismo: la escuela de la Gestalt era holística, en tanto que el conductismo y su heredero, el computacionalismo, son individualistas. Las secciones anteriores sugieren que el sistemismo ofrece un marco

más apropiado para la investigación científica de la mente, puesto que conduce a centrarse en el individuo-en-su-entorno antes que o en el individuo aislado, o en la sociedad como totalidad. En con-

secuencia, el sistemismo hace lugar tanto a la psicología social como A la neurociencia cognitiva, afectiva y social, además de a la psicología del desarrollo y a la psicología evolucionista. Esta estrategia posee importantes consecuencias prácticas, especialmente en el di-

351

seño de las políticas de control de la criminalidad, alcoholismo,

drogadicción, absentismo escolar, embarazo de adolescentes y dependencia de los servicios sociales. En efecto, todos estos casos exipen centrar la atención en el individuo-en-su-ambiente, antes que en el individuo aislado (el enfoque médico y legal tradicional) o en

la sociedad como un todo (los enfoques revolucionarios y anti-psi-

quiátricos), A continuación, dejemos la sociedad por un momento para con-

centrarnos en algunos de los temas más convencionales de la filo-

sofía de la mente, como la conciencia, el libre albedrío y el yo.

11

La cognición, la conciencia

y el libre albedrío

La cognición es la adquisición de conocimiento o el conocimiento en proceso. Esto suena obvio, a condición de que no preguntemos qué son la cognición y el conocimiento, porque deberíamos reco-

nocer que no sabemos mucho sobre ninguno de los dos. Pero estamos empezando a saber un poco sobre ambos, especialmente a partir de la reciente reorientación de las disciplinas que se ocupan de ellos. En efecto, los neurocientíficos y los psicólogos han aprendido que el estudio de la cognición es el de ciertos procesos cere-

brales en un contexto social; también saben que la cognición y la emoción, si bien distinguibles, no son separables. Más aún, con-

trariamente a lo que afirmaba la gnoseología clásica, que se centraba en el sujeto cognoscente contemporáneo adulto, la investigación

actual de la cognición incluye tanto su ontogenia como su filogenia. Por tanto, las que solían ser disciplinas separadas han ido conver-

giendo.

A diferencia de los materialistas vulgares —sean conductistas,

materialistas eliminacionistas o computacionalistas—, nosotros da-

mos por sentados la conciencia y el libre albedrío, aunque, desde luego, no pensamos que los hemos comprendido plenamente. Ha-

bría sido mucho más fácil declararlos inexistentes, o afirmar que

nos resultan completamente desconocidos, y profetizar que nadie los comprenderá jamás. Pero la primera estrategia es escapista; la segunda, derrotista; y, además, ambas son obviamente erróneas.

En efecto, quienquiera que niege la conciencia no puede haber sen393

tido su pérdida al quedarse dormido o caer bajos los efectos de una anestesia; tampoco puede haber sentido dolor o arrepentimiento

ni puede haberse cuestionado sus motivos para actuar de un modo determinado. Además, quienquiera que niegue el libre albedrío se-

guramente nunca ha tomado la iniciativa ni ha desobedecido ór-

denes. Cada una de estas negaciones constituye un caso de agnosia voluntaria y tiene como consecuencia una cosmovisión obsoleta y paralizadora.

11.1 La cognición y el conocimiento Todo el conocimiento lo es de algo: el conocimiento en sí no existe,

Se pueden conocer hechos y proposiciones. Por consiguiente, la ontología debe preceder a la gnoseología. Con todo, la filosofía

moderna se inició con el rechazo de la metafísica. La razón de este rechazo fue que la metafísica dominante alrededor de 1600 era ob-

soleta. El precio que se pagó por este giro antimetrafísico fue el sub-

jetivismo: manifiesto, como en el caso de Berkeley, o vergonzante, como en el de Kant. Por fortuna, los científicos no le prestaron

atención hasta la emergencia de la mecánica cuántica (recuérdese el capítulo 3).

Pensamos que el conocimiento de algo es un estado mental y que, además, es irreducible a la creencia. La razón de esto último es que, como primera medida, para creer o no creer en X tenemos que conocer X. Además, todo el mundo conoce muchas cosas en

las que no cree y los místicos creen muchas cosas que afirman

sentir de forma intuitiva, pero que no conocen. En consecuencia,

rechazamos la difundida definición del conocimiento como creencia justificada. Tampoco la verdad es un ingrediente del cono-

cimiento, puesto que todos conocemos diversas falsedades y medias verdades,

Por último, también distinguimos el conocimie nto de la infor'

mación, porque algunos trozos de inform ación —como las preguntas, las Órdenes y —

los disparates no co hsutuyen conocimiento. Además, los distinguimos porque los orde nadores procesan

infor-

354

mación pero, dado que carecen de mente, no podemos decir que conozcan nada. La neurociencia cognitiva y su filosofía de la mente asociada consideran que la cognición, o adquisición de conocimiento, es un

proceso cerebral. En efecto, sólo un cerebro puede percibir, concebir, planear, evaluar y conocerse a sí mismo; las principales clases de cognición. La oración anterior no es únicamente una conjetura incierta: se trata de un resultado robusto de la neurociencia cognitiva, así como de innumerables experiencias y experimentos pertenecientes a diversos ámbitos, como la neurociencia cognitiva, la

neurocirujía, la psicofarmacología, el comercio de drogas y la po-

lítica. Por tanto, cuando se fabrican drogas que incrementan la cognición, como las anfetaminas, la industria farmacéutica respalda

de forma tácita el principio de que la cognición es una función cerebral. Asimismo, se dice que cuando Mussolini ordenó el encar-

celamiento de Antonio Gramsci, dijo: “Debemos impedir que su cerebro funcione durante 20 años”. Expresado de forma negativa: sin sujeto conocedor no hay conocimiento, ni a lo Platón ni a lo Hegel ni a lo Bolzano ni a lo Popper. Sin embargo, podemos fingir que esa clase de conocimiento

existe cuando nos interesan cuestiones impersonales como la referencia, el sentido y la verdad. Por ejemplo, se puede hacer matemática sin preocuparse por quién inventó, descubrió o utilizó los

teoremas que uno está estudiando o utilizando. Sólo cuando se pone a prueba el valor de verdad de una proposición nueva que pretende describir o explicar un hecho se puede preguntar legítimamente cómo se la descubrió o se puso a prueba. Por ejemplo, una compañía farmacéutica puede invertir millones de dólares

en descubrir si una nueva molécula tiene o no los efectos psicotrópicos supuestos por sus diseñadores. En cambio, nadie gastaría un

céntimo en poner a prueba la extravagante tesis de Kant de que el espacio y el tiempo son subjetivos, ya que la mismísima planificación de hasta la más humilde exploración del mundo real presupone su realidad y la de sus características espaciotemporales. Gran parte de lo anterior vale para los instrumentos que utilizamos para conocer, desde la modesta lupa hasta el más poderoso

Il

telescopio y desde el lápiz hasta el superordenador: no gozan de ninguna autonomía pues sólo trabajan como ayudantes del cerebro

de alguien. Unicamente los cerebros vivos pueden ponerse en marcha a sí mismos, formular preguntas, diseñar proyectos de investi-

gación, montar experimentos o cálculos automatizados y evaluar

resultados. Si se eliminara a todos los sujetos cognoscentes de los laboratorios, los observatorios, las bibliotecas y las redes académicas, sólo quedaría el individuo aislado con una provisión de conocimientos en rápida decadencia. Además, no quedaría ni siquiera eso si la humanidad fuera arrasada, porque los instrumentos de cono-

cimiento que no se utilizan son como los fósiles. Por consiguiente, el famoso experimento mental de Popper (1967), en el cual el co-

nocimiento se conservaba enterrado en los libros aun después de

un holocausto nuclear, es absurdo: los libros imposibles de leer ya

no son libros, al igual que los fósiles de los dinosaurios ya no son

dinosaurios. Sin embargo, dejemos el conocimiento y volvamos a la cognición.

El lector tal vez recuerde, como hemos dicho en la sección 9.2,

que el cerebro es plástico, es decir, que algunas de las conexiones entre las neuronas del cerebro cambian en el trascurso del tiempo.

A continuación postulamos que la cognición es una actividad de los sistemas neurales plásticos (o modificables, no comprometidos o autoorganizados), a los que podemos llamar psicones. Nuestro

segundo supuesto es que algunos animales poseen psicones. (En realidad, tal como ha probado Eric Kandel, hasta animales tan primitivos como las babosas de mar poseen neuronas plásticas,

pero no tienen mente dado que sólo pueden aprender tareas motoras muy primitivas). Nuestro tercer postulado es que todos los

psicones de un animal están acoplados entre sí y forman supersistemas, como la amígdala y las columnas y minicolumnas de la cor-

teza cerebral,

ii

e

es que todo animal provisto de psiquirir nuevas funciones —es decir, de aprender— en el trascurso de su vida. (En los humanos, los

rocesos d emergencia y formación de nuevas conexiones danos sólo se detienen al

inicio de la senilidad; por tanto, sí exceptuamos a esta,

356

podemos continuar aprendiendo nuevas tareas durante toda nuestra vida, y es bien sabido que el aprendizaje se autorrefuerza). Por úl-

timo, una convención: llamaremos aprendida, para distinguirla de otra instintiva o innata, a toda función neural en la cual participe un psicón que ha adquirido una conectividad regular, es decir, un psicón que es constante o varía regularmente en lugar de al azar.

La nueva conectividad puede surgir por primera vez de forma aleatoria, por ejemplo por la descarga conjunta de dos neuronas inicialmente independientes, como ha conjeturado Hebb. Si una conexión se consolida, es decir, si hay recurrencia o recuerdo, sea

de forma espontánea o en respuesta a una exigencia ambiental, podemos considerarla establecida o aprendida.

11.2 La hipótesis de Hebb Donald Hebb (1949) revolucionó la psicologia cognitiva cuando conjeturó que aprender algo consiste en la formación de un nuevo “ensamblado celular” o sistema neuronal. Obviamente, para que esto suceda, las células en cuestión no deben ser del tipo comprometido, es decir, no deben pertenecer a ningún circuito o red es-

tablecido de forma rígida. En otras palabras, sus interconexiones deben ser plásticas: sus pesos sinápticos deben ser capaces de variar con el tiempo, ya sea de forma espontánea, ya sea mediante esti-

mulación. Esta es la llamada hipótesis del uso y desuso, propuesta por primera vez por Tanzi, adoptada por Cajal y redefinida y desa-

rrollada por Hebb (Cooper, 2005). Véase la figura 11.1. o.

0 t

o—>0

0>0

to

t

o—o0 ta

o.0 bo

Figura 11.1. Formación y descomposición de los ensamblados neuronales, En el Instante t: las dos neuronas están desconectadas entre sí. En el instante t: una de ellas forma una sinapsis con otra: ha emergido un sistema que puede “hacer cosas” (experimentar procesos) que nin-

guna de las neuronas individuales puede hacer, En t: la conexión se ha fortalecido a causa del uso, En t.« el acoplamiento se ha debilitado por el desuso. En ts el sistema se ha desintegrado a consecuencia

de un desuso

prolongado o por degeneración, como en el caso de una gran

poda dendrítica (tomado de Bunge,

1985, pág. 25).

357

4]

ato. P

Figura 11.2. La relación entre aprendizaje y plasticidad. Sólo se muestra el primer cuadrante

porque los demás no tienen sentido desde el punto de vista psicológico: ni la plasticidad ni el aprendizaje pueden ser negativos. En la ciencia, la matemática es la sirvienta, no la señora de la casa.

A grandes rasgos, la explicación neurocientífica del aprendizaje es esta: la capacidad de aprendizaje equivale a la plasticidad, y el aprendizaje es igual a la emergencia de nuevos ensamblados de neuronas. Dado que lo que aprende es un sistema neuronal, una reformulación más precisa de esta hipótesis sería: el aprendizaje de

un sistema neuronal es proporcional a su plasticidad. Si suponemos que las demos puede estados

dos variables han sido cuantificadas de forma correcta, poresumir la hipótesis del siguiente modo: L = 2B la cual se representar gráficamente como una recta en el espacio de (L,P) del sistema en cuestión: véase la figura 11.2. Sin em-

bargo, dado que el ritmo del aprendizaje es tan importante como el conocimiento total adquirido, podemos considerar esta conjetura

más sofisticada: el aprendizaje por la tasa de cambio del aprendizaje

es proporcional a la plasticidad por la tasa de cambio de la plasticidad, a saber, que L.dL/dt = a PdP/dt, lo cual implica que L*= 4P*+b,. El gráfico de esta función en el espacio de estados (L, P) es

una hipérbola. En consecuencia, se puede considerar que el primer gráfico (la función lineal) es la asíntota del segundo. Advertencia: lo anterior no es más que un ejercicio de neurociencia cognitiva

especulativa, cuya finalidad es sugerir cómo cuantificar la fusión

de dos disciplinas fundadoras y cómo construir espacios de estados.

L)e momento, ninguna de las dos hipótesis ha sido sometida a pruebas experimentales.

Hasta aquí sólo nos hemos ocu LL aps l pado de la estimulación. El número de posibilidade s se

increme nta drásticamente si añadimos la

358

inhibición, la cual, como descubrieron Pavlov y Békésy, es tan básica y omnipresente como la estimulación (Békésy, 1967). Los conductistas no se dieron por enterados de este descubrimiento: se aferraron obcecadamente a su modelo de estímulo y respuesta. Además, los entusiastas de las imágenes cerebrales a veces se olvidan de que el aumento de la actividad eléctrica o metabólica de una región es un indicador ambiguo: puede indicar bien un proceso mental, bien la inhibición de otra “área” del cerebro. Por último, unas pocas palabras acerca del complemento del co-

nocimiento, es decir, la ignorancia. Podemos distinguir dos clases de ignorancia: la involutaria y la voluntaria. Descartamos de forma rutinaria los problemas y los resultados que no estimulan nuestra curiosidad. Otras veces descartamos o posponemos a regañadientes

ciertos problemas interesantes por falta de tiempo o de medios, pero tenemos la expectativa de abordarlos en otro momento o de dejarlos a las futuras generaciones de investigadores. Estos son casos de la docía ignorantía que estudió Nicolás de Cusa en el Renacimiento. Finalmente está lo que puede llamarse docta stultitia, la afirmación dogmática de que ciertos problemas nunca serán

resueltos (este caso debe distinguirse de los problemas insolubles de la matemática, de los cuales se puede demostrar que no tienen solución).

Hay muchos casos famosos e influyentes de ignorancia voluntaria. Baste recordar la afirmación de Kant de que los noúmenos (las cosas en sí) son incognoscibles, el decreto de Comte de que jamás conoceremos el interior de una estrella, el dogma de Émile Dubois-Reymond de que el problema mente-cuerpo es insoluble; la tesis de Noam Chomsky de que el origen y la evolución del lenguaje están más allá del alcance de la ciencia, sólo porque no es posible que el lenguaje haya evolucionado, y la afirmación de varios filósofos contemporáneos de que la conciencia siempre será un misterio, . Ya sabemos lo que ocurrió con estas profecías pesimistas. La fí-

sica, la química y la biología sólo estudian cosas en sí; únicamente

la psicología estudia cosas para nosotros (o fenómenos) tales como

ver rojo o sentir amistad. La astrofísica lleva ya alrededor de un

siglo investigando con éxito el interior de las estrellas. La neurolingúística, la primatología, la antropología y la arqueología investigan en la actualidad el origen y la evolución del lenguaje. Además, la neurociencia cognitiva ha estado investigando el problema mente-cuerpo durante las últimas seis décadas. En síntesis, las profecías de Kant, Comte, Du Bois-Reymond, Chomsky y otros misteristas han sido refutadas.

11.3 Pensamientos, proposiciones

y Oraciones Es un hecho que esto es un libro. Este hecho, y que el lector lo esté viendo y tenga algún conocimiento sobre libros —dos hechos

más—, le han llevado a pensar que esto es un libro. Este pensamiento es un proceso cerebral. Sin embargo, nada le impide al lector quitarle la materia neuronal y fingir que este pensamiento

particular puede existir en sí y por sí: esta ficción se llama proposición. Por último, esta proposición se puede formular en forma

de oración en miles de lenguajes. Adviértase que un único hecho puede representarse mediante pensamientos muy diferentes (de cerebros diferentes y en circunstancias diferentes); además, estos pen-

samientos diferentes están comprimidos, por así decirlo, dentro de

una misma proposición o pensamiento depersonalizado. Además,

esta Única proposición se puede expresar en diferentes lenguas. El

diagrama siguiente exhibe las cuatro categorías ontológicas importantes incluidas en el texto anterior: hecho, pensamiento, proposición y oración. designan proposiciones

conceptúan

-———3e*

|

y

pensamientos

Producto”, sólo podemos conjeturarlo. Pero podemos formular algunas conjeturas instruidas porque Co-

nocemos episodios similares y porque los psicólogos han dado ya sus primeros pasos en el estudio de la emoción y el conocimiento de episodios de emoción, sentimiento y cognición de sí mismo, es decir, del autoconocimiento. Podemos adivinar que, por alguna razón, la niña primero es-

taba enfadada con el perro: en términos neurofisiológicos, la ac-

tividad de su corteza orbitofrontal y cingular anterior había aumentado. Á continuación, se activó una región de la corteza prefrontal y envió una señal a algún centro subcortical. Inmedia-

tamente después, este centro envió una señal al circuito motor

del cerebro, el cual abrió las compuertas de las lágrimas y dilató

los capilares de su cara; de ahí que se sonrojara. Todo esto sucedió cuando la niña realizó un “examen de conciencia” y se arrepintió de lo que había hecho. Luego decidió hacer las paces con el perro:

su corteza prefrontal activó su banda motora, la cual a su vez la

condujo a levantarse de la silla, caminar hacia el perro y pedirle

perdón.

¿Qué ocurrió dentro del cráneo del perro? Una vez más, sólo

podemos conjeturarlo. Charles Darwin, quien fue pionero en el 366

estudio de las emociones de los humanos y de otros animales,

podría haber conjeturado que al principio el perro estaba asustado, quizá también enfadado, y que finalmente se sintió agradecido cuando su pequeña dueña lo acarició. ¿Es este un caso de

antropomorfismo? Tal vez, pero no es un gran pecado cuando se trata de parientes cercanos, especialmente de parientes que han sido moldeados en gran medida por los humanos, durante un período de alrededor de 15 000 años (véase Daston y Mitman, 2005).

En el relato anterior nos encontramos con varios viejos conocidos: la conducta, la emoción y la razón, junto con el conductismo,

la psicología popular y la neurociencia cognitiva. En el trascurso de la historia, el antiguo problema de la naturaleza y hasta de la

existencia de la conciencia ha vuelto a resurgir. Es verdad, los conductistas, de Watson a Skinner, así como los filósofos que han se-

guido su camino, desde Ryle a Dennett, han afirmado que la creencia en la existencia de la conciencia constituye un autoengaño. Podríamos replicar que todas estas personas fueron engañadas por

su propia filosofía positivista, según la cual sólo existen los fenó-

menos, es decir, las apariencias; en el caso en cuestión, la conducta manifiesta (para una buena crítica de los negadores, véase Donald, 2001; Gazzaniga, 2008; Searle, 1997). Puesto que la literatura sobre la conciencia, aunque abundante,

todavía resulta inconcluyente, sospechamos que las ideas sobre el tema son confusas. Es posible que el problema de la conciencia sea como el del Santo Grial: dado que no hay un consenso acerca de lo que es, algunos caballeros dudan de su existencia mientras otros

deambulan de un lado a otro. Si este diagnóstico es correcto, se impone un análisis como el siguiente.

11.5 Clases de conciencia El objetivo de esta sección es modesto: señalar que la palabra “con-

ciencia” denota una gran variedad de procesos mentales, en concreto los siguientes (Bunge y Ardila, 1987, pág. 234-235): 367

1. Reactividad o sensibilidad. Cuando los profanos quieren ase-

gurarse de que una persona no está en estado de coma, la pinchan con un alfiler. Sin embargo, no hay duda de que todas las cosas son sensibles a algún agente físico o químico, por lo que, en realidad, la anterior es una comprobación de materialidad. Para ser más precisos, proponemos la Definición 1. Sea bh que denota una cosa (viva o no) y A una acción sobre b, o sobre una parte de b, cuyo origen está fuera de bo en

una parte de b. Luego, b es sensible a A (o reactivo respecto de 4) si b reacciona ante A (es decir, si A causa o desencadena un cambio

de estado en 5), sea siempre o con cierta frecuencia. 2. Percatación (o conciencia fenoménica). Podemos decir que todo animal capaz de identificar o discriminar algunos estímulos (internos O externos), o algunas de sus propias acciones, se percata de

ellos siempre que pueda hacer algo para controlar el origen de la estimulación o su propia reacción ante los estímulos, pero no si no puede evitar responder a los mismos. Por ejemplo, no podemos atribuirle percatación ni a la gacela que, a la vista de una manada de leones, se acerca al río a beber, ni a la rata que acepta el choque eléctrico a cambio de la posibilidad de conseguir alimento O de explorar un nuevo ambiente. Por consiguiente, una comprobación

o indicador de percatación sería la capacidad de aprender nuevas

pautas de comportamiento incompatibles con las heredadas o con las aprendidas anteriormente.

La percatación no exige ni más ni menos que neurosensores de

alguna clase. En consecuencia, los organismos que carecen total-

mente de sensores neurales no pueden percatarse de nada. Ni s!-

quiera un erizo de mar puede percatarse de nada, puesto que Carece de órganos sensoriales: sólo es reactivo o sensible. En realidad, todos

los animales poseen esta capacidad, motivo por el cual resulta difícil

comprender por qué los filósofos, desde Locke, han hecho tanta

bulla respecto a los qualia o propiedades fenoménicas. En síntesis, proponemos la

VEN

Definición 2. Un animal bh se percata (o advierte) del cambio X (in-

rerno o externo a b) si hb siente (detecta a) X.

3. Autopercatación. Un animal puede percatarse de su entorno, pero no siempre de lo que está sintiendo, percibiendo o haciendo.

Podemos decir que un animal se percata de sus propios sentimientos

o acciones cuando se percata de sí mismo. Cuando se encuentra en

ese estado, no sólo se mueve o siente hambre sino que también advierte que se está moviendo o que siente hambre, como lo indica

la forma en que resuelve los problemas que le salen al paso. En cambio, ciertos pacientes neurológicos sufren confusiones respecto al origen de algunos de sus sentimientos y acciones: no se percatan

completamente de sí mismos. (Ejemplo: la heminegligencia o la imposibilidad de reconocer una mitad del propio cuerpo a causa

de un accidente cerebrovascular o de una anestesia). Los humanos

adultos normales no nos percatamos de nosotros mismos todo el tiempo: a menudo conseguimos olvidar el hambre o el dolor y re-

alizamos muchas acciones de forma automática (inconsciente). La

autopercatación exige despertar otras percataciones y concentrar

la atención en uno mismo, es decir, ensimismarse o practicar la introspección o, cuando se trata de problemas morales, el “examen

de conciencia”. (La palabra “introspección” perdió gran parte de su atractivo cuando se advirtió que, en términos estrictos, no ob-

servamos nuestros procesos mentales del mismo modo que observamos un arroyo. Con todo, el término aún resulta útil).

Autopercatarse es percatarse de uno mismo como algo diferente

a todo lo demás: equivale a hacerse un lugar propio en el universo,

Un animal que se percata de sí mismo advierte que es el sujeto de sus propios sentimientos y acciones, independientemente de lo sutil que sea esa percatación. Normalmente la autopercatación se

da por supuesta, de tal forma que tendemos a olvidar que, cuando estamos distraídos (“ausentes”) no nos percatamos de nosotros mismos y que esto puede constituir un grave obstáculo para la reali-

zación de una tarea no rutinaria. Resumiremos lo anterior en la siguiente convención:

369

Definición 3. Un animal b se percata de sí mismo (o posee autopercatación) si h se percata de algunos de sus cambios internos y de algunas de sus acciones.

Adviértase que la autopercatación no exige pensar sobre los propios procesos mentales. El cumplimiento de este condicional adicional nos lleva al siguiente nivel.

4. Conciencia. Podemos decir que un animal que se percata de lo que percibe, siente o piensa es consciente incluso si se distrae temporalmente de algunos de sus sentimientos o acciones, o no res-

ponde de forma manifiesta a un estímulo externo que normalmente provoca su reacción. La oca que hace rodar con su pico un huevo imaginario no es

consciente, Los primeros etólogos conjeturaron que los movimientos del ave estaban regulados por una suerte de “franja motora” del

sistema nervioso: el animal no puede evitar moverse de ese modo. En cambio, se puede decir que una paloma que mira atentamente

una figura que se ha hecho rotar para saber si es la misma que la original, con la expectativa de una recompensa, es consciente: el

animal está monitorizando y “manipulando” algunos de sus propios movimientos y estados mentales. En suma, convenimos la

Definición 4. Un animal b es consciente del proceso mental M si b piensa que M sucede en 6. Según esta convención, un animal sólo puede ser consciente de

algunos de sus procesos mentales superiores. Esto no se limita a sentir, detectar y hacer, sino que incluye pensar en lo que el animal percibe o piensa. (Sin duda, no es necesario que el pensamiento sea abstracto, ni siquiera verbalizable; puede consistir en Imágenes, como cuando realizamos un cálculo matemático imaginando que

escribimos en una pizarra). Un animal consciente del proceso mental M experimenta (bien de forma paralela, bien en rápida sucesión)

dos procesos mentales diferentes: M (el proceso mental objeto o 370

o

cor

¡

contenido de su conciencia) y el pensamiento sobre M (es decir, ser consciente de M). El objeto de M puede ser una percepción (de una sartén caliente, por ejemplo), un recuerdo (de un bocado sa-

broso, por ejemplo), una fórmula matemática o lo que se desee. Adviértase la diferencia entre conciencia y percatación. Los animales de algunas especies pueden percatarse de ciertos estímulos y muchos son capaces de prestar atención, pero no tendrán conciencia de nada si no pueden pensar. Por el contrario, una persona perdida en sus ensoñaciones o en pensamientos profundos y productivos puede no percatarse de su entorno. En consecuencia,

los conceptos de conciencia y percatación son mutuamente independientes. Así las cosas, no se los debería confundir, además de lo cual debería evitarse el híbrido “percatación consciente”. Adviértase también que no podemos ser conscientes de los procesos men-

tales de otras personas porque no compartimos sus cerebros. Sin embargo, sí podemos llegar a conocerlos de forma indirecta, a través de indicadores tales como los movimientos del cuerpo y las palabras.

Por último, nótese que la definición anterior refuta la afirmación de que el hecho de reconocerse en un espejo comprueba que el animal posee conciencia: lo único que prueba es el reconocimiento de sí mismo. Hemos llegado al peldaño más alto de las capacidades cognitivas: 5. Autoconciencia. Podemos decir que un animal que en ocasiones es consciente, que a veces reflexiona sobre sus propias percep-

ciones, sentimientos o pensamientos (presentes o pasados) y que no se los atribuye a nada ni a nadie más, es autoconsciente. En cam-

bio, un animal que atribuye sus percepciones, sentimientos o pensamientos a objetos externos carece de autoconciencia, y lo mismo

sucede con alguien que “oye voces”, atribuye sus sueños a los espíritus o afirma comunicarse con los muertos o con Dios. Asimismo, una persona inmersa en una tarea motriz o intelectual, que no se

detiene a reflexionar sobre lo que está haciendo o pensando y que se olvida de sí misma, no es autoconsciente. Es ella sin ser cons-

ciente de serlo. Quienquiera que fuese consciente de sí de forma constante jamás conseguiría hacer nada.

371

Así como la autopercatación está un peldaño por encima de la

percatación, la autoconciencia está un escalón más arriba de la con-

ciencia. Un sujeto es autoconsciente sólo si tiene conciencia de que

sus percepciones y pensamientos ocurren en él. Para expresarlo en

términos gnoseológicos, un animal es autoconsciente si sabe quién

y qué es él mismo, es decir, si tiene conocimiento de sí. Por tanto, la exhortación del oráculo de Delfos, ¡Conócete a ti mismo!, equivale a: ¡Sé autoconsciente! Esto, por supuesto, es más fácil de decir que

de hacer, como atestigua la existencia del autoengaño.

Ahora bien, para saber quién y qué se es, es necesario poseer recuerdos del pasado propio: somos aquello en lo que nos hemos convertido y sabemos lo que hemos aprendido. En consecuencia, no podemos decir que una persona que padece una amnesia total

tenga un yo. En cambio, el animal no necesita ser capaz de extra-

polar su vida al futuro: tal vez no pueda imaginar o planear su siguiente movimiento salvo por un lapso temporal muy breve, por

ejemplo el tiempo necesario para caminar hasta la siguiente habitación. Por tanto, el primate que ha sufrido una lobotomía frontal

puede parecer autoconsciente en un momento dado. Como lo ha

expresado un distinguido neuropsicólogo, en un animal así “la co-

rriente de sucesos no está segmentada y, por tanto, fluye toda junta en un presente que es para siempre, sin pasado ni futuro. El organismo se trasforma por completo en un monitor que está a merced

de sus estados instantáneos, en lugar de ser un actor de tales estados” (Pribram, 1971, pág. 348). Es probable que lo mismo les suceda a los animales que tienen una corteza prefrontal pequeña, como los

gatos, o que carecen de ella, como las aves. Esto requiere las siguientes distinciones adicionales:

Definición 5. Un individuo es

a) anteroautoconsciente si recuerda correctamente parte de su pa-

sado reciente; ) proautoconsciente si puede uede imagi imaginar (aun de forma

parte de su propio futuro; y

C) plename nte auto consciente sij es tanto anter h

consciente, 372

equivocada) A

and 2

auto-

Podemos suponer que la autoconciencia es una prerrogativa humana. Como ha escrito Richard Passingham (2008, pág. 30): “Podemos reformular el Cogíto de Descartes. Me percato de mi pensamiento, luego soy humano”.

Todo el mundo deja de ser plenamente consciente cuando sufre un golpe fuerte en la cabeza. Las víctimas de la bárbara lobotomía

perdían su proautoconciencia: no podían planear ni siquiera una simple comida. Después de su operación, H. M., el famoso paciente neurológico estudiado por Scoville y Brenda Milner, perdió su anteroautoconciencia: nunca recordaba, ni siquiera haber visto a los médicos que lo habían examinado el día anterior. El caso de K. C., el paciente estudiado por Endel Tulving, es aún más trágico

porque no puede recordar nada de su propia vida, salvo las experiencias que ha tenido en el último minuto o dos, y no tiene la menor idea de qué hará a continuación. Su yo o vida interior está

rácticamente limitada al presente. Pero al menos su memoria semántica (de los “qué”) está casi intacta, lo cual sugiere que las memorias semántica y episódica tienen diferentes localizaciones en

el cerebro. Si los dualistas psiconeurales pueden explicar estos trastornos en términos puramente psicológicos, no han publicado sus descu-

brimientos. En cambio, el enfoque biológico de los procesos conscientes e inconscientes ha reforzado la hipótesis materialista de que la conciencia es un proceso cerebral (Place, 1956). Asimismo, esta

hipótesis no sólo es filosóficamente significativa: también subyace a la búsqueda de indicadores (o medidas) cerebrales de la concien-

cia, además de ser un supuesto de los autoinformes y los indicadores conductuales de los estados conscientes (véase Seth et al.,

2008).

11.6 El enfoque neurocientífico Sentir curiosidad por un proceso mental que ocurre en uno mismo

es estar en un estado mental determinado. Ahora bien, según la neurociencia cognitiva, estar en un estado mental es lo mismo que 373

un cerebro esté en un estado mental dado (o mejor dicho, el hecho de que un cerebro experimente procesos de cierta clase).

En consecuencia, es mejor considerar la conciencia —que en la psicología clásica (sin cerebro) se concibe como una entidad—

como una colección de estados cerebrales. Por esta razón, convenimos la

Definición 6. La conciencia de un animal bh es el conjunto de todos los estados del cerebro de 6 en el cual bes consciente de algún sentimiento, percepción o pensamiento del propio b.

La mayoría de los neurocientíficos cognitivos suponen que todo proceso mental, por ejemplo el reconocimiento de una cara, la identificación de un sonido, el recuerdo de un episodio o la ter-

minación de una figura, moviliza un gran número de neuronas

agrupadas en ensamblados o módulos especializados. Los estudios

por imágenes han probado de forma repetida que este número aumenta con la complejidad de la tarea y el nivel de conciencia de la operación.

Sin embargo, también es sabido que la práctica reduce el nivel

de conciencia necesario para realizar una tarea: piénsese en la con-

ducción, casi automática, por una carretera, la realización de cál-

culos de rutina o la corrección de unas galeradas. Un informático podría decir que, con la práctica, el software se va haciendo cada vez más “duro” hasta transformarse en hardware. (Se ha atribuido

al gran polígrafo Euler la afirmación: “Mi lápiz sabe más que yo”).

El nivel de conciencia se eleva sólo ante una dificultad: de lo contrario, procedemos de forma automática o casi automática, como

cuando

lee : cémos un texto emocionalmente neutral sobre un tema

que nos es familiar. Sólo

Se necesi

a

;

.

un nivel de conciencia elevado ante las novedaestrategias nuevasO durante : el esfuerzo intencionado de formular las des

previa

e exigen inari como la 8 los p problemas no rutinarios, de nuevasquefuen búsqueda de nuevas conjeturas q de información, de problemas nuevos, quieren mucha con centración O de métodos nuevos. Todas estas tareas rede la atención y una gran motiva374

ción, además de la cooperación de cierto número de módulos corticales tales como la corteza cingulada. (Dicho sea de paso, al pa-

recer, este es el órgano de la resolución de conflictos, como cuando se pide a un sujeto leer la palabra rojo escrita en color verde: véase Botvinic et al., 1999).

Dehaene y Naccache (2001, pág. 14) siguen una sugerencia de Dehaene, Kerszberg y Changeaux (1998) y proponen que la conciencia emerge con la atención: “El mecanismo por el cual los procesos modulares pueden movilizarse temporalmente y hacerse disponibles para el área de trabajo global [el lugar de la memoria de trabajo] y, por tanto, para la conciencia es la amplificación intencional de arriba abajo”. Sin embargo, los sujetos humanos pueden efectuar ciertas distinciones, como discriminar caras masculinas de caras femeninas, sin prestar atención (véase Tononi y Koch, 2008).

Tononi y colaboradores, en cambio, proponen la hipótesis de que la conciencia es bien integración cortical, bien capacidad de información cortical, especialmente en el área parietal posterior (Alkire et al., 2008). Pero la integración requiere la sincronización

de las neuronas, como ha sugerido Sherrington y han confirmado Wolf Singer (2009) y otros recientemente. Se trata de una condi-

ción obvia de toda cosa compleja: la sincronización es necesaria para la integración, la cual a su vez se necesita para que el sistema

actúe como una unidad en algún sentido. Por tanto, la unidad de la mente, la “vinculación” de los procesos que tienen lugar de forma concurrente en diferentes subsistemas del cerebro, es sólo el equivalente funcional de la unidad del cerebro. He y Raichle (2009) conjeturan que el bajo potencial cortical (de frecuencias entre 1 y 4 Hz) es el mensajero que comunica las regiones distantes del neocórtex.

Según ambas hipótesis (atención o integración), la disminución

y pérdida final de la conciencia causada por el alcohol, las pastillas para dormir y la anestesia es idéntica al debilitamiento, más o menos pronunciado, de la cohesión o sistemicidad de la corteza cerebral.

Así pues, el trabajo del anestesista es relajar y monitorizar esa integración, y asegurarse de que finalmente se restaure. p75

La unidad subjetiva (fenomenológica) de la conciencia puede explicarse (de forma tentativa) en términos de la interconexión de cierto número de módulos (o circuitos) neuronales en el área de trabajo global. Los módulos de este supersistema no son necesariamente fijos ni contiguos. Son plásticos y pueden ser itinerantes, como se ha propuesto anteriormente. En consecuencia, “los contornos del área de trabajo fluctúan según los circuitos cerebrales se movilizan de forma temporal y luego se desmovilizan” (Dehaene y Naccache, loc. cit.). Estas hipótesis no sólo explican la conciencia sino también los

procesos inconscientes: estos acontecen en ensamblados de neuronas que se mantienen aislados respecto del “área de trabajo global”, como en el caso de la percepción subliminal (en particular, de la visión ciega) y la detección automática de los errores de impresión y los defectos sintácticos. Más sobre ello a continuación.

11.7 El doble papel de la conciencia Con excepción de unos pocos filósofos, como Dennett (1991) y McGinn (2004), casi todo el mundo da por sentado que la con-

ciencia desempeña dos papeles: el de monitorizar los procesos mentales y el de controlar las actividades mentales y motoras. La neurociencia cognitiva puede modelizar a grandes rasgos este doble

papel de la conciencia como sigue (Bunge, 1980a, págs. 176-178;

Bunge y Ardila, 1987, pág. 145). Piénsese en un sistema neural compuesto por dos subsistemas,

N y su conciencia C. Supóngase, además, que estas dos unidades están ligadas por vínculos de dos clases: NV estimula o inhibe a C, la cual a su vez activa o inhibe a N. Véase la figura 11.3.

Mio

N

Y

— C) y la de la rueda Figura 11.3. El papel dual de la conciencia: la metáfora del tablero (N del timón (C— N).

ll sujeto se percata de la actividad de N, o de un músculo inervado por N, en los casos en que NV estimule a C'o de que C actúe

sobre Ñ, ya sea estimulándolo o inhibiéndo N. En el primer caso, (¿ monitoriza de forma pasiva a NV: la metáfora del tablero o cuadro de mando. En el segundo caso, C ejerce una acción causal sobre

N: la metáfora de la rueda del timón. Normalmente somos conscientes de varios sucesos a la vez, como cuando realizamos diversas

tarcas simultáneamente. Por consiguiente, suponemos que la con-

ciencia de un animal durante un período de tiempo dado es la actividad de un sistema compuesto por diversas unidades de C,

mientras están conectadas con otro sistema neural NV. Hemos de reconocer que, sin duda, el esquema anterior hará levantar las cejas a más de un neurocientífico. Por ejemplo, el estudio

de la conducta motriz involuntaria (inconsciente) ha mostrado que, si el sujeto se vuelve consciente de ella, esto sólo ocurre después de haber realizado el movimiento, un hecho que confirmaría la hipótesis de Lange-James. Sin embargo, esto no justifica la conclusión

de que “las experiencias conscientes son consecuencias de la actividad del cerebro, no sus causas” (Haggard, 2005).

Esta interpretación dualista resulta mucho más extravagante por proceder de un antidualista declarado. ¿Qué puede ser la conciencia

—según el monismo— si no una actividad del cerebro? Además, los hallazgos experimentales sobre la conducta motora involuntaria no son necesariamente válidos para el comportamiento voluntario,

el cual a menudo es consciente, aunque no necesariamente autoconsciente. Por ejemplo, después de haber decidido de forma consciente conducir mi coche hasta mi casa, camino hasta el garaje, enciendo el motor y conduzco hasta salir a la calle, pero una vez que me he incorporado al flujo de vehículos, dejo de prestar atención a la conducción y retomo mis pensamientos sobre algún pro-

blema conceptual. ¿Una máquina puede ser consciente? Sí, en cierta medida. En

efecto, hay muchas máquinas dotadas tanto de dispositivos de medición como de controles, los cuales pueden considerarse análogos a la autocognición y la acción respectivamente. Sin embargo, las máquinas carecen de la espontaneidad y de la libertad que carac377

cerizan a la conciencia humana: trabajan según el programa especificado por sus inventores y por los controles humanos sin comprender lo que ocurre en ellas y sin la posibilidad de modificar el

programa de manera intencionada. Por ejemplo, un avión no tripulado “siente” (detecta) su estado instantáneo, busca y destruye

objetivos, y hasta puede adaptar su trayectoria si encuentra obstáculos imprevistos, Pero no puede escoger su misión: sólo puede hacer aquello para lo que ha sido diseñado. En resumen, es posible construir máquinas que se percaten de sí mismas, pero no máquinas

plenamente conscientes. La fortaleza de la conexión C-N variará, probablemente, en el

transcurso del tiempo, sea de forma espontánea, sea como resul. tado de las interacciones con otras partes del sistema nervioso, Esto explica el hecho de que, como señaló William James, la conciencia tenga grados, algo que experimentamos a diario cuando nos quedamos dormidos poco a poco y nos despertamos de igual manera. Si los dos sistemas se desconectan del todo, se interrumpe la correspondiente experiencia consciente. Esto explica la pérdida temporal de la conciencia durante el sueño profundo o como resultado de un fuerte golpe en la cabeza. La hipótesis también ayuda a explicar la visión ciega, el aprendizaje inconsciente, la memoria tácita, la pérdida de la memoria episódica y otros hechos

parecidos, Todos ellos serían síndromes de desconexión y, por tanto, en lo básico serían semejantes a las afasias, agnosias y aprax1as, así como a algunas amnesias descritas por Norman Geschwind en la década de 1960. Pero la desconexión también ocurre cuando el comportamiento aprendido, inicialmente consciente, se torna inconsciente con la práctica.

El modelo anterior discrepa de la opinión de que la conciencia es la actividad de un único supervisor o “ejecutivo central”. Esta

concepción es incongruente con un abundante corpus de datos

neurológicos sobre pacientes con lesiones en cualquiera de sus centros cerebrales que han realizado operaciones mentales que no sólo requieren diversas “facultades”, sino también un esfuerzo mental y Concentración, es decir, conciencia. Sin embargo, cabe poca duda de que la autoconciencia está localizada en la corteza prefrontal, la 378

cual en los humanos ocupa el 29% del neocórtex. Tampoco cabe duda acerca de que el nuestro no es más que un modelo tosco. Pero se trata de un modelo que puede perfeccionarse a medida que

aprendamos más cosas sobre la corteza prefrontal.

En esta ctapa temprana de la investigación científica de la con-

ciencia, no hecesitamos comprometernos con ninguna de las hipótesis que hemos analizado. Hay varias conjeturas alternativas. sin embargo, para considerar que una hipótesis sobre los estados

conscientes es científica debemos interpretarlos como estados de ciertos sistemas de neuronas: no hay más mente sin cerebro que sonrisas sin rostros. Además, una teoría científica es mucho más precisa que cualquiera de los modelos disponibles, los cuales son

sólo promesas.

¿Podría ayudar la teoría cuántica a elaborar una teoría hecha y derecha de la conciencia, tal como han afirmado Roger Penrose y otros autores? La interpretación ortodoxa o de Copenhague propone una estrecha relación cuanto-conciencia, ya que sostiene

que la conciencia causa el colapso o proyección de la función de estado. Sin embargo, no se trata más que de un obiter dictum, puesto que la teoría cuántica no contiene ninguna variable que denote propiedades mentales. Como vimos en el capítulo 3, el

mencionado colapso se interpreta, en la actualidad, como la decoherencia que resulta de la interacción entre un cuantón y su

entorno macrofísico, el cual no requiere la presencia del experimentalista: el colapso de la función de estado es un proceso puramente físico.

Así como la física cuántica no contiene variables psicológicas, la neurociencia cognitiva no necesita de la mecánica cuántica, por-

que sus unidades anatómicas, las neuronas, están fuertemente en-

trelazadas con su entorno. Por tanto, aun cuando algunas de ellas estuvieran en una superposición de estados coherentes en un instante dado, experimentarían una decoherencia (“colapso”) a causa

de las fuertes interacciones con el tejido del entorno; por consi-

guiente, todas las propiedades se tornarían precisas y, en particular, Crecerían de la “incertidumbre” o borrosidad peculiar de los cuantones (recuérdese la sección 3.2).

379

Lo mismo vale, con mayor razón, para todo sistema plurineu-

ronal capaz de experimentar procesos mentales. Por tanto, el proyecto de elaborar una “ciencia cognitiva cuántica”, como ha propuesto Quentin Smith (2003), es una “música del futuro”, en el mejor de los casos, y una fantasía errónea en el peor de ellos; en consecuencia, se trata de una pérdida de tiempo. En todo caso, quien esté realmente interesado en fusionar las ciencias cognitivas

con la mecánica cuántica debe dejar de escribir esos símbolos que

parecen funciones de estado (o de onda) y no lo son, porque no están bien definidos desde el punto de vista matemático. De hecho, no son soluciones de la ecuación de Shródinger para nódulos neurales capaces de realizar funciones mentales, sólo son garabatos.

Por lo que yo sé, nadie ha ideado esas soluciones para una neurona, ni siquiera para una gota de agua. Pese a ello, Stephen Hawking

se ha permitido afirmar que ciertas letras simbolizan la función

de estado del universo. Como dicen los alemanes: el papel es to-

lerante.

y

La biopsicología no sólo descubre cada vez más cosas acerca de

la conciencia: también puede disipar los mitos dualistas, como el de los zombis. Se dice que el zombi, un personaje del folklore haitiano y la filosofía de la mente contemporánea, es un muerto viviente: alguien que es como

una persona viva, con un cerebro

normal, pero que se comporta como un autómata o como el Golem, es decir, que no tiene conciencia. Saul Kripke y otros filósofos han sostenido que el solo hecho de imaginar la existencia de los

zombis refuta el monismo psiconeural. Esta descabellada fantasía

ha suscitado una pequeña industria académica: muchos artículos y varias páginas web dedicadas a los zombis (véase, por ejemplo,

Chalmers, 1996). Veamos qué podría responder a todo esto un

neurocientífico cognitivo. Si los zombis tuvieran cerebros normales, tendrían también pro-

piedades mentales normales, porque no se puede tener las mismas

propiedades básicas sin las mismas propiedades emergentes. Si, por

el contrario, los zombis tuvieran cerebros anormales, entonces se

cOompor tarían de maneras tan extraordinarias que serían rápida-

mente identificados y ya no se los consideraría seres humanos. En

380

efecto, los zombies no responderían a preguntas ni a órdenes, serían incapaces de resolver problemas que requiriesen el uso de la imaginación, no podrían tomar la iniciativa ni hacer planes, cometerían numerosas acciones antisociales sin remordimientos, no sentirían

dolor ni sufrirían trastornos mentales, ni siquiera soñarían ni tendrían alucinaciones de que son zombis. En síntesis, los seres humanos sin conciencia no se comportarían como seres humanos.

Por tanto, en lugar de falsarlo, la fantasía de los zombis ilustra el monismo psiconeural. Por último, digamos unas pocas palabras sobre los procesos in-

conscientes. Prácticamente toda la psicología clásica se ocupaba de

los procesos conscientes. Pavlov ganó el premio Nobel por haber inaugurado el estudio experimental del comportamiento automático, tanto incondicionado como aprendido. Freud, su casi con-

temporáneo,

ganó

el premio

Goethe por elaborar cuentos

entretenidos, pero extravagantes, acerca “del” inconsciente: la rei-

ficación de los estados inconscientes. Mientras que Freud veía motivos ocultos hasta en los hechos emocionales como, por ejemplo,

en el vínculo padres/hijos, los neurocientíficos cognitivos de nuestros días están desvelando los mecanismos neurales de los comportamientos tanto inconscientes como intencionados. Investigan,

incluso, la regulación automática de la conducta y la emoción, co-

mo cuando alguien continúa caminando hacia una meta o se abstiene de gritar furiosamente en público, sin pensarlo. El trabajo de Pavlov resulta pertinente respecto de un engañoso problema neurológico: el de valorar si la víctima de un accidente cerebral que ha quedado inconsciente está en un estado vegetativo irreversible y no merece mantenerla conectada a un sistema de res-

piración artificial. La comprobación más verosímil es el llamado

condicionamiento del parpadeo, el cual consiste en aprender a asociar un sonido con un soplo de aire en el ojo. La capacidad de aprender este simple truco se considera una prueba de un estado

mínimamente consciente y, por tanto, un predictor confiable de

recuperación (Bekinschtein et a/., 2009).

381

11.8 El yo

Normalmente, la yozdad se identifica con la conciencia. Es decir,

la persona se define como un ser capaz de estar en estados conscientes. Sostengo que esta definición es demasiado restrictiva, puesto

que priva de la calidad de persona a los bebés, las personas seniles

y, con mayor razón, a los animales no humanos. Esta exclusión no

concuerda con la práctica habitual de atribuir diferentes rasgos de personalidad a los bebés y a los individuos seniles, así como a los simios, los monos, los perros, los gatos y otros animales.

Quien haya tratado con animales sabe que algunos miembros de una especie de vertebrados superiores son más curiosos, listos,

fáciles de entrenar, gregarios, juguetones, afectivos o glotones que los demás: poseen personalidades diferentes y, por tanto, son per-

sonas, aunque desde luego no necesariamente personas humanas. Por consiguiente, propongo esta definición alternativa: una persona es un animal que posee una mente, es decir, que puede tener procesos mentales. No todo el tiempo, desde luego: cuando bebemos, cuando dormimos profundamente y cuando estamos bajo los efectos de una anestesia general no nos deshacemos de nuestros yos ni dejamos de ser personas. No cabe duda de que las personas, al igual

que todas las cosas concretas, siempre están en estado de flujo, pero sólo pierden sus yos con la muerte cerebral: cuando ya no son capaces de tener vida mental. Respecto al problema de identificar las especies animales que poseen capacidades mentales, es mejor dejarlo en manos de los etólogos y los psicólogos animales. No hay consenso sobre el tema, en parte porque los religiosos y los idealistas subestiman a los animales no humanos, y en parte a causa de las dificultades de atribuir una mentalidad mediante el uso de indicadores puramente comportamentales. Sin embargo, se tiende a atribuir mentes a todos los vettebrados superiores, es decir, a los mamíferos y las aves. Es probable que la mayoría de los filósofos de la mente piensen

que todo lo anterior es bien erróneo, bien irrelevante en relación con el problema filosófico de la personalidad, cuestión que consi-

deran muy difícil y hasta insoluble. Sin embargo, el problema re382

sulta trivial para un monista psiconeural, puesto que este considera roda la persona, el cuerpo y sus funciones, como una totalidad y no se pregunta qué “vínculo” hay entre la mente y el cuerpo, de igual modo que un cardiólogo no se pregunta cuál es el “vínculo” entre el corazón y sus contracciones. Existe, no obstante, una destacada excepción: el neurocientífico Rodolfo Llinás (2001, pág. 128) cree que el yo es irreal: que “es un

constructo muy útil e importante, un complicado autovector. Existe únicamente como una entidad calculada”. Esta afirmación es extravagante y absurda, puesto que no hay autovectores en sí mismos: todo autovector está asociado a un operador, y en el texto de Llinás

ni siquiera se menciona tal objeto matemático. Además, la tesis de que los yos son abstractos queda reducida a la nada en cuanto pasamos de la primera a la tercera persona gramatical. Por ejemplo, si Rodolfo me dice: “Voy a insertar un microelectrodo en esa neurona”, puedo traducir esta oración a: “Rodolfo va a insertar un mi-

croelectrodo en esa neurona”. Lo que estoy diciendo es que Rodolfo mismo hará algo él mismo, no que lo hará únicamente su mano,

ni siquiera su cerebro, y mucho menos otra persona. El materialista no agoniza por la duda de si él es un cuerpo, una mente o un complejo cuerpo-mente. Sabe que es un animal provisto de un cerebro capaz de experimentar sucesos mentales. Y por eso sabe que no asistirá a su propio funeral. Por una vez, la expresión “restos mortales”, que se utiliza en las esquelas religiosas para denotar un cadáver, es correcta. Sin embargo, las religiones se equi-

vocan al sobrevalorar la muerte natural, puesto que no es otra cosa que la finalización de la vida. Pero pasemos a un tema más alegre y menos trivial.

Algo que no es trivial, sino actualmente objeto de investigación empírica, es el problema de averiguar las etapas del desarrollo de la personalidad y, en particular, a qué edad se hacen autoconscientes los niños y comienzan a atribuir mentes a otros seres (resultado

preliminar: alrededor de los cinco años). Dada las limitadas capacidades lingiiísticas de los niños pequeños, esta investigación exige ingenio y diseños experimentales poco habituales. (A diferencia del método científico, que es universal, las técnicas científicas son 383

investigado. Una vez más, la ontología al tema ctoologí respe s ífica espec a: recuérdese la sección 1.5). precede a la gnose A medida que crecemos, adquirimos conocimiento de nosotros

mismos y de otros, y estos dos conocimientos tienen un papel en

la forma en que tratamos con los demás. Asimismo, es seguro que a menos que ejerzamos algún autocontrol, acabaremos metiéndonos

en problemas. El autocontrol se aprende, normalmente, a través

de la experiencia y la autorreflexión. No es así, sin embargo, cuando

l, el órgano de la regulación social, es decir la corteza orbitofronta

está gravemente dañada (por ejemplo, Beer, 2006). Esto se sabe

desde hace más de un siglo, cuando se dio mucha publicidad al caso de Phineas Gage, quien sufrió un radical deterioro de su com-

portamiento social después de que un trozo de hierro le dañara precisamente esa parte del cerebro. Ese episodio podría haber dado

luz a la neurociencia cognitiva social, si no hubiera sido por la pre-

maba que las concepción filosófica dominante de la época que afir

un ciencias naturales estaban separadas de las ciencias sociales por o abismo infranqueable.

Sin embargo, los impulsos y el autocontrol no son los únicos

determinantes de la conducta social: los vínculos sociales son tan importantes como ellos y, en ocasiones, superan al autocontrol, co-

mo sucede en el caso de los miembros de un grupo unidos por vínculos estrechos, en las pandillas de delincuentes, por ejemplo. En

realidad, los datos (por ejemplo, Wright ez al., 1999) parecen respaldar la hipótesis sistémica de que la conducta delictiva es producto de una combinación de bajo autocontrol o escasa moralidad (individualismo), vínculos sociales y circunstancias (holismo). El diagrama

siguiente

resume

nuestra

comportamiento social.

concepción

sistémica

4

vínculos sociales

autocontrol

Y“

impulsos

384

=>



Comportamiento

social

del

Para concluir esta sección, el enfoque biosocial de la mente suprere que el problema filosófico del yo se ha exagerado artificialmente a causa de la separación impuesta entre la mente y su cerebro, así como entre este y su entorno social. La ciencia no investiga “el yo y su cerebro”, como quiere el popular libro de Popper y Eccles (1977). En lugar de ello, explora “el cerebro incluido soctalmente y su yo”, Una de las razones de esta inversión es que los sucesos mentales son sucesos cerebrales, al igual que la digestión es

un proceso del sistema digestivo y caminar es la función específica de las piernas, Otra razón es que los cerebros sin mente preceden

al cerebro mentante, tanto en el desarrollo como en la evolución: nacemos con un cerebro sin instrucción que, en ambientes apro-

piados, actualiza o adquiere facultades mentales que difieren de una especie animal a otra. Este proceso de construcción de la mente se llama “aprendizaje” y se lleva a cabo bajo un control doble: el de uno mismo y el del entorno social inmediato. 11.9 El libre albedrío

Hago algo según mi libre albedrío cuando puedo escoger hacerlo o no hacerlo y las circunstancias no me obligan a tomar una decisión en lugar de otra. Por ejemplo, escribo esta oración porque así

lo deseo, no porque nadie me lo haya ordenado. Lo mismo vale

para muchas otras acciones e inacciones a lo largo del día. Experimento el libre alberío cada vez que puedo elegir entre alternativas y, con mayor razón, cuando invento una nueva opción. Además, suponemos que lo mismo vale para todos los seres humanos adultos, aun para aquellos que sufren alguna coerción, ya que todavía pueden remolonear, hacer trampas o rebelarse, aunque sea con ries-

go. De todos es sabido que la totalidad de los códigos de conducta

presuponen el libre albedrío. Por ejemplo, habitualmente se perdona a los soldados la comisión de crímenes cuando han actuado siguiendo órdenes estrictas, - Más aún, me atrevo a sugerir que los demás vertebrados superiores también gozan de una cuota de libre albedrío, como cuando 385

los meti

salvajes abordan problemas nuevos de formas nuevas

o cuando los animales domésticos se escapan o desobedecen una orden, En todo cas0, tal como lo ha expresado Nicholas Rescher (2009, pág. xi0), la emergencia del libre albedrío es el mayor logro

de la evolución”, Sí, la evolución ha sido parte de un proceso de líberación: un proceso de disminución de la dependencia del entorno

(gracias a las mejoras en la homeostasis) y de aumento de la capa-

cidad para actuar, gracias a los mejoramientos del cerebro y sus USOS sociales. Con todo, por lo general se ha pensado que el libre albedrío es ilusorio, y no sólo lo han visto así naturalistas filosóficos como Spinoza y Holbach, sino también científicos como Laplace y Skinner. El argumento más difundido contra el libre albedrío proviene del

determinismo clásico o laplaceano: el estado de una persona en un momento dado cualquiera es un efecto de todas las causas de la persona y su entorno —de hecho, de todo el universo— del pasado. Según esto, la persona carecería de iniciativa, por lo que jamás podría tener control de sí misma y, por tanto, no se la podría considerar responsable de sus propias acciones. En consecuencia, los benefactores y los delincuentes serían equivalentes, porque ambos serían productos de sus entornos. Por tanto, no deberíamos recom-

pensar las buenas acciones ni castigar las malas. En otras palabras, el naturalista que niegue el libre albedrío pro-

bablemente sostendrá, según el estilo conductista, que el cerebro es esclavo de su entorno, por lo que no puede ayudar a tomar las decisiones que toma: todas estarían ligadas al estímulo. Esto es lo

que solían enseñar la neurociencia clásica y la psicología conductista

(o de estímulo-respuesta). Sin embargo, hace algún tiempo que sa-

bemos que esta opinión es errónea: que el cerebro está activo todo

el tiempo, incluso durante el sueño, y que la mayoría de sus acti-

o autogeneradas, no respuestas a estímulos

A

pequeño poroenta; A que es así porque el cerebro sólo utiliza un

Je de su presupuesto energético para sus intercam-

Mn

xi

externo (recuérdese la sección 9.2).

sabemos que el autoc . ; ontrol , Que es una condici cesaria, para el libre albedr lo, ón ne E

es una función de la corteza pref rontal

386

—el área más nueva del cerebro desde el punto de vista filogenético— que puede aprenderse. Tanto es así que las personas que han

sufrido una lesión grave en esa región cerebral carecen de libre albedrío: están a merced de los estímulos que inciden en ellos. Por tanto, la remoción o desconexión de partes significativas de tejido nervioso de la corteza prefrontal causa un “síndrome de dependen-

cia ambiental”, un terminación no es una propiedad de casos de la inercia, luz y radiactividad

trastorno irreversible. Sin embargo, la autodeuna prerrogativa de la corteza prefrontal, sino la materia en todos los niveles: recuérdense los la autoorganización y la emisión espontánea de (capítulos 2 y 3).

En conclusión, la libertad negativa (o libertad de todas las restricciones) nunca puede ser completa, porque somos bombardeados

constantemente por nuestro entorno natural y social. Sin embargo, la libertad positiva, o libertad para actuar (potestas agend), es posible y compatible con el determinismo. La razón es que, para ejercerla, utilizamos nuestras áreas de volición (situadas en los lóbulos fron-

tales y la corteza parietal). Por ejemplo, el prisionero político a quien se le ofrece la alternativa de revelar los nombres de sus camaradas o ser fusilado, sin duda ha sido privado de su libertad ne-

gativa. Pese a ello, puede ejercer su libre albedrío para poner en práctica su libertad positiva: antes muerto que traidor a la causa. Los pacientes lobotomizados no pueden disfrutar de esta libertad porque se les ha extirpado del cerebro su principal centro de volición. En suma, hay libertad para, porque la causación es real: en un mundo dominado por el azar no habría libertad positiva (Bunge,

1959a). Esta concepción se llama compatibilismo. En cambio, según el idealismo, el alma es inmaterial y, en consecuencia, está excluida de todas las cadenas causales, por lo que puede ponerse en marcha por sí sola y hasta guiar al cuerpo. El materialismo emergentista está de acuerdo es esto último, con la salvedad de que sustituye el “alma” por el “cerebro”. Según esta versión del materialismo, la persona retiene la iniciativa y la responsabilidad moral que le atribuía tradicionalmente el idealismo. Además, la

tesis del libre albedrío deja de ser un dogma para trasformarse en

una hipótesis comprobable. En efecto, las decisiones de un sujeto 387

pueden modificarse manipulando su cerebro de diversas maneras.

tales como someterlo a situaciones estresantes o mediante la esti-

mulación eléctrica de sus lóbulos frontales o su corteza parietal (por

ejemplo, Desmurget et al., 2009). Además, esta hipótesis posee la

ventaja adicional de no suponer la telequinesia o poder mental para

mover la materia sin gasto de energía. Hebb (1980) fue uno de los escasos psicólogos experimentales

que pensó que el problema del libre albedrío podía abordarse de forma científica, porque la acción libre tiene su origen en la actividad cerebral espontánea (o no ligada a un estímulo). Sus propios

experimentos de privación sensorial han probado que, contrariamente a lo aseverado por el dogma del estímulo-respuesta, el cerebro vivo está en constante actividad. Sin embargo, la libertad

nunca es completa porque hay restricciones morales autoimpuestas y todos estamos sometidos a restricciones y presiones naturales y sociales. Entre estas se cuentan las limitaciones que aceptamos li-

bremente a cambio del derecho de participar en diversas redes so-

ciales para proteger nuestros intereses. Más aún, la libertad positiva

conduce a acciones ineficientes o nocivas, a menos que esté acompañada del conocimiento y la conciencia moral necesarios para hacer lo correcto. ,

Desde la época de Hebb, se ha investigado la libre elección en

el laboratorio, no sólo en humanos sino también en monos. Por

ejemplo, Bijan Pesaran y sus colaboradores (2008) estudiaron la actividad cerebral de unos monos mientras realizaban elecciones libres así como elecciones entrenadas. Los investigadores enseñaron

a los monos a alcanzar objetivos visuales, de dos maneras diferentes, a cambio de una recompensa de zumo. En una de las tareas, se instruía al animal para buscar en una secuencia fija; en la otra, los

animales escogían la secuencia. Se registraron las descargas neuronales de dos áreas del cerebro: la corteza prefrontal y la corteza parietal. Se comprobó que ambas áreas están activas durante la realización de las dos tareas, pero la coherencia entre ellas era mucho más fuerte durante la búsqueda libre. Por tanto, esta diferencia en

la intensidad se puede considerar un indicador fisiológico del grado de libre albedrío, 388

A continuación, echemos un vistazo a la ética del libre albedrío. Un problema central de este ámbito es el de la responsabilidad y la culpa correspondiente. Se puede decir que una persona es principalmente responsable de X únicamente si goza de libre albedrío, sabe cómo tratar a X y está a cargo de X. Si alguna de estas tres

condiciones no se cumple, no se puede culpar a la persona en cuestión si, durante su guardia, algo sale mal con X. Esta es la razón de que sea tonto confiar responsabilidades importantes a los niños pequeños, a los discapacitados mentales y a los inexpertos. El hecho de que todo el mundo sepa lo anterior es una prueba en favor de

la conjetura de que, normalmente, en el vida real el libre albedrío se da por sentado, algo que hacen hasta los psicólogos y filósofos que lo niegan en el papel.

¿El libre albedrío es exclusivo de los humanos? Dos famosos matemáticos han publicado hace poco lo que llaman “el teorema del libre albedrío”. Este teorema “afirma, a grandes rasgos, que si los humanos disponen, en efecto, de libre albedrío fuerte, entonces las partículas elementales ya tienen su pequeña cuota de este valioso bien” (Conway y Kochen, 2009). El lector podría pensar que los autores han descubierto un puente entre la ciencia del supuesto asiento del libre albedrío, es decir, nuestra corteza prefrontal, por un lado, y la teoría cuántica, por el otro. Nada por el estilo: Conway y Kochen se centran en una característica muy conocida de la matería cuántica: que algunas de sus propiedades no están plenamente determinadas por su pasado ni por su entorno inmediatos. Llevamos sabiéndolo aproximadamente un siglo. Baste recordar la radiactividad, la medición del espín y los innumerables experimentos de dispersión en los que unas partículas dirigidas a un objetivo en la misma dirección y con la misma velocidad acaban en lugares diferentes. (En este último caso,

el físico calcula la probabilidad de que la partícula incidente sea desviada en un ángulo sólido dado). Un ejemplo conocido es el del electrón que se desplaza por un campo magnético y cuyo espín puede acabar, con iguales probabilidades, o bien paralelo, o bien antiparalelo al campo externo. Los autores afirman que esto constituye una prueba de que la partícula 389

A: dere de elegir

ed rección. mn realidad, analizan una me-

es la misma). La vasta y eudÍa de ña f en términos estrictamente físicos le '

A iS

sud

der si se permitieran ese antro pomorfismo o y afirmaran, tal como

hacen Conway y Kochen, que “por definición, el universo ha to-

mado una decisión libre”. En realidad, el libre albedrío es, por definición, "la capacidad de actuar según el propio criterio” y sólo las personas en estado consciente poseen esa capacidad. Además,

el libre albedrío no es gratis, sino que supone un gasto de energía. Por tanto, si Conway y Kochen se tomaran en serio el libre albedrío de las partículas, deberían decirnos qué parte del hamiltoniano (el operador de energía) de sus partículas corresponde al

libre albedrío. ¿Qué orígenes puede tener la extravagante afirmación de Con-

way y Kochen? Supongo que posee dos raíces: el uso descuidado del lenguaje y la interpretación de Copenhague de la teoría cuántica. El primer culpable hizo su aparición cuando los autores asignaron la indeterminación cuántica al libre albedrío de las partículas fundamentales. También sucede en la advertencia (op. cit. pág., 228)

de que utilizarían las palabras “propiedad”, “suceso” e “información”

de manera intercambiable, pese a que designan categorías ontológicas radicalmente diferentes. En realidad, hasta el título del artículo,

“El teorema del libre albedrío fuerte”,

es descuidado:

¿ Fuerte”, aquí, califica a “libre albedrío” o a “teorema”?

También resulta evidente que Conway y Kochen se adhieren de

forma acrítica a la interpretación de Copenhague. De hecho, se

centran en situaciones experimentales exclusivamente, como si la lidad se la au

Ai

sue

en el laboratorio, cuando en rea-

para explicar procesos inaccesibles tales como las

Pm

ucieares que tienen lugar en las estrellas. Los defensores

de la interpretación

d

penhague z pasarán por alto este hecho y, siguiendo la ng de e leya Mach-Círculo de Viena, afirmarán, como dijo Leo A

perimentador conjura el perimentador es, .

a

ocasión, que “el ex- Mientras que el ex“«

ar medir lo que desee 390

(o lo que su subvención para investigar le permita), para tener éxito debe bajar la cabeza ante las leyes de la naturaleza. (Por tanto, Spi-

noza tenía razón en este caso tan especial: la libertad del experimentador consiste en su conocimiento de las leyes naturales pertinentes. Si no las conoce, lo mejor que puede hacer es jugar al juego del ensayo y el error).

Para poner a prueba seriamente la afirmación de que el libre albedrío del experimentador supone el de los cuantones, se necesitarían dos cosas que no aparecen en el artículo en cuestión: a) una

reoría del libre albedrío y una fórmula puente entre esta y la teoría cuántica; y b) experimentadores dispuestos a ser encerrados dentro de un equipo de resonancia magnética con sus cerebros conectados mediante cables a un dispositivo de medición. Lamentablemente, nuestros autores no ofrecen propuestas sobre ninguna de las dos cosas. Tampoco dicen cómo se las arreglan los cuantones en ausencia del experimentador, en particular no dicen cómo lo hacían antes de la emergencia de los seres humanos. Sin embargo, hay una refutación más sencilla y menos costosa

del teorema de Conway-Kochen: el libre albedrío es la capacidad de hacer lo que se desea, y tanto la volición como la decisión son funciones de la corteza prefrontal humana (o de los vertebrados superiores). Como tales, estas funciones exceden las posibilidades

de las cosas que carecen de cerebro, como las partículas elementales, los átomos y hasta las neuronas individuales. ¿Por qué reaccionamos con tanta vehemencia ante la extravagancia de dos matemáticos? No tanto para proteger a la física del

esoterismo como para ofrecer razones a favor de la realidad del libre albedrío humano. En efecto, el “teorema” de Conway-Kochen es

un condicional de la forma: “Si H, luego P”. Ahora bien, puesto es obviamente falsa, entonces H también es falsa. Es decir, que que si admitimos dicho “teorema”, debemos concluir que carecemos

de libre albedrío. Y yo, al menos, no estoy dispuesto a renunciar a esta prerrogativa humana. Hace 60 años, cuando pedí mis documentos al jefe de la policía política argentina, me respondió que me los firmaría si accedía a firmar una autorización para que registraran mi casa. Cuando rechazé firmar el papel, el hombre me pre391

guntó por qué y le contesté: “Porque quiero conservar mi libre albedrío”. Dejaré que el lector imagine lo que siguió.

Para acabar, una cuestión política obvia: el libre albedrío es ne-

cesario, pero no suficiente, para gozar de las libertades civiles. Estas pueden ejercerse en un orden social liberal, donde “liberal” se entiende en el sentido amplio del término, no en el estrecho sentido económico del que son partidarios los neoliberales, a quienes sólo

les interesa la libre empresa. Un orden social justo hará posible que casi todo el mundo disfrute su libre albedrío, con la condición de

Mill de que no limite la libertad de las demás personas. Pero ese empoderamiento casi universal resulta inalcanzable en una sociedad

dividida, en la que el poder —sea ecónomico, político o cultural— está monopolizado por una minoría (Bunge,

2009). Por consi-

guiente, el problema del libre albedrío es tan importante en la política como en la ética y la teología. 11.10 La explicación mediante causas y razones

Uno de los dogmas preferidos de la filosofía de lo social neokantiana

es que, en tanto que las ciencias naturales explican los hechos en términos de causas, los hechos sociales sólo pueden explicarse me-

diante razones. La razón de esta divergencia sería que, a diferencia de los hechos naturales, los hechos sociales son pr incipalmente cul-

turales, morales o espirituales: de ahí los adjetivos “culturales”, “mo-

rales” y “del espíritu” para los estudios sociales (véase, por ejemplo,

Dilthey, 1959; Putnam, 1978).

Esta tesis presenta al menos dos problemas. El primero es que omite los sentimientos y las emociones, como cuando decimos que las acciones de una compañía cayeron porque los inversores temían

que la empresa fuera víctima de una OPA hostil o porque habían oído un rumor alarmante que resultó ser falso, La segunda objeción

a la tesis en cuestión es que se centra en las acciones sociales que

son resultado de decisiones deliberadas y, por consiguiente, pasa por alto el hecho de que muchos sucesos macrosociales son pro392

ducto de acontecimientos que exceden nuestro control, como las catástrofes naturales y las pestes. Algunos ejemplos destacados de

este tipo de sucesos son la erupción volcánica que destruyó Pom-

peya, la Peste Negra, la tormenta que hundió a la Armada Inven-

cible y con ello salvó a la Inglaterra isabelina, y las tormentas de

arena que actualmente amenazan Pekín. Las catástrofes naturales no son las únicas causas socialmente eficaces no acompañadas por razones. La mayoría de los defectos de nuestras sociedades industriales no han sido deseados por nadie. Por ejemplo, nadie quiere que exista la inflación, el desempleo ni los ciclos económicos: son inherentes al capitalismo y sólo se los puede mitigar mediante estrictas regulaciones y fuertes programas sociales, como los instituidos por el New Deal.

Nuestra tercera objeción a la dicotomía causa/razón es que, desde el punto de vista neurocientífico, proponer una razón equivale a desencadenar un proceso causal en la corteza prefrontal. Veamos

la siguiente situación habitual. A un hombre lo atrapan robando. Cuando se le pide que explique su acción, el ladrón responde: perdí mi trabajo a causa de la recesión actual y, dado que tengo el deber de alimentar a mi familia, me veo obligado a robar. Esta cadena de razones puede trasformarse, a su vez, en la siguiente cadena causal: suceso ambiental > procesos de reflexión y decisión en la corteza prefrontal

=> corteza motora —+ acto de robar.

En consecuencia, desde el punto de vista de la neurociencia cognitiva las razones para actuar son causas eficientes. Por tanto, la dicotomía razón/causa es producto del dualismo psiconeural, el cual es superficial desde el punto de vista ontológico. Desde luego, para los fines analíticos y, en particular, para la evalución de los méritos y deméritos de las razones alternativas para pasar a la acción, es po-

sible distinguir las razones de las causas. Sin embargo, esta distinción no implica una separación, por la sencilla razón de que no hay razones incorpóreas ni acciones sin actor. Sólo podemos fingir que las hay. La reflexión anterior debería tener efecto sobre la teoría de la

acción, una rama de la filosofía práctica que ha permanecido en una fase bastante primitiva porque se la ha enfocado desde un pun-

393

to de vista lingúístico, en tanto que lo que esta disciplina necesita

es res, non verba (hechos, no palabras). Comentarios finales

La gnoseología se ha definido tradicionalmente como el estudio fi-

losófico del conocimiento. A su vez, se entiende normalmente que el conocimiento es el producto o estado final de la cognición o conocimiento en proceso. Además, la cognición se puede investigar de forma psicológica o neurocientífica. Las investigaciones pioneras de Jean Piaget sobre cómo los niños pequeños adquieren ciertos conceptos clave se realizaron según la mejor tradición clásica, que ignora el cerebro. El enfoque neurocientífico de la cognición debería atraer a quienes, como Quine, han pedido la naturalización de la gnoseología. Sin embargo, resulta obvio que es más fácil y, por tanto, más popular pedir la naturalización de la gnoseología que ponerse a trabajar en ese proyecto e investigar la cognición como un proceso de

un cerebro inmerso en un entorno social, Esta inclinación por los pagarés, junto con la persistencia del dualismo psiconeural, contribuye a explicar el atraso de la ciencia

cognitiva del desarrollo de los niños. Pero esta misma imperfección

es un poderoso estímulo para la investigación, como escribió Rita Levi-Montalcini en Elogio de la imperfección, su autobiografía científica. Esta es una de las maravillas de la investigación científica: puede trasmutar la escasez en abundancia.

394

12

El cerebro y el ordenador: el dualismo hardwarel sofíware

Los primeros filósofos modernos, Descartes especialmente, veían la mente como el motor de razonar: pasaron por alto la motivación y la emoción. La versión contemporánea de esta concepción ultrarracionalista es el computacionalismo, la tesis de que todos los procesos mentales son cómputos. Desde el punto de vista filosófico, el computacionalismo tiene dos variedades: una materialista y otra idealista. La primera afirma que los cerebros son ordenadores (por ejemplo, Churchland y Sejnowski, 1993; McCulloch, 1965). En cambio, el computaciona-

lismo idealista sostiene que la mente es un ordenador o una colección de programas informáticos y, en ambos casos, que es se-

parable del “hardware” anatómico (Putnam, 1960; Pylyshyn, 1984). A menudo esto se llama la tesis de “realizabilidad múltiple”. En cualquiera de sus versiones, el computacionalismo es la fase más nueva de la psicología del procesamiento de la información que desplazó al conductismo en la década de 1960 y que caracteriza a la ciencia cognitiva sin cerebro, que todavía es la escuela domi-

nante en psicología. En consecuencia, el computense no es más que un dialecto del informacionense.

Desde el punto de vista histórico, el computacionalismo es una versión sofisticada del conductismo, dado que interpola el programa de ordenador entre el estímulo y la respuesta, y no considera que los programas nuevos sean creaciones de los cerebros. Véase la figura EL.

397

estimulo —»»

caja negra —»e respuesta

(a) conductismo clásico

estímulo

e programa

lectura

(b) computacionallsmo

Figura 12.1. Conductismo clásico (a) y contemporáneo (b)

La raíz del computacionalismo es, por supuesto, el parecido real

que hay entre los cerebros y los ordenadores, así como el que hay

entre la inteligencia natural y su equivalente artificial. Cerebros y ordenadores son de hecho similares, porque los artefactos en cuestión han sido diseñados para realizar algunas funciones análogas a

las funciones cerebrales, Además, el programa computacionalista es un ejemplo de la estrategia de tratar cosas que son parecidas como si fueran idénticas. La historia de la ciencia y la tecnología

enseña que esta estrategia fracasa aproximadamente con tanta frecuencia como tiene éxito. Esa misma historia prueba también que a menudo el éxito nos ciega ante los fracasos. Echemos un vistazo

a la analogía cerebro-ordenador desde el punto de vista filosófico. El computacionalismo da origen al menos a tres problemas que resultan de interés para los filósofos: las capacidades y limitaciones de los ordenadores, los aspectos en los cuales estos imitan con éxito a los cerebros, y la medida en que la informática puede ser también

una psicología teórica. Abordemos estos tres problemas. 12.1 ¿Los ordenadores razonan?

Todo el mundo admite que, mientras que las personas sienten y razonan, los ordenadores no pueden sentir nada. Sin embargo, la

mayoría de la gente cree que los ordenores o, mejor dicho, los programas informáticos, son los pensadores más grandes que han existido: los que razonan de manera más exacta, más rápida y los únicos infalibles, En esto hay algo de verdad, pero no mucha. En primer lugar, la mayoría de los procesos mentales no son cálculos: son deseos, esperanzas, temores, imágenes y otros objetos no proposicionales (Mellor, 1991). En segundo lugar, los ordenadores adolecen 396

de serias Immtaciones aun en el ámbito proposicional. Por ejemplo, von incapaces de detectar problemas o de inventar programas 0,

con mavor algoritmo

razón, las ideas incluidas en ellos (Bunge,

1956a). Sin

no hay cálculo,

Hoangenioso y muy conocido argumento de la habitación china

de Jobim Searle (1980) debería convencer a todo el mundo de que

los ordenadores son motores puramente sintácticos: el significado

(referencia más sentido) se les escapa por diseño, Gregory Chaitin

(2006, pág. 7), el conocidísimo informático de IBM, lo expresa en

los siguientes términos: los lenguajes de programación “son formalismos para computar y calcular, no para razonar ni para demostrar teoremas ni, hago hincapié en esto, para inventar nuevos conceptos

matemáticos ni hacer nuevos descubrimientos matemáticos”. Sin embargo, un entusiasta de los ordenadores podría poner el siguiente reparo, tal como hizo Hilary Putnam en un congreso: aunque los ordenadores actuales son, desde luego, limitados, nada garantiza que esa limitación no sea superada en el futuro porque la mente no es más que un conjunto de programas de ordenador. Veamos. Una invención original es un proceso en dos fases: una de diseño y otra de realización. El diseño es una representación o

descripción del artefacto deseado y la realización es la construcción del mismo. En el caso de un artefacto conceptual, como una teoría o un programa de ordenador, las dos fases coinciden: el artefacto

emerge a medida que se lo va describiendo. Además, desde luego, por definición de “original”, un diseño original es un diseño que nunca antes ha sido descrito, es decir, un diseño que era descono-

cido hasta el momento. Por tanto, la tarea de inventar una idea radicalmente nueva, como un programa informático nuevo, es tan

difícil como intentar encontrar el Santo Grial: todo lo que sabemos es el uso que tendría o la función que desempeñaría si lo consiguiéramos.

Dicho de modo más preciso, el inventor se enfrenta a un pro-

blema inverso: dado el producto deseado, diseñar un artefacto capaz

de proporcionar ese producto. Además, desde luego, se trata de un problema infradeterminado y, por tanto, mal formulado, un pro-

blema que requiere una creatividad que está muy lejos del alcance

397

de todo lo que funcione según reglas, tal como funcionan, según suponemos, las máquinas que conocemos. En efecto, los algoritmos

pueden resolver exclusivamente problemas directos, como calcular

el siguiente estado de una máquina de Turing, dada su función de transición, el estado actual y el insumo, Si es resoluble, un problema directo bien formulado posee una única solución. En cambio, un problema inverso tiene un final abierto: posee o múltiples soluciones o ninguna; y si tiene solución, exigirá trucos ad hoc, tales como la postulación de supuestos especiales (véase Bunge, 2006).

Los que siguen son ejemplos conocidos de problemas inversos:

encontrar el epicentro de un terremoto, el centro de dispersión de

una bioespecie o el origen de una epidemia; identificar el lugar desde el cual puede hacerse visible una cosa dada; identificar las causas de un síndrome médico y conjeturar las intenciones que hay detrás de un comportamiento humano en particular. El ejemplo histórico más famoso de un problema directo es este: dado un sistema me-

cánico y sus ecuaciones de movimiento, calcular sus órbitas. El problema inverso correspondiente es el de Newton: dada la órbita (u órbitas) de un sistema mecánico, averigilar la ecuación (o ecuaciones) de movimiento. Mientras que el problema directo puede requerir cierto talento, para la resolución de su correlato inverso fue

necesario el de Newton. Véase la figura 12.2.

Que todos los problemas directos bien formulados son solubles,

en principio, independientemente de lo difíciles que puedan ser,

es un artículo de fe científica y tecnológica. Ninguna fe parecida es posible respecto a los problemas inversos porque, en principio, están mal formulados: su enunciado está incompleto y, por tanto,

S

»=iM

> ?R

(a)

?S

—»|M

(b)



R

S

—»|?2M|

>R

(c)

Figura 12.2. (a). Problema directo: dado el mecanismo M y el insumo (o insumos) S, encontrar el producto (o productos) R. (b) Problema inverso: dado el mecanismo M y el producto (o productos) R, encontrar el insumo (o insumos) S. (c) Problema inverso difícil (identificación): dado el insumo (o Insumos) y el producto (o productos), encontrar un mecanismo.

398

exigen suposiciones suplementarias. Además, puesto que no es po-

sible programar la formulación de conjeturas, los problemas inversos están fuera del alcance de los programas informáticos. Ahora bien, los problemas más interesantes y exigentes de la ciencia, la ingeniería, la tecnología social, las humanidades y la vida corriente son

inversos. Piénsese, por ejemplo, en el problema de inventar una teoría

para explicar un corpus de datos empíricos, en el problema de diseñar un artefacto para llevar a cabo una tarea novedosa, en el de diseñar un programa de gobierno orientado a resolver de-

terminado grupo de problemas sociales o en el de identificar al autor de un texto (o una pintura, una partitura, un artículo científico, o un diseño o artefacto tecnológico sin firma). En otras

palabras, los problemas más fascinantes y difíciles de todas las áreas son inversos y, por tanto, se encuentran fuera del alcance de la tecnología de los ordenadores. En pocas palabras: las tareas más importantes no son programables. Para expresarlo de modo cínico: todo lo que se puede programar es trivial, aun cuando pueda resultar laborioso. Evidentemente, una vez que la tarea ha sido programada, puede

exigir pericia, pero no potencia cerebral original. Por ejemplo, hay un algoritmo para descubrir las regularidades de determinados sistemas mecánicos a partir de los datos de sus movimientos (Schmidt

.-

y Lipson, 2009). Pero las ecuaciones resultantes no incluirán una sola variable de alto nivel —por ejemplo, la masa, el momento y la energía—, además de lo cual no abarcarán todos los sistemas

mecánicos posibles, algo que sí hace la mecánica teórica, por lo que resultan inútiles para abordar problemas nuevos. La ciencia no se puede automatizar, pese a que muchos procedimientos cuya aplicación consume mucho tiempo, como la secuenciación de genomas y la detección de partículas raras y novedosas en un colisionador,

pueden automatizarse después de haberse inventado los algoritmos correspondientes. Con todo, a menudo se afirma que todas las limitaciones de los ordenadores de nuestros días serán superadas en el futuro. Por supuesto, la prudencia aconseja no decir nunca que algo no se puede 399

hacer. Sin embargo, el problema en cuestión es lógico, no empírico.

En efecto, las expresiones “espontaneidad programada”, “creatividad

programada” y “programación espontánea” son oximorones, porque en principio es imposible diseñar un programa para una tarea desconocida o inventar una idea de la cual nadie sabe nada.

Para utilizar la conocida distinción de Cattel (1987), podemos

admitir la capacidad de “razonamiento cristalizado” de los ordenadores y, a la vez, negar que puedan tener “razonamiento fluido”,

el cual consiste en la capacidad de abordar nuevos problemas. En efecto, ningún ordenador puede autoactivarse: sólo puede ser ac-

tivado por un programa informático y todo programa de esta

clase es una receta detallada y precisa para lograr un objetivo de cierta clase conocida con medios de un tipo conocido. Lo contrario sería como ordenar a un mono que diseñara una aplicación informática.

Si se nos permite un tecnicismo, un cómputo es lo que hace una máquina de Turing. Para la máquina, eso equivale a experimentar una secuencia finita de configuraciones que se siguen unas a Otras

según reglas precisas. Además, una de esas reglas estipula que el ordenador permanecerá en el mismo estado mientras no reciba un estímulo, En otras palabras, los ordenadores carecen de espontaneidad o libre albedrío: están a merced de sus usuarios. En particular, carecen de la plasticidad, la libertad y la voluntad necesarias

para decidir aprender cosas nuevas mediante el proceso de someterse de forma voluntaria a un aprendizaje exigente.

Por tanto, al contrario de lo que sucede con un ordenador que

ha sufrido daños graves, el cerebro de una persona que ha sufrido una lesión severa —por ejemplo, un accidente cerebrovascular, una

herida de bala o la ablación quirúrgica de una parte importante

a a pr

» Se

La

te

la función perdida hasta

» puede aprender nas artificiales y puede reaprender a hablar

a caminar con pier-

roca calcular. Esta capay a lid cidad de autorreparación está fuera de las posibi ades de cualquier Desde luego, podemos im inar robots ciruj IFujanos, enfermeras y maestros capaces de diagnosti 28

Er y reparar las máquinas estropeadas.

400

Sin embargo, estos artefactos no podrían autorrepararse, además de lo cual estarían programados por otro; no serían autoprogramados. Aquí es donde entra la distinción de Kant entre el agente au-

tónomo y el agente heterónomo.

El poder inmenso de los ordenadores digitales ha reforzado el materialismo mecanicista, a la vez que sus limitaciones han alentado a los idealistas. En matemática, este conflicto se traduce como el debate entre quienes creen que toda la matemática se puede capturar en sistemas formales y quienes hacen hincapié en el aspecto creativo y, por tanto, impredecible del trabajo matemático. En realidad, no hay necesidad de tomar partido en este asunto, porque cada uno de los contendientes tiene parte de razón: en la matemática hay tanto invención como descubrimiento (o postulación y

demostración) y, por consiguiente, la actitud correcta “abarca las perspectivas mecanicista y antimecanicista” (Feferman, 2009). Esta transigencia no supone limitar el materialismo: sólo implica admitir que la máquina de Turing no es un modelo verdadero del cerebro

humano, siquiera porque, a diferencia de la máquina, el cerebro es espontáneo y creativo. 12.2 La metáfora del ordenador

A menudo leemos en la literatura psicológica que los animales “computan” o “calculan” cada trozo de su experiencia, se trate de

ver o sudar, saltar o sentir sed, escoger o decidir, descubrir o inven-

tar, etc. Sin embargo, no hay duda de que esta es una metáfora, puesto que los cómputos propiamente dichos son operaciones con

símbolos, mientras que las operaciones mentales son procesos de sistemas neurales, los cuales están compuestos por células vivas que se comunican por medio de señales físicas o químicas, no de sím-

bolos. Estos últimos son artefactos y, además, los primeros símbolos

se inventaron hace solo unos 30 000 años, cuando nuestra especie

ya llevaba existiendo alrededor de 100 000, Por consiguiente, resulta impactante leer que “en el cerebro tiene que haber un mecanismo

de adquisición de la lectoescritura que codifique la información re401

cibida en forma de símbolos” (Gallistel y King, 2009). Solo el Es-

píritu Santo está en condiciones de competir con el misterio del milagro de unos símbolos insertos en el cerebro antes de que este los haya inventado. La otra afirmación de que la neurociencia intenta “descubrir los algoritmos que se usan en el cerebro” (Sejnowski et a/., 1998, pág. 1300) no produce menos perplejidad, puesto que un algoritmo es, por definición, una regla para calcular algo, por ejemplo el loga-

ritmo de un número, en tanto que el cerebro “usa” leyes biológicas. Asimismo, los planetas no calculan sus órbitas, sino que “usan” (se acompañan de) las leyes de Kepler, que son regularidades naturales

y no reglas para procesar información. Por tanto, la búsqueda de

los logaritmos en un cerebro sin instrucción se parece a buscar madera en una célula basándose en la doctrina tradicional china de los cinco elementos, uno de los cuales es la madera. Como se trata de artefactos, los algoritmos no pueden descubrirse: deben ser inventados. Además, la invención es de todo menos una actividad guiada por reglas: se trata de un arte. En particular, no puede

haber algoritmos para diseñar algoritmos, al igual que no puede haber reglas para crear obras de arte originales. La razón es obvia: por definición, toda actividad guiada por reglas es rutinaria y no original.

Compárese la neurociencia computacional con la física o la química computacional. Un físico o un químico computacional diseñan y utilizan programas informáticos para calcular funciones o

resolver ecuaciones de las que se sabe o se espera que representen

rasgos físicos, como los niveles de energía atómicos o moleculares.

un físico o químico teórico (o, mejor dicho, matemático)

Se a

que pl

:

io más elaborados que el lápiz y el papel. En científico computacional modeliza las estructuras

(órganos, regiones) cerebrales como si fueran ordenadores. Por consiguiente, busca algoritmos incluidos en redes neurales: co arte

a

a

la creencia pitagórica de que el mundo, o al menos el

Lora

ad

e cereb

inferencias bayesianas:

ores de probabilidad ini ciales

,

á

ñn pa

na

(“previos”)rios” y

calcula probabilidades posteriores mediante el uso del teorema de

Bayes, donde “probabilidad” equivale a grado de creencia. Según mi punto de vista, esto suena de forma parecida a sostener que los planetas calculan su probabilidad anterior subjetiva de chocar contra un meteorito y regulan su velocidad angular con el objetivo de evítar la catástrofe. Yo sugiero, en cambio, que el cerebro sólo calcula cuando calcula. Expresado con mayor precisión, sostengo que una ciencia X

computacional puede desarrollar uno de dos proyectos de investigación posibles: A) diseñar programas de ordenador y simulaciones con el fin de resolver los problemas matemáticos que surgen en la ciencía X teórica (o matemática), la cual a su vez intenta modelizar los hechos

de X, y

B) descubrir los algoritmos que se esconden detrás de los hechos ——

de X. Sostengo, además, que mientras el proyecto A se desarrolla con

éxito en la física y la química, el proyecto B es problemático, por no decir obstinadamente desatinado. Más todavía, la metáfora del ordenador es incompleta, puesto que rara vez se nos dice cómo se realizan tales “cómputos”; por

ejemplo, cuáles son los algoritmos correspondientes a sentir sorpresa o miedo, a enamorarse o caer por las escaleras, a formular preguntas o a criticar respuestas. Esta imprecisión es característica de una

ciencia inmadura. Se parece al biólogo molecular que nos asegura que las moléculas de ADN “especifican” proteínas (o “instruyen”

acerca de su síntesis), en lugar de exhibir las reacciones químicas que correspondían. El computacionalismo no solo es popular entre los aficionados a los ordenadores; también lo es entre los psicólogos cognitivos y los filósofos de la mente reacios a aprender un poco de neurociencia. En cambio, los diseñadores de ordenadores y los ingenieros en ro-

bótica ya hace mucho que saben que para diseñar mejores máquinas con inteligencia artificial deben saber más sobre la inteligencia na403

tural. Después de todo, no se puede imitar X a menos que se sepa

algo sobre X. Además, una de las cosas que sabemos sobre la inteligencia natural es que incluye la memoria, y la memoria humana,

a diferencia de la de los ordenadores, es reconstructiva —empobrece O enriquece, pero siempre distorsiona—, no reproductora. Al parecer, a los filósofos les encanta la metáfora del ordenador por dos motivos. Primero, porque parece una solución simple, ra-

cional y moderna para el antiquísimo problema Imente-cuerpo. Segundo, porque el computacionalismo es ontológicamente ambiguo: atrae al idealista (superficial), porque le asegura que la materia carece de importancia, y también satisface al materialista, porque le ga-

rantiza que los estados mentales son materiales. (En realidad, el computacionalismo es hilemorfista, por lo cual puede que no satisfaga al aristotélico que no es cristiano).

o

Sin embargo, es obvio que el idealista coherente no se dejará en-

gañar, siquiera porque esta opinión neomecanicista de la mente no contempla la espontaneidad, el libre albedrío ni las creaciones libres

(como Einstein llamó a los conceptos teóricos). El computacionalismo tampoco engañará al materialista emergentista, porque los cerebros vivos pueden inventar trucos cualitativamente nuevos,

mientras que la finalidad de los procesos programados está fijada previamente por el usuario. No puede haber nada parecido a la espontaneidad programada ni a la creatividad por decreto, por la sencilla razón de que estas expresiones son autocontradictorias.

Desde luego, los ordenadores son similares a los cerebros humanos en algunos aspectos, pero en la mayoría de ellos no lo son. La

diferencia más obvia es que, a diferencia de los ordenadores y las máquinas en general, los cuales carecen de iniciativa, los cerebros

están en constante actividad aun cuando no reciban estímulos ex-

ternos, tal como probó Hebb con su experimento de privación sensorial (recuérdese la sección 9.3). Este punto se aprecia mejor si se recuerda que la máquina de Turing, que constituye el plano básico

del ordenador digital, no entrega ningún producto (o salida) a menos que reciba algún insumo (o entrada). En efecto, uno de los postulados de la

teoría de las máquinas de Turing establece que si

una máquina de Turing en un es tado dado recibe una entrada nula,

404

entonces permanece en el mismo estado. En símbolos obvios: para todo s del alfabeto de entradas, M(s,0) = s, donde M es la función

de transición (al estado siguiente) y O designa la entrada nula. En cambio, la función de transición para un cerebro vivo satisfaría algo semejante a lo que sigue: para todo estado s hay otro estado +, tal que 2% s, y M(s,0) = 1.

12.3 Críticas

El computacionalismo, la opinión de que todos los procesos mentales son operaciones con símbolos realizadas por el cerebro según reglas exactas (algoritmos), es vulnerable a las siguientes objeciones. 1. La inmensa mayoría de los “cómputos” en cuestión no son más que meras palabras, puesto que nunca se los especifica. En consecuencia, afirmar que un ave o una acróbata “calculó” cierto movimiento corporal no aporta más información que decir que el ave O la acróbata realizó ese movimiento. 2. A diferencia de los ordenadores, las personas y otros animales

no están diseñados: son producto de la evolución y la experiencia.

La distinción entre hardware y sofware no es válida para las personas, porque los procesos mentales no pueden separarse del cerebro en el que ocurren, salvo mediante la abstracción. El “software” hu-

mano aumenta con el aprendizaje: está sometido tanto al desarrollo como a la evolución. Además, las mentes no evolucionan por sí solas: sólo evolucionan los cerebros mentantes. Por consiguiente, el computacionalismo supone, equivocadamente, la irrelevancia de la

biología del desarrollo y la biología evolutiva para la psicología. 3. Los programas de ordenador o algoritmos no son cosas ni procesos vivientes, sino artefactos. Como las máquinas, son diseñados y reparados, ordenados y vendidos, perdidos y robados. En

consecuencia, los algoritmos no sólo cumplen ciertas leyes sino también ciertas normas (o convenciones) técnicas, algunas de las

cuales son inteligentes pero otras lo son menos, motivo por el cual se las actualiza de forma continua. 405

4. Sólo los cálculos rutinarios propiamente dichos son algorít-

micos. Todos los procesos mentales, desde sentir amor, temor u odio hasta adivinar, inventar y criticar, no son algorítmicos. En particular, no existen reglas para dar con buenas ideas. Además, no

conocemos los “cómputos neurales” que, supuestamente, guían los cómputos propiamente dichos. 5. Los psicólogos del procesamiento de la información utilizan libremente las palabras información” y “cómputo”, pero no usan sus correspondientes conceptos técnicos, que están dilucidados en

la teoría de la comunicación de Shannon y en la matemática res-

pectivamente. Por lo tanto, su discurso se queda en un nivel intuitivo y metafórico. En realidad, la psicología del procesamiento de la información no es más que la psicología clásica reescrita en lengua informacionense. 6. Dado que el computacionalismo se interesa de forma exclusiva por los procesos racionales (y, especialmente, por los algorítmicos),

cercena los fuertes vínculos que hay entre la cognición, por un lado,

y la motivación, la emoción y la sociabilidad, por el otro. En con-

secuencia, no puede explicar ni la curiosidad ni el aprendizaje ni el hecho de que las circunstancias sociales a veces estimulen y otras inhiban el aprendizaje. En cambio, el enfoque biológico de la cognición pone de manifiesto sus fuertes interacciones con la emoción

y el contexto social (por ejemplo, Phelps, 2006). 7. A diferencia de los ordenadores, que son naturalmente con-

servadores y están diseñados para obedecer, los humanos poseemos

la capacidad de innovar, desobedecer y hacer trampas. En particular, podemos idear, discutir, criticar y poner en práctica las reglas de comportamiento, algunas de las cuales son principios morales, en

tanto que otras son normas técnicas o legales. Además, aunque todas las reglas tolerables han sido moldeadas por el conocimiento,

no se trata de objetos epistémicos. Esas normas, además, están mopri std por las emociones sociales, como la empatía, la vergiie naaan, laprpena,Pr deci

errar

ferencia de las personas, los ordenadores e

y E desconfianza,

Pe

pre Otras capacidades que exceden lasposibilic o me r máidades de cualquie 406

quina imaginable, ya que no pueden programarse, son las capacidades de ser autoconsciente y autocrítico, de distinguir lo esencial de lo secundario, de utilizar pistas, de economizar esfuerzos, de proponer alternativas y de comprender metáforas; la iniciativa (o espontaneidad), la creatividad, el sentido común, la curiosidad, la

intuición y el pensamiento sistémico (en contraposición al pensamiento analítico o sectorial) y el manejo de la continuidad y el infinito real (salvo como símbolos).

8. El computacionalismo ignora el hecho de que, a diferencia de los ordenadores, los cerebros son sociales y aprenden mediante

la interacción, la adaptación, la cooperación y el conflicto, 9. Puesto que son sociales, los cerebros humanos poseen inten-

sion del enésimo orden: pueden saber que alguien sabe que alguien más sabe algo, y así sucesivamente. (Un ejemplo de intensión de primer orden es la autoconsciencia: ser capaz de formular una “teoría de la mente”, es decir, de descubrir lo que otra persona está pensando, equivale a una intensión de segundo orden. Adviértase la diferencia entre intensión e intención: la primera está relacionada con el significado, en tanto que la intención tiene que ver con la finalidad).

10. El computacionalismo trasgrede el principio más básico de la filosofía de la tecnología. Se trata de la tesis de que las cosas que

fabricamos, a diferencia de las que encontramos, “corporeizan” ideas, por lo cual constituyen un nivel ontológico distinto: el de las cosas fabricadas a diferencia del de las cosas descubiertas. (Para conocer

más limitaciones de los ordenadores, véase Bunge, 1956a, 1985).

En suma, el computacionalismo no lo hace mejor que el dua-

lismo cartesiano. La razón de ello es que, al igual que este, también

rechaza tomarse en serio el cerebro. Ambas concepciones son fun-

cionalistas: se adhieren a la dicotomía materia/función. En consecuencia, ninguna de ellas puede explicar nada, dado que una explicación consiste en describir un mecanismo. Básicamente, una psicología sin cerebro no es mejor que una cardiología sin corazón.

(Más sobre las formas y las limitaciones del funcionalismo en Mah-

ner y Bunge, 2001).

12.4 El software es muy hard Un ordenador no hará nada a menos que un usuario le instale un programa. O sea, una unidad de procesamiento de información (PU, según sus siglas en inglés) artificial es un sistema que posee

tres componentes: a) un usuario U con un cerebro entrenado para operar y, en concreto, codificar y decodificar mensajes —es, decir,

aparear símbolos con significados—; b) un ordenador H con su fuente de energía; y c) un programa informático P. En resumen, /PU = U + H + P La eliminación de cualquiera de estos tres componentes inhabilita el sistema de procesamiento de información 1PU: Un programa de ordenador especifica una secuencia de estados

de la máquina. Se dice que es una pieza de sofware porque se la puede reemplazar por otro programa, que se instala en la misma

pieza de hardware para producir una unidad de procesamiento de la información diferente. Con todo, la nomenclatura hardware/sofiware es engañosa, porque el soffware es tan “hard” o material como el hardware. Es cierto que, a diferencia de un trozo de materia cual-

quiera, un sofware posee un contenido semántico o, mejor dicho, lo evoca. En términos más precisos, cuando se lo instala en un ordenador, el sofíware evoca significados en el cerebro del usuario. Por tanto, el “contenido” de un software es muy diferente al con-

tenido de una botella: sólo se lo puede verter en un cerebro ins-

truido, y todo esto sólo de forma metafórica. Es decir, que el

software está en el nivel de realidad semiótico, junto con los billetes,

las oraciones y los diagramas, ninguno de los cuales cumple su fun-

ción si no hay un cerebro capaz de entender su significado (recuérdese la sección 4.1).

La distinción entre hardware y software que se hace en informática es útil, pero superficial. Es útil porque se puede utilizar dife-

rentes softwares para activar la misma máquina. Además, porque el

diseño de software es conceptual y socialmente diferente al diseño de la arquitectura de la máquina, hasta el extremo de que la mayoría de los ingenieros de software, a diferencia de sus homólogos de

hardware, no tienen títulos de ingeniería. Sin embargo, la distinción es superficial desde el punto de vista ontológico porque todo frag408

mento de software está materializado en un disco: la distinción en cuestión no incluye una separación.

La distinción hard/sofí es aún menos justificable en el caso de los animales, especialmente de los seres humanos. La razón es que el “software” humano, la mente, es sólo una colección de funciones

cerebrales y estas, a diferencia de las piezas de sofware, no pueden separarse del hardware o cerebro. Más aún, mientras que el software cerebral crece y declina con la experiencia y la reflexión, una pieza

de software informático surge completamente desarrollada y se mantiene inalterada en un disco. En efecto, a partir del trabajo de sir Frederick Bartlett, en 1932, se sabe que la memoria humana es

constructiva así como destructiva, hasta el extremo de que podemos

“recordar” sucesos que nunca han sucedido (véase Schacter, 2001; Tulving, 2002). Los ordenadores pueden fallar, pero pueden ser reparados, en tanto que los cerebros pueden enriquecerse hasta cierto punto, después de lo cual declinan sin posibilidad de reparación.

12.5 ¿El hombre frente a la máquina? Está muy difundida la creencia de que los ordenadores pueden reemplazar a los jugadores de ajedrez y hasta a los matemáticos. Se dice que Deep Blue, la famosa máquina de IBM, derrotó al ajedrecista campeón del mundo Gary Kasparov. Esto, sin embargo, es

incorrecto, porque la máquina Feng-siung Hsu, alias CrazyBird era actualizado tras cada jugada. parov no fue la máquina sino el

había sido programada por el Dr. [PájaroLoco]; además, el programa En realidad, lo que derrotó a Kassistema compuesto por la máquina

y el Dr. Hsu.

La afirmación de que los ordenadores pueden hacer matemática es igualmente incorrecta: lo único que hacen es procesar los correlaos físicos (electromagnéticos) de los conceptos matemáticos (Bunge, 1956a). Además, esas correlaciones son convencionales. En

particular, las máquinas procesan numerales y no los números des-

ginados por aquellos, (A diferencia de los números, que poseen pro-

piedades conceptuales, los numerales sólo tienen propiedades físicas 409

y químicas). Puesto que manipulan nombres y no conceptos, po-

dríamos decir que los ordenadores son máquinas nominalistas. Es verdad que algunos programas de ordenador demuestran teoremas a partir de axiomas y definiciones dados. Sin embargo, en primer lugar, las premisas deben ser inventadas por matemáticos vivos. También es cierto que esas máquinas son capaces de elegir

entre estrategias alternativas. Pero alguien tiene que inventar esas estrategias, y también es necesario que unos desarrolladores tan vi-

vos como quienes inventaron las estrategias las programen en las máquinas. En términos generales, una cosa es seguir un programa y otra escribir un programa completamente nuevo. Repetimos: una cosa es elegir los medios más adecuados para lograr un objetivo y otra muy diferente imaginar un objetivo con toda una familia de

o medios para conseguirlo. Además, y esto es esencial, lo único que una aplicación informática puede hacer es resolver un problema: las máquinas no pueden descubrir problemas nuevos porque no existen algoritmos para inventarlos ni descubrirlos. Además, para que se los pueda abordar

con el auxilio de un ordenador, esos problemas deben ser computacionales (programables). Sin embargo, la enorme mayoría de los problemas matemáticos interesantes no son de esta clase. En efecto,

considérese esta pequeña muestra:

« Formalizar una hipótesis o una teoría enunciada en lengua corriente, * Dados los primeros pocos términos de una serie infinita, conjeturar el término general. * Inventar métodos para sumar series infinitas o productos in-

finitos o para calcular integrales. * Dada una función continua, averiguar la ecuación (o las ecua-

ciones) diferencial(es) que aquella satisface.

* Averiguar las premisas (axiomas, definiciones y lemas) que implican una proposición determinada (es decir, dado B, encontrar

A, tal que A + B). * Descubrir la teoría abstracta que subyace a dos teorías diferentes. 410

* Inventar algoritmos nuevos. * Dado un conjunto de datos empíricos, inventar una teoría (no una generalización inductiva) que de cuenta de ellos. En resumen, las máquinas no pueden reemplazar a los cerebros:

a lo sumo, pueden ayudarnos a realizar alguna tarea rutinaria. En particular, no está aconteciendo una automatización total de la investigación científica, ya que sólo las operaciones de rutina están dirigidas por reglas: la búsqueda de problemas, la invención de ideas

y la evaluación no se pueden programar. Con todo, no cabe duda de que la difusión de la información y

la tecnología informática han modificado la forma en que vivimos, pensamos, trabajamos e interaccionamos. Basta echar un vistazo a nuestro alrededor para ver a mucha gente hablando o enviando mensajes por el móvil, demasiado ocupados como para hablarse a sí mismos, examinar sus propias vidas y hacer planes. Sin embargo, esto ocurre principalmente en los espacios públicos de las ciudades del mundo industrializado: no es algo característico del Tercer Mundo, donde vive la inmensa mayoría de las personas. La comunica-

ción siempre ha sido coextensiva con la humanidad, dado que los

humanos somos esencialmente sociables. Sin embargo, no crecemos, comemos, vestimos ni machacamos bits. Por tanto, no es cier-

to que la nuestra sea la sociedad de la información.

No cabe duda de que, en las naciones industrializadas, la vida se nos haría sumamente difícil si se cortaran súbitamente todos los canales de comunicación. Pero eso no nos detendría: continuaríamos alimentando a nuestros bebés, utilizando recursos energéticos,

cultivando hortalizas, ordeñando vacas, trasportando bienes, viajando, estudiando, jugando, etc. Además, como compensación por las cosas buenas que los canales de información nos ofrecen, nos

ahorraríamos toda la basura cultural y el veneno político que ditunden. En pocas palabras, las diferencias entre la sociedad con-

temporánea y la de nuestros ancestros de hace un siglo es sólo de grado. Además, las diferencias en las interacciones sociales tienen dos caras: los vínculos débiles (con extraños) se han fortalecido, en tanto que los lazos fuertes (con parientes y amigos) se han debili-

411

tado, a causa de que las cálidas relaciones cara a cara están siendo sustituidas por frías interacciones “pantalla a pantalla” Comentarios finales

Los adoradores del ordenador creen que el futuro de la psicología está en manos de la inteligencia artificial (1A). Esto es como decir

que el futuro de la anatomía y la fisiología humanas está en manos de la robótica. Puesto que la finalidad de la IA y de la robótica es

imitarnos en ciertos aspectos, sólo pueden progresar en la medida en que aprenden sobre los humanos a partir del conocimiento que proporcionan las ciencias del hombre. Puesto en términos generales:

para imitar algo comiéncese por aprender algo acerca del artículo original.

Esto mismo vale, en gran medida, para la receta “cosas a partir

de bits” actualmente de moda en la física: constituye un error in-

tentar reducir lo natural a lo artificial y, especialmente, intentar basar la física en la ingeniería, en lugar de hacer lo inverso. Hay dos

razones de que ello sea así. En primer lugar, las máquinas y la in-

geniería son objetos artificiales construidos por cerebros, los cuales

son tanto naturales como culturales. En segundo lugar, los conjun-

tos básicos de la informática digital son numerables, mientras que la realidad es continua en la mayoría de sus aspectos, lo cual consútuye la razón de que las funciones continuas y las ecuaciones di-

ferenciales hayan tenido tanto éxito en la física y la ingeniería.

En resumidas cuentas, los ordenadores son útiles siempre que

se los considere auxiliares de los cerebros, no sustitutos de ellos.

412

13

El conocimiento: genuino y espurio

Se ha dicho que los humanos podemos falsificar cualquier cosa,

hasta cl altruismo y el amor, así como la ciencia y la filosofía. Po-

demos reconocer a simple vista que algunas teorías y prácticas son espurias, imposibles de reciclar. Este es el caso de la quiromancia,

la homeopatía y la “ciencia” creacionista. Otras exigen abrirse paso a través de textos esotéricos. Es el caso de la fenomenología, cuyo fundador, Edmund Husserl (1960), presentó como “ciencia rigu-

rosa” y, a la vez, “el polo opuesto” de la ciencia propiamente dicha.

Los fenomenólogos sostienen que ellos son capaces de saber cual-

quier cosa de forma instantánea y apodíctica, y exclusivamente a través de la introspección, mediante el expediente de simular que

el mundo no existe, en lugar de darlo por supuesto y explorarlo.

Además, dado que rechazan el método científico, no se sienten

obligados a ofrecer ninguna prueba de sus afirmaciones. Sin embargo, puesto que los fenomenólogos no han producido jamás nada fuera de la fenomenología, ¿por qué deberíamos sentirnos

inclinados a creer la afirmación de que la suya es una ciencia ripurosa?

La evaluación de otras teorías y prácticas resulta difícil porque

contienen fragmentos de matemática o de ciencia. Por ejemplo, la

alquimia ha sido el epítome de las pseudociencias desde la época

de Robert Boyle. Sin embargo, a los alquimistas hemos de recono-

verles que en su loca carrera tras la producción de oro barato a partir 413

de metales “vulg ares”, diseñaron muchos equipos y procedimientos

que más tarde demostraron ser indispensables para la investigación química. La astrología era una teoría errónea sobre la personalidad, pero el arte de hacer un horóscopo requería un conocimiento astronómico preciso y eso nutrió a diversos científicos. La hermandad pitagórica produjo una mezcla de ciencia y pseudociencia: creó a la vez la matemática, la física teórica y el sinsentido místico.

Aristóteles fue el lógico más grande de la antigiedad, así como el primer biólogo marino, pero su física y su astronomía eran incorectas, Kant hizo importantes contribuciones a la ética, pero inventó la física subjetivista y una psicología apriorística que pudo haber allanado el terreno a la absurda Naturphilosophie de Hegel y Schelling, así como a los estudios sociales “intepretativos” (verstehende).

Marx mezcló una economía sensata, brillantes intuiciones históricas y una acertada crítica social con insensateces hegelianas y profecías

apocalípticas. Los economistas neoliberales abrieron el camino en

el uso de la matemática en las ciencias sociales, pero nunca se pre-

ocuparon por poner a prueba sus hipótesis. Freud especuló acerca

de las emociones, la sexualidad y los procesos inconscientes —todos

ellos desatendidos por la psicología científica de su época— sin Interesarse por la validación empírica (ni siquiera en la actualidad hay laboratorios psicoanalíticos). Además, los fundadores de la teoría cuántica la malinterpretaron a la luz del subjetivismo de Ber-

keley, mientras pasaban por alto el hecho de que los físicos son parte del universo desde hace muy poco tiempo.

En resumidas cuentas, a veces el oro intelectual está mezclado

con la porquería, por lo que es necesario diseñar un tamiz que po-

os utilizar, Esa es nuestra tarea en este capítulo: desarrollar una

especie de prueba de fuego para las ideas y los procedimientos que

se publicitan como científicos. Una prueba así nos servirá de ayuda

no sólo para protegernos del fraude intelectual, sino también para

evaluar los proyectos de investigación.

414

13.1

La ciencia y la pseudociencia

Nos ocuparemos exclusivamente de las ciencias y las pseudociencias que afirman tratar con hechos, sean estos naturales o sociales. Por

consiguiente, no trataremos con la matemática, salvo de forma tangencial y únicamente como herramienta para la exploración del mundo real. Obviamente, el mundo se puede explorar de forma científica o acientífica. En ambos casos, esa exploración, como toda otra actividad deliberada, supone cierto enfoque. Un enfoque se puede interpretar como un conjunto de supuestos generales junto con un fragmento de conocimiento anterior acerca de los objetos que se explorarán, una finalidad y unos medios.

En cierto modo, los supuestos generales, el conocimiento existente acerca de los hechos a explorar y la finalidad dictan conjuntamente los medios o método que se emplearán en la exploración

de esos hechos. Por tanto, si lo que se va a explorar es la mente, si esta se concibe como una entidad inmaterial, y si la finalidad es

comprender los procesos mentales de cualquier manera, entonces el medio menos oneroso es la especulación sin restricciones. Dado un supuesto idealista sobre la naturaleza de la mente, resultaría ab-

surdo procurar atraparla mediante la exploración del cerebro. Si se

supone, en cambio, que los procesos mentales son procesos cerebrales, y si la finalidad es comprender los mecanismos que subyacen a los fenómenos mentales, entonces el método científico, especial-

mente su versión experimental, es obligatorio (este es el fundamento racional de la neurociencia cognitiva, afectiva y social). Es decir, que para entender la mente se estudie o no el cerebro dependerá

de manera decisiva de la filosofía de la mente que se profese de forma más o menos tácita.

En términos generales, una investigación se comienza escogiendo

un dominio de hechos D, tras lo cual se postulan (o se dan por sentados) algunos supuestos generales (G) sobre esos hechos, se reúne

un corpus (8) de conocimiento anterior sobre los D, se elige un

objetivo (4) —sea conceptual o práctico—, y a la luz de todo lo anterior se determina el método (M) adecuado para investigar los D. Por lo tanto, se puede esquematizar un proyecto de investigación

415

arbitrario como la quíntupla ordenada = . La única función de esta lista es permitir el seguimiento de los elementos esenciales de las definiciones que ofreceremos a continuación.

Una investigación científica de un dominio D de hechos supone

que estos son materiales, legales y escrutables, en contraposición a inmateriales (en concreto, sobrenaturales), ilegales o inescrutables; además de lo cual se basa en un corpus B de descubrimientos cien-

tíficos previos y se lleva a cabo con los objetivos (4) principales de describir y explicar los hechos en cuestión con la ayuda del método

científico (M). A su vez, este último se puede describir de forma

sucinta como la secuencia: elección del conocimiento antecedente — formulación del problema (o problemas) — solución tentativa (por ejemplo, hipótesis o técnica experimental) _

realización de

comprobaciones empíricas (observaciones, mediciones o experi-

mentos) — evaluación de los resultados de las pruebas — corrección de cualquiera de los pasos anteriores y formulación de nuevos problemas planteados por el decubrimiento. Contrariamente a una difundida creencia, el método científico

no excluye la especulación: sólo disciplina la imaginación. Por ejemplo, no es suficiente producir un modelo matemático ingenioso de algún dominio de hechos, tal como hacen los economistas matemáticos. En una investigación científica, la coherencia,

la sofisticación y la belleza formal jamás resultan suficientes, ya que se espera que el producto final de la misma se ajuste a la realidad; es decir, que sea verdadero hasta cierto punto. No debemos culpar a los pseudocientíficos por usar la imaginación, sino por no ponerle límites. El lugar de la especulación irrestricta es el arte, no la ciencia.

El método científico presupone que, en principio, todo es discutible, así como que toda discusión científica debe ser lógicamente válida (aun cuando no se invoquen reglas o principios lógicos de forma explícita). Este método supone también dos ideas semánticas

clave: las de significado y verdad. No se puede investigar el sinsentido y, por tanto, no es posible declararlo falso (piénsese en cómo sería calcular tiempos de vuelo usando la definición del tiempo de Heidegger como 416

“maduración de la temporalidad”). Más aún, no

es posible practicar el método científico de manera coherente en

un vacío moral. En efecto, esta práctica supone el ethos de la ciencia básica —que, según la caracterización de Robert K. Merton (1973), incluye el universalismo, el desinterés, el escepticismo organizado

y el comunismo epistémico— de compartir los métodos y los descubrimientos con la comunidad científica. Por último, hay otros cuatro rasgos distintivos de toda ciencia auténtica: su mutabilidad (o cambiabilidad), su compatibilidad

con el grueso del conocimiento anterior, su solapamiento parcial con al menos otra ciencia, y el control que realiza la comunidad científica. La primera condición surge del hecho de que no hay ciencia “viva” sin investigación, y es probable que esa investigación enriquezca o corrija el fondo de conocimiento. En suma, la ciencia es predominantemente mudable. En cambio, las pseudociencias y las ideologías o están estancadas (como la parapsicología), o cambian a causa de la presión de grupos de poder o las disputas entre facciones (como ha sido el caso de la teología, el marxismo y el

psicoanálisis). La segunda condición, la intersección parcial con la tradición,

se puede formular así. Para ser digna de la atención de la comunidad científica, una idea nueva no debe ser obvia, ni tampoco tan

estrafalaria que choque con el grueso (aunque no con la totalidad) del conocimiento anterior. La compatibilidad con este último es

necesaria no sólo para discriminar las especulaciones sin fundamento, sino también para comprender la nueva idea, así como para

ponerla a prueba. En efecto, el valor de una hipótesis o de un diseño experimental novedosos se estima, en parte, mediante el grado de

su coherencia con partes firmes del conocimiento anterior (por ejemplo, la telequinesia está fuera de discusión porque, para empezar, viola el principio de conservación de energía). Normalmente, los principios de una pseudociencia se pueden aprender en unos pocos días, mientras que los de una ciencia genuina pueden tomar toda una vida, aunque sólo fuera por el volumen del fondo de co-

nocimientos en que está basada. La tercera condición, la de utilizar o nutrir a otros campos de

investigación, se sigue del hecho de que la clasificación de las cien-

417

cias fácticas es un poco artificial. Por ejemplo, ¿quién estudia la

memoria: la psicología, la neurociencia o ambas? ¿Y qué disciplina investiga la distribución de la riqueza: la sociología, la economía o

ambas? A causa de estos solapamientos parciales e interacciones, el

conjunto de las ciencias constituye un sistema. En cambio, las pseudociencias son típicamente solitarias.

La cuarta condición, resumida en el control de la comunidad científica, puede detallarse como sigue. Los investigadores no tra-

bajan en un vacío social, sino que experimentan estímulos e inhjbiciones que proceden de sus colegas (en su mayoría gente que no

conocen personalmente). Toman prestados problemas y descubri-

mientos, piden críticas y, si tienen algo interesante que decir, reciben consejos tanto deseados como no deseados. Esta interacción entre la cooperación y la competición es un mecanismo para la genera-

ción de problemas, así como para el control y la difusión de los resultados: hace que la investigación científica sea una empresa que duda de sí misma, se autocorrige y se autoperpetúa. Como consecuencia de ello, la consecución real de la verdad es menos caracte-

rística de la ciencia que la capacidad y la disposición de detectar el error y corregirlo. (Después de todo, el conocimiento cotidiano está lleno de trivialidades muy comprobadas que no son producto

de la investigación científica).

Hasta aquí, los rasgos distintivos de la ciencia fáctica genuina,

sea natural, social o biosocial. A continuación echemos un vistazo

a la clase de filosofía que favorece el progreso de la ciencia,

13.2 La matriz filosófica del progreso científico Sostengo que el progreso de la ciencia depende de condiciones de tres tipos: psicológicas, como la curiosidad; sociales, como la libertad de investigación y el apoyo de la sociedad; y filosóficas, como

el realismo. Las primeras dos condiciones han sido estudiadas por

diversos eruditos, especialmente por Merton (1973). En cambio,

las condiciones filosóficas no han sido estudiadas a causa del dogma

418

HUMANISMO

DS

o

CIENTIFICISMO e

í A

SISTEMISMO

A

5

CIENCIA

A

REALISMO A

Mo MATERIALISMO

Figura 13.1. La matriz del progreso científico. Imagínense las perspectivas de progreso científico si el cientificismo se sustituyera por el irracionalismo, el realismo por el subjetivismo, el materialismo por el idealismo, el sistemismo por el holismo o por el individualismo, el humanismo por la actitud mercenaria, y el centro por la superstición.

—compartido por el idealismo y el positivismo— de que la ciencia y la filosofía son áreas desunidas, y sin embargo no son menos im-

portantes. Sostengo que esas condiciones son las que se resumen en la figura 13.1. Puede que “humanismo” y “cientificismo” sean las únicas pa-

labras de la figura que necesiten aclaración. Entendemos el humanismo como una cosmovisión secular junto con una filosofía moral que pone el acento en los derechos y deberes humanos básicos, así como en lo deseable de resolver los problemas sociales de una manera pacífica y racional. En consecuencia, un científico

humanista se abstendrá de utilizar sus habilidades para perjudicar a los inocentes y pondrá a la humanidad por encima del rey y el país: se pondrá de parte del Dr. Einstein en lugar de la del Dr.

Strangelove. En cambio, un científico que no sea un humanista

puede participar en proyectos mercenarios y, por tanto, acabar haciendo pseudociencia. Claros ejemplos de ello lo constituyen los antropólogos que intentaron justificar los prejuicios racistas de los colonialistas y los nazis, así como los economistas a quienes no podría importarles menos la injusticia social y la destrucción

del medioambiente inherentes al capitalismo no regulado. 419

La palabra cientificismo requiere también dilucidación porque

————unas veces se la emplea en sentido peyorativo y otras se confunde

=== u significado con el de positivismo o naturalismo. Tal como se la

————ntiende en este libro, el cientificismo es la estrategia de investigación que puede resumirse en el siguiente argumento:

La mejor manera de estudiar todo lo cognoscible es investigarlo de forma científica. La mente, la sociedad y la moral son cognoscibles. -. La mejor manera de estudiar la mente, la sociedad y la moral es investigarlas de forma científica.

Esta conclusión coincide con la definición de scientisme del clá-

sico Vocabulaire (1938, vol. IL, pág. 740) de Lalande: “La idea de que el espíritu y los métodos de la ciencia deben extenderse a todos

los ámbitos de la vida intelectual y moral sin excepción”. Condorcet (1782) fue el primero en formular el cientificismo de manera ex-

plícita. Los positivistas y los marxistas se adhirieron al cientificismo aun cuando no actuaron en consecuencia. El movimiento por la unidad de la ciencia, que floreció entre la década de 1930 y apro-

ximadamente 1960, fue una combinación de cientificismo y positivismo. Irónicamente, el último fascículo de la International

Encyclopedia of Unified Science, que comenzó a publicarse en 1938, fue La estructura de las revoluciones científicas (1962) de Thomas

Kuhn, la primera andanada constructivista-relativista de la guerra de las ciencias contemporánea. Ciertamente, Kuhn después se dis-

tanció un poco de los constructivistas sociales y se arrepintió de haber escrito sus “párrafos floridos”. Sin embargo, en 1979 escribió

un poco arrepentido prólogo a la traducción al inglés del libro de 1935 de Ludwik Fleck La génesis y el desarrollo de un hecho cien-

tífico. Y cuando un periodista de Scientific American le preguntó si

el universo cambiaba con cada revolución científica, Kuhn respon-

dió de forma enfática: “¡Por supuesto!” El cientificismo se o pone al dogma reaccionario —enunciado primero por Kant y ado prado por el llamado enfoque inte rpretativo lo verstebend)— que afirma que la inve stigación de la mente y la 420

sociedad excede las posibilidades de la ciencia, por lo que tanto mente como sociedad deben seguir siendo propiedad de los antiempíricos y los analfabetos. En particular, la psicología y la an-

tropología filosóficas (o “humanísticas”) son los equivalentes precientíficos de las ciencias respectivas: pertenecen a la misma ca-

tegoría que la Vaturphilosophie de Hegel y Schelling. Alfred Schiitz, un destacado miembro de la escuela de la Verstehen y sociólogo fenomenológico, jamás llevó a cabo una investigación empírica. Peor aún, desalentó a los científicos respecto de

abordar los grandes problemas sociales, como el desempleo, el nacionalismo y la guerra. Claude Lévi-Strauss, en cambio, realizó tra-

bajos de campo con los indígenas del Amazonas y Clifford Geertz estudió la vida en una aldea de Bali. Sin embargo, dado que ambos

centraron su atención en los aspectos simbólicos y lúdicos de las sociedades, a la vez que desdeñaron la llamada base material de la so-

ciedad, no consiguieron explicar cómo esos pueblos hacían frente a la escasez, las catástrofes naturales, los terratenientes y los gobiernos nacionales. Por eso, las obras de Lévi-Strauss y Geertz tienen más

de literatura que de ciencia, juicio que ellos mismos podrían haber compartido, pues no fueron partidarios del cientificismo.

Advertencia: como todo lo demás, también se puede falsificar el cientificismo. Los positivistas lo hicieron durante dos siglos sin

percatarse de ello. En efecto, proclamaron su amor por la ciencia a los cuatro vientos, a la vez que intentaron meterla a presión en la camisa de fuerza fenomenista, perspectiva que excluye la posibilidad de conjeturar entidades y propiedades imperceptibles, como átomos, genes, mentes y fuerzas sociales. La confusión del positi-

vismo con el cientificismo fue algo tan habitual durante la segunda

mitad del siglo XIX que se difundió a la política. En efecto, el positivismo gozaba de tanto prestigio que, entre 1870 y 1920 aproximadamente, los progresistas argentinos juraban por Comte y

Spencer, los mismos héroes del autoproclamado partido científico encabezado por el dictador Porfirio Díaz, quien congeló a la sociedad mexicana entre 1876 y 1910.

No sorprende, pues, que tras ese período los conservadores argentinos, así como los progresistas mexicanos, reemplazaran el po421

sitivismo por el idealismo. Estos cambios de clima filosófico influyeron en la investigación social, así como en las políticas científicas y educativas y, por tanto, en la formación y contratación de cien-

tíficos. Pero no influyeron en el contenido de la investigación en ciencias naturales: a través de un microscopio o un telescopio idealista sólo puedo verme a mí mismo. Pero volvamos a nuestro pen-

tágono filosófico. Dicho pentágono es regular sólo en casos excepcionales, como los de Galileo, Newton, Euler, Berzelius, Ampere, Marx, Darwin, Bernard, Boltzmann, Ramón y Cajal, Einstein y Keynes.

(En re-

alidad, Newton y Marx fueron casos límite. El primero porque esperaba que, de cuando en cuando, la deidad rellenara el momento disipado en la fricción; y el segundo, porque no siempre distinguía la ciencia social de la ideología política). A los mencionados más arriba debemos añadir la inmensa mayoría de los

químicos modernos, que en general han sido materialistas y realistas. Esto ha sido así en parte porque a los químicos les atrae más el trabajo de laboratorio que la especulación teórica, y en

parte porque los químicos han cultivado el atomismo, el fruto más tangible del materialismo antiguo, desde la época de Dalton (1808).

En la mayoría de los casos, los lados del pentágono filosófico son

desiguales: unas veces se queda corto de materialismo, otras de realismo y, en ocasiones, el lado que se queda corto es el del humanismo, como en los casos de los grandes científicos que se venden

a los poderes de turno. Por ejemplo, hasta hace un siglo había biólogos vitalistas; aun ahora, algunos estudiosos de la sociedad afirman

a

o orden

todoxa o yal | menos lo hace de boca halaciala afue o Ml fracasos afuera pese económica a sus repetidos

ms

y a mayor parte de los físicos del siglo XIX criticaban las

de la perla

de co

Del

o positivista en contra

ables.

; Paradójicamente, , la mayoría de los fu nd

mica (cuántica) moderna, más en concreto a y

422

e

..

.

de la teoría acóe

( y

n

existencia autónoma (objetiva) de las mismas entidades que estaban describiendo con éxito (recuérdese el capítulo 3). Sin embargo, resulta evidente que no practicaron el subjetivismo que predicaban. De hecho, sus ecuaciones no contienen ni una sola variable psicológica. Esta es la razón de que sea posible raspar el barniz positivista de la mecánica cuántica para dejar el formalismo matemático neutral, el cual se puede interpretar de forma estrictamente objetiva (Bunge, 1967b).

(Por ejemplo, según la escuela de Copenhague, los autovalores de un operador que representa una variable dinámica, como el momento angular, son valores que un observador encontrará al medir

dicha propiedad. Pero esto es falso, ya que lo que uno lee en el medidor son los valores de un indicador que tiene una relación funcional con una propiedad dada, como en el caso del ángulo de la

aguja de un manómetro (véase, por ejemplo, Bunge, 2006a). De ahí la reinterpretación realista del postulado en cuestión: los auto-

valores de un operador que representa una propiedad dinámica son los valores que puede asumir dicha propiedad. He aquí otro ejemplo famoso. Según la interpretación ortodoxa de Born, |y |? Av es

la probabilidad de encontrar la partícula en cuestión dentro del volumen Av. En cambio, según la interpretación realista propuesta por De Broglie, esa misma cantidad es la probabilidad de que la

cosa en cuestión esté presente en Av. Hay dos razones por las cuales

el realista prefiere la segunda interpretación: porque y no incluye inguna variable que represente acciones humanas y porque las dos probabilidades, la de la presencia y la del hallazgo de la partícula,

serán sin duda diferentes ya que la probabilidad de encontrar un cuantón (además de depender de su estado) está supeditada al mé-

todo con el cual se lo busque. En el caso de la física cuántica, la mala filosofía no consiguió

frustrar el programa atomista de explicar lo visible mediante lo invisible. Además, Newton sufrió una incongruencia parecida sin advertirla: aunque en sus Principia está el primer sistema hipotéticodeductivo de la ciencia fáctica, en esa misma obra Newton hace

una defensa filosófica del inductivismo. Un gran investigador no sucumbe a la mala filosofía, pero esta —presente, tal vez, en sus 423

escritos

de divulgación —

puede

extraviar

a los

filósofos

y frustrar

las vocaciones jóvenes,

No obstante, una buena filosofía no es una garantía de buena ciencia, Por ejemplo, la hipótesis de la identidad psiconeural, adoptada por la psicología médica desde la época de Hipócrates y Galeno, no ayudó a los médicos a hacer experimentos o a elaborar modelos de las funciones mentales, dado que, con escasas excepciones, los médicos han sido empiristas en lugar de investigadores científicos. Algo semejante ocurrió en las ciencias sociales. Por ejemplo,

Marx fue un científico social importante y original, aunque afir-

maba utilizar el “método” dialéctico (una ontología) que había aprendido de Hegel, uno de los filósofos más confusos y nocivos de la historia. Y unos pocos marxistas hicieron aportaciones originales a la antropología, la arqueología y la historiografía gracias a su enfoque materialista, sistémico y científico (véase, por ejemplo,

Barraclough, 1979; Trigger, 2006).

En cambio, ningún filósofo marxista ha ido más allá de colgar algún adorno a la absurda ontología dialéctica porque su misión

es catequizar, no investigar. Continúan practicando un escolasticismo marxista, incluso tras la abrupta caída del comunismo soviético (véase, por ejemplo, Panasiuk y Nowak, 1998).

Asimismo,

aunque al principio la obra de Max Weber estuvo viciada por una variante neokantiana del subjetivismo, su obra de madurez no adoleció de esa filosofía anticientífica, aunque él la ensalzara en sus escritos (Bunge, 2007a).

En suma, se puede calificar una filosofía de progresista si pro-

mueve el desarrollo del conocimiento, y reaccionaria si lo obsta-

culiza.

13.3 La pseudociencia Hasta aquí hemos estudiado los ras gos distintivos de la ciencia fácUca genuina, sea natural, social o biosocial. Enumeremo s a continuación las características distintivas de la pse

udociencia (más sobre

424

esta cuestión en Bunge, 1998; Frazier, 2009; Gardner, 1983; Kurtz,

2001; Mahner, 2007c; Park, 2008; Wolpert, 1992). El enfoque

pseudocientífico de un ámbito de hechos viola algunas de las condiciones enumeradas en la sección 13.1, mientras que a la vez se presenta a sí mismo como científico. Puede ser incoherente o incluir

ideas confusas. O puede suponer la realidad de hechos u objetos completamente inverosímiles, tales como los secuestros alienígenas,

la telequinesia, los genes egoístas, las ideas innatas, las mentes independientes de un cerebro, los memes y los mercados autorregu-

lados. Dicho enfoque puede postular que los hechos en cuestión son inmateriales, inescrutables o ambos extremos a la vez. No pro-

fundiza descubrimientos anteriores. Puede llevar a cabo operaciones empíricas profundamente defectuosas, como las pruebas de manchas de tinta en psicología o no incluir grupos de control. Puede falsificar los resultados de las pruebas o puede prescindir totalmente de las comprobaciones empíricas. Además, las pseudociencias no evolucionan o, cuando lo hacen,

sus cambios no son producto de la investigación. Así pues, Ernest

Jones (1961, pág. 235) nos informa de que la obra fundacional de Freud sobre la interpretación de los sueños, publicada por primera vez en 1900, se reimprimió ocho veces en vida del autor: “Nunca se realizó ningún cambio fundamental, ni estos eran necesarios”.

Puede decirse lo mismo, en gran medida, de la microeconomía ne-

oclásica que, como ha afirmado Milton Friedman (1991) en tono

triunfal, ha permanecido estancada desde su nacimiento en la década de 1870, salvo por adornos matemáticos.

Las pseudociencias están típicamente aisladas de otras disciplinas,

aunque en ocasiones se entrecruzan con ciencias espurias hermanas,

como lo prueba la existencia de una astrología psicoanalítica. Además, lejos de aceptar las críticas de buen grado, las pseudociencias intentan fijar las creencias. Su finalidad no es la búsqueda de la verdad sino convencer: postulan llegadas sin salidas ni viajes. Mientras

que la ciencia está repleta de problemas, y cada descubrimiento científico importante plantea nuevos problemas, los pseudocientíficos se han caracterizado por la certidumbre. En otras palabras,

Mientras que la ciencia suscita más ciencia, la pseudociencia es es-

réril porque no produce nuevos problemas. En resumen, el principal problema de la pseudociencia es que su investigación es profunda-

mente errónea o inexistente. Por ello, al contrario de lo que sucede en la investigación científica, la especulación pseudocientífica no nos ha proporcionado ni una sola ley de la naturaleza o la sociedad.

Sin embargo, algunas disciplinas y prácticas resultan difíciles de evaluar, porque tienden a usar la matemática de forma intensiva. La estadística bayesiana y la lógica inductiva son dos casos pertinentes, ya que incluyen la teoría de la probabilidad convencional, pero asignan probabilidades a las proposiciones, no a los hechos (estados de las cosas y sucesos), y lo hacen de forma arbitraria en

lugar de aplicarlas según reglas impersonales y explícitas. Además, no nos aclaran qué significa decir que una conjetura científica es

probable en lugar de verdadera a la luz de ciertos datos, o verosímil

a la luz del conocimiento anterior. Lo único que nos dice la esta-

dística bayesiana es que “la probabilidad mide la confianza que un individuo en particular tiene en la verdad de una proposición

en particular, por ejemplo, la proposición de que lloverá mañana (Savage, 1954, pág. 3). Sin embargo, ya que la mera Opinión no

reúne las condiciones para ser ciencia, el bayesianismo es pseudocientífico (Bunge, 2008). Por la misma razón, la lógica inducuva es filosofía pseudoexacta. Irónicamente, Popper también asignaba

probabilidades a las proposiciones mientras atacaba con razón la lógica inductiva. 13.4 El inmaterialismo en el estudio de la materia

Berkeley (1710) dio comienzo al moderno movimiento anticien-

tífico al rechazar la noción de materia. Como era un empirista radical, pensaba que el conocimiento se iniciaba con la sensación y

que todo lo que excedía la sensación era especulación injustificada

Esto incluía la suposición de que las sensaciones están causadas

por objetos externos, así como la atribución de propiedades primarías (o independientes del sujeto), tales como las de cumplir las leyes del movimiento de Newton. En pocas palabras, Ber keley sub426

ordinó la metafísica a una gnoseología empirista radical: el antirrealismo implicaba el inmaterialismo. Hume, Kant, Comte, Mach y los positivistas lógicos siguieron su estela: también adoptaron el fenomenismo y rechazaron el concepto de materia. Pero sólo Mach (1942), un eminente físico ex-

perimental y psicólogo, intentó demostrar que la materia no existe

y que, por tanto, el materialismo es falso. Procedió del siguiente modo. Se centró en la mecánica newtoniana, especialmente en la

segunda ley del movimiento, es decir: fuerza = masa x aceleración. Además, definió “material” como “que posee masa” (ni siquiera

tuvo en cuenta la existencia de la electrodinámica). Y se propuso demostrar que el concepto de masa es redundante. Para lograr su objetivo, Mach analizó la cuestión, muy especial, de dos cuerpos unidos por un muelle. En este caso, la segunda ley de Newton se interpreta así: Fi = ma, Fo = mao, y Fi = -Fo. Estas ecuaciones implican que m/m» = -42/4:. La última fórmula afirma que la razón de las masas es igual a menos la inversa de la razón de las aceleraciones. Hasta aquí no hay problema. Entonces Mach da el paso decisivo: postula que esa consecuencia de la ley de Newton defíne el concepto de masa relativa: confunde una ley con una convención. Y puesto que una definición explícita de la forma “defniendum = definiens” hace redudante el definiendum, Mach llega a la conclusión de que el concepto de materia es innecesario, por lo cual el materialismo es falso.

Este no fue el único paso en falso lógico de Mach: también sos-

tuvo que la fórmula “F = m.a” define el concepto de “fuerza”. Y, como creía que el miembro derecho de la fórmula es un producto de aceleraciones, proclamó que el concepto de fuerza era tan re-

dundante como el de masa. De este modo, Mach se vanaglorió de haber matado al dragón de la “materia y la fuerza” del materialismo mecanicista de Biichner, Vogt y Moleschott. En suma, Mach con-

fundió las leyes con las definiciones e invirtió la relación lógica co-

rrecta de que “la dinámica implica la cinemática”. En consecuencia,

sacrificó la mecánica newtoniana en el altar idealista (más en Bunge,

1966). Por desgracia, muchos textos de física adoptaron la inco-

rrecta versión de Mach de la mecánica clásica. Sus autores no ad427

virtieron que en la mecánica newtoniana los conceptos de acelera-

ción, masa y fuerza son primitivos (indefinibles) y mutuamente independientes, como lo han probado los lógicos (véase Supper,

1957).

Otra tentativa de desmaterializar la física tuvo lugar cuando

Einstein propuso su teoría de la gravedad: se dijo que él había lle-

vado a cabo la geometrización de la física. Esta afirmación es falsa: lo que hace la teoría es representar el campo gravitatorio mediante una variedad descrita por el llamado tensor geométrico G. Pero el

tensor geométrico está determinado, a su vez, por el tensor de ten-

sión-energía 7, el cual describe la distribución de las partículas y

los campos en el espaciotiempo según la fórmula “G = 27”. Como esta fórmula puede leerse en ambas direcciones, debemos concluir

que la materia y el espacio se moldean mutuamente. En consecuen-

cia, y al contrario de lo que una vez afirmaron Misner, Thorne y

Wheeler (1973), la teoría de la gravedad de Einstein no realiza el sueño que tenía William Clifford en 1870 de una teoría espacio-

temporal de la materia. Wheeler, colaborador de Niels Bohr, así como tutor de la tesis de Richard Feynman, fue el más imaginativo y persistente de todos los físicos destacados que trataron de acabar con el dragón materia-

lista. En 1960, Wheeler creía que el material del que estaba hecho

el mundo físico era el espaciotiempo curvo y vacío; en particular,

deseaba “construir la masa a partir de la geometría pura”. Pero su teoría, la geometrodinámica, no funcionó, ya que no tenía lugar para partículas con espín Y, como los electrones, protones, neutro-

nes y neutrinos. Por consiguiente, en 1990 Wheeler proclamó que el bit, la unidad de información, era el componente básico o elemen-

tal (véase Barrow et al., 2004). En cada uno de los tres casos, las entidades físicas, que poseen energía, estarían compuestas por unidades

no físicas, lo que viola el principio de conservación de la energía.

Más aún, ninguno de los tres quijotescos intentos mencionados ha

resuelto ni un solo problema físico, del mismo modo que no han logrado siquiera ponerle un ojo morado al dragón en cuestión.

En síntesis, la física sigue siendo la ciencia básica de la materia. Y la afirmación de que la física puede manar de la matemática es (m1

una fantasía pitagórica que viola la dicotomía de Leibniz entre verdades de razón y verdades de hecho.

13.5 La exploración del inconsciente: hecho y fantasía, ciencia y negocio

Aunque habitualmente se atribuye a Sigmund Freud el descubrimiento del inconsciente, lo cierto es que la gente viene hablando de la realización de ciertas operaciones mentales “sin pensar” desde tiempos inmemoriales. En medio de la Ilustración, Leonard Euler dijo: “Mi lápiz sabe más que yo”. Un siglo después, Hermann von Helmholtz, otro gran polígrafo, escribió sobre las inferencias inconscientes. El filósofo autodidacta Edward von Hartmann publicó su monumental superventas Das Unbewusste [El inconsciente], cuan-

do Freud tenía 13 años. En su clásico Principios de psicología (1980), William James escribió acerca del “afortunado fallo de la conciencia”

que nos permite dejar una cama caliente para irnos a trabajar. Y, desde luego, Pavlov recibió el premio Nobel en 1904 por haber probado experimentalmente (y no sólo afirmado) que los animales pueden aprender a realizar ciertas acciones de forma automática (inconsciente). Lo que hizo Freud fue afirmar que la mayor parte de nuestra vida mental es inconsciente, que “el inconsciente nunca miente” y que los sueños revelan nuestros deseos subconscientes (por supuesto, siempre que, sean adecuadamente “interpretados”

por un analista). Freud no propuso reglas de interpretación, pasó por alto el hecho de que muchos sueños son poco realistas y hasta irracionales, y jamás sometió sus conjeturas a comprobaciones ex-

perimentales: se fió de la credulidad de sus lectores. Mientras que nadie discute la tesis pavloviana (“freudiana”) de que muchas, tal vez la mayoría, de nuestras acciones son incons-

cientes, ningún científico serio reverencia los sueños, aunque unos cuantos sí investigan el soñar en el laboratorio; y la mayoría de las

fantasías de Freud, especialmente la edípica, han caído en descré-

dito, Eric Kandel (2006, pág. 363) es, probablemente, el único

científico destacado que ha sostenido que el surgimiento del psi-

coanálisis fue una revolución. Los historiadores de la psiquiatría serios, como Shorter (1997), saben que se trató de una contrarre-

volución, puesto que reemplazó la psicología experimental, que había visto la luz oficialmente en 1879, por la especulación des-

controlada (y con frecuencia tonta). En realidad, mientras que ha

habido miles de gabinetes psicoanalíticos en todo el mundo, no ha

habido ni un solo laboratorio psicoanalítico desde que Freud co-

menzó su escuela en 1900. En este sentido, el psicoanálisis es aún menos científico que la parapsicología.

La investigación científica de los procesos mentales inconscientes

no comenzó hasta mediados del siglo XIX, con las observaciones

sobre pacientes con el cerebro dividido y visión ciega. Desde entonces, las diversas técnicas de obtención de imágenes cerebrales,

como las tomografías por emisión de positrones y las resonancias magnéticas funcionales (PET y FMRI respectivamente, por sus

siglas en inglés), han hecho posible averiguar si alguien siente o

sabe algo aunque él o ella no se percate de que lo siente o sabe. Además, estas técnicas permiten localizar dichos procesos mentales

de una manera no invasiva. Un ejemplo es el artículo de Morris, OÓhman y Dolan (1998), el cual —como era de esperar— no cita

ni un solo estudio psicoanalítico. Echémosle un vistazo. La amígdala es el diminuto órgano del cerebro que siente emociones básicas, intensas y antiguas, tales como el miedo y la ira.

Cuando este sistema sufre una lesión, la vida social y emocional de la persona queda gravemente disminuida. Se puede monitorizar la actividad de la amígdala con un tomógrafo PET: este aparato per-

mite al experimentador detectar las emociones del sujeto y hasta

localizarlas en uno de los lados de la amigdala. Sin embargo, puede

que esa actividad neuronal no llegue al nivel consciente. En este caso, sólo un tomógrafo cerebral puede ayudar. Por ejemplo, si a un sujeto normal se le muestra brevemente una cara de enfado e inmediatamente después una máscara inexpresiva, el individuo informará que ha visto la última pero no la primera. Sin embargo, el escáner muestra algo diferente. Muestra que si la cara de enfado se ha asociado a un estímulo aversivo, como por

ejemplo un estallido de ruido blanco de gran intensidad, la imagen 430

activa

la amígdala aun cuando el sujeto no recuerde haberla visto,

En síntesis, la amígdala “sabe” algo que el órgano de la conciencia (sea cual sea y esté donde esté) no sabe. Los psicoanal istas podrían

utilizar el mismo método para medir la intensida d del odio de un varón hacia

su padre. Pero no lo hacen, porque no creen en el ce-

rebro: su psicología es idealista y, por tanto, descerebrada . El número de ejemplos de pseudociencia puede multiplicarse a voluntad. La astrología, la alquimia, la paraps icología, la caracte-

olo r gía, el creacionismo “científico”, el “diseño inteligen te”, la “ciencla

cristiana, la rabdomancia, la homeopatía y la mem ética se consideran, generalmente, psedocientíficas (vé ase, por ejemplo,

Kurtz, 1985; Randi, 1982; y The Skeptical Inquirer). Menos general

es, en cambio, la aceptación de que el psicoanálisis, considera do

ampliamente la ciencia del inconsciente, es tambié una cia. Examinemos si esta disciplina cumple los requisn ito falsa ciens que, según la

sección 13,1, caracterizan a las ciencias mad uras. Para comenzar, el psicoanálisis viola la ontología y la metodología

de todas las ciencias genuinas. En efecto, sostiene que el alma (mind

[mente], según la traducción convencional al inglés de las obras de

Freud) es inmaterial, aunque puede actuar sobre el cuerpo, como

lo prueban los efectos psicosomáticos. Sin embargo, el psicoanálisi s nO propone los mecanismos mediante los cuales una entidad in-

material podría modificar el estado de una cosa material: sólo afi rma que es así. Además, dicha afirmación es dogmática, ya que los psicoanalistas, a diferencia de los psicólogos, no llevan a cabo com-

probaciones em píricas. El propio Freud ya había disociado

enfáticamente el psicoanálisis de la psicología experimental así como de la neurociencia. Tanto es así que el programa de estudios de la Facultad de Psicología que él esbozó no incluye cursos relacionados

con ninguna de las dos disciplinas. o Para conmemorar el primer centenario de la publicación de La

interpretación de los sueños de Freud, el International Journal of

Psychoanalysis publicó un artículo escrito por seis analistas de Nueva

York (Vaughan et al., 2000), que pretendían ofrecer un informe sobre la primera comprobación experimental del psicoanálisis en todo un siglo. En realidad, no se trató de un experimento en ab431

soluto, puesto que no incluyó un grupo de control. Por tanto, los

autores no tenían derecho a concluir que las mejoras observadas se debían al tratamiento: también pudieron haber sido espontáneas. En consecuencia, los psicoanalistas no usan el método científico

porque no saben de qué se trata. Al fin y al cabo, los autores no

son científicos formados, sino solo médicos en ejercicio, en el mejor de los casos.

El psicoanalista francés Jacques Lacan —una figura de culto “posmoderna”— admitió lo que acabamos de afirmar y sostuvo

que el psicoanálisis, lejos de ser una ciencia, es una práctica puramente retórica: /'2rt du bavardage o el arte de la palabrería. Por último, dado que los psicoanalistas sostienen que sus opiniones son

a la vez verdaderas y eficaces, sin haberlas sometido jamás ni a comprobación experimental ni a ensayos clínicos rigurosos, no se puede

decir que procedan con la honradez intelectual que se espera de los científicos (aun cuando estos fallen en ocasiones). En suma, el psi-

coanálisis no cumple las condiciones para ser considerado una cien-

cia. Contrariamente a la tan difundida creencia, el psicoanálisis ni

siquiera es una ciencia fallida, aunque sólo sea porque no utiliza el método científico y pasa por alto los contraejemplos. No es más que una psicología clínica curanderil.

13.6 La psicología evolucionista especulativa Cuando surgió la teoría de la evolución de Darwin se hizo obvio que, tal como dijo de modo célebre Theodosius Dobzhansky, “en

biología nada tiene sentido si no es a la luz de la evolución”. Por desgracia, no siempre ha sido obvio qué es la evolución. En efecto,

la teoría de Darwin sufrió distorsiones desde el principio. La ter-

giversaron Herbert Spencer, quien creía que la evolución era la su-

pervivencia del más apto y ejemplificaba la progresión universal de

lo simple a lo complejo, y los darwinistas sociales, que decían que la teoría confirmaba el antiguo mito de que la posición social se lleva en la sangre. La ha tergiversado Richard Dawkins, quien man432

tiene que la evolución es, esencialmente, una secuencia de genes

“autorreplicantes” y ventajistas, por lo que la existencia misma de los organismos resultaría paradójica, idea que hace que la biología

sea redundante; y también Daniel Dennett, quien afirma que la

evolución está guiada por algoritmos, es decir, por reglas de com-

putación que lamentablemente no describe. El último bastardo de la biología evolutiva es la psicología evolucionista ahora tan de mo-

da (véase Barkow et al., 1992; Buss, 2004; Pinker, 2003).

La digna finalidad de esta disciplina consiste en rastrear el origen y la evolución de capacidades mentales como el habla y el juicio moral, así como actitudes sociales tales como los celos, el altruismo, la dominación, la evitación del incesto y la violencia. La linterna

que ilumina su exploración es la hipótesis de que la mente y el com-

portamiento están regidos por los genes, los cuales a su vez son insensibles a los cambios que tienen lugar en el nivel de los organismos, así como en el social. En otras palabras, no habría intermediarios entre la molécula y la mente. Se podría objetar que como el hombre primitivo ya no está entre NOSOtros, y puesto que ni los cerebros ni las ideas se fosilizan, la psicología evolucionista es imposible de poner a prueba, por lo cual

está limitada a urdir cuentos entretenidos. Los psicólogos evolucionistas, sin embargo, ofrecen una ingeniosa réplica: todavía somos

primitivos, nuestras mentes se formaron durante “el Pleistoceno”

y los humanos dejaron de evolucionar hace muchísimo tiempo. En realidad, nos dicen, los seres humanos somos fósiles vivientes. Todo

lo que necesitamos hacer para explicar nuestras características men-

tales y conductuales del presente es averiguar qué problemas podrían haber tenido que afrontar nuestros antepasados remotos, los legendarios cazadores-recolectores. Todo el mundo supone que las circunstancias de nuestros lejanos antepasados eran muy diferentes de las nuestras. Sin embargo, los psicólogos evolucionistas nos dicen que la naturaleza humana — definida por un conjunto de algoritmos “dominio-específicos” (con un único propósito) “diseñados” para afrontar los problemas que enfrentaban nuestros antepasados remotos— no ha cambiado de

forma significativa en los últimos 100 000 años. Basta imaginar có-

433

mo nos sentiríamos, cómo pensaríamos y cómo actuaríamos si vi-

viéramos en “el Pleistoceno”. Así es, precisamente, como los psicó-

logos evolucionistas se han inventado docenas de fascinantes cuentos —sobre el sexo y la dominación, especialmente— que pretenden

dar cuenta de casi todos los rasgos mentales y sociales humanos. También pretenden explicar nuestros defectos. Por ejemplo, nos resulta difícil imaginar diminutas partículas invisibles que se mueven a muy alta velocidad porque nuestras mentes están diseñadas para tratar con objetos visibles que se mueven lentamente. Desde luego, esta conjetura no explica por qué los físicos, los químicos y los biólogos modernos son mucho más hábiles para tratar con entidades microfísicas que para lanzar jabalinas o construir hachas de piedra.

Echemos un vistazo a sólo cinco de los supuestos básicos de la psicología evolucionista. El primero es un préstamo de la genética pop, la etología pop, la antropología pop y la psicología pop, especialmente del psicoanálisis. Se trata de la triple hipótesis de que a) el sexo es el primer motor de toda la conducta animal, b) todos

los machos desean diseminar su semilla (o sus genes) lo máximo posible, mientras que c) todas las hembras prefieren a los machos más fuertes (o ricos) porque desean producir la mejor descendencia. A su vez, estos supuestos presuponen que a) todos los impulsos tie-

nen su raíz última en el sexo, b) todos los animales persiguen el sexo de manera consciente, en lugar de instintiva, y c) lo hacen por-

que saben que la cópula conduce finalmente a la preñez. Pero se sabe que a) el miedo, el hambre y la sed priman por encima del sexo, b) la mayor parte del comportamiento animal es instintivo y c) la relación entre el coito y la preñez, aunque podemos suponer que la gente sospechaba cómo eran las cosas hace mucho tiempo, sólo fue confirmada experimentalmente en el siglo XVIII por Lazzaro Spallanzani en sus trabajos con ranas. En resumen, solo Freud y el papa comparten la obsesión por el sexo que caracteriza a los psicólogos evolucionistas. Otro supuesto básico de la psicología evolucionista afirma que la mente es un ordenador que funciona gracias a algoritmos innatos. Ya rechazamos esta concepción no biológica de la mente en el ca434

pítulo 12, porque pasa por alto a) las enormes diferencias entre los artefactos, como los ordenadores y algoritmos, y los entes naturales, como los cerebros y las leyes de la naturaleza que les son peculiares; b) la espontaneidad, iniciativa y creatividad (la capacidad de in-

ventar ideas y acciones originales que no respondan a estímulos ambientales); y c) la sociabilidad. Además, la tesis del conocimiento

innato no concuerda con lo que sabemos gracias a la neurociencia y la psicología del desarrollo, así como a partir de la experiencia de padres y docentes: nacemos ignorantes de casi todo, aunque, por supuesto, provistos del órgano para aprender casi cualquier cosa. El tercer supuesto básico de la psicología evolucionista es que la

mente está compuesta de cientos de miles de módulos o microordenadores independientes, cada uno de los cuales realiza una tarea determinada, como por ejemplo detectar a los tramposos o identificar a las parejas potenciales. Sabemos, gracias a la neurociencia

cognitiva, afectiva y social, que el cerebro está compuesto, efectivamente, por subsistemas especializados tales como los de la percepción de caras y sonidos. Pero también sabemos que esos módulos no son mutuamente independientes. Por ejemplo, la percepción no sólo depende del estímulo del momento, sino también de la memoria y de las previsiones del sujeto. Por tanto, si estamos esperando a alguien en una esquina, probablemente confundamos a

más de un transeúnte con la persona que esperamos. El cuarto supuesto básico de la psicología evolucionista, y una característica distintiva de la misma, es que nuestras mentes fueron

“diseñadas” por la selección natural para hacer frente al “ambiente del Pleistoceno”, época que tuvo su inicio hace unos dos millones

de años y su fin unos 50 000 años atrás. Esta afirmación adolece

de varios problemas. Uno de ellos es que niega la existencia de la mente moderna, que está caracterizada por la racionalidad y la abstracción. Otro de sus problemas es que no explica el hecho de que la mayoría de nosotros nos las arreglemos mejor en la jungla de cemento que en la naturaleza. El tercer problema es que en principio resulta imposible saber cuáles eran los problemas de supervivencia

que tenían nuestros lejanos antepasados, por lo cual tampoco po-

demos saber cuáles eran las capacidades (o módulos) mentales se435

leccionadas. Nacemos con la capacidad de aprender, no sabios; nacemos adaptables, no adaptados ni, mucho menos, ya adaptados

a alguno de los ambientes del Pleistoceno, los cuales desaparecieron mucho tiempo atrás y nos son desconocidos en gran medida. Dicho sea de paso, lo razonable es pensar que esos ambientes hayan sufrido enormes cambios cada unos cuantos miles de años. Por último, pero no por ello menos importante, no es cierto que nuestro ge-

noma haya permanecido sin cambios durante los últimos 50 milenios. Por ejemplo, la capacidad de digerir la leche una vez transcurrida la infancia surgió en algunas personas hace sólo 5000 años, con la domesticación de cabras y vacas. (Más sobre los cambios genéticos originados por la invención de la agricultura, hace

unos 10 000 años, en Cochran y Harpending, 2009).

Finalmente, otro postulado de la psicología evolucionista (así como de la teoría económica ortodoxa) es que todos somos básicamente egoístas: que el altruismo no es más que un egoísmo inreligente. En otras palabras, se supone que somos reciprocadores

débiles, en lugar de reciprocadores fuertes: que sólo hacemos algo

por los demás porque tenemos la expectativa de que a la larga ellos nos devuelvan el favor. Esta hipótesis ignora tanto los vínculos como las emociones sociales, especialmente la empatía. Los etólogos saben desde siempre que los animales gregarios “invierten” en cooperación que lleva a vínculos a largo plazo, sin los cuales no habría sociedades animales. Una observación y un experimento recientes

han probado asimismo que los humanos y otros vertebrados intevienen en acciones genuinamente altruistas (por ejemplo, Gintis et al., 2005) y que no sólo lo hacen tras una cuidadosa reflexión,

sino también, a menudo, de forma instintiva y por empatía (por ejemplo, Preston y De Waal, 2002). En palabras de De Waal (2008,

pág. 292), la belleza de la relación entre empatía y altruismo es que

“el mecanismo funciona tan bien porque les da a los individuos un interés emocional en el bienestar de los demás”.

¿De qué descubrimientos pueden enorgullecerse los psicólogos evolucionistas? He aquí una muestra de sus favoritos (Buss, 2004). 1) Típicamente, los hombres invierten menos que las mujeres en el cuidado parental a causa de que su paternidad es incierta, no 436

porque pasen más tiempo trabajando fuera de casa. 2) Las mujeres prefieren a los hombres fuertes o ricos, los individuos que pueden proveer a sus necesidades y las de su descendencia, como lo prueba

el hecho de que, en los bares de solteros, las mujeres tienden a abordar a los varones de apariencia acomodada y no porque la clase de

mujeres que busca esa clase de hombres frecuente esa clase de bares. 3) La selección natural no ha eliminado la depresión porque esta última es buena para nosotros: nos hace bajar el listón a una altura más realista. 4) El predominio social nada tiene que ver con el poder político y económico: sus raíces son puramente biológicas y su motivación es exclusivamente sexual. 5) Todas las características sociales están codificadas en el genoma humano, por lo cual los resultados de las revoluciones sociales son efímeros, en el mejor de los casos

(Barkow, 2006). 6) Las actividades culturales no son más que “es-

trategias de emparejamiento”. Por consiguiente, Platón, Tomás de Aquino, Leonardo, Miguel Ángel, Descartes, Spinoza, Newton y otros solteros famosos trabajaban, supuestamente, con el único ob-

jetivo de seducir a las mujeres. Asimismo, los inventores de la escritura, el cálculo,

las crónicas históricas, la filosofía y otras

actividades afines deben de haber estado tan obsesionados por el sexo como los monos y los simios. En pocas palabras, las principales hipótesis de la psicología evolucionista resultan incomprobables, o bien son comprobables pero inverosímiles, y por tanto son, en ambos casos, acientíficas.

(Para más críticas, véase Buller, 2005; Cochran y Harpending,

2009; Gould, 1997a; Lickleiter y Honeycutt, 2003; Lloyd, 1999; Smail, 2008). Con todo, el proyecto de desarrollar una psicología

evolucionista es interesante. Que sea viable o no, aún está por

verse. Hasta aquí llega nuestro examen de la pseudociencia. La cuestión de la filosofía que hay detrás de la pseudociencia es intrigante y vasta, aunque en gran medida inexplorada (véase, sin embargo, Bunge 2006c; Flew, 1987). Pensemos, por ejemplo, en los nume-

rosos bolsones de pseudociencia cómodamente instalados en las ciencias “duras”, tales como el principio antrópico en la cosmología, el mito de las “cosas a partir de bits” y el intento de elaborar una 437

teoría de todo, el debate sobre información en la bioquímica, el

dogma de que “todo está en los genes” en la biología, la sociobiología humana, la economía del equilibrio y los modelos de teoría de juegos en economía y en ciencias políticias. Analice el lector al-

gún error mayúsculo en la ciencia y probablemente encontrará detrás un error filosófico.

13.7 Campos minados en las fronteras:

proto y semi Salvo en la matemática, cualquier intento de clasificar una colección

de objetos probablemente se encontrará con casos fronterizos. Esta vaguedad se debe, principalmente, bien a que los propios criterios

de clasificación son imprecisos, bien a que el objeto en cuestión

posee sólo algunas de las características necesarias para incluirlo en

el cajón deseado. Por ejemplo, todavía no sabemos cómo distinguir

con certeza algunos homininos de los humanos. Sea por la razón que fuere, en el caso de la ciencia encontramos un gran número de disciplinas, teorías y procedimientos que, en lugar de quedar con claridad dentro o fuera de la ciencia, pueden caracterizarse como protocientíficos, semicientíficos o ciencia fallida, o Echemos un rápido vistazo a estos Casos,

Una protociencia o ciencia emergente es, obviamente, una ciencia

in statu nascendi. Si sobrevive, puede desarrollarse y convertirse con

el tiempo en una ciencia madura, en una semiciencia o en una

pseudociencia. En otras palabras, cuando se dice que una disciplina

es una protociencia aún es pronto para decidir si es científica o no, Ejemplos: la física antes de Galileo y Huygens, la química antes de

Lavoisier y la medicina antes de Virchov y Bernard, Todas estas disciplinas maduraron finalmente y se hicieron plenamente científicas (podemos decir que la medicina y la ingeniería son científicas aun-

que se trata de tecnologías, no de ciencias). Una semiciencia es una disciplina que ha comenzado como una ciencia y a la que por lo general se le llama así, pero que todavía no cumple todos los requisitos para ser una ciencia. Sostengo que 438

la cosmología, la psicología, la economía y la politología aún son semiciencias, pese a lo avanzado de su edad. En efecto, la cosmología está repleta de especulaciones que contradicen principios sólidos de la física. Todavía hay psicólogos que niegan que la mente sea lo que el cerebro hace o que escriben sobre sistemas neurales

que “implementan” o “median” las funciones mentales. Además, desde luego, con frecuencia los llamados premios Nobel de mía se otorgan a los inventores de modelos matemáticos representan en absoluto la realidad económica —siquiera no prestan atención a la producción ni a la política— o a

econoque no porque los pla-

nificadores de políticas económicas que perjudican a los pobres. Hasta aquí los casos flagrantes de pseudociencia. A veces resulta difícil saber si algo es científico, semicientífico o pseudocientífico. Por ejemplo, la inmensa mayoría de los físicos del siglo XIX consideraban que la hipótesis atómica era pseudocientífica porque su investigación sólo había aportado pruebas indirectas. Más aún, como no existían teorías detalladas sobre los átomos individuales, el atomismo era sólo comprobable débilmente, a saber, mediante las predicciones de la mecánica estadística y la química. Sin embargo,

la teoría se hizo científicamente respetable casi de un día para otro como consecuencia de la teoría de Einstein sobre el movimiento browniano y de la confirmación experimental de la misma realizada por Perrin. Sólo los positivistas recalcitrantes, como Ernst Mach y

Pierre Duhem, se opusieron al atomismo hasta el final. Otro caso de interés filosófico es la teoría de cuerdas. Parece científica a causa de su impresionante aparato matemático y porque aborda un problema abierto que es a la vez importante y difícil: el de desarrollar una teoría cuántica de la gravedad. Por esta razón, así como porque ha dado origen a una matemática estupenda, todavía atrae a algunos de los cerebros jóvenes más brillantes. Sin embargo, la teoría postula que el espacio físico tiene 10 dimensiones en lugar de tres, con el único objetivo de garantizar la coherencia

de la teoría. Lisa Randall, una destacada partidaria de la teoría de cuerdas, ha especulado que el espacio físico tenía, en sus comienzos, todas las demás dimensiones, pero que las fue perdiendo con el tiempo. Sin duda, esta maniobra pone a la teoría a salvo de la re-

439

futación, pero parece una excusa, especialmente porque no se ofrecido ningún mecanismo que explique esa reducción. Como dimensiones suplementarias son inobservables y la teoría se ha sistido a la confirmación experimental desde su nacimiento

ha las reen

1968, recuerda a la ciencia ficción o, al menos, a la ciencia fallida, como ha admitido uno de sus antiguos entusiastas (Smolin, 2006).

El caso de la frenología, la “ciencia de las protuberancias crane-

ales”, resulta aleccionador. Esta disciplina resucitó la hipótesis de Galeno, materialista y comprobable, de que todas las funciones mentales son procesos cerebrales que pueden localizarse con precisión. Sin embargo, en lugar de poner a prueba esa estimulante

hipótesis, los frenólogos la vendieron con éxito en las ferias y otros lugares de entretenimiento: iban por ahí palpando las cabezas de

la gente y afirmando que localizaban los centros de la imaginación,

el altruismo, la inclinación a tener mucha descendencia, etcétera. El surgimiento de la neurociencia moderna de la mano de Ramón y Cajal acabó con la frenología. Lo que ahora está emergiendo es una simbiosis entre localización y coordinación, como hemos visto en la sección 9.3.

El descrédito de la frenología arroja dudas no sólo sobre el localizacionismo radical, sino también sobre los intentos científicos

de trazar un mapa de la mente en el cerebro. Más precisamente, en un comienzo los aparatos de obtención de imágenes cerebrales inventados en las tres últimas décadas fueron recibidos con escepucismo, porque la tentativa misma de localizar los procesos mentales parecía frenología. Sin embargo, los nuevos instrumentos demostraron ser muy fructíferos y, en lugar de confirmar la hipótesis fre-

nológica (un módulo por función), han dado lugar a una diversidad e ideas nuevas, entre ellas la concepción de que todos los subsis-

temas del cerebro están interconectados y que esas conexiones son

más fuertes cuanto más difícil es la tarea. Si un instrumento o una

ne

me

descubrimientos importantes, no puede ser pseudo-

pocent?1cos, porque: una de . las carácterísticas típicas de la pseudos e DE es que está construida en tor E no a alguna vieja superstic ión. n proced

imiento

útil 1 para evaluar el carácter científico de un enfoque nuevo es examinar por separado su corpus de

hipótesis

440

sustantivas 1 y su método M. De esta forma obtenemos una matriz 2:05 Ze

HM

HM

HM

HM

Sostengo que, en la actualidad, la neurociencia cognitiva está en

la esquina noroeste (4 y M correctos), en tanto que hace dos siglos, la frenología se hallaba en la esquina noreste (27 correcta, M incorrecto). Hoy en día, la escuela de la Gestalt, el conductismo y la

psicología cognitiva (especialmente el computacionalismo) se encuentran en la esquina suroeste (47 incorrecta, M correcto), mientras

que el psicoanálisis, la parapsicología y la psicología evolucionista contemporánea se sitúan en la esquina sureste (4 y M incorrectos).

Este es el rincón de las pseudociencias. Los elementos localizados fuera de la diagonal deben considerarse semiciencias: pueden des-

arrollarse y convertirse en ciencias hechas y derechas o acabar como pseudociencias; o pueden desaparecer en silencio por falta de nuevos

descubrimientos.

Una última advertencia. La mayoría de nosotros sospechamos de las teorías y los instrumentos radicalmente nuevos, lo cual es así

por dos motivos: por nuestra inercia intelectual o porque es necesario cuestionar a todo recién llegado para asegurarnos de que no

se trata de un impostor. Pero debemos distinguir entre estos dos motivos. Á las personas rigurosas e inquisitivas les agradan las novedades, a condición de que no amenacen con desacreditar ni desmantelar todo el sistema del conocimiento.

13.8 La relación entre pseudociencia y política La pseudociencia es siempre peligrosa poque contamina la cultura, y cuando lo que está en juego es la salud, la economía o la organización política, la ciencia espuria pone la vida, la libertad y la paz

en riesgo. Pero, desde luego, la pseudociencia se torna extremada44]

mente peligrosa cuando goza del apoyo de los gobiernos, las reli-

giones organizadas o las grandes empresas. Un puñado de ejemplos bastará para aclarar esto. A partir de la Ilustración, la mayoría de los progresistas ha sostenido que el genoma no determina nuestro destino: que no sólo podemos aprender a pensar, sino también a sentir y actuar, tanto de forma directa, a través de la imitación y el aprendizaje, como

de modo indirecto mediante la reforma social. En cambio, los conservadores y reaccionarios de todas layas han abrazado el innatismo o nativismo, la opinión de que nacemos con todas las características que emergen en el trascurso de nuestras vidas. Así pues, las escrituras

sagradas hindúes consagraron el sistema de castas, la Biblia sostiene que los judíos fueron escogidos por Yahvé; Aristóteles, que los “bár-

baros” eran inferiores a los helenos; los colonialistas europeos, que

los pueblos conquistados eran salvajes, buenos sólo para ser esclavizados o exterminados, y un largo etcétera. La posición innatistaconservadora se debilitó considerablemente con la Ilustración y la subsiguiente difusión de las ideologías de izquierdas, pero resurge de cuando en cuando. Lo hizo con especial virulencia en forma de

darwinismo social y más recientemente bajo el ala de la psicología evolucionista. Recordemos la última resurrección del innatismo “científico”.

Steven Pinker (2003), un profesor de Harvard y el psicólogo más popular de nuestra época, dedica un capítulo íntegro de uno

de sus influyentes libros a las cuestiones políticas que rodean el

dilema ambientalismo/innatismo. Pinker afirma que “las nuevas ciencias de la naturaleza humana”, desde la genética hasta la psicología evolucionista, justifican lo que él llama una visión trágica. Se trata, ni más ni menos, que del individualismo y el pesimismo de la economía ortodoxa y la filosofía política conservadora, desde Hobbes, Burke, Schopenhauer y Hayek hasta Thatcher y Reagan.

Pinker cita (0p. cit., pág, 294), en particular, los siguientes “des-

cubrimientos

de esas “ciencias nuevas”: “la primacía de los lazos

familiares”, a pesar del hecho de que en la mayoría de los casos los 'miembros o de las empresas, : los grupos ' políticos, los laboratorios,

os regimientos y los equipos deportivos no están relacionados ge-

442

néticamente; “el limitado alcance del reparto comunal en los grupos humanos”, aunque todas las sociedades humanas y muchas empresas modernas son cooperativas; “la universalidad del predominio y la violencia en todas las sociedades humanas”, a pesar de que la tasa de homicios ha disminuido en todas las sociedades civilizadas

durante el pasado siglo y ni siquiera las sociedades más divididas son básicamente tiránicas o violentas; y “la universalidad del etnocentrismo y otras formas de hostilidad entre grupos en todas las sociedades”, como si la innegable lucha no estuviese equilibrada por la cooperación, el cumplimiento de las leyes y los intereses

materiales.

Pero eso no es todo: para convencernos de que, básicamente, todos somos unas bestias egoístas y ruines, Pinker (Joc. cit.) completa la lista anterior con lo siguiente: “la heredabilidad parcial de la inteligencia, la meticulosidad y las tendencias antisociales”, aunque todas esas capacidades pueden fomentarse o reprimirse mediante la educación y el control social informal; “la prevalencia de mecanismos de defensa, la parcialidad interesada y la reducción de las disonancias cognitivas”, las cuales, aunque reales, son, sin duda,

menos acentuadas en las sociedades del estado de bienestar que en la “liberales”; “los sesgos del sentido moral humano”, incluidos el

nepotismo y el conformismo, lo cual es cierto, pero no implica pa-

sar por alto el hecho de que junto al egoísmo se dan el altruismo

y el inconformismo, y que con frecuencia el progreso político incluye el progreso moral. Todo esto constituye un claro ejemplo de reduccionismo radical fallido; en este caso ha fracasado la reducción de las ciencias sociales a la genética y la psicología. Además, la lista de logros de la “nueva ciencia de la naturaleza humana” de Pinker

parece el preámbulo de un Manifiesto de la Nueva Derecha, más que un resumen de descubrimientos científicos. El compromiso

con una ideología política reaccionaria es un indicador fiable de la naturaleza pseudocientífica de una disciplina. Gran parte de lo anterior vale también para los autoproclamados psicólogos evolucionistas a los que Pinker admira: ellos también

afirman confiadamente que la desigualdad social está en los genes y que, por consiguiente, las revoluciones sociales están condenadas

443

al fracaso. Barkow (2006, pág. 36), por ejemplo, uno de los fundadores, escribe: “La estratificación social es un reflejo del hecho

evolutivo de que las personas desean más ventajas para sus hijos de las que desean para los hijos de los demás”. Sin embargo, seguramente las barreras de clase, por definición, ralentizan o impiden del todo la movilidad social. De lo que se sigue que sólo una sociedad sin clases o, al menos, una sociedad en la que las barreras sociales sean permeables, permite el desarrollo personal. Adviértase que este es un argumento puramente lógico. Lo que sí exige pruebas empíricas es el supuesto de que la ambición de tener más descendencia es innata y, por tanto, universal. Pero la genética humana no ha confirmado esta afirmación de la genética pop.

En lugar de tener raíces biológicas, la estratificación social tiene un fuerte impacto en la calidad y la duración de la vida: la gente

situada en lo alto vive mejor y más tiempo que sus subordinados.

He aquí a grandes rasgos el mecanismo psiconeuroendocrinoinmunitario: subordinación —> estrés + liberación de cortisol =>

elevación de la presión sanguínea y la glucemia — mayor morbi-

lidad. Por eso la vida es mejor y más larga en Japón y en los países nórdicos que en las sociedades menos igualitarias, como Estados Unidos y el Reino Unido (véase, por ejemplo, Wilkinson y Pickett, 2009).

Además, los arqueólogos sociales han descubierto que la estratificación social no surgió hasta hace unos 5000 años, junto con la

civilización. Tal como dice Trigger (2003b, pág. 44) en su monu-

mental tratado, “los antropólogos utilizan la expresión “antiguas civilizaciones para las formas más antiguas y simples de sociedad,

en las cuales el principio rector básico de las relaciones sociales no era el parentesco, sino una jerarquía de divisiones sociales que atra-

vesaba trasversalmente la sociedad, cuyos estamentos poseían desigual poder, riqueza y prestigio social”. Sin embargo, pasemos a

otros especímenes de pseudociencia.

Los legisladores estadounidenses recurrieron a la eugenesia, fo-

mentada en una época por muchos científicos e intelectuales pú-

blicos) de buenala fe, fe, parapar: proponer y aprobar b proyectos de ley que restringían la inmigración de personas de “razas inferiores” cb

444

dujeron al internamiento de miles de niños considerados débiles

mentales. Esa misma “ciencia” justificaba las políticas raciales de las potencias coloniales y los nazis, y llevó a la esclavización o ase-

sinato de millones de amerindios, indios, negros, eslavos, judíos y gitanos. La crisis mundial que comenzó en 2008 es un ejemplo más actual de las catastróficas consecuencias sociales que resultaron de las

políticas sociales inspiradas en filosofías económicas y políticas equivocadas. En efecto, hay consenso de que las culpables de esta crisis son las políticas de /aissez faire aplicadas por los gobiernos estadounidense y británico desde los tiempos de Ronald Reagan y Margatet Thatcher. Ahora bien, laíssez faire no es un lema ideológico aislado: se trata de la consecuencia lógica de dos dogmas que se mantienen de forma acrítica, pese a los cambios en la realidad

económica desde que Adam Smith (1776) publicó su gran obra. Estos dogmas son los principios de que a) el único objetivo de la actividad económica es el beneficio privado. y b) el mercado libre (no regulado) se autorregula, es decir, está siempre en equilibrio o

cerca del mismo, por lo que, sin duda, toda intervención tendrá en él un efecto perjudicial. A su vez, la hipótesis anterior se apoya en tres doctrinas filosóficas

aceptadas sin examen: una ontología individualista, una gnoseología acientífica y una ética individualista. El individualismo es la tesis de que sólo los individuos existen: que las entidades colectivas, como las empresas y las naciones, son producto de la imaginación. Esta tesis es errónea: lo que es ficticio es el individuo aislado. Tal como hemos sostenido en otra parte (por ejemplo, en Bunge 2003a), todo lo que existe en el mundo real es un sistema o un componente de un sistema. En este caso particular, las acciones de

individuo sólo pueden comprenderse en su contexto social. Se pue-

de comenzar el análisis en el nivel micro o en el macro, pero ningún

análisis será satisfactorio si desatiende uno de los dos extremos. La

lección metodológica es que toda explicación satisfactoria de un hecho social incluirá lo que he llamado diagramas de Boudon-Coleman (Bunge, 1996). He aquí un ejemplo reciente:

macronivel

crédito fácil

——=>

burbuja

A micronivel

inmobiliaria

A

aumento de demanda de viviendas

Xx

crisis

4

incumplimiento

Los diagramas de Boudon-Coleman van a contracorriente de la metodología individualista radical, la cual exhorta a permanecer

siempre en el micronivel. Este punto de vista metodológico no puede mantenerse neutral en la controversia gnoseológica entre realismo (u objetivismo) y subjetivismo: si es coherente, ha de comenzar en la experiencia cognitiva individual y no en el conocimiento, el cual

se aprende en sociedad y se pone a prueba en las comunidades cien-

tíficas (el “escepticismo organizado” de Merton). Por consiguiente,

el individualista metodológico debe ser o bien un subjetivista radical (como Berkeley, Kant, Fichte o Husserl), o bien un empirista radical

(como Hume, Comte, Mill o Carnap). La combinación de Popper

de individualismo metodológico radical y realismo gnoseológico no funciona. Así como el holismo se acompaña de una ética del deber, como

ocurre con las de Confucio y de Kant, el individualismo está unido a la consigna egoísta “cada uno para sí”. El sistemismo, en cambio,

propone una ética humanística en la cual los derechos y los deberes son igualmente importantes. En esta filosofía moral, todo derecho

supone un deber y viceversa. Por ejemplo, mi derecho a ganarme la vida supone el deber de ayudar a otros a sobrevivir, y mi deber de pagar impuestos supone mi derecho de participar en la decisión de cómo se gastará ese dinero. Sostengo que las personas corrientes se rigen por una filosofía moral como esta, en tanto que los economis-

tas ortodoxos y los políticos conservadores predican la deontología a las masas mientras aconsejan el egoísmo a sus clientes. Todas las economías desarrolladas se rigen por políticas de alguna

clase. A su vez, esas políticas se diseñan sobre la base de teorías eco-

nómicas y principios morales, y son propuestas o puestas en práctica

por partidos políticos y gobiernos;

446

POLÍTICA

Y

POLÍTICAS ECONÓMICAS

A

TEORÍAS

ECONÓMICAS

Y

FILOSOFÍAS MORALES

El economista ortodoxo objetará la inclusión de la política y la moral entre los determinantes de las políticas económicas: dirá que

se trata de reglas puramente técnicas pertenecientes al manual de operación de la maquinaria macroeconómica. Esta afirmación, sin

embargo, es incorrecta en el mejor de los casos y no sincera en el peor de ellos, puesto que no hay duda de que toda política económica hará progresar unos intereses al tiempo que perjudicará otros. Por ejemplo, el comercio libre favorece a los fuertes mientras que

frena el desarrollo de los débiles; y el estado de bienestar mejora la suerte de los pobres mediante impuestos a los ricos. En resumen,

toda política pública está moralmente comprometida. Así lo entendió el gran socioeconomista Gunnar Myrdal cuando, hace ya tiempo, nos exhortaba: ¡Declarad vuestros valores! Si no lo hacemos,

tal vez estemos contribuyendo a justificar la pseudociencia o la ciencia mercenaria, sobre la cual diremos algo a continuación. 13.9 La ciencia mercenaria

El hecho de que, a lo largo del siglo XX, numerosos científicos hayan firmado pactos fáusticos con el demonio de la guerra ha dado mala prensa a la ciencia y disuadido a muchos jóvenes capaces de seguir una carrera científica. Por ello, ahora echaremos un vistazo a la cien-

cia mercenaria, la clase de ciencia que borra el lado humanista del pentágono filosófico de la figura 13.1 en la sección 13.2. Mientras que la ciencia básica es desinteresada, la finalidad de los proyectos de ciencia aplicada es conseguir resultados de posible interés práctico; y, desde luego, los tecnólogos diseñan, reparan o mantienen artefactos de toda clase, desde máquinas hasta organizaciones sociales. Por ejemplo, la química básica y la biología pro447

porcionan el conocimiento antecedente que utiliza la farmacología, la cual analiza o sintetiza compuestos químicos con un posible uso terapéutico y la industria farmacológico, junto con la medicina,

diseñan y ponen a prueba los fármacos y las terapias. El flujo normal del conocimiento entre los tres ámbitos es este: ciencia básica

———=> ciencia aplicada

———>-

tecnología

Además, existe la ciencia mercenaria o ciencia de alquiler, que

se desentiende de sus consecuencias morales o ni siquiera se plantea

si sus resultados serán utilizados para fines malvados o no. La ciencia mercenaria es excepcional porque la inmensa mayoría de los científicos no se interesan por las aplicaciones prácticas; además, carecen de las competencias necesarias para “traducir” la ciencia a tecnología. Con todo, en diversos casos ha prevalecido el patriotismo, el fervor ideológico, la codicia o el deseo de codearse con los poderosos (el llamado complejo de Kissinger), y algunos grandes científicos

se han reinventado como mefistofélicos tecnólogos de ocasión: recuérdense los casos del fosgeno, el gas nervioso, la bomba de hi-

drógeno, el napalm, el agente naranja, las bombas antipersonas de racimo, así como el gen terminator (véase Cornwell, 2003; Schwartz

et al., 1972).

be

Algunos de los científicos que han practicado la ciencia mercenaria no eran empleados de compañías anónimas ni funcionarios, sino físicos o químicos distinguidos, algunos de ellos premios No-

bel. En cambio, los profesores que trabajaron para la CIA o para la KGB, mientras simulaban una devoción por la libertad y la paz,

o aconsejaron al Pentágono cómo asesinar a campesinos vietnamitas, no cuentan como científicos mercenarios porque lo que hacían era pseudociencia (véase, por ejemplo, Lang, 1981; Stonor Saunders, 2000). Lo mismo es cierto de los premios Nobel de eco-

nomía que, para delicia de la industria petrolera, negaron la realidad del calentamiento global y hasta la finitud de los depósitos de petróleo.

Los politólogos mercenarios son los más siniestros, pero no los únicos violadores del código ético de la ciencia. Los bromatólogos 448

DD

ADN

pus

que buscan la mejor combinación de grasa, azúcar y sal para inci-

tarnos a comer más galletas o comida para bebés y engancharnos a ellas no les van a la zaga. Andan en compañía de los químicos empleados por las grandes compañías tabaqueras que manipularon la nicotina para que fumar fuera todavía más adictivo. Añadamos

a ello los psicólogos que ayudan a diseñar publicidad engañosa y obtendremos un retrato de un enorme cantidad de científicos naturales, sociales y biosociales a quienes se les paga para utilizar la ciencia contra la gente. La única defensa eficaz contra este ejército

mercenario es disponer de más y mejor educación científica.

13.10 La filosofía: genuina y espuria, procientífica y anticientífica La pseudofilosofía es el sinsentido haciéndose pasar por filosofía profunda. Puede que haya existido desde Lao Tse, pero no fue to-

mada en serio hasta alrededor de 1800, cuando los románticos cuestionaron la Ilustración. Al abandonar la racionalidad, los primeros dieron origen a un montón de pseudofilosofía: recuérdense las lunáticas afirmaciones de Hegel, Fichte, Schelling y sus seguidores británicos (véase, por ejemplo, Stove, 1991). Es verdad que Hegel abordó algunos problemas importantes, por lo que su trabajo no se puede descartar a la ligera. Sin embargo, en los casos en que

resulta mínimamente comprensible, su obra está por lo general equivocada cuando se la analiza a la luz de la ciencia más avanzada

de su época. Peor aún, ensalzó la idea errónea de que la profundidad

debe ser oscura.

Nuestra caracterización de la investigación científica, expuesta

en el capítulo anterior, incluye ideas filosóficas de cinco clases: lógicas, semánticas, ontológicas, gnoseológicas (especialmente metodológicas) y éticas. En particular, incluye las nociones de consecuencia y coherencia lógicas, las nociones semánticas de significado y verdad, los conceptos ontológicos de hecho real y ley (pauta objetiva), los conceptos gnoseológicos de conocimiento y comprobación, y los principios morales de honradez intelectual y

449

servicio público, ¿Cuál es la razón de que la ciencia tenga estos compromisos filosóficos? Veámoslo.

La investigación científica posee fundamentos filosóficos porque es, en síntesis, la búsqueda honrada de conocimiento verdadero acerca del mundo real, especialmente de sus leyes, con ayuda de medios tanto feóricos como empíricos —más precisamente del método cien-

tifico— y porque se supone que todo corpus de conocimiento cientÍfico debe ser lógicamente coherente, así como objeto de debate racional en el seno de una comunidad de investigadores. Todas las expresiones en cursiva aparecen en los discursos (metacientíficos) sobre sobre cualquier ciencia fáctica (empírica). Y la disciplina que

se encarga de dilucidar y sistematizar los conceptos correspondien-

tes es la filosofía. En efecto, la filosofía es el estudio de los conceptos y principios más fundamentales y trasdiciplinarios. Por

consiguiente, se supone que los filósofos son generalistas, no especialistas. Y algunos de nosotros asumimos con frecuencia la ingrata tarea de juzgar los méritos de algunas creencias pseudocientíficas o ideológicas. Ahora bien, diferentes escuelas filosóficas tratan los componentes de la ciencia mencionados de forma diferente o no los tratan en absoluto. Recordemos brevemente sólo cuatro ejemplos contemporáneos de gran influencia: el marxismo, el existencialismo, el positivismo lógico y el popperianismo. o

El marxismo introdujo algunas ideas revolucionarias en las cien-

cias sociales, en particular la concepción materialista de la historia

y la importancia central del conflicto social. Sin embargo, el materialismo marxista es estrictamente economicista: infravalora los

papeles de la política y la ideología (especialmente el de la ideología). Además, al seguir a Hegel, el marxismo confunde la lógica con la ontología y, por tanto, se muestra suspicaz respecto a la lógica

formal; su ontología materialista está viciada por las oscuridades

románticas de la dialéctica, por ejemplo el principio de la unidad de los opuestos; su gnoseología es el realismo ingenuo (la “teoría

del conocimiento como reflejo”), que no da cabida a la naturaleza simbólica de la matemática pura y la física teórica; glorifica las totalidades sociales en detrimento de los individuos y sus aspiraciones 450

legítimas, exagera el impacto de la sociedad en la cognición y se adhiere a una ética utilitaria que excluye la investigación desinteresada, por no mencionar el altruismo.

No sorprende, pues, que cuando estuvieron en el poder, los filósofos materialistas dialécticos se resistieran a los desarrollos científicos más revolucionarios de su época: la lógica matemática, la teoría de la relatividad, la mecánica cuántica, la química cuántica,

la genética, la teoría sintética de la evolución y la neuropsicología postpavloviana (véase, por ejemplo, Graham, 1981). Pero el pecado más grave del materialismo dialéctico es que, como sobrevalora el conflicto, subestima la cooperación yes, en realidad, una filosofía de la guerra, aun cuando sus partidarios declaren su amor por la paz.

Sin embargo, los profundos defectos del marxismo parecen un bello paisaje en comparación con los absurdos del existencialismo. Esta doctrina hermética rechaza la lógica y, en general, la raciona-

lidad, y gira en torno a una ontología extremadamente incompleta, casi ininteligible y hasta ridícula. Baste recordar la caracterización que ofrece Heidegger del ser y el tiempo, los temas centrales del libro que lo hizo famoso de la noche a la mañana: “El ser es SÍ mismo” y “El tiempo es la maduración de la temporalidad”. Otros dos aforismos famosos del mismo autor son “El mundo mundea” y “La

palabra es la casa del Ser”. Todo esto no es más que sinsentido y, por consiguiente, ni siquiera es falso. Sin embargo, puede sonarle profundo al ingenuo y atrae a los perezosos, ya que desalienta la discusión racional. Más aún, el existencialismo no necesita semántica, gnoseología ni ética. Y como era de esperar, no ha tenido ningún efecto sobre

la ciencia, salvo de forma indirecta y negativa, a través del envilecimiento de la razón y su apoyo al nazismo. Tampoco sorprende

que no haya producido una filosofía de la ciencia que resulte inteligible ni, mucho menos, estimulante. Realmente, el existencialismo

es un ejemplo de libro de pseudofilosofía. En cambio, el positivismo lógico utiliza la lógica moderna, de-

fiende el cientificismo y critica el oscurantismo. Pero no tiene una semántica defendible, aparte de la tesis operacionista de que 451

el significado de una proposición es igual a su comprobabilidad, toda una confusión de categorías. Tampoco tiene una ontología salvo el fenomenismo (“sólo existen las apariencias”). Su gnose-

ología sobrestima la inducción y malinterpreta o infravalora la teoría científica, la cual conceptúa como un mero compendio de datos. Además, no posee una ética, con excepción del emo-

tivismo de Hume. Como cabía esperar, los positivistas lógicos entendieron de forma errónea tanto la física relativista como la cuántica, que interpretaron en términos de Operaciones

de labo-

ratorio, no como representaciones de entidades físicas objetiva-

mente existentes, que existen aun cuando el observador esté ausente (véase, por ejemplo, Bunge, 1973a). A pesar de todo, el postivismo lógico es cientificista y, por ello, muy superior a la postura anticientífica del posmodernismo.

Sin embargo, para bien

o para mal, el positivismo lógico está muerto, salvo en algunos textos de ciencias. Karl Popper desempeñó un papel central en la muerte del positivismo lógico. Elogió la racionalidad y la búsqueda del conocimiento, pero rechazó el intento mismo de dilucidar los Conceptos de significado e interpretación, sin los cuales resulta imposible aplicar la matemática a las ciencias. No tenía una ontología, salvo la individualista (o atomista o nominalista), que hace imposible la

ingeniería social, a pesar de lo cual era partidario de la misma. Pop-

per apreciaba la teoría hasta el extremo de considerar que la obser-

vación, la medición y el experimento no eran más que medios para poner a prueba las hipótesis. Sobrevaloró la crítica, subestimó el

descubrimiento y la inducción, no dio cabida a las pruebas positivas y carecía de ética, salvo la exhortación de Buda, Epicuro e Hipócrates a no hacer daño. Á causa de su abuso de la palabra “no”, po-

demos llamar a la filosofía de Popper negativismo lógico (Bunge,

1999). Con todo, Popper tiene el mérito de haber defendido la racionalidad y la interpretación realista de las teorías físicas, así como los de haberle bajado los humos al inductivismo y haber demos-

trado la imposibilidad de una lógica inductiva. Pero Popper subestimó y —aunque la admitió— malinterpretó la biología evolutiva, que para él consistía nada más que en la eli452

minación de los inadaptados; se opuso al monismo psiconeural inherente a la psicología biológica, rechazó la concepción materialista

de la historia adoptada por la escuela histórica más avanzada (la de los Annales) y defendió la microeconomía neoclásica, que —como sostendré a continuación— es pseudocientífica por ser conceptualmente confusa e inmune a la falsación empírica. En suma, ninguna de las cuatro escuelas mencionadas aquí casa

con la filosofía propia de la ciencia. Mi opinión es que toda filosofía capaz de comprender, utilizar y fomentar la investigación científica posee las siguientes características,

1. Lógicas. Coherencia interna y respeto de las reglas de la inferencia deductiva; admisión de la analogía y la inducción como medios heurísticos, pero no de la validación a priori de los argumentos analógicos ni inductivos. 2. Semánticas. Una teoría realista del significado como referencia supuesta (denotación) —diferente de la extensión o dominio de verdad— junto con sentido o connotación. Además, una concep-

ción realista de la verdad fáctica en términos de la correspondencia de una proposición con los hechos a los cuales se refiere. 3. Ontológicas. El materialismo, según el cual todas las cosas re-

ales son materiales (poseen energía) y se comportan según leyes (causales, probabilísticas o mixtas). Los procesos mentales son procesos cerebrales y las ideas en sí —independientemente de su verdad o utilidad— son ficciones. El dinamicismo, según el cual todas las cosas están en movimiento. El sistemismo, según el cual cada cosa

es o bien un sistema, o bien un componente (potencial o actual) de un sistema. El emergentismo, de acuerdo con el cual todo sis-

tema posee propiedades (sistémicas o emergentes) de las cuales carecen sus componentes.

4. Gnoseológicas. El realismo científico, para el cual es posible co-

nocer la realidad, por lo menos de forma parcial y gradual, y que supone que las teorías científicas representan partes o características

del mundo real, independientemente de lo perfecta o imperfecta-

mente que lo hagan. El escepticismo moderado: el conocimiento científico es tanto perfectible como falible. Sin embargo, algunos

descubrimientos —por ejemplo, que hay átomos y campos, que

no existen las ideas incorpóreas y que la ciencia rinde frutos— son

adquisiciones firmes. El empirismo moderado, según el cual todas las hipótesis fácticas deben ser empíricamente comprobables, no importa cuán indirectamente, y las pruebas tanto positivas como negativas son valiosos indicadores de su valor de verdad. El racionalismo moderado: el conocimiento avanza mediante la combina-

ción de conjeturas

fundamentadas

y razonamiento

con

la

experiencia. El cientificismo, que sostiene que la mejor manera de conocer todo lo que es cognoscible, y merece la pena ser conocido,

es la científica. 5. Eticas. El humanismo secular, para el cual la norma moral suprema es “procura el bienestar (biológico, mental y social) pro-

pio y de los demás”. Esta máxima ordena que la investigación

científica debe satisfacer la curiosidad o la necesidad y debe abs-

tenerse de producir perjuicios injustificables. El socialismo epistémico, que afirma que el trabajo de científico, sin importar cuán

artesanal pueda ser, es social, y que es estimulado o inhibido por

los colegas y por el orden social reinante, a la vez que el árbitro

(provisional) no es ninguna autoridad institucional, sino la co-

munidad de expertos. Toda comunidad de esta clase prospera gra-

cias a los logros de sus miembros

y facilita la detección

y

corrección de los errores. (Advertencia: lo dicho dista mucho de

la afirmación marxiana de que las ideas son segregadas y exterminadas por la sociedad; y discrepa, también, de la concepción

constructivista-relativista de que los “hechos científicos” son construcciones sociales locales, es decir, meras convenciones tribales

o propias de la comunidad). Sostengo que los principios mencionados se cumplen, tácitamente, en las ciencias maduras o “duras” (la física, la química, la

biología y la historia); que en las ciencias inmaduras o “blandas”

(la psicología y las ciencias sociales no históricas) sólo se cumplen gunos; y que en las pseudociencias se transgreden la mayoría o todos ellos. En resumen, repito que la gran ciencia se alimenta de una filosofía sólida, tal como he propuesto en la figura 13.1. En

454

COMERCIALISMO 2

=_ IRRACIONALISMO a

Nx

-— ANTISISTEMISMO

SS

PSEUDOCIENCIA 4

SUBJETIVISMO A

ESPIRITUALISMO

Figura 13.2. La matriz ideológica de la pseudociencia.

cambio, la pseudociencia crece en un nido construido con elementos erróneos, algunos de ellos característicos de la pseudofilosofía posmoderna: véase la figura 13.2. Además, las pseudociencias son afines a la religión, hasta el ex-

tremo de que algunas de ellas funcionan como sustitutos de la misma. El motivo es que comparten el idealismo filosófico y una ética no humanística. En efecto, tanto la pseudociencia como la religión postulan entidades inmateriales, capacidades cognitivas paranormales y una ética heterónoma. Analicemos esto último con un poco más de cuidado. | Toda religión posee un núcleo filosófico, y las filosofías inherentes a las diversas religiones comparten los siguientes principios idealistas. Una ontología idealista, según la cual existen entidades espirituales independientes, como las almas y las deidades, que no se rigen por ninguna ley científica. Una gnoseología idealista, según la cual algunas personas poseen capacidades cognitivas que exceden el alcance de la psicología experimental: la inspiración divina, la intuición innata o el poder de detectar seres espirituales o profetizar acontecimientos sin ayuda de la ciencia. Una ética heterónoma, según la cual todas las personas están sometidas a potencias sobrehumanas omnipotentes e inescrutables, y nadie está obligado a Justificar sus creencias mediante argumentos racionales ni experimentos científicos. 455

Los tres componentes filosóficos que tienen en común la religión y la pseudociencia van a contracorriente de la filosofía propia de la ciencia. Por tanto, las tesis de que la ciencia es una ideología más que no puede entrar en conflicto con la religión porque se ocupa de problemas diferentes de formas diferentes, pero mutuamente compatibles, son falsas. (Más sobre la religión y la ciencia en Bunge,

2009; Mahner y Bunge, 1996). Comentarios finales

A la serpiente se la culpó de tentar a Eva sobre el supuesto de que el conocimiento era malo. A medida que las sociedades se fueron secularizando, aprendimos que el conocimiento es intrínsecamente

bueno, aunque no en todos los casos digno del esfuerzo necesario para procurarlo. También aprendimos que el conocimiento puede

utilizarse mal y que puede simularse o falsificarse, casi como cual-

quier otra cosa. Dado que el conocimiento científico es de dominio público, su mala utilización, su venta en beneficio particular o su

falsificación equivalen a robar a la comunidad. El curanderismo o charlatanismo médico es un caso pertinente,

Es mucho más fácil de identificar y ridiculizar que otras clases de conocimiento espurio porque contradice con descaro la biología y

la única base de su práctica es la fe, sin que ningún laboratorio de pruebas clínicas muestre que semejantes prácticas funcionan mejor que los placebos. Pese a ello, las medicinas alternativas continúan

medrando bajo la protección de la ideología del mercado libre. Más aún, algunas de ellas, tales como la medicina fenomenológica, la

medicina narrativa, la psiquiatría existencialista y la psiquiatría trascultural, se enseñan en escuelas de medicina prestigiosas al mismo

tiempo que la medicina científica. Si prevalece esta tendencia, la

gente enferma tendra que recurrir a las clínicas veterinarias.

Podemos apostar con confianza a que las medicinas alternativas

seguirán prosperando dondequiera que la práctica de la medicina se considere un negocio antes que un servicio social, dondequiera

que la pseudofilosofía se mire con respeto reverencial sólo a causa 456

de la tendencia de confundir el hermetismo con la profundidad. En consecuencia, depende de las autoridades sanitarias, las asociaciones médicas y los académicos y los periodistas serios alertar al público y enseñarle que la única alternativa a la peligrosa charlatanería médica es una medicina mejor. En el ámbito académico se tolera gran parte del conocimiento espurio en nombre de la libertad académica, lo cual equivale a ven-

der alimentos contaminados en el nombre de la libre empresa. Sostengo que esa tolerancia es suicida: que debemos proteger a los estudiantes serios de la turba del “todo vale”. Esa protección la de-

ben proporcionar las filosofías de la materia y la mente. Para hacerlo, se las debe colocar entre la lógica, por un lado, y la ciencia

al día por el otro. Defender o atacar el materialismo sin saber qué es la materia es una práctica engañosa, así como una pérdida de tiempo. Además, no resulta productivo defender ni atacar el monismo psiconeural hasta saber un poco de psicología biológica. En resumidas cuentas, no basta con producir conocimiento genuino: también debemos examinar y condenar el conocimiento

espurio porque distrae y engaña. Sin embargo, nunca debemos llamar pseudocientíficas a las ideas nuevas sólo porque resultan poco intuitivas. Recuérdese que en el siglo XIX casi todos los físicos y filosofos etiquetaron al atomismo de pseudocientífico. Evitemos ser

estrechos de miras y no dejemos de utilizar nuestros filtros filosóficos.

Parte III

Apéndices

14 Apéndice A: Los objetos

En la lengua corriente, la palabra “objeto” denota una cosa material que se puede ver y tocar. En cambio, en la filosofía moderna, el

término “objeto” (objectum, Gegenstand) significa cualquier cosa

concebible: se lo aplica a cosas concretas y abstractas, a ensamblados

arbitrarios y totalidades estructuradas, a electrones y naciones, a

piedras y fantasmas, a individuos y conjuntos, a propiedades y su-

cesos, a hechos y ficciones, etcétera.

El de objeto es, por tanto, el más general de los conceptos filosóficos. De hecho, es tan general que se lo utiliza en todas las ramas

de la filosofía en todos los idiomas, aunque no siempre de manera

coherente. Por ejemplo, alguien podría decir que los temas de este

capítulo son objetos, en tanto que su objeto o finalidad es dilucidar “objeto”.

Con todo, hasta donde yo se, no hay ninguna teoría de los ob-

Jetos que cuente con la aceptación general. Es cierto, se esperaba

que la mereología, o cálculo de invidividuos, llenara ese vacío. Por

desgracia, esta teoría es sumamente complicada, utiliza una nota-

ción abstrusa y no logra mucho porque sigue el programa nomi-

nalista y, por tanto, evita las propiedades. En cuanto a las teorías de los objetos propuestas por Meinong y Routley, sólo se las conoce

moderadamente bien a causa, posiblemente, de que incluyen ob-

jetos imposibles en el mismo nivel de los posibles. La finalidad de este capítulo es formular una teoría general de los objetos que no adolezca de esos defectos. Sin embargo, invitamos ale

inclinado a los simbolismos a saltarse estas páginas

14.1 Individuos y propiedades Propondremos una teoría axiomática de los individuos de una clase cualquiera. La primera sección sólo presupone el cálculo de predicados clásicos con identidad, una pizca de notación propia de la teoría de conjuntos y otra de notación de la teoría de semigrupos;

el balance del capítulo utiliza también el concepto de función matemática. Los conceptos primitivos (indefinidos) específicos son los de individuo y propiedad. Como todos los primitivos, estos es-

tán dilucidados por los postulados en los que están incluidos. Llamaremos X al conjunto de todos los individuos y P al conjunto de todas las propiedades (de n-ariedad). Como de costumbre,

interpretaremos la fórmula “Px”, en la que P pertenece a P y xa X, como “x es un 2” o “el individuo x posee la propiedad P”. Asimismo, interpretaremos la fórmula “Rxy”, en la que x e y pertenecen a X, y R pertenece a P, como “x está relacionada-R con y” o “R relaciona a individuos x e y”.

Definición 1. Todo objeto es o bien un individuo, o bien una propiedad: Q =XUP.

Por consiguiente, nuestros axiomas para los objetos se referirán a individuos, a propiedades o a ambos. Comenzaremos con el

Axioma 1. Ningún objeto es tanto individuo como propiedad: XnP =P. Axioma 2. Todo individuo posee al menos una propiedad: Vx1P(x E X) (P € P)Px.

El complemento de este postulado afirma que no hay propiedades en sí: 462

Axioma 3. loda propiedad es poseída por al menos un individuo: VPIX(P € P Ex € X)Px.

Todas las ciencias adoptan tácitamente este postulado, propuesto

originalmente por Aristóteles en su crítica a la teoría de las formas de Platón. Sin embargo, la filosofía de la mente funcionalista lo

niega y postula que las funciones mentales no son funciones cerebrales. Axioma 4. Todo individuo está relacionado con al menos otro in-

dividuo: Vx Ty(x,y € X) (R € Px) [-(x« = y) 82Rxy].

Axioma 5. Toda propiedad de un individuo está relacionada por lo menos con otra propiedad del mismo individuo:

VxWP(x € XD Q € P)(Px € JQH(Q= P)82Qx]). En otras palabras, las propiedades se presentan en grupos, no de forma mutuamente independiente. La razón de ello es que las propiedades satisfacen leyes, la gran mayoría de las cuales relaciona dos o más propiedades. Por último, propondremos el siguiente predicado de existencia relativa, Definición 1. Sea C un subconjunto no vacío de un conjunto X, y Y la función característica de C, es decir, la función xc: X—

(0, 1),

tal que xx) = 1 si y solo si x pertenece a C, y de lo contrario xx) = 0, El predicado de existencia relativa (o contextual) es la función, cuyos valores son enunciados,

Ec: C + conjunto de enunciados que contienen Ec

tal que “Edx)” sea verdadero si y sólo si xc(x) = 1. 463

La fórmula “E4x)” se interpreta “x existe en C” y es equivalente axd)

= 1.

Adviértase que el mencionado predicado de existencia no tiene

relación con el cuantificador “existencial”, que yo prefiero llamar “particularizador”. Sostengo que “AxPx” sólo dice que algunos individuos poseen la propiedad 7. Su existencia debe suponerse o negarse por separado. Por ejemplo, “algunas entidades postuladas existen en el mundo real” se puede simbolizar “AxEwPx”, donde » representa la colección de las cosas reales. Quienquiera que asuma un compromiso ontológico utiliza de forma tácita E, no 3. Desde luego, se podría objetar que es mucho

más sencillo afirmar que x pertenece a C, o x€ C. Esta objeción,

sin embargo, no capta la idea, que consistía en proponer un predicado de existencia Ec y distinguirlo del particularizador 3. Sólo

un imperialista lógico podría dejar de hacer esta distinción, la cual aunque resulta innecesaria en las cuestiones formales, es esencial en

las fácticas, donde ningún decreto puede garantizar la existencia. Hasta aquí no hemos distinguido entre objetos concretos, por

ejemplo los numerales, y los objetos ideales, por ejemplo los números. Procederemos a hacer esta distinción.

14.2 Los objetos materiales

Considérese el sistema algebraico S=,

en el cual M es un subconjunto del conjunto X de todos los individuos, en tanto que O y 1 son elementos distinguidos de M. Suponemos que dos miembros cualesquiera, x e y, de M se unen (o

encadenan) para formar un tercer miembro x O y de Mi, llamado suma física (o mereológica) de x e y. Una cadena no es necesariamente un sistema; es decir, no es

obligatorio que haya vínculos entre sus elementos: un ensamblado

arbitrario de cosas cuenta como un objeto. En este sentido, nuestro 464

concepto técnico de objeto violenta el sentido común (Koslicki, 2008). Disponemos, sin embargo, de otra palabra para denotar al objeto complejo provisto de una estructura que le otorga unidad

y cohesión: sistema.

En todo caso, necesitamos el concepto de objeto, que es más general, porque hay objetos simples, esto es, objetos que carecen de estructura. Además, ya que algunos objetos, tales como las propiedades, los acontecimientos y los constructos, no son cosas. Sin embargo, volvamos a nuestras cadenas o sumas mereológicas.

Formalizaremos la noción intuitiva anterior de encadenamiento mediante la introducción del Axioma 6. S es un monoide, es decir, Y es una operación binaria,

conmutativa y asociativa de M: Para todo x, y y z perteneciente a M, xOy=y0x(x0y)O0z=x0 (102). Este supuesto nos permite proponer la relación parte-todo Z

mediante la Definición 2. Para todo x e y de MÍ, x es una parte de y si existe otro

individuo z que, si se yuxtapone a x, da como resultado la totalidad y: xZy = 3z Emz[ze S8t(x O z = yl.

En el caso más simple, la parte y el todo (o totalidad) coinciden: este es el caso de los constituyentes básicos o elementales del universo, tales como los electrones y los protones. En general, x es ele-

mental = x no posee partes. Esta definición es preferible a la identificacion de la elementalidad con la simplicidad porque, según la teoría cuántica, los electrones y los fotones son mucho más complejos que las partículas puntuales de la mecánica clásica. A continuación, definimos los dos elementos especiales de S: el individuo nulo y el universo. El primero es el individuo que no afecta a ningún otro individuo:

Definición 3. El individuo nulo O es el individuo que es parte de cada individuo: Para todo x de Mi, 0DOx=x.

De esta definición y de la anterior se sigue que una cosa es parte

de sí misma. En otras palabras, la relación parte-todo, 4, es reflex1va.

En el otro extremo, el universo es el individuo supremo: Definición 4. El universo es el individuo tal que todo individuo es parte de él:

donde : designa el descriptor definido.

Sostengo que nuestro concepto de suma física (o mereológica),

0 se utiliza de forma tácita en todas las ciencias fácticas. Por ejemplo, la ley física que afirma que la carga eléctrica de una cosa compuesta es igual a la suma de las cargas de sus componentes se puede + ... Q(on). Esta simbolizar: Q(p: O p2 0 ... O p») = Q(p») + Q(p)) ley es completamente general: no indica ninguna restricción en cuanto a la clase de cosa. Lo mismo vale para ejemplos más conocidos de encadenamiento, tales como las combinaciones de países o letras.

14.3 La emergencia y los niveles Pasemos ahora al concepto, tan de moda aunque un poco confuso

y hasta controvertido, de emergencia. En realidad, propondremos dos conceptos diferentes de emergencia: el de la emergencia de una

propiedad global o sistémica y el del surgimiento de un carácter o

pit radicalmente nuevo durante el trascurso de un proceso, Ep oi como la morí génesis 'a bioevolución ¡ o la historia. istori He aquí

ptos: una propiedad emergente de un in-

466

dividuo es una propiedad del mismo que no posee ninguna parte de ese individuo. Más precisamente, estipulamos la

Definición 5. Para todo individuo x de M, P» es una propiedad global de x si ninguna parte de x posee P»: Vx[Pox = ar Px8iHy(yL 8 Po y)).

Para definir la segunda noción, o concepto diacrónico de emergencia, necesitamos antes el de descendiente (o el de precursor, que

es el complemento o inverso del primero). Aquí no podemos utilizar el concepto de tiempo, porque no lo hemos definido. Una de-

finición axiomática

posible de la relación atemporal D de

descendiente es la que sigue: Para todo miembro x, y y z de M, D1 Irreflexividad: =Dxx.

D2 Asimetría: Dxy > =Dyx. D3 Transitividad: Dxy % Dyz= Dxz. Este

concepto

nos

permite

presentar la

Definición 6. Para todo individuo x perteneciente a M, Py es una propiedad radicalmente nueva de x si x desciende de un precursor y que carece de P»: Pyx = 3y(Dxy8rP yy).

Los dos conceptos de emergencia que acabamos de dilucidar son parientes lejanos del concepto de superveniencia y aparecen con frecuencia cada vez mayor en la literatura científica y tecnológica. Así pues, se dice que la vida es una propiedad emergente de las células, porque las mismas están vivas, mientras que sus componentes no lo están. Además, desde luego, los químicos suponen que todas las moléculas poseen precursores atómicos y los biólogos evolutivos han conjeturado que las células emergieron de cosas prebióticas. 467

Por último, ofrecemos el concepto de nivel de ser. Podemos decir

que un conjunto de objetos constituye un nivel de realidad si todos sus componentes poseen propiedades globales de las cuales sus partes carecen. Por ejemplo, los elementos del nivel social son sistemas

compuestos por organismos gregarios. De forma metafórica, se puede decir que el nivel social ha emergido a partir del nivel de la

vida, o que este precede al primero, es decir B que aplica M de los números complejos, se llamará función de individuos de K; 11) El espacio 5x, generado por lF es el espacio de 111) El valor particular de FF para un individuo a M se llama estado de x;

iv)

en el conjunto estado para los estado de los K; x perteneciente

Kesla clase o especie caracterizada por PF.

Todo espacio de estados Sx es un espacio abstracto n-dimensional. Podemos considerar que un punto de ese espacio es el extremo de la flecha F. Y que un par de puntos de un espacio de estados representa un suceso puntual, un cambio del estado de un individuo de la clase en cuestión. En otras palabras, se puede re-

presentar un suceso como un elemento del producto cartesiano de Sx por sí mismo. Adviértase que, con arreglo a lo anterior, no hay estados en sí mismos: todo estado es un estado en el cual un individuo puede estar. Por consiguiente, desde el punto de vista lógico, el concepto de individuo precede al de estado. En consecuencia, una ontología según la cual los componentes básicos del mundo son los estados, o bien los cambios de estado (es decir, los sucesos), es inconsis-

tente con lo aquí expuesto, así como con la forma en que se tratan los espacios de estado en la ciencia. (Por ejemplo, sin reactivos no puede haber reacción química, al igual que no puede haber sonrisas

sin rostros... salvo en el caso del gato de Cheshire de Lewis Carroll).

Esta crítica vale para la metafísica de procesos de Whitehead (que Russell compartió durante un timpo), así como para la afir-

mación de David Mermin (2009) de que los estados son irreales

porque sólo los sucesos serían observables, Puesto que, por defini-

ción, los sucesos son cambios de estado, los estados deben ser reales

si han de serlo sus cambios. La doctrina opuesta, defendida por David Armstrong (1977), de que los componentes básicos del mun-

do son los estados de las cosas, es incorrecta por otra razón: que todo estado lo es de una cosa que puede estar en ese estado. La secuencia lógica correcta es: cosa-propiedad-estado-proceso.

Por último, podemos definir el concepto de objeto material: Definición 9. Un individuo es un objeto material si posee un espacio de estados no vacío: Para todo x perteneciente a Mi: (x es material = x pertenece a K, tal que Sx x= WD).

Decir que un individuo es cambiable (o mudable) equivale a decir que puede estar en al menos dos estados, como por ejemplo uno inicial y otro final. Si la materialidad es coextensiva con la cambiabilidad (o mutabilidad), podemos decir que ser material es poseer

un espacio de estados con al menos dos elementos: | Se |s> 2,

Adviértase que al caracterizar los objetos materiales no hemos

utilizado ningún concepto de espacio ni tiempo. En particular, no hemos afirmado que las cosas están situadas en el espacio ni que

cambian en el transcurso del tiempo. Esto hace posible la elaboración de teorías relacionales o adjetivas (por oposición a las absolutas o sustantivas) del espacio, el tiempo y el espaciotiempo, es decir,

teorías que definan el espacio y el tiempo en términos del concepto de cosa cambiante (o sea, material).

Finalmente, una advertencia respecto al uso descuidado de los

conceptos de estado y proceso en la filosofía de la mente. En un libro de texto de uso habitual (Kim, 2006, pág. 220), se lee que, según el monismo psiconeural, el dolor “surge” de un estado N neural, que “emerge” de No “superviene” de N. Esto es incorrecto porque los sucesos mentales son (idénticos a) procesos, no estados neurales.

Por ejemplo, es posible mejorar el humor y aumentar la sociabilidad mediante la inhalación de oxitocina; al contrario, cerramos los ojos

cuando deseamos desactivar nuestra corteza visual. Los procesos cognitivos y emocionales son idénticos a ciertos procesos cerebrales y no “surgen” ni “emergen” de ellos. Asimismo, la

ebullición y el congelamiento son idénticos a ciertos procesos que Experimentan los líquidos, a saber, los movimientos moleculares

471

con energías cinéticas promedio por encima o por debajo de ciertos valores críticos, y no “surgen”, “emergen” ni “supervienen” de ciertos estados térmicos del líquido. Se trata de un detalle ontológico cructal y no de un trivial exceso de celo lingiístico. Reemplazar los

procesos por los estados equivale a reemplazar el mundo dinámico de Heráclito por el mundo estático de Zenón. 14.5 Los objetos ideales

Según la neurociencia cognitiva, la ideación es un proceso cerebral. Pero las ideas consideradas en sí mismas, independientemente de

los pensadores y sus circunstancias, son inmutables. Por ejemplo, no tiene sentido decir de un objeto que, por construcción, es in-

mutable, tal como un sistema numérico, un álgebra de Boole o una variedad, que está en un estado dado; mucho menos que puede cambiar de un estado a otro. Esta reflexión motiva la

Definición 10. Un objeto es un objeto ideal si no está en ningún estado.

Asimismo, los objetos ideales constituyen la clase 1 de los individuos con espacios de estados vacíos: S, = 9. Expresado en lenguaje corriente: mientras que ser material es devenir, ser ideal es ser inmutable. Es de suponer que Platón hubiera estado de acuerdo.

Por último, postulamos que ningún objeto es material e ideal a la vez: Axioma 8. M

N

l=D.

Aristóteles y sus seguidores discreparían, pues eran hilemorfistas.

Pero ni la ciencia ni la tecnología saben de un solo híbrido de ma472

teria y “forma” (idea), con excepción, claro está, de que en sentido metáforico los artefactos corporeizan o materializan ciertas ideas. Comentarios finales

Prestemos atención a dos cuestiones. Primero, los nominalistas estrictos no necesitan nada de lo que acabamos de exponer, dado que

niegan la existencia de las propiedades o afirman que se las puede definir como conjuntos de individuos. Pero todo conocimiento consiste en atribuir propiedades o cambios de ellas a los individuos. En particular, los enunciados legales relacionan propiedades. Ade-

más, identificar las propiedades con conjuntos de individuos equivale a confundir los predicados con sus extensiones.

Segundo, nuestro postulado de que los objetos ideales son inmateriales y viceversa impide todo discurso sobre una ontología de la matemática. En lugar de ello, se debe hablar de la(s) clase(s) de referencia(s) de los predicados matemáticos y de las estructuras matemáticas. Por ejemplo, el dominio D de una función fde una sola

variable es la clase de referencia de f no su ontología. La razón de que esto sea así es que las ontologías son teorías acerca del mundo, no conjuntos. Por tanto, no contraemos ningún compromiso on-

tológico cuando postulamos que cierto dominio es no vacío. La ontología comienza cuando se especifica la naturaleza de los miem-

bros del dominio en cuestión, por ejemplo material, espiritual o híbrida.

473

15 Apéndice Bb: Las verdades

Hay al menos dos conceptos muy diferentes de verdad: uno formal y otro fáctico. Leibniz los llamó, respectivamente, vérités de raison

y vérités de fait. Mientras que las verdades formales son las de la lógica y la matemática, las verdades fácticas son las del conocimiento común, la ciencia y la tecnología. Por ejemplo, en tanto que “hay

infinitos números primos” es una verdad formal, “en este momento hay alrededor de 6000 millones de personas” es una verdad fáctica.

La confusión entre ambas clases de verdad es peor aún que la con-

fusión entre valor y precio.

En general se acepta que, en el caso de las teorías abstractas (no interpretadas), tales como la teoría de conjuntos y la teoría de grupos, el concepto de verdad formal está dilucidado por la teoría de modelos, y que en el caso de las teorías interpretadas, como el cálculo, coincide con el concepto de teoremicidad, con excepción de

las fórmulas indecidibles.

No existe un acuerdo comparable en lo que respecta a las ver-

dades fácricas. En efecto, aunque todos los pensadores lúcidos valoran la verdad objetiva (fáctica), nadie parece haber dado con una ioría (es decir, con un sistema hipotético deductivo) verdadera de

la misma. Por tanto, después de dos milenios y medio, la teoría de la verdad como correspondencia es todavía un proyecto de investigación.

Con todo, la idea intuitiva es lúcida, aunque confusa: una pro-

posición es fácticamente verdadera si se ajusta (o se corresponde)

475

con los hechos a los que se refiere. Pero, ¿qué significan los términos

metafóricos “ajustarse” (o “corresponderse”)? Esta es la gran pregunta. En su famoso artículo de 1944, el gran matemático Alfred Tarski

pensó que había conseguido una fórmula única para ambas clases de verdad: “La oración “s' es verdadera si y solo si s”. Pero esto no

resuelve el problema por tres razones. Primero, porque fusiona las dos clases de verdad. Segundo, porque confunde los hechos con las oraciones, algo que sólo los glosocéntricos como Heidegger y el segundo Wittgenstein aceptarían. Tercero, porque no controla el lenguaje o, mejor dicho, su designatum epistémico, con la realidad extralingúística, que es lo que se supone que quiere decir “correspondencia”. En efecto, la fórmula de Tarski conecta un

fragmento de lenguaje (la oración s) con un fragmento de metalenguaje, el nombre €s” de s (véase Bunge, 1974b). Pasa por alto la esencia de la verdad fáctica, a saber, que es una parte del conocimiento humano sobre el mundo exterior, algo que los subjetivistas y los fenomenistas niegan.

A otros intentos de dilucidar la noción de verdad fáctica no les

ha ido mejor. En particular, los intentos de Reichenbach, Popper y sus seguidores de reducir la verdad a la probabilidad (o la improbabilidad, según el caso) son incorrectas por tres razones como mínimo. Primero, la verdad lógica precede a la probabilidad, ya que

es necesario poder evaluar el valor de verdad de las fórmulas de probabilidad entre otras. Segundo, no hay ninguna justificación —y, por tanto, nungún criterio objetivo— para asignar probabilidades a las proposiciones; no más de lo que la hay para asignarles áreas,

temperaturas o colores. Y tercero, mientras que el valor de verdad de una disyunción de dos proposiciones mutuamente independientes es igual al mayor de esos valores de verdad, la probabilidad de que tenga lugar cualquiera de los dos sucesos es igual a la suma de sus probabilidades separadas. Tampoco debe confundirse la verdad fáctica, en particular la verdad parcial (o aproximada) con la plausibilidad o verosimilitud.

La verdad fáctica es una característica de la relación conocimientorealidad, en tanto que la plausibilidad es relativa a un corpus de

476

conocimiento. Y mientras que las verdades fácticas se enuncian después de ocurrido el hecho, los juicios de plausibilidad pueden hacerse a priori. Por ejemplo, sólo la observación puede decirnos si el consabido gato está sobre la alfombra. En cambio, la hipótesis de la psicoquinesia es implausible porque contradice la conservación de la energía.

Resulta vergonzoso señalar que los mencionados intentos de dilucidar el concepto de verdad como correspondencia derivan de ciertas confusiones. Además, puede que dos de ellos hayan tenido

su origen en el uso cotidiano de las palabras “probable” y “Wahrsheinlich”, en inglés y alemán respectivamente, idiomas en los que esos términos significan “probable” en un sentido no técnico y “plausible”, así como “azaroso” [chance-like].

Estos fracasos son lamentables indicadores del estado de la filosofía contemporánea (Bunge, 2001). Por eso mismo, sugieren la

necesidad de comenzar desde cero. En este capítulo intentaremos hacer eso precisamente. También examinaremos la ontología, la semántica y la metodología del concepto de verdad parcial (o aproximada). Partes de este capítulo han sido tomadas de una publicación anterior (Bunge, 2003a).

15.1 El concepto ontológico de verdad fáctica La noción intuitiva de verdad fáctica como el ajuste (adecuación

o correspondencia) de las ideas a los hechos es errónea si las primeras se consideran objetos abstractos, por ejemplo proposiciones. Esto es así porque en tal caso el ajuste, la adecuación o la correspondencia en cuestión es sólo de índole metafórica. En efecto, las ideas abstractas se pueden contrastar unas con otras, como cuando se comparan dos números; asimismo, los objetos fácticos pueden Contrastarse unos con otros, como cuando se comparan dos dedos. Pero, al parecer, es imposible comparar o confrontar una idea abs-

tracta con el hecho al cual se refiere. En particular, no hay ninguna

similitud o semejanza entre una fórmula de la óptica y una onda

luminosa, nada más allá de una analogía como la que hay entre la 477

escritura y el habla. Sin embargo, esto no es así en el caso de la ide-

ación concreta —es decir, de un proceso de pensamiento— frente

a su referente del mundo externo o, según la jerga actual, en el caso del hacedor de verdad [truthmaker] correspondiente al portador de verdad [truthbearer] en cuestión. Echemos un vistazo a esta alternativa.

Pensernos por un momento en las ideas tal como lo hace la neurociencia cognitiva, es decir, como procesos cerebrales. En este caso,

podemos hacer el intento de considerar la teoría de la verdad como

una propiedad de un proceso cerebral de la clase de los procesos mentales. Por tanto, en este caso podemos comparar las ideas con sus referentes externos si los hay (Bunge, 1980a, 1983a). Por ejemplo, podemos decir que un sujeto posee una percepción verdadera de una figura circular si percibe un círculo cuando se le enseña esa figura. Además, algunos experimentos espectaculares con primates han probado que tales imágenes mentales consisten en configuraciones similares de neuronas que se activan en la corteza

visual (Tootell ef a/., 1982, 1998).

La percepción de una persona será falsa si percibe una figura di-

ferente o si no percibe ninguna figura cuando se le muestra un cír-

culo. Obviamente, en este sencillo caso hay una única percepción verdadera e innumerables percepciones falsas. Además, observando

la actividad (la tasa de descarga) de ciertas neuronas, los neurocientíficos cognitivos pueden predecir con bastante exactitud lo que el sujeto ha visto (Kreiman el al., 2000). Este enfoque parecerá absurdo a todo aquel que crea en el dualismo psiconeural. Pero hace tiempo que el dualismo fue superado por la neurociencia cognitiva, según la cual “Los sucesos mentales son una característica de los sistemas neurofisiológicos poseedores de ciertas propiedades” (Zeki, 1993, pág. 345). Por ejemplo, una imagen visual en el cerebro es producto de la actividad simultánea

de varias áreas y vías visuales. Otro ejemplo: las lesiones en las re-

giones inferior y media de la corteza prefrontal tienen como resultado graves disfunciones emocionales: los sucesos que provocan sentimientos intensos en los sujetos normales no conmueven a estos pacientes (Damasio, 1994), 478

Dicho lo anterior, me apresuro a admitir que la concepción re-

alista y materialista de la verdad fáctica expuesta en los parrafos anreriores es sólo un proyecto de investigación en el cual, al parecer, hay pocos investigadores trabajando a tiempo completo. A continuación, pasemos de la ideación concreta, un proceso

mental, a las ideas en sí mismas, es decir, consideradas en abstracto respecto de los procesos de pensamiento, tal como hacen los matemáticos y los filósofos idealistas. 15.2 Las funciones de correspondencia

Sea F que denota un conjunto de hechos realmente posibles y Y su conjunción binaria (o encadenamiento, concatenación o conjunción), como en “ella come mientras escucha”. Los elementos de

F pueden ser sucesos que tienen lugar tanto en el cerebro del sujeto

cognoscitivo como en el mundo externo. Supondremos que la concatenación f8) g de dos hechos cualesquiera fy g pertenecientes a F es otro hecho en lugar de, por ejemplo, una ficción. También supondremos que la concatenación de hechos es asociativa: £8 (g 8 h) = (FS g) Y h, para todo f g y h pertenecientes a F. Y definiremos el hecho nulo O como aquel que, cuando se encadena con un he-

cho arbitrario f deja a este último inalterado: O Y f=f8 O = f Es decir, O desempeña el papel del elemento unidad. Obviamente, es un monoide (o semigrupo con identidad).

Advierta el lector que no suponemos que los hechos puedan ser disyuntos: las cosas reales y sus cambios (los sucesos y procesos)

pueden combinarse, pero no hay ni cosas ni sucesos (ni, por tanto, procesos) disyuntos. La realidad tampoco practica la negación: esta, como la disyunción, es un proceso puramente conceptual. En otras palabras, el operador = vale para proposiciones y predicados, pero no para hechos (véase Bunge, 19774a).

A continuación, sean P, que simboliza el conjunto de todas las Proposiciones, y A, V y =, que representan los conectivos propo-

sicionales corrientes. Como se sabe, < P, A, Y, => es un retículo complementado. Supondremos también que este retículo es dis-

tributivo. (El rumor de que la mecánica cuántica ha destruido la

distributividad deriva de confundir las proposiciones con los operadores).

Hasta aquí las definiciones. Ahora pongámoslas a trabajar. Con-

vendremos que un mapa que aplique en < P, A, Y, =>

formaliza el concepto de representación de hechos mediante proposiciones. Á su vez, un mapa parcial desde < [P, =, A > al intervalo [O, 1] de la recta de los reales es una función de valoración de verdad

V. Este segundo mapa es parcial porque no a toda proposición de P se le asigna un valor de verdad: piénsese en las proposiciones indecidibles. Más aún, damos por supuesto que los valores de verdad están comprendidos entre O y 1 porque admitimos verdades y falsedades (parciales) tales como “ahora hay 6000 millones de personas”.

Los dos mapas se combinan de la siguiente manera: representación H'

—=

valoración de verdad Y

$

[O, 1]

La teoría debe especificar los mapas R* y V de tal forma que 1) todas las proposiciones que representen el hecho nulo O sean falsas: Si R*(p) = O, luego V(p) = O para todo p perteneciente a P;

2) para todo f€ F, Rf) = p € P; y, para algunos p, V(p) = u = [0,1];

3) para todo f g € F, R(F 9 g) =p Ag € P y para algún p A

q, VÍp A g) € [0,1].

Adviértase la utilización de “algún” en lugar de “todo”. Esto se debe a la existencia de hechos completamente desconocidos. Por otra parte, no nesitamos suponer lagunas en PP, dado que una proposición fáctica puede ser objetivamente verdadera o falsa aun en el caso de no haber sido puesta a prueba todavía. Por ejemplo, la

predicción de la existencia de Neptuno hecha por Le Verrier era

verdadera antes de que Galle viera el planeta por el telescopio.

El mapa X'* es la inversa de la función de referencia, que ya he-

mos definido en otra parte (Bunge, 1974a). Se la puede analizar 480

como la composición de dos mapas: el de los hechos-pensamientos

y el de los pensamientos-proposiciones. (Aquí consideramos que un pensamiento dado es un proceso cerebral particular, en tanto que una proposición es una clase de equivalencia de los pensamientos: véase Bunge 1980a, 1983a. No hay dos pensamientos estrictamente idénticos, ni siquiera cuando consisten en pensar la misma proposición).

El análisis en cuestión es la composición de dos mapas: el de imaginación o /m, que va de los hehos F a los pensamientos O, y el de conceptualización o Con, que va de los pensamientos a las proposiciones PP: mA", 0

¡OR

= Con

“Im

pa Im

F

donde R* es la inversa del mapa de referencia. Sin embargo, mientras el mapa de representación R* permanezca indefinido, no tenemos derecho a hablar de una teoría de la verdad como correspondencia. Sólo podemos hablar de un proyecto para la elaboración de tal teoría. En la sección 15.4 nos referiremos a V. Pero primero debemos recordar al complemento de la verdad, es decir, el error, puesto que es una característica del conocimiento fáctico.

15.3 El concepto metodológico de verdad Los científicos distinguen entre proposiciones teóricas y proposiciones empíricas. Por ejemplo, contrastan la órbita calculada de un

planeta con la órbita observada del mismo. Y, en la práctica, utilizan el siguiente criterio de verdad con respecto a una propiedad cuantativa (magnitud) M, tal como la masa, la probabilidad de transición, la tasa metabólica y el PIB, entre otras.

481

Criterio 1. El valor empírico (medido) verdadero de M medido con la técnica £ es uM=eze, donde e es el promedio de una extensa secuencia de resultados de

mediciones y e es el error experimental (la desviación típica) de esa secuencia. Criterio 2. El valor teórico (calculado) O de M es verdadero siempre

que el valor absoluto de la diferencia entre este y el valor empírico e (medido) sea menor que el error experimental e: [O-el < e

El criterio 1 nos dice que las verdades cuantitativas básicas resultan de las mediciones de elevada precisión, en particular de la

lectura de un indicador (por ejemplo una aguja o un punto lumi-

noso) de un medidor. Expresado con mayor precisión, el criterio

1 afirma que para obtener el valor verdadero de un grupo de esas lecturas debemos calcular su media aritmética. Por tanto, empieza con un conjunto de números y acaba con un único número (el supuesto subyacente es que los errores experimentales tienen una distribución con forma de campana). Y el criterio 2 contrasta los dos números, el promedio y el número calculado. Hemos de hacer hincapié en que los criterios 1 y 2 son precisamente eso, criterios y no

definiciones de verdad. (Esta observación se hace necesaria debido

a la confusión positivista del concepto de verdad con el criterio emvírico de verdad, una confusión análoga a la de referencia y prueba). Los criterios de verdad proponen la manera de encontrar los valores

de verdad, pero no nos dicen qué es un valor de verdad. (Analogía: Una receta de cocina ofrece instrucciones para preparar un pastel de cierta clase, pero no define el concepto general de pastel). Sin embargo, los criterios mencionados sugieren que ninguna teoría

de la verdad parcial puede ser satisfactoria si ignora el concepto de error. Á continuación, procederemos a bosquejar tal teoría. 482

15.4 La verdad parcial La pregunta acerca de lo exacta que es una proposición presupone

que hay otros valores de verdad además de 0 y 1. Este es el supuesto habitual en la matemática aplicada, la ciencia fáctica y la tecnología.

En efecto, en todos estos ámbitos se da por sentado que lo mejor

que se puede conseguir es una buena aproximación a la verdad, una aproximación que, además, puede perfeccionarse.

De eso se ocupan la teoría de la aproximación (cuyo pionero fue Arquímedes) y el cálculo de errores (cuyo padre fue Gauss).

Una consecuencia metodológica de la tesis de que la verdad tiene grados es que lo mismo ocurre con la falsación (o refutación). Por ejemplo, la difundida opinión de que la mecánica clásica ha sido falsada es completamente falsa. En realidad, la teoría es una excelente aproximación que vale para cuerpos de tamaño medio que se mueven a baja velocidad. Este es el motivo por el cual los físicos,

los astrónomos y los ingenieros mecánicos continúan usando esa teoría cuando resulta adecuada. Y es, además, la razón de que la opinión de Thomas Kuhn de que todas las creencias pasadas sobre

la naturaleza han resultado falsas, sea completamente falsa. Más aún, se trata de una opinión que desalienta todo intento de aumentar la precisión, extensión y profundidad del conocimento. En otras palabras, suponemos de forma tácita que hay una fun-

ción de valoración de verdad V que aplica un conjunto P de proposiciones en un intervalo numérico, que puede ser el intervalo real [0, 1]. Es decir, podemos establecer que V: P > [0, 1]. Nuestro

problema consiste en ofrecer un sistema de condiciones (postulados) plausibles que definan V.

Deseamos que esos postulados admitan las medias verdades tales como “Aristóteles fue un filósofo espartano”. Lamentablemente, la función de valoración típica definida por

VA g) = min (V(p), VI0)),

Vip V 9) = max [V(p), V(g))

tiene una consecuencia poco intuitiva: que la proposición anterior 483

sobre Aristóteles es totalmente falsa, en lugar de medio verdadera. Por ello, no puede considerarse que la función de valoración de

verdad exactifique la noción intuitiva de verdad parcial. Con todo, esta crítica sólo afecta a la conjunción.

Los siguientes, son desiderata algo más plausibles, aunque provisionales, para V.

D1. Si p es una proposición cuantitativa que se ha probado verda-

dera dentro de cierto error relativo e, entonces V(p) = l—e. Ejemplo p. “En esta habitación hay 9 personas”, cuando el conteo

real muestra que hay 10 personas. Error relativo = e = 1/10. Luego, V(p) = 1-1/10 = 9/10, una aproximación bastante buena.

D2. Si p no es la negación de otra proposición, entonces

Vo

0 if V(p) =1

= Li)

bros Anzellotti, Jens Schwarzbach, Massimiliano Zampini y Alfonso Cara-

mazza, 2009, “Category-specific organization in the human brain does not re-

quire visual experience”, Neuron, 63, págs. 397-405. Mameli, Matteo, 2008, “On innateness”, Journal of Philosophy, 105, págs. 719-736.

Marks, Jonathan, 2002, What it means to be 98% Chimpanzee, University of Ca-

añ lifornia Press, Berkeley y Los Angeles. House, Publishing Languages Foreign works, Selected Engels, Marx, Karl y Frederick 1974]. Moscú, 2 vols. [hay trad. cast.: Obras escogidas, Akal, Madrid, Maudlin, Tim, 2003, “Distilling metaphysics from quantum physics”,

en M. J.

Loux y D. Y. Zimmerman, eds., The Oxford handbook of metaphysics, Oxford

University Press, Oxford, págs. 461-490. McCulloch, Warren S., 1965, Embodiments of mind, MIT Press, Cambridge, MA.

McGinn, Colin, 1993, Problems in philosophy, Blackwell, Oxford. — 2004, Consciousness and its objects, Clarendon Press, Oxford.

McGowan, Patrick O., Aya Sasaki, Ana C. D. D'Alessio, Sergiy Dymov, Benoít Labonté, Moshe Szyf, Gustavo Turecki y Michael J. Meaney, 2009, “Epigenetic regulation of the glucocorticoid receptor in human brain associates with child-

hood abuse”, Nature Neuroscience, 12, págs. 342-348.

Mclane, Saunders, 1998, Categories for the working mathematician, Springer, Nueva York, MacLean, R. Craig y Graham Bell, 2003, “Divergent evolution during an experi-

mental adaptive radiation”, Proceedings of the Royal Society of London, B 270, págs. 1645-1650.

506

Medawar, Peter, 1957, The uniqueness of the individual, Basic Books, Nueva York. Mellor, D. H., 1991, Matters of metaphysics, Cambridge University Press, Cambridge. Melzack, Ronald, 1989, “Phantom limbs, the selfand the brain”, Canadian Journal

of Psychology, 30, págs. 1-16. Mermin, N. David, 1981, “Quantum mysteries for anyone”, Journal of Philosophy,

78, págs. 397-408. —, 2009, “What's bad this habit”, Physics Today 62(5), págs. 8-9.

Merton, Robert K., 1968, Social theory and social structure, The Free Press, Nueva York [hay trad. cast.: Teoría y estructura sociales, Fondo de Cultura Económica, México,

1992].

—, 1973, The sociology of science, University of Chicago Press, Chicago [hay trad. cast:: La sociología de la ciencia, Alianza, Madrid, 1977].

—, 1976 [1936], “The unanticipated consequences of social action”, en Sociological ambivalence and other essays, Yhe Free Press, Nueva York, págs. 145-155.

—, 2001 [1938], Science, technology € society in 17th century England, Howard Fertig, Nueva York [hay trad. cast.: Ciencia, tecnología y sociedad en la Inglaterra del siglo XVII, Alianza, Madrid, 1984].

— y Elinor Barber, 2004, The travels and adventures of serendipity, Princeton University Press, Princeton. Miller, David, ed. 1985, Popper selections, Princeton University Press, Princeton

[hay trad. cast.: Popper. Escritos selectos, FCE, México, 19951.

Misner, CharlesW., Kip S. Thorne y John Archibald Wheeler, 1973, Gravitation, W. H. Freeman, San Francisco. Mithen, Steven, 1994, “From domain specific to generalized intelligence: A cog-

nitive interpretation of the middle/upper palaeolithic transition”, en Renfrew y Zubrow, eds., 7he ancient mind, págs. 29-39, —, 1996, The prehistory of the mind, Thames 82 Hudson, Londres. —, 1999, “The evolution of deep social mind in humans”, en Corballis y Lea, eds., The descent of mind, págs. 173-193. Moessinger, Pierre, 2008, Voir la société: Le micro et le macro, Hermann, París.

Morgan, C. Lloyd, 1933, The emergence of novelty, Williams 8% Norgate, Londres. Morris, J. S., A. Óhman y R. J. Dolan, 1998, “Conscious and unconscious emo-

tional learning in the human amygdala”, Nature, 393, págs. 467-470. Mountcastle, Vernon, 1998, Perceptual neuroscience: The cerebral cortex, Harvard

University Press, Cambridge, MA.

Nader, Karim, G. E Schafe y Joseph E. Ledoux, 2000, “Fear memories require protein synthesis in the amygdala for reconsolidation after retrieval”, Nature,

406, págs. 722-726.

Nagel, Ernest, 1956, Logic without metaphysics, The Free Press, Glencoe. Nagel, Thomas, 1974, “What is it like to be a bat?”, Philosophical Review, 83, págs. 435-450.

507

Nauenberg, Michael, 2007, crítica de Quantum Enigma: Physics Encounters Com

ciousness, Foundations of Physics, 37, págs. 1612-1627. Needham, Joseph, 1943, Time: The refreshing river, George Allen 8 Unwin, Lon dres. Nesse, Randolph M. y George C. Willliams, 1994, Why we get sick, Times Books Random House, Nueva York.

Neurath, Otto, 1981, Gesammelte philosophische und merhodologische Schrifien, ed. de R. Haller y H. Rutte, Hólder-Pichler-Tempsky, Viena.

Norsen, Travis, 2007, “Against *realism'”, Foundations of physics, 37, págs. 311-

340. Novikoff, Alex, 1945, “The concept of integrative levels in biology”, Science, 101,

págs. 209-215.

O'Connor, John, ed., 1969, Modern materialism: Readings on mind-body identity, Harcourt, Brace £ World, Nueva York.

Odling-Smee, E John, Kevin N. Laland y Marcus W. Feldman, 2003, Niche construction, Princeton University Press, Princeton. OCDE, 2008, Growing unequal? Income distribution and poverty in OECD countries, OCDE,

París.

Oparin, Alexandr. 1., 1953, The origin of life, Dover, Nueva York [hay trad. cast.: El origen de la vida, Editores Mexicanos Unidos, México, 2007]. Ostwald, Wilhelm, 1902, Vorlesungen úiber Naturphilosophie, Veit 8£ Comp, Leip-

zig. Panes

Ryszard y Leszek Nowak, eds., 1998, Marx3 theories today, Rodopi, Áms-

terdam-Atlanta. Papineau, David, 1993, Philosophical naturalism, Basil Blackwell, Oxford. —, 2003, “Theories of consciousness”, en Smith y Jokic, eds., Consciousness, págs.

353-383. Paradis, Michel, 2004, A neurolinguistic theory of bilingualism, John Benjamin, Ámsterdam. Park, Robert L., 2008, Superstition, Princeton University Press, Princeton. Passingham, Richard, 2008, What is special about the human brain?, Oxford Uni-

versity Press, Oxford.

Pastalkova, Eva, Vladimir Itskov, Asohan Amarasingham y Gyórgy Buzsaki, 2008, “Internally generated cell assembly sequences in the rat hippocampus”, Nature,

321, págs. 1322-1337.

Pauli, Wolfgang, 1958, “Die allgemeinen Principien derWellenmechanik”, en S.

rluggs, ed., Handbuch der Physik, Springer-Verlag, Berlín, vol, V, parte 1, págs.

1-168. Pavloy, 1. P, 1955, Selected works, Foreign Languages Publishing House, Moscú Ind cast.: Actividad nerviosa superior (Obras escogidas), Orbis, Barcelona, 1986.

Peirce, Charles S., 1935 [1898], “Scienti fic metaphysics”, en Collected papers, ed.

508

de Hartshorne y P. Weiss, Harvard University Press, Cambridge, MA, vol. 6. Penfield. Wilder y Waldo Rasmussen, 1968, The cerebral cortex of man: A clinical study of localization of function, Hafner, Nueva York.

Penn. Derek C., Keith J. Holyoak y Daniel J. Povinelli, 2008, “Darwin's mistake:

Explaining the discontinuity between human and nonhuman minds”, Behavioral and Brain Sciences, 31, págs. 109-178.

Pérez-Bergliafta, Santiago E., Gustavo Romero y Héctor Vucetich, 1993, “Axiomatic foundations of non-relativistic quantum mechanics: A realistic approach”, Journal of Theoretical Physics, 32, págs. 1507-1525. —. 1996, “Axiomatic foundations of quantum mechanics revisited: A case for systems”, International Journal of Theoretical Physics, 35, págs. 1805-1819.

—. 1998, “Toward an axiomatic pregeometry of space-time”, International Journal of Theoretical Physics, 37, págs. 2281-2299. Pesaran, Bijan, Matthew J. Nelson y Richard A. Andersen, 2008, “Free choice acuvates a decision circuit between frontal and parietal cortex”, Nature, 453, págs. 406-409.

Pessoa, Luiz, 2008, “On the relationship between emotion and cognition”, Nature Reviews/Neuroscience, 9, págs. 148-158. Phelps, Elizabeth A., 2006, “Emotion and cognition”, Annual Reviews of Psychology,

57, págs. 27-53. Phillips, Melba, 1949, “Quantum mechanics”, en R. Wood Sellars, V. J. McGill y

M. Farber, eds., Philosophy for the future, MacMillan, Nueva York, págs. 188201.

Piaget, Jean, 1965, Etudes sociologiques, Droz, Ginebra [hay trad. cast.: Estudios sociológicos, Ariel, Barcelona, 1983].

Pinker, Steven, 1994, The language instinct: How the mind creates language, Morrow, Nueva York [hay trad. cast.: El instinto del languaje. Cómo crea el languaje la mente, Alianza, Madrid, 2001]. —, 1997, How the mind works, Norton, Nueva York [hay trad. cast.: Cómo funciona la mente, Destino, Barcelona, 2001].

—, 2003, The blank slate: The modern denial of human nature, Penguin, Nueva York [hay trad. cast.: La tabla rasa. La negación moderna de la naturaleza humana, Paidós, Barcelona, 2003].

Place, Ullian, T., 1956, “Is consciousness a brain process”, British Journal of Psychology, 47, págs. 44-50. Platón, 1937, Laws, en The dialogues of Plato, 2 vols. Random House, Nueva York [hay numerosas trads. cast.; p. ej., Leyes, Gredos, Madrid, 1999].

Plat, Michael L. y Elizabeth S. Spelke, 2009, “What can developmental and compararive cognitive neuroscience tell us abut the adult human brain?”, Current

Opinion in Neurobiology, 19, págs. 1-5. Plekhanov, Georgii Valentinovich, 1967 [1896], Essays in the history of materialism, H. Fertig, Nueva York.

509

Popper, Karl R, 1961, comunicación personal, —, 1967, “Knowledge: Subjective versus objective”, en Popper selections, ed. de David Miller, 1985, págs. 58-77,

—, 1972, Objective knowledge: An evolutionary approach, Clarendon Press, Oxford [hay trad. cast.: Conocimiento objetivo: Un enfoque evolucionista, Yecnos, Madrid, 2007].

—, 1978, “Natural selection and the evolution of mind”, Dialectica, 32, págs. 339ID

Popper, Karl R. y John C. Eccles, 1977, 7he mind and its brain, Springer International, Nueva York [hay trad. cast.: El yo y su cerebro, Labor, Barcelona, 1980]. Pound, Roscoe, 1954 [1924], An introduction to the philosophy of law, ed. rev., Yale University Press, New Haven. Prather, J. E, S. Peters, S. Nowicki y R, Mooney, 2008, “Precise auditory-vocal

mirroring in neurons for learned vocal communication”, Nature, 451, págs. 305-310. Preston, Stephanie D. y Frans B. M. de Waal, 2002, “Empathy: its ultimate and

proximate bases”, Behavioral and Brain Sciences, 25, págs. 1-71. Preuss, Todd M., 2007, “Primate brain evolution in phylogenetic context”, en J.

H. Kaas y T. M. Preuss, eds., Evolution of nervous systems, vol. 4: Primates, Elsevier, Oxford, págs. 1-34. Pribram, Karl H., 1971, Languages of the brain: Experimental paradoxes and prin-

ciples in neuropsychology, Prentice-Hall, Englewood Cliffs. Purves, Dale, Elizabeth M. Brannon, Roberto Cabeza, Scott A. Huettel, Kevin S. LaBar, Michael L. Platt y Marty G. Woldorff, 2008, Principles of cognitive neuroscience, Sinauer Associates, Sunderland.

Putnam, Hilary, 1960, “Minds and machines”, en S. Hook, ed., Dimensions of mind, New York University Press, Nueva York, págs. 148-179.

—, 1975, Philosophical papers, vol. 2: Mina, language and reality, Cambridge University Press, Cambridge. —,

1978, Meaning and the moral sciences, Routledge, Londres [hay trad. cast.: El

significado y las ciencias morales, Universidad Autónoma de México, México, 1991]. —» 2004, Ethics without ontology, Harvard University Press, Cambridge [hay trad. cast.: Ética sin ontología, Alpha Decay, 2013]. Pylyshyn, Zenon Y., 1984, Computation and cognition, MIT MA.

Press, Cambridge,

Quine, W. V., 1953, From a logical point of view, Harvard University Press, Cam-

E

A

MA. [hay trad. cast.: Desde un punto de vista lógico, Ariel, Barcelona, »

Dological relativity”, Journal efPhilosophy, LXV, págs. 185-212.

The roots of:reference, Open Court, La Salle, IL. [hay trad. cast.: Las ralces

de la referencia, Revista de Occidente, Madrid, 1977],

510

Raichle, Marcus, 2006, “The brain's dark energy”, Science, 314, págs. 1249-1250.

Railton, Peter, 2003, Fact, values, and norms: Essays towards a morality of consequence, Cambridge University Press, Cambridge. Randall, John Herman, Jr., 1958, Nature and historical experience, Columbia Uni-

versity Press, Nueva York. Randi, James, 1982, Flim-Flam!, Prometheus, Buffalo. Renan, Ernest, 1949 [1852], Averroes et l'averroisme, en Oeuvres completes, Calmann-Lévy, París, vol. 111 [hay trad. cast.: Averroes y el averroísmo, Hyperion,

Madrid, 1992]. Renfrew, Colin y Ezra B. Zubrov, eds., 1994, The ancient mind: Elements of cognitive archaeology, Cambridge University Press, Cambridge. Rescher, Nicholas, 2009, Free will: A philosophical reappraisal, Transaction, New Brunswick. Richardson, Robert C., 2007, “The adaptive programme of evolutionary psychology”, en Thagard, ed., Philosophy of psychology and cognitive science, págs. 369-

411. —, 2007, Evolutionary psychology as maladapted psychology, MIT Press, Cambridge. Richerson, Peter J. y Robert Boyd, 2005, Not by genes alone: How culture transformed human evolution, University of Chicago Press, Chicago, IL.

Rigoutsos, Isidore y Gregory Stephanopoulos, eds., 2007, Systems biology, Oxford University Press, Oxford.

Rizzolatti, Giacomo y Laila Craighero, 2004, “The mirror-neuron system”, Annual

Review of Neuroscience, 27, págs. 169-192. — y Corrado Sinigaglia, 2008, Mirrors in the brain. How our minds share actions and emotions, Oxford University Press, Oxford.

Robinson, Joan y John Eatwell, 1974, An introduction to modern economics, ed. rev., McGraw-Hill, Londres.

Rosenberg, Alexander, 1980, Sociobiology and the preemption ofsocial science, Johns Hopkins University Press, Baltimore. Rosental, M. y P. Yudin, 1945 [1940], Diccionario de filosofía, Nueva América,

Santiago de Chile. —, 1967, A dictionary of philosophy, Progress Pub, Moscú.

Rumbaugh, Duane M. y Timothy V. Gill, 1976, “The mastery of language-type skills by the chimpanzee (Pan)”, Annals of the New York Academy of Sciences,

280, págs. 562-578.

Russell, Bertrand, 1914, Our knowledge of the external world, Allen 82 Unwin,

Londres [hay trad. cast.: Nuestro conocimiento del mundo exterior, Compañía General Fabril Editora, Buenos Aires, 1964].

—, 1954 [1927], The analysis of matter, Dover, Nueva York [hay trad. cast.: Andlisis de la materia, Revista de Occidente, Madrid, 1929]. Ryder, John, ed., 1994, American philosophical naturalism in the twentieth century,

Prometheus, Amherst. 311

Sapolsky, Robert, 2005, “The influence of social hierarchy on primate health”, Science, 308, págs. 648-652.

Savage, J. L., 1954, The foundations of statistics, Wiley, Nueva York. Schacter, Daniel L. 2001, The seven sims of memory, Houghton Mifflin, Boston.

Schelling, Thomas C., 1978, Micromotives and macrobehavior, W. W. Norton,

Nueva York. Schlick, Moritz, 1974 [1925], General theory of knowledge, Springer-Verlag, Viena.

Schlosshauer, Maximilian, 2007, Decoherence and the Quantum-to-Classical Transition, Springer-Verlag, Berlin-Heidelberg-Nueva York. Schmidt, Michael y Hod Lipson, 2009, “Distilling free-form natural laws from

experimental data”, Science, 324, págs. 81-85. Schródinger, Erwin, 1935, “Die gegenwártige Situation in der Quantenmechanik”, Die Naturwissenschafien, 23, págs. 807-812, 823-828, 844-889. Schwartz, Charlie, er al., 1972, “Science against the people: The story of Jason”, http://socrates.berkeley.edu

Searle, John, 1980, “Minds, brains and programs”, Behavioral and Brain Sciences, 3, págs. 417-457. —, 1995, The construction of social reality, The Free Press, Nueva York [hay trad. cast.: La construcción de la realidad social, Paidós, Barcelona, 2004].

—, 1997, The mystery of consciousness, New York Review, Nueva York [hay trad. cast.: El misterio de la conciencia, Paidós, Barcelona, 2000].

—, 2007, Freedom 4 Neurobiology, Columbia University Press, Nueva York [hay trad. cast.: Libertad y neurobiología, Paidós, Barcelona, 2005].

Sejnowski, Terrence J., Christof Koch y Patricia S. Churchland, 1988, “Computational neuroscience”, Science, 241, págs. 1299-1306. Sellars, Roy Wood, 1969 [1922], Evolutionary naturalism, Russell 82 Russell, Nueva

York. —, 1970, en Y. Preston Warren, ed., Principles of emergent realism, Warren H. Green, St. Louis, MO.

— y V. J. McGill y Marvin Farber, eds., 1949, Philosophy for the future: The quest of modern materialism, Macmillan, Nueva York. Seth, Anil K., Zoltán Dienes, Axel Cleeremans, Morten Overgaard y Luiz Pessoa,

2008, “Measuring consciousness: relating behavioral and neurophysiological approaches”, Trends in Cognitive Sciences, 12, págs. 314-321. Shear, Jonathan, ed., 1995, Explaining consciousness: The “Hard Problem', MIT Press, Cambridge, MA.

Sherrington, Charles, 1964, Man on his nature, New American Library, Nueva

York.

Shimony, Abner, 1993, Search fora naturalistic world view, Cambridge University Press, Cambridge.

Shirokov, M., ed., 1937, A textbook of marxist philosophy, Victor Gollancz, Londres,

512

Shorter, Edward. 1997, A history of psychiatry, Nueva York, Wiley [hay trad. cast.: Historia de la psiquiatría, J8C Ediciones Médicas, Barcelona, 1999). Shubin, Neil, ClifFTabin y Sean Carroll, 2009, “Deep homology and the origins of evolutionary novelty”, Nature, 457, págs. 818-823. Simon, Herbert A., 1962, “The architecture of complexity”, Proceedings of the

American Philosophical Society, 106, págs. 467-482. Singer, Wolf, 2009, “Consciousness and neuronal synchronization”, en Laureys y

Tononi, eds., The neurology of consciousness, págs. 43-52. Smail, Daniel Lord, 2008, On deep history and the brain, University of California Press, Berkeley.

Smart, J. C. C., 1963a, “Materialism”, Journal of Philosophy, 60, págs. 651-662. —, 1963b, Philosophy and scientific realism, The Humanities Press, Nueva York. Smith, Adam,

1976 [1776], The wealth of nations, University of Chicago Press,

Chicago [hay trad. cast.: La riqueza de las naciones, Alianza, Madrid, 2011]. Smith, Quentin, 2003, “Why cognitive scientists cannot ignore quantum mecha-

nics”, en Smith y Jokic, eds., Consciousness, págs. 409-446. — y Aleksandar Jokic, eds., 2003, Consciousness: New philosophical perspectives, Clarendon Press, Oxford. Smolin, Lee, 2006, The trouble with physics: The rise of string theory the fall of science, and what comes next, Houghton-Mifflin, Boston [hay trad. cast.: Las dudas de la fisica en el siglo XXT, Crítica, Barcelona, 2007]. Sobel, N., V. Prabhakaran, E. E. Desmond, G. H. Glover, R. L. Goode, E. V. Su-

llivan y J. D. Gabrieli, 1998, “Sniffing and smelling: different subsysterms in the human olfactory cortex”, Nature, 392, págs. 282-288.

Sober, Elliott y David Sloan Wilson, 1998, Unto others: The evolution and psychology of unselfish behavior, Harvard University Press, Cambridge, MA. Stich, Stephen P, 1999, Deconstructing the mind, Oxford University Press, Nueva

York.

Stoljar, Daniel, 2006, lgnorance and imagination, Oxford University Press, Oxford. Stonor Saunders, Frances, 2000, Who paid the pipers?: The CIA and the cultural

cold war, Granta, Londres. Stove, David, 1991, The Plato cult and other philosophical follies, Basil Blackwell,

Oxford [hay trad. cast.: El culto a Platón y otras locuras filosóficas, Cátedra, Madrid, 1994]. Suppes, Patrick, 1957, Introduction to Logic, D. Van Nostrand, Princeton. —, 1970, “A probabilistic theory of causality”, Acta Philosophica Fennica, 24. North

Holland, Ámsterdam. —, 1974, “Aristotle's concept of matter and its relation to modern concepts of matter”, Synthese, 28, págs. 27-50, Takahashi, Hidehiko, Motoichiro Kato, Masato Matsuura, Dean Mobbs, Tetsuya Suhara y Yoshiro Okubo, 2009, “When your gain is my pain and your pain is

513

my gain: Neural correlates of envy and Schadenfreude”, Science, 323, págs. 937-939. Tarski, Alfred, 1944, “The semantical concept of truth and the foundations of semantics”, Philosophy and Phenomenological Research, 4, págs. 341-375. Tegmark, Max, 2004, “Parallel universes”, en Barrow, Davies y Harper, eds., Science and ultimate reality, págs. 459-491.

—, 2008, “The mathematical universe”, Foundations of Physics, 38, págs. 101-150. Thagard, Paul, ed., 2007, Philosophy of psychology and cognitive science, Elsevier, Oxford.

Thaler, Richard H., 1992, The winners curse: Paradoxes and anomalies of economic life, Princeton University Press, Princeton. Thompson, Richard E, 2005, “In search of memory traces”, Annual Review of

Psychology, 56, págs. 1-23. Tiger, Lionel, 2008, “The human nature project”, Skeptical Inquirer, 32(3), págs. 30-34. — y Robin Fox, 1971, The imperial animal, Holt, Rinehart 82 Winston, Nueva York. Tolman, Richard C., 1934, Relativity thermodynamics and cosmology, Oxford Uni-

versity Press, Oxfor. Tomasello, Michael, 2006, “Why dont apes point?”, en Enfield y Levinson, eds.,

Roots of human sociality, págs. 506-524. —, 2008, Origins of human communication, MIT Press, Cambridge, MA. Tononi, Giulio, y Cristof Koch, 2008, “The neural correlates of consciousness”,

Annals of the New York Academy of Sciences, 1124, págs. 239-261. Tootell, Roger B. H., Martin $. Silverman, Eugene Switkes y Russell L. de Valois, 1982, “Deoxyglucose analysis of retinotopic organization in primate striate

cortex”, Science, 218, págs. 902-904. — y Eugene Switkes, Martin B. Silverman y Susan L. Hamilton, 1998, “Functional anatomy of macaque striate cortex 1. Retinotopic organization”, Journal of o Neuroscience, 8, págs. 1531-1568.

Trigger, Bruce G., 2006, A history of archaeological thought, Cambridge University Press, Cambridge.

—, 2003a, Artifacts and ideas, Transaction, New Brunswick, NJ. —, 2003b, Understanding early civilizations, Cambridge University Press, Cambridge. Clifford, 1984, An idiot3 fugitive essays on science: Method, criticism, traiT nd

ning, circumstances, Springer-Verlag, Nueva York. Tulving, Endel, 2002, “Episodic memory: From mind to brain”, Annual Review

of Psychology, 53, págs. 1-25. Uexkiill, Jakob von, 1921, Umwelt und Innenwels der Tiere, 2.a ed. Springer-Verlag, Berlín.

Van Fraassen, Bas C., 1980, The scientific image, Clarendon Press, Oxford [hsy trad, cast.: La imagen científica, Paidós, México, 1996].

514

Vaughan, Susan C., Randall D. Marshall, Roger A. McKinnon, Roger Vaughan, Lisa Mellman y Steven P. Roose, 2000, “Can we do psychoanalytic outcome research? A feasibiliy study”, International Journal of Psychoanalysis, 81, págs.

513-527.

Vesey, G. N. A, ed., 1964, Body and mind, George Allen and Unwin, Londres. Volchan, Sérgio B., 2002, “What is a random sequence?”, American Mathematical

Monthly, 109, págs. 46-62. Vollmer, Gerhard, 1986, Was kónnen wir wissen?, vol. 2: Die Erkenntnis der Natur,

Hirzel, Stuttgart. —, 1987, “What evolutionary epistemology is not”, en W. Callebaut y R. Pinxten, eds., Evolutionary epistemology, Reidel, Dordrecht, págs. 203-221. Vygotsky, Lev Semyonovich, 1978, Mind in society: The development of higher psychological processes, Harvard University Press, Cambridge, MA. Weinberg, Steven, 1992, Dreams ofa final theory, Random House, Nueva York [El sueño de una teoría final: la búsqueda de las leyes fundamentales de la naturaleza, Crítica, Barcelona].

Westermarck, Edward, 1906-1908, The origin and development of moral ideas, Macmillan, Londres. Wetter, Gustav A., 1958 [1952], Dialectical materialism: A historical and systematic

survey of philosophy in the Soviet Union, Routledge 8% Kegan Paul, Londres. Whitehead, Alfred N., 1929, Process and reality, Macmillan, Nueva York [hay trad.

cast.: Proceso y realidad, Losada, Buenos Aires, 1956]. Whitson, Jennnifer A. y Adam D. Galinsky, 2008, “Lacking control increases illusory pattern perception”, Science, 322, págs. 115-117.

Wiener, Norbert, 1948, Cybernetics: Or control and communication in the animal and the machine, Wiley, Nueva York, y Hermann, París [hay trad. cast.: Cibernética, Tusquets, Barcelona, 1985]. Wilczek, Frank, 2008, The lightness of being: Mass, ether, and the unification of forces, Basic Books, Nueva York [hay trad. cast.: La ligereza del ser, Crítica, 2009).

Wikstróm, Per-Olof H. y Robert J. Sampson, eds.. 2006, The explanation of crime: Context, mechanisms, and development, Cambridge University Press, Cambridge. — y Kyle Treiber, 2009, “Violence as situational action”, International Journal of Conflict and Violence, 3, págs. 41-62. Wilkinson, Richard y Kate Pickett, 2009, The spirit level: Why more equal societies almost always do better, Allen Lane, Londres,

Wimsatt, William C., 2007, Re-engineering philosophy for limited beings, Harvard University Press, Cambridge, MA, Wittgenstein, Ludwig, 1922, Tractatus Logico-Philosophicus, Routledge % Kegan Paul, Londres [hay trad, cast.: Tractatus logico-philosophicus, Alianza, Madrid, 2012).

515

—, 1967, Zettel, ed. de G. E. M. Anscomb y G. H. von Wright, Basil Blackwell, Oxford. Wolf, Arthur P, 1995, Sexual attraction and childhood association, Stanford Uni-

versity Press, Stanford. Wolpert, Lewis, 1992, The unnatural nature of science, Faber 87 Faber, Londres

[hay trad. cast.: La naturaleza no natural de la ciencia, Acento, Madrid, 1994]. Wright, Bradley R. Entner, Avshalom Caspi, Terrie E. Moffitt y Phil A. Silva, 1999, “Low selfcontrol, social bonds, and crime: Social causation, social selection, or

both?”, Criminology, 37, págs. 479-514. Wright, John Paul, Kim N. Dietrich, M. Douglas Ris, Richard W. Hornung, Stephanie D. Wessel, Bruce P. Lanphear, Mona Ho y Mary N. Rae, 2008, “Asso-

ciation of prenatal and childhood blood lead concentrations with criminal arrests in early adulthood”, PLOS Medicine, 5, 0732-07329.

Wright, Samantha B., BryanW. Matlen, Carol L. Baym, Emilio Ferrer y Silvia A. Bunge, 2008, “Neural correlates of fluid reasoning in children and adults”, Frontiers in Human Neuroscience, 1. Zeki, Semir, 1993, A vision of the braín, Blackwell, Oxford [hay trad. cast.: Una

visión del cerebro, Ariel, Barcelona, 1995].

Zimmer, Carl, 2004, Soul made flesh: The discovery of the brain and how it changed the world, The Free Press, Nueva York,

Índice

Prólogo

socommmensarr e de

Introducción

....o.o.o.ooooonon

Parte L Ta mater.

sara iran

1. La filosofía como COSsmovisióÓn

1.1. Universo y COSMOVISIÓN

nara

AAA

.......oooooommo...

....0ooomoomm.o.oo.”.o

1.2 Monismo y pluralismo +20. 1.3 La metafísica: de sentido común, especulativa, CONOS sem reasgrereme RIA 1.4 Determinismo y contingencia, causación y azar . 1.5 La gnoseología: escepticismo, subjetivismo,

23 27 2] 30

33 40

ICAO: «sE 1.6 La relación entre la gnoseología y la ontología ... 1.7 La filosofía práctica .....oooooommmommm«.... 1.8 La conexión política .......ooooomommmommo.. Comentarios finale +. coosseñisinsar osa

42 46 52 56 58

2. La materia clásica: cuerpos y CAMPOS ......ooommm....

59

2.1 Conceptos y principios tradicionales: el mecanicismo .......ooomoommmmmmmommm.. 2.2. Otras características de la representación clásica

2.3 La decadencia del mecanicismo: los campos ...... 2.4 Más decadencia: la termodinámica ...........

60 70 74

2.5 La relatividad especial

2.6 La gravitación

Comentarios finales

....oooooooocooonnoo oo... oo A

TN

85 86

3. La materia cuántica: extraña pero real ..............

89

...........o...o.o....

93

3.1 Con ustedes, el cuantón

3.2 La pérdida de la individualidad

.............

3.3 La pérdida del vacío y de la estabilidad ........

95 99

3.4. La nitidez perdida ......ooooooomomooo.o...

104

.......................

111

3.5 El azar irreducible

3.6 Las paradojas

.....ooooooomoronoronoooo..

114

.............

1157

Comentarios finales ............ooooooo.o..o.o..

119

4. El concepto general de materia: ser es devenir ........

121

3.7 Materialismo frente a idealismo

RN

AE

4.2 La información

......oooooooooooooo.r.o...

123

131

4.3 La metafísica digital ........0oooooooo.oo.... moo cera maes 44 Lo.que hay all fuer coro

133 135

Comentañios Ciales a. ucsbrrrces areas

140

5. La emergencia y los DIVAS

.aemtididrcodidsaseean

5.1 La oratoria BIOS ss 105 00

A

Ri

re er rre

AA

141

145

149

5.3 La materia VÍVA .....«. «+... «..