SCIENTIA IN VERBA Febrero 2019. Si la ciencia es la luz de una vela encendida en la oscuridad, la epistemología es el pábilo y la cera. [3, 1 ed.]

El objetivo de esta revista es, principalmente, el de la divulgación del conocimiento científico y el filosófico desde d

824 97 38MB

Spanish Pages 105 Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

SCIENTIA IN VERBA Febrero 2019. Si la ciencia es la luz de una vela encendida en la oscuridad, la epistemología es el pábilo y la cera. [3, 1 ed.]

  • Commentary
  • A propaganda of English-broadcast views, this pamphlet neglects every result of the Spanish-written academic work in the field: just a despicable political maneuver, only displaying superficial expositions in all of the topics.

Table of contents :
INVERSE PROBLEMS. CHAPTER 3. MATTERS OF FORM 2
Mario Augusto Bunge
PROPUESTA PARA UN VOCABULARIO MÍNIMO EN CIENCIA 7
Nicolás Pérez
APROXIMACIÓN TEÓRICA AL NEOMECANICISMO Y SU APLICACIÓN A LA PSICOLOGÍA 14
Gerardo Primero y Sergio Barrera
EL CONCEPTO DE MATERIA EN LOS SISTEMAS FILOSÓFICOS DE GUSTAVO BUENO Y MARIO BUNGE 34
Gerardo Primero y Alejandro Gracia Di Rienzo
BREVE REFLEXIÓN SOBRE FILOSOFÍA Y VACUNACIÓN 52
Mónica Gómez Salazar
CATEGORIZACIÓN CONCEPTUAL VS CATEGORIZACIÓN PERCEPTUAL 57
Caleb S. Medina
LA MALDICIÓN DE PROCUSTO. DIVERSIDAD E INTEGRACIÓN DE LOS SABERES CIENTÍFICOS. CAPÍTULO 1 62
Héctor Aldo Palma
POR UNA PSICOLOGÍA CIENTÍFICA: LOS PSICÓLOGOS NOS PLANTAMOS FRENTE A LAS PSEUDOTERAPIAS 90
Irene Fernández Pinto
RECOMENDACIONES DIVULGACIÓN PSICOLÓGICA. CANALES AMIGOS Y ASOCIADOS 95
LOS COMPROMISOS DEL REALISMO CIENTÍFICO 97
Antonio J. Diéguez Lucena
FRAGMENTO DE LA TESIS: HIPÓTESIS METAFÍSICAS EN LA CIENCIA: CAPÍTULO 4. EVALUACIÓN DE LOS ARGUMENTOS 121
Mtro. Mauricio Dimeo Coria
LA “VERDAD” PARA EL CIUDADANO Y EL CIENTÍFICO 133
Ricardo Gustavo Martínez
ALGUNAS CONSIDERACIONES BREVES SOBRE PEDAGOGÍA Y EPISTEMOLOGÍA 142
Johnny Jaramillo Serna
ATEÍSMO EPISTEMOLÓGICO: UNOS GARABATOS 147
Manuel Corroza Muro
EPISTEMOLOGIA, PROBLEMAS Y METODOS EN LA OBRA DE PIAGET 155
Jaime Yáñez Canal
HOMEOPATÍA: ENTRE MITOS Y VERDADES. (O CÓMO VENDER UN LITRO DE AGUA MÁS CARO) 168
Pablo Cesar Díaz Prados
PÁGINAS RECOMENDADAS DE DIVULGACIÓN FILOSÓFICA Y CIENTÍFICA EN FACEBOOK . 191
LA FILOSOFÍA CIENTÍFICA Y LOS LÍMITES DE LA CIENCIA 193
Gustavo Esteban Romero
ACERCA DE NULLIUS IN VERBA SITE 200
CONTRIBUCIONES VOLUNTARIAS 201
GRACIAS POR LA LECTURA 203

Citation preview

ISSN: 2619-2586 (En línea)

Scientia in verba magazine Vol. 3 Primera edicion. Febrero de 2019

Si la ciencia es la luz de una vela en la oscuridad, la epistemología es el pábilo y la cera.

Ciencia y racionalidad en tiempos de imposturas Nombre de la editorial o autor / editor: Nullius in verba site. En directorio de Editores y Proveedores de material bibliográfico y documental de la Biblioteca Nacional de Colombia.

© Nullius in verba site Sergio Barrera +57 319 721 98 66 Colaborador Agustín Cosso +54 9 11 4889-9267 Diseño gráfico Julián Camilo Cruz +57 3104857568. Página Web de la revista HTTP:// NULLIUSINVERBASITE. COM/REVISTA-SCIENTIAIN-VERBA-PDF/

www.nulliusinverbasite. com

Para publicar trabajos en nulliusinverbasite o Scientia in verba magazine, y contribuir con la apropiación social del conocimiento, se debe enviar un artículo al siguiente correo: nulliusinverbasite@ gmail.com Donaciones al proyecto. Paypal nulliusinverbasite@ gmail.com

Página legal La revista digital Scientia in verba Magazine ISSN: 2619-2586 (En línea), es una publicación periódica trimestral, orientada a divulgar la producción intelectual de diversos autores adscritos a la filosofía y la investigación científica en general. Dirigida a investigadores, docentes, estudiantes y comunidad académica en general, además, a cualquier persona interesada en las temáticas de la filosofía y la ciencia. Editorial Nullius in verba site. Editor en jefe: Sergio Barrera Rodríguez. Con dirección editorial en Medellín, Colombia. Teléfono de contacto: +57 3197219866. Todos los artículos contenidos en esta revista cuentan con autorización formal de cada uno de los autores participantes invitados, por medio escrito, vía email. Donde los mismo, aceptan voluntariamente la reproducción de sus ensayos como contenido de la revista Scientia in verba Magazine. Se precisa que los derechos de autor surgen desde el momento en que se crea cada obra, respondiendo al criterio normativo autoral, que establece que desde el mismo momento de creación nace el derecho de autor, el cual posee el autor mismo, y no se requieren formalidades para la constitución del mismo. Todos los recursos gráficos utilizados provienen de bases de datos libres de derechos de autor, como Pixabay y WikiCommons. Los logotipos son diseños propios. Tercer volumen © Scientia in verba magazine Medellín, Colombia Click acá para consultar normas editoriales Vísitanos en redes sociales y suscríbete

La revista Scientia in verba Magazine emplea la licencia Creative Commons:

Scientia in verba Magazine es una revista de acceso abierto gratuita. Esta revista y sus artículos se publican bajo la licencia Creative Commons AtribuciónNoComercial 4.0 Internacional (CC BY-NC 4.0), por lo cual el usuario es libre de: compartir, copiar y redistribuir el material en cualquier medio o formato; y de remezclar, transformar y construir a partir del material. Esto bajo los siguientes términos: - Se debe dar crédito de manera adecuada: a la revista-ISSN, url de la revista, volumen, edición; al autor -cita y referencias formales con normas- / agregar nombre del artículo y link si es necesario. - Se brinda un enlace a la licencia. - Se indica si se realizaron cambios en dado caso y se cita-referncia al autor original. - No se usen para fines comerciales.

Reconocimiento de autoría Revista Scientia in verba permite al autor mantener los derechos patrimoniales de su obra sin restricciones. El autor / autores del artículo y la Revista Scientia in verba Magazine (o la revista donde se publicó por primera vez algún artículo), deberán mencionarse de forma expresa y completa, siempre que se copie, distribuya, comunique públicamente o se haga accesible interactivamente –por Internet u otros medios- un fragmento o el texto en su totalidad. Se prohíbe utilizar los textos, en su totalidad o fragmentos de los mismos, con fines comerciales.

Obras derivadas Scientia in verba Magazine permite la reutilización y remezcla de los contenidos publicados de acuerdo con la licencia Creative Commons Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0): se pueden copiar, usar, difundir, transmitir y exponer públicamente con la condición de citar la fuente original (revista, autores y URL). Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico, químico, mecánico, óptico, grabación fotocopia, o cualquier otro, sin la previa autorización escrita de los titulares del copyright.

Tabla de contenido . INVERSE PROBLEMS. CHAPTER 3. MATTERS OF FORM  2 Mario Augusto Bunge PROPUESTA PARA UN VOCABULARIO MÍNIMO EN CIENCIA  7 Nicolás Pérez APROXIMACIÓN TEÓRICA AL NEOMECANICISMO Y SU APLICACIÓN A LA PSICOLOGÍA  14 Gerardo Primero y Sergio Barrera EL CONCEPTO DE MATERIA EN LOS SISTEMAS FILOSÓFICOS DE GUSTAVO BUENO Y MARIO BUNGE  34 Gerardo Primero y Alejandro Gracia Di Rienzo BREVE REFLEXIÓN SOBRE FILOSOFÍA Y VACUNACIÓN  52 Mónica Gómez Salazar CATEGORIZACIÓN CONCEPTUAL VS CATEGORIZACIÓN PERCEPTUAL  57 Caleb S. Medina LA MALDICIÓN DE PROCUSTO. DIVERSIDAD E INTEGRACIÓN DE LOS SABERES CIENTÍFICOS. CAPÍTULO 1  62 Héctor Aldo Palma POR UNA PSICOLOGÍA CIENTÍFICA: LOS PSICÓLOGOS NOS PLANTAMOS FRENTE A LAS PSEUDOTERAPIAS  90 Irene Fernández Pinto RECOMENDACIONES DIVULGACIÓN PSICOLÓGICA. CANALES AMIGOS Y ASOCIADOS  95 LOS COMPROMISOS DEL REALISMO CIENTÍFICO  97 Antonio J. Diéguez Lucena

FRAGMENTO DE LA TESIS: HIPÓTESIS METAFÍSICAS EN LA CIENCIA: CAPÍTULO 4. EVALUACIÓNM DE LOS ARGUMENTOS  121 Mtro. Mauricio Dimeo Coria LA “VERDAD” PARA EL CIUDADANO Y EL CIENTÍFICO  133 Ricardo Gustavo Martínez ALGUNAS CONSIDERACIONES EPISTEMOLOGÍA  142 Johnny Jaramillo Serna

BREVES

SOBRE

PEDAGOGÍA

Y

ATEÍSMO EPISTEMOLÓGICO: UNOS GARABATOS  147 Manuel Corroza Muro EPISTEMOLOGIA, PROBLEMAS Y METODOS EN LA OBRA DE PIAGET  155 Jaime Yáñez Canal HOMEOPATÍA: ENTRE MITOS Y VERDADES. (O CÓMO VENDER UN LITRO DE AGUA MÁS CARO)  168 Pablo Cesar Díaz Prados PÁGINAS RECOMENDADAS DE DIVULGACIÓN FILOSÓFICA Y CIENTÍFICA EN FACEBOOK .   191 LA FILOSOFÍA CIENTÍFICA Y LOS LÍMITES DE LA CIENCIA  193 Gustavo Esteban Romero ACERCA DE NULLIUS IN VERBA SITE   200 CONTRIBUCIONES VOLUNTARIAS  201 GRACIAS POR LA LECTURA  203

“The distinction beween premises and their consequences is not just a structural matter, but has to do with the checking phase.”

1

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Scientia in Verba Mag. 3, 2-4 (2019).

Magazine 2619-2586

Inverse problems. Chapter 3. Matters of form Mario Augusto Bunge1

1  Universidad McGill, de Montreal. Canadá

3.1 Digging up the premises When a field has been logically ordered, the forward/inverse distinction can be restated as follows. Forward: Given assumptions A, find their logical consequences T: (?T)(“A T”  Logic) Inverse: Find the premises (hypotheses and definitions) that entail the given theorem: (?A)(“A T”  Logic) In the preceding we have used the standard definition of entailment or logical implication: A |–B = (“A  B” belongs in the classical predicate logic.) Incidentally, we have adopted the mathematical conception of definition as identity, not as equivalence. A familiar problem in social technology is to find a bunch of government regulations and interventions likely to improve the health of a given social group. For example, the British civil servants and politicians who faced the epidemics in London in the mid-nineteenth century found that the main culprits were the water sources, particularly the underground ones, and they proceeded to replace them with purified water extracted from the Thames, which in turn was protected from the raw sewage originating in households and public sanitary facilities. In this case, as in most

other real-life inverse problems, the task was to identify the hidden causes of observable effects: Observable effect(s) Hidden cause(s) < Observable effect(s) Forward → Inverse ← Another familiar example is crime detection In fact, a detective will attempt to identify the culprit by inspecting the traces he left. Likewise, the astronomer will detect black holes by observing the motions of planets that do not orbit around visible stars. And the industrialist will try to understand the commercial success of his products by commissioning a marketing analysis. In short, the search for causes or sources is inverse or upstream, and it has either multiple solutions or none. Forward Inverse Compute Guess Cause(s) → Effect(s) Effect(s) →Cause(s) Forward conceptual problems consist in finding the consequences of a set of premises, whereas inverse conceptual problems consist in guessing the premises that entail the given proposition(s). Thus, most research problems in mathematics consist in proving theorems, that is, in guessing the premises that entail a given statement. For example, there are at least 367 proofs of the Pythagorean theorem,

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

2

Scientia in verba subpage /revista-scientia-in-verbapdf/ every one of which starts and ends with an enunciation of the said theorem. That is, the theorem to be proved is the launching pad of the exercise – or, if preferred, it is the carrot dangling in front of the mathematician’s nose. Remove the statement to be proved, and the proof process won’t even start. The proverbial knight sallied forth on horseback in search of definite enemies. In contrast, Don Quixote was ready to fight whatever bad guys crossed his path. Every proof of a theorem may be pictured as a tree whose root is a bunch of postulates and definitions. In general, a statement in an atized mathematical theory may be pictured as a branch of a hypothetico-deductive tree. Clearly, axiomatizing a theory is solving a hard and unusual inverse problem. See Fig. 3.1. Forward or downstream ↓

Premises /\ Consequences

Backward or upstream ↓

Premises \/ Consequences

Fig. 3.1 Forward vs. inverse problems.

The distinction beween premises and their consequences is not just a structural matter, but has to do with the checking phase. At this phase one often engages in two different but mutually complementary thinking strategies, forward and backward. In forward thinking one accepts statements because they follow from the assumptions, and one believes assumptions if they entail plausible consequences. This is an example of the so-called virtuous circle,

Bunge, M. 2-4

© Nullius in verba site

which eludes deductive logic. Let us finally note that the forward/ inverse distinction is not always pertinent or important. An example is that of the algebraic equations: solving an algebraic problem is working on a forward problem, whereas using its solutions or roots to recover the original equation is to work out an inverse problem. But the fundamental theorem of algebra guarantees the feasibility and equivalence of both paths – an unusual situation.

3.2. Deliberate actions involve inverse problems All deliberate actions are goal-directed, that is, they presuppose a sketch of the solution of problems of the means-end kind. In turn, these involve models, however sketchy, of the means likely to achieve the corresponding goals. The monkey who covets a fruit hanging from another branch prepares to jump for it, and estimates the distance he has to go without falling down. In other words, the animal that aims to attain a goal G must begin by solving a G-M inverse problem, which it will try to do through either images or concepts. And in implementing the M-E relation, the animal will use, explicitly or tacitly, the modi studied in praxiology or action theory (Bunge 1998). These are the modus volens and modus nolens praxiological rules: If A (is the case, or is done), then B (ensues). B is good (or right) and, on balance, better (or more right) than A. :: Do A. If A (is the case or is done), then B (ensues). B is bad (or wrong). :: Avoid A. Notice that the first premise in both modes is a law statement, whereas the second is a value judgment. This

3

Nullius in verba Site www.nulliusinverbasite.com intermingling on factual and valuational statements hits Hume’ fact/value wall adopted by most philosophers. Since attaining most goals requires deliberate rather than reflex actions, we guess that most of the problems faced in ordinary modern life involve inverse problems. Shorter: in modern life inverse problems are the rule, not the exception. The failure of the vast majority of professional philosophers to realize this point only suggests that academic philosophy, even ordinary-language philosophy, is removed from ordinary life. They claim to have faced and solved the bunch of empirical dots → continuous curve problem, but have ignored the case of the boy who goes shopping for the bike of his dreams: he searches until he finds the real bike that matches both his dream and his pocketbook.

3.3. Thinking: free and ruled Everyday thinking is rather fuzzy and erratic. When subjected to logical analysis, such thinking proves to be either spontaneous, rule-directed, or a mixture of the two modes. We make explicit use of rules when resorting to multiplication rules, truth kinds, deduction patterns, and the like. In some of these cases we appeal to a calculator, that is, we engage in computer-aided work. The contribution of artificial intelligence to work on design engineering has been increasing exponentially over recent years (see Sanchez-Lengelin & Aspuru-Guzik 2018), but it has only facilitated the well-tried smart trial and error procedure. Obviously, any AI gadget will help only as long as it is supplied with energy and a program together with the kind of goal it is expected to attain. For example, as many ethical machines can be designed as there are ethical philosophies. In particular, a utilitarian machine will deliver the most convenient solution,

Scientia in verba Magazine 2619-2586

and an agathonist a good one. Computers and other symbolprocessing devices operate according to rules or algorithms: they do not invent new ideas or even make shortcuts. A practical import of this restriction is that even the most sophisticated computer may commit errors. Another is that computers will never be credited with having written an original paper or drawn an original design. In other words, computers have no curricula vitarum, and no computer will ever be awarded a patent. From a logical point of view, a computer’s output consists in unpacking or working out its symbolic input written in some programming language: see Fig. 3.2.

S

Mario Augusto Bunge

S

Electricity Printout Input < > Output < Program Heat Fig. 3.2 Inputs and outputs of a symbolprocessing device.

A computer won’t work if either the physical or the symbolic component of its input is missing. Since computers are as incapable of writing original programs as of creating energy, the preceding suffices to confute Ray Kurzweil’s forecast that at a certain point in the near future (the “technological singularity”) computers will take over from humans – as if technology had a life of its own. What is true is that all radical technological advances are likely to eliminate jobs, when owned by people or groups other than their inventors. In principle, cooperative management and ownership would eliminate this dark social side of digitalization and automation.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

4

Epistemólogo, físico y filósofo argentino. Actualmente es Emeritus de Lógica y Metafísica en la Universidad McGill, de Montreal.

5

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site Scientia in Verba Mag. 3, 7-11 (2019).

Propuesta para un vocabulario mínimo en ciencia Nicolás Pérez1

1  Universidad Nacional de Santiago de estero. Santiago de estero, Argentina

Intentaremos dar unas definiciones mínimas y funcionales a los conceptos básicos en ciencia y conceptos relativos a ello. Las definiciones están basadas en las propuestas de tres autores: Bertrand Russell, Mario Bunge y Gustavo Romero.

“Intentaremos dar unas definiciones mínimas y funcionales a los conceptos básicos en ciencia y conceptos relativos a ello. Las definiciones están basadas en las propuestas de tres autores: Bertrand Russell, Mario Bunge y Gustavo Romero.”

Ciencia: es una actividad humana, donde se conjugan, practicas, metodologías, valores, teorías y conocimientos. Hay dos tipos de ciencia: pura y aplicada. La primera investiga porciones de la realidad mediante modelos para obtener una representación de ella cada vez más fiel. En cambio, la ciencia aplicada realiza una investigación para transformar la realidad fáctica en beneficio de la humanidad o de otros seres. Conocimiento científico: un sistema de conocimientos verdaderos obtenidos por medio del método científico. Son enunciados que se describen como: universales, objetivos, verdaderos, sistemáticos, articulados con otros, legales o generalizables, y provisorios. Los conocimientos científicos son verdaderos de acuerdo a la evidencia corriente, están sujetos a modificación si la evidencia cambia.

Método científico: conjunto de métodos usados en ciencia, comprenden varios según la necesidad, su alcance y utilidad. Hay métodos inductivos, usados como

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

6

Pérez, N. 7-11

primera opción para generalizar a partir de la experiencia. Métodos deductivos, utilizados como medio de contrastación de hipótesis según una coherencia interna. Métodos abductivos, el más usado para la validación empírica de hipótesis. Todos estos métodos generales para obtener conocimiento comprenden otros para intervenir en la realidad por medio de experimentos y observaciones controladas.

Teoría científica: es la más alta unidad de conocimiento en ciencia que provee un marco explicativo a una porción de la realidad. Es un sistema de enunciados articulados lógicamente. Sus axiomas son leyes y principios generales, y a partir de ellos se deducen teoremas del sistema que permiten ampliar el conocimiento en el área de estudio. La realidad se estudia con modelos científicos que se producen dentro de las teorías. Por último, los modelos tienen la posibilidad de producir numerosas hipótesis que son posibles contrastarlas si la tecnología lo permite. Las teorías no pueden ser concluyentemente verificadas, dejando esto a los enunciados internos de la teoría.

Modelo científico: es una representación de la realidad dentro de una teoría científica. Es un sistema de enunciados funcional que

7

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com intenta explicar y predecir la evolución de un sistema físico. Muchos modelos científicos se modelan matemáticamente, pero no todos. Modelar matemáticamente permite una precisión en la predicción que aumenta la verificabilidad o refutabilidad de un modelo científico. El sistema solar es un modelo, el lambda CDM es un modelo cosmológico, o también es un modelo el estándar de partículas.

Hipótesis: es un enunciado que se formula como una conjetura, propuesto para explicar las causas de un fenómeno de la realidad. Dentro del método hipotético-deductivo la hipótesis no se contrasta directamente, sino que se deducen consecuencias observacionales que son las que se terminan contrastando. Según Popper una hipótesis no puede verificarse concluyentemente porque su estructura lógica es invalida, no así su falsación.

Ley: las leyes son regularidades de la naturaleza. Estas regularidades son emergencias de los sistemas físicos cuando al moverse en el espacio-tiempo interactúan entre ellos limitando el acceso a todos los estados posibles de energía disponibles. De este modo una ley no es un dictado metafísico de algún dios o una imposición que se realiza sobre los sistemas, sino que es derivado de la existencia de las cosas. Si no existiesen objetos y sistema físicos no habría leyes. Las leyes gobiernan regiones o niveles de la realidad, como las leyes del electromagnetismo, o de la termodinámica, o de la evolución. Cuando hay leyes que gobiernan en todas las regiones se llaman principios físicos.

Magazine 2619-2586

Principios físicos: son metaleyes, leyes de leyes que rigen en todos las regiones o niveles de la realidad. Por ejemplo: la conservación de la energía, la constancia de la velocidad de la luz, o el principio del aumento de entropía con el tiempo.

Enunciados de leyes: son enunciados que describen las leyes de la naturaleza. Estos enunciados pueden ser matemáticos, como la llamada “segunda ley de Newton”: F=m a, o se pueden formular no matemáticamente como “la segunda ley de Mendel” que enuncia: al cruzar dos variedades de una especie de raza pura, cada uno de los híbridos de la primera generación tendrá caracteres determinados similares en su fenotipo.

Verdad semántica: La verdad no es una cosa de la realidad, sino que es un atributo de ciertos enunciados. Las cosas son o no son, en cambio ciertos enunciados, llamados constatativos pueden ser verdaderos o falsos. La concepción semántica de la verdad de Tarski propone que la verdad es una propiedad del metalenguaje desde el cual atribuimos verdad a una afirmación del lenguaje objeto. En ciencia entonces, una verdad es un enunciado que ha sido confirmado por evidencia empírica. En ciencia se contrastan enunciado contra enunciado, y no enunciado contra la realidad ya que tienen distintas ontologías. El enunciado a contrastar se llama enunciado-hipótesis, y el enunciado contra el cual se contrasta es el enunciado-evidencia. la evidencia es el resultado de la intervención en la realidad, mediante mediciones, experimentos u observaciones controladas. En ese sentido lo que mejora la evidencia es la eficacia en la intervención, que produce una mejor

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

8

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

representación de la realidad. Mejorando la evidencia obtenemos nuevos enunciados-evidencia con los cuales contrastar las hipótesis, y puede suceder que ciertos conocimientos validados sean ahora falsos con nueva evidencia. la teoría de la verdad en ciencia, también puede implicar que el grado de verdad puede variar de 0 a 1, siendo 0 la falsedad absoluta y uno la certeza absoluta. Ambas son inalcanzables, pero se puede lograr grados de verdad crecientes si mejoramos nuestra intervención en la realidad y por ende nuestra evidencia. Eratóstenes al calcular la circunferencia de la Tierra obtuvo un enunciado-evidencia que contrastado con nuevas mediciones es inferior al que tenemos ahora pero no falso, sino menos verdadero.

la teoría científica absoluta, nunca podríamos saber cuál es, porque no podemos mirarla desde un punto de vista fuera de la teoría.

Progreso científico:

Pseudociencia:

se concibe como tal al mejoramiento en la fidelidad con que ser representa a la realidad por medio de teorías y modelos científicos. Hay concepciones negativas como la de Popper que pensaba que no podíamos acercarnos con nuestras teorías, ya que los descriptores no podían ser verificados, pero si de un modo negativo, eliminando los enunciados falsos. Otros piensan que el grado de verdad de las teorías mejora cada vez que obtenemos mejores evidencias, y de este modo conocemos mejor la realidad con cada nuevo avance. Peirce planteaba la posibilidad lógica de una “ultimate opinión” es decir una verdad futura ya en posesión de la comunidad científica, al considerarla en todas sus instancias temporales. Se plantea un problema interesante sobre si algún día podríamos tener un modelo que replique punto por punto a la realidad, si esto sucediera, tendríamos una teoría absolutamente verdadera, y definitiva. Muchas objeciones pueden ser presentadas, pero quizás las más descorazonadora sería la siguiente: si alguna vez tuviéramos

son actividades con distintos fines, o de curación o de búsqueda de conocimiento, que contienen como red teórica enunciados que no son científicos, o enunciados refutados por la ciencia, y unos pocos conocimientos científicos validados pero articulados en un todo general que no se adecuan a los criterios epistemológicos marcados para ser una ciencia.

Pérez, N. 7-11

Tecnología: es un conjunto de actividades de intervención en la realidad para un aprovechamiento humano o animal, basadas en el conocimiento científico con distintos fines: medico, social, industrial, alimentario, de comodidad, de creación de instrumentos y refinación, de comunicación, o con fines artísticos. En este sentido la medicina, la ingeniería, la comunicación social, la administración de empresas, la abogacía, o la enfermería son tecnologías.

Materia: es todo lo que contiene energía. Podemos definir este concepto por extensión y llamar materia a: objetos con masa, objetos sin masa como los fotones, campos físicos, y el espacio-tiempo.

Energía: es una propiedad de la materia. La energía no es una cosa sino una capacidad que tiene la materia de poder cambiar, hacer trabajo, o transformarse en otra cosa. Si hablamos de sistemas físicos es la capacidad de un sistema

9

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com físico de modificar a otro sistema físico, en ese sentido si puede alterar mucho un sistema, se dice que tiene mucha energía. Si bien a veces se clasifican en distintos tipos de energía si entendemos que es una capacidad, comprendemos que es una sola, pero adquiere diversos nombres en las distintas regiones de estudio de las ciencias. La energía se puede medir matemáticamente y su unidad en el sistema internacional es el Julio.

Espacio-tiempo: estructura fundamental material que constituye el escenario sobre el cual los campos cuánticos generan su actividad. Posee y transporta energía. En su seno pueden formarse ondas gravitacionales cuando objetos masivos son acelerados, estas ondas viajan a la velocidad de la luz, y fueron descubiertas el 14 de septiembre de 2015, con el experimento LIGO. De este modo se confirmó una vez más una predicción de la teoría general de la relatividad de 1915.

Epistemología: (philosophy of science) es una disciplina filosófica que estudia la producción científica y todo lo relativo a la ciencia: actividades, prácticas, metodologías, valores, conocimiento, historia de la ciencia, y la lógica y validación de las teorías científicas.

Filosofía: es una actividad humana en forma de disciplina que estudia la realidad natural, social, las prácticas y las producciones teóricas en sus aspectos más básicos. Para su estudio emplea un método que consiste en la defensa de tesis con argumentos racionales, universales y lógicos, pero revisables continuamente. La filosofía se puede dividir en áreas de estudio como: la ética, la epistemología,

Magazine 2619-2586

la estética, la filosofía del arte, la filosofía política, la ontología, la gnoseología, la filosofía de la religión, la antropología, y la filosofía del lenguaje entre otras.

Determinismo: es la postura filosófica que describe el modo en que evolucionan los eventos físicos de la realidad. Si queremos ser coherentes con la ciencia actual, el determinismo debe incluir el legalismo como condición sine qua non de todo proceso físico. En este sentido el determinismo afirma que todos los eventos se suceden según leyes, esto no quiere decir que dependan de las leyes, sino que los procesos físicos evolucionan de un estado anterior de manera legaliforme. Hay dos tipos de leyes: las probabilísticas, y las causales. Que no haya causalismo no implica indeterminismo.

Causalismo: es un tipo de determinismo. El causalismo es la posición filosófica que afirma que todos los eventos son productos de una causa anterior. Todo tiene una causa. No confundir con la causación que es un modo de presentación de los eventos en el cual un evento actúa como causa modificando un sistema físico, produciendo un nuevo evento al cual llamamos efecto. No toda producción de un evento es causal, ya que hay eventos sin causa. El decaimiento de un neutrón libre, por ejemplo, es un evento sin causa, como ese hay otros. Decimos que no tiene causa porque ningún sistema físico produjo su desintegración, sino que fue espontanea.

Leyes probabilísticas: son leyes que rigen a los eventos sin causa.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

10

Scientia in verba subpage /revista-scientia-in-verbapdf/

Enunciados probabilísticas:

de

© Nullius in verba site

leyes

son enunciados que describen a las leyes estadísticas pero también a los eventos estocásticos, es decir a los que se presentan como sequencias al azar o aleatorias. Los eventos estocásticos son ontológicamente causales, pero epistemológicamente son descriptos por enunciados de leyes probabilísticos. Entonces, hay eventos causales que son descriptos por enunciados de leyes causales y otros por enunciados de leyes probabilísticos. En este último caso, la probabilidad no es ontológica sino epistemológica.

Suerte: un tipo de azar que consideramos ventajoso o beneficioso para nosotros. Si este evento azaroso no es beneficioso le llamamos “mala suerte”. De este modo la suerte es una valoración subjetiva de un evento al azar.

Probabilidad: es la medida cuantitativa de la propensión de un sistema. La propensión es una propiedad de un sistema de pasar de un estado a otro. Esta propensión puede ser causal (estocástica o no) o no causal.

Azar: es un tipo de presentación de ciertos eventos al que consideramos desordenado, o que desconocemos su causa. El azar no elimina el determinismo, ya que el azar también puede describirse como la reunión de varias series deterministas en un espacio-tiempo. A la salida de una bola de lotería, la consideramos al azar, sin embargo, es un evento causal, lo mismo que el lanzamiento de una moneda. la ocurrencia de una cara o ceca depende de estados anteriores determinados, el peso, volumen y densidad de la moneda, el rozamiento con el aire, la gravedad, la fuerza inicial del lanzamiento, y la distancia con la mesa con la que chocará en su caída.

Pérez, N. 7-11

11

S

Nicolás Pérez

“Si el neomecanicismo se expande para incluir las cadenas causales efímeras, ¿qué cosas quedan fuera de esta concepción ampliada de “mecanismo”? Por otro lado, ¿cuál es la relevancia de las explicaciones que quedan por fuera del mecanicismo?”

S

Filósofo de la Universidad Nacional de Santiago de estero. Químico. Docente de filosofía. Epistemólogo

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

12

13

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Scientia in Verba Mag. 3, 14-31 (2019).

Magazine 2619-2586

Aproximación teórica al neomecanicismo y su aplicación a la psicología Gerardo Primero1 y Sergio Barrera2 1  UBA, CC Rojas. 2  Universidad Minuto de Dios. Bogotá, Colombia Universidad Minuto de Dios. Bogotá, Colombia

Resumen En este texto, analizaremos el rol del mecanicismo en la historia de la ciencia, exponiendo diversas aproximaciones conceptuales que se han propuesto en torno al término y algunas implicaciones que supone como sistema filosófico, (sección 1), y las propuestas más recientes del neomecanicismo (sección 2) trazando una reflexión crítica en torno a las diferencias más sobresalientes entre mecanicismo tradicional y neomecanicismo, explorando sus componentes principales: el fenómeno (sección 2.1), las partes (sección 2.2), la causalidad (sección 2.3), la organización y la agregación (sección 2.4). Luego analizaremos la aplicación del neomecanicismo a la filosofía de la psicología (sección 3), y argumentamos que las críticas usualmente dirigidas al mecanicismo tradicional no se aplican al neomecanicismo (sección 4). Finalmente, mencionaremos algunas estrategias de explicación no-mecanicista, y algunos argumentos a favor de un pluralismo que combine distintas estrategias explicativas (sección 5). Palabras clave: Filosofía mecanicista, mecanicismo, neomecanicismo, programas de investigación en psicología, práctica científica, sistema filosófico, historia de la ciencia.

1. El mecanicismo en la historia de la ciencia Es posible hallar distintas expresiones como “concepción mecánica de la naturaleza”, “mecanicismo” y “filosofía mecanicista”, estas expresiones están lejos de poseer cada una un significado inequívoco, además, poseen definiciones disímiles y hasta contradictorias entre sí. Usualmente son utilizadas en textos sobre filosofía de la ciencia, divulgación científica, artículos de investigación, entre otros, y de forma general, aluden a determinado conjunto de sistemas filosóficos, discursos e ideas puntuales que se consideran asociadas con el desarrollo de la ciencia moderna (Salvático, 2006 y Bacarlett y Fuentes, 2007). La aportación de la filosofía mecanicista puede rastrearse desde la aparición de las primeras elaboraciones teóricas provisionales pero audaces sobre la naturaleza del universo, hasta la constitución de un fundamento racional en el cual basar el proceder de la labor científica humana. Como “efecto dominó”, es muy conocido el mérito del pitagorismo y más tarde del platonismo, otorgaron a las entidades estudiadas por los matemáticos un lugar y caracterización básica en el cuadro general de la elaboración teórica, así como también es de dominio común el mérito del cartesianismo al posibilitar a la física de los siglos xvii y xviii un tratamiento rigurosamente mecanicista (y ya no animista) de los fenómenos

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

14

Scientia in verba subpage /revista-scientia-in-verbapdf/ naturales (Geymonat, 1965). Para empezar, el mecanicismo puede entenderse como un modelo de explicación de la realidad natural. Se entiende, por lo regular, que fue René Descartes quien durante el siglo XVII amplió y desarrolló las primeras acepciones del modelo mecanicista clásico La versión clásica de este conjunto de discursos básicamente se gesta por influencia de la llamada “filosofía corpuscular”, o simplemente filosofía mecánica, la cual busca orientar el quehacer científico y su apartado metodológico partiendo de una visión explicativa de los cuerpos materiales, otorgando relevancia especial a sus propiedades físicas primarias y geométricas: forma, magnitud, disposición, movimiento, etc., la cual influyó decisivamente sobre los desarrollos científicos de disciplinas como la física, la psicología, la biología, entre otras en su momento de auge (Bacarlett y Fuentes, 2007; Salvático, 2006; Rocha, 2004). De acuerdo con Dijksterjuis (1961) comentando un fragmento del Traité de la Lumiére de Descartes, la física cartesiana se caracteriza por ser mecanicista, simplemente porque ésta no hace uso de otros principios explicativos que difieran de los conceptos utilizados en la mecánica, tales como conceptos geométricos de forma, cantidad y tamaño, y en la matemática, para abordar el movimiento, el cual fue un concepto de especial atención para Descartes. Esta física cartesiana acepta como reales-existentes únicamente aquellas cosas del mundo que es posible explicar a través de tales conceptos. Cabe recalcar que, de acuerdo con Salvático (2006), la física Newtoniana tuvo una influencia indispensable sobre lo que el autor describe como “las tres facetas de la concepción mecánica del mundo” (la naturaleza esencial de la realidad, el concepto de causalidad, y la doctrina del alma).

Barrera, S y Primero, G. 14-31

© Nullius in verba site

2. El neomecanicismo En las últimas décadas, el marco teórico del neomecanicismo ha reorientado los intereses y conceptos con los que se trabajó en el mecanicismo clásico, y ha planteado nuevas discusiones que no se habían desarrollado en el entorno filosófico del mecanicismo clásico. Algunos autores neomecanicistas desarrollan su trabajo como un proyecto sucesor de los planteamientos previos sobre causalidad, leyes de la naturaleza, reducción y descubrimiento. En este sentido, la nueva filosofía mecánica intenta ser más una orientación general en la filosofía de la ciencia que un conjunto de doctrinas sistemáticas dentro de la filosofía (Craver y Tabery, 2015). El enfoque del neomecanicismo surge como consecuencia de que los filósofos e historiadores de la ciencia comenzaron a dejar en un segundo plano la idea tradicional de que el principal objetivo de la epistemología debía ser reducir su análisis al contexto de justificación de la ciencia, abandonando a su vez la idea de que el objetivo más importante de la filosofía de la ciencia debía ser exponer a la ciencia al criterio de la lógica formal. Esta tendencia fue principalmente promovida por los positivistas lógicos, cuyos principios recibieron fuertes críticas (Craver y Tabery, 2015; Hacking, 1996 y Vázquez, et al, 2011). En ese sentido, una nueva orientación de la filosofía de la ciencia, históricamente informada y preocupada además por el contexto de descubrimiento, surgió a partir de la obra de autores como Thomas Kuhn, Imre Lakatos, y Larry Laudan, entre otros. Tales aspectos tuvieron un papel decisivo en el desarrollo del neomecanicismo. De acuerdo con Fodor (1968), la filosofía mecanicista clásica debía contrastarse a través de explicaciones funcionales en psicología, las

15

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com explicaciones típicas que tratan con las interacciones entre los elementos que componen un mecanismo. Otros autores como Wimsatt (1972) y Kaufman (1971) sugerían que las estructuras abstractas e idealizadas del positivismo lógico no resultan adecuadas para comprender cómo los científicos, a través de procedimientos de experimentación y del trabajo en laboratorio para contrastación de hipótesis, llegan a descubrir y explicar sistemas complejos en múltiples niveles de organización. Entre los autores más destacados del neomecanicismo están el trío Darden, Craver y Machamer (MDC), quienes conciben los mecanismos como una serie de entidades y actividades, organizadas de tal manera que produzcan cambios regulares desde el inicio hasta las condiciones de configuración final de un fenómeno (Machamer, Darden y Craver, 2000). Por otro lado, Glennan (2002) y Bechtel (2006) también han desarrollado sus propias descripciones de mecanismos. Glennan por su parte, propone que un mecanismo para un comportamiento, es un sistema con cierto grado de complejidad que da lugar a ese comportamiento gracias a la interacción de una serie de partes, que pueden ser caracterizadas de manera directa, invariante, o generalizada (Glennan, 2002), mientras que Bechtel caracteriza un mecanismo como estructura que ejerce una función en virtud de sus componentes, operaciones, y de su organización, añadiendo que el funcionamiento orquestado del mecanismo es responsable de uno o más fenómenos (Bechtel, 2006). En ese mismo sentido, Illari (2011) ofrece un “consenso” en la definición de mecanismo. El mecanismo para un fenómeno consiste en entidades y actividades organizadas de manera tal que son responsables del fenómeno mismo. Es decir que, según esta concepción, los

Magazine 2619-2586

fenómenos, como se nos presentan, son el resultado de la propiedad relacional de funcionamiento de las partes de un mecanismo, cuyas regularidades de acción se asocian directamente con propiedades causales que intervienen entre las partes. Las entidades (partes), en su actividad, interactúan de forma organizada, de manera que producen el fenómeno. De acuerdo con este resumen de las principales concepciones que han dado lugar al neomecanicismo propiamente dicho, se pueden extraer cuatro componentes conceptuales elementales en torno a la caracterización de mecanismo 1) el fenómeno, 2) las partes, 3) las causas, 4) la organización (Craver y Tabery, 2015). Estos componentes generan diversas problemáticas y variantes, que son analizadas por los autores mecanicistas. Vale la pena entonces exponer un esbozo introductorio en torno a lo que se entiende por cada uno de estos.

2.1. El fenómeno El fenómeno es entendido desde una perspectiva neomecanicista, aunque no excluyente con definiciones canónicas del concepto, como aquello que resulta del comportamiento del mecanismo en su conjunto, como ya se había definido anteriormente, algo así como el resultado de una propiedad relacional entre las partes que interaccionan. En este sentido, todos los mecanismos son mecanismos de un fenómeno particular (Kauffman 1971; Glennan 1996 ). Craver y Tabery proponen el siguiente ejemplo: “el mecanismo de síntesis de proteínas sintetiza proteínas” (Craver y Tabery, 2015). Asimismo, el mecanismo de potencial de acción genera potenciales de acción. Para que esto sea así, el funcionamiento del mecanismo debe ser adecuado e ininterrumpido desde sus condiciones de inicio hasta sus condiciones finales. Se puede deducir de

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

16

Scientia in verba subpage /revista-scientia-in-verbapdf/ esto, que aquello que limite al mecanismo, y lo que hace o no parte del mismo, se fija o entiende por referencia al fenómeno que el mismo explica. Machamer y otros (2000) plantean que los mecanismos pueden involucrar relaciones input-output de distintos tipos (no siempre son relaciones bidireccionales simples), y también pueden no incluir relaciones inputoutput. Es necesario investigar cómo se desarrolla un fenómeno a través del tiempo para describir otras posibles formas en las que se dé lugar a los mismos, sin necesidad de abandonar una explicación mecanicista, pues la misma no depende necesariamente de la relación input-output. Dicha relación es un modelo que facilita la explicación, pero no aplica para todos los casos. Y esta última consideración es una de las grandes diferencias entre el mecanicismo clásico y el neomecanicismo. Asimismo, Darden identifica al fenómeno con el estado final del mecanismo (e.g., la proteína como estado final de la síntesis proteica), mientras que otros autores como Cummins (1975) y Cartwright (1989) refieren a fenómeno como una capacidad o potencial del mecanismo, más que como un estado final de su comportamiento conjunto. Los neomecanicistas refieren al mecanismo como un productor potencial, un resultado subyacente, o aquello que mantiene al fenómeno. En conclusión, por lo general los neomecanicistas entienden tres tipos de relación entre mecanismo y fenómeno: En términos de producción. Aplicado a los mecanismos que pueden entenderse como una secuencia causal que tiene fin en algún punto; como cuando una enzima fosforila un sustrato. Para dejarlo más claro, en este caso, el fenómeno se entiende como un objetivo o finalidad (la producción de una proteína como estado final), un estado de cosas (ser fosforilado) o una actividad o evento (como la digestión). Debe tenerse presente

Barrera, S y Primero, G. 14-31

© Nullius in verba site

este primer punto para entender los siguientes. En términos de lo que subyace. Aunque lo anterior es el consenso que aplica para una mayoría de casos, para otros casos referentes a mecanismos fisiológicos, es más apropiado entender que el mecanismo subyace al fenómeno; es decir, según ejemplos de Craver y Darden (2013), el mecanismo de potencial de acción que viaja a lo largo de la membrana celular o el de la memoria de trabajo, subyacen al fenómeno que acá se entiende característicamente como una capacidad o comportamiento del mecanismo en su conjunto (o fenómeno). Por último, el mecanismo puede entenderse como aquello que puede mantener un fenómeno, como cuando los mecanismo homeostáticos mantienen una temperatura corporal dentro de unos niveles restringidos. En tales casos el fenómeno es un estado de cosas (un nivel de temperatura) que se mantienen en su lugar o punto necesario gracias al mecanismo. (Craver, 2007; Craver y Tabery, 2015; Darden, 2006; Cummins, 1975) Cabe hacer la observación de que en el contexto del neomecanicismo se usa el término “fenómeno” para referir a los hechos, pero etimológicamente el término “fenómeno” refiere a aquello que se manifiesta a través de los sentidos, mientras que el término “hecho” refiere a lo objetivo en términos ontológicos, a aquello que sucede con independencia de la intervención cognoscitiva. Aunque no se trata de una confusión conceptual por parte de estos autores, sería más claro o adecuado utilizar el término “hecho” en vez de “fenómeno” para determinadas descripciones.

2.2. Las partes del mecanismo Una definición concisa de la relación parte-todo ha sido un reto para los neomecanicistas. El reto radica en

17

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com elaborar una propuesta que resulte lo suficientemente flexible como para incluir mecanismos pàradigmáticos de diversas áreas de la ciencia, sin necesidad de abandonar la idea de aplicar una mereología formal entre las partes materiales de los mismos. Esto se debe en parte a que los axiomas mereológicos como la reflexividad y la composición no restringida (la primera refiere al todo como parte de sí mismo, y la segunda refiere a cualquiera de las cosas que forman un todo) no son directamente aplicables en los usos biológicos que se asigna a las definiciones tradicionales del concepto de parte (Craver y Tabery, 2015; Craver y Darden, 2013). Al advertir esto, Glennan (1996) propone que las partes de los mecanismos deben implicar un tipo de robustez, funcionalidad y realidad, aparte de su lugar dentro del mecanismo; es decir, que una parte pueda eliminarse de una secuencia mecanicista, y aún así pueda conservar sus propiedades en otros contextos. Sin embargo, algunas partes pueden volverse inestables en ausencia de otras que componen el mecanismo o contexto al cual pertenece. Glennan (2002) advierte este problema, y argumenta que las propiedades de una parte deberían ser estables en ausencia de intervenciones, o mejor dicho, que las partes de los mecanismos, para ser consideradas como tales, deberían ser lo suficientemente estables para que se las llame objetos. Esta noción resulta en principio incompatible con algunos mecanismos naturales objeto de estudio de la física, la química y la bioquímica cuyas partes son más efímeras. Ante esta situación, los neomecanicistas han propuesto diversas consideraciones con el fin de no restringir demasiado la definición de objeto o parte en el contexto de las explicaciones mecanicistas (Skipper y Millstein, 2005). En ello radica otra de las diferencias con el mecanicismo tradicional.

Magazine 2619-2586

2.3. Causalidad Existen desacuerdos entre los neomecanicistas respecto a cómo entender la causalidad en el mecanismo. En general, los neomecanicistas se han empeñado por elaborar nociones más flexibles, que permitan superar las problemáticas y limitaciones con las que se trabajó en el desarrollo del mecanicismo clásico; es decir, liberando la noción de causalidad de una visión demasiado austera o sobria, complejizando o sofisticando su caracterización según distintos casos dados. En otras palabras, eliminando la restricción de la causalidad como propiedad de fenómenos limitados y propios de la mecánica clásica, tales como las colisiones, la repulsión, la conservación de la energía, etc., y distanciándose de la concepción humeana y regularista que era común entre los positivistas lógicos, permitiendo de ese modo la discusión y adaptación del neomecanicismo, y planteando otras formas, quizá menos ingenuas y más competentes (aunque no libres de problemas) de abordar la causación. En este apartado se describe la noción más problemática a la que se ha enfrentado el neomecanicismo con el fin de adaptar y justificar mejor el tipo de explicación mecanicista. Aunque se han esbozado varias propuestas en torno a la definición, naturaleza ontológica y epistemológica de aquello que se entiende por “causalidad” o “relación causal” aquí se elabora una explicación resumida en torno a las propuestas más relevantes o de mayor desarrollo filosófico: manipulacionista, mecanicista, y contrafactual.

2.3.1. Teorías manipulacionistas de la causalidad Las teorías manipulacionistas de la causalidad son las que mejor se adecúan

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

18

Scientia in verba subpage /revista-scientia-in-verbapdf/ al sentido común, y comprenden una serie de discursos heterogéneos que se caracterizan principalmente por entender las causas como una suerte de “manijas” o “dispositivos” que tienen como fin manipular los efectos en la naturaleza. Debido a su utilidad o éxito explicativo relacionado con la estadística inferencial y descriptiva, son las teorías de mayor aceptación dentro del gremio de los científicos sociales y estadísticos. Su elegante atractivo resulta difícil de rechazar (Woodward, 2016). Aunque los dos asignan un papel importante a la intervención humana en los eventos causales, algunas de las corrientes de estos discursos son no-reduccionistas, mientras que la mayor parte de los mismos optan por descripciones que implican un reduccionismo (Woodward, 2016). Los filósofos adscritos a las versiones más tradicionales se comprometen con la idea de que existen relaciones causales en el universo, en términos de manipulabilidad entre causas – efectos, que son exógenas a toda intervención humana, mientras que otros como Pearl (2009) adscriben a la idea intervencionista no reduccionista; es decir, aquella que considera estrictamente esencial la manipulación o intervención humana para que se dé lugar a la relación causal en términos de relación directa causa-efecto. Para matizar mejor, por lo general, una idea del sentido común implica relaciones causales que son potencialmente aprovechables para propósitos de control y manipulación. Grosso modo, si x es el legítimo causal de y, ergo, si existe la posibilidad humana de manipular x de la manera correcta, ésta debe ser una forma de cambiar y, la condición o propiedades de este efecto, o de modificar la propiedad relacional en sí. Este es el eje sobre el cual se desarrollan las teorías manipulacionistas, implementadas por filósofos y no filósofos, tales como Gasking (1955), Cook y Campbell (1979),

Barrera, S y Primero, G. 14-31

© Nullius in verba site

estos últimos autores de textos sobre metodología de la investigación. “La afirmación paradigmática en las relaciones causales es que la manipulación de una causa dará como resultado la manipulación de un efecto. (…) La causalidad implica que variando un factor puedo hacer que otro varíe.” (Cook & Campbell 1979. Pág 36) Nociones similares son comúnmente aceptadas en el tratamiento de ecuaciones estructurales, econometría y ciencia informática. Por otro lado, las críticas centrales a estas concepciones surgen en el ámbito de la epistemología contemporánea, considerándola una concepción global insuficiente y poco útil para casos anómalos de la ciencia, donde no es aplicable. Además, se cuestiona que es demasiado antropocéntrica, y que al menos algunas de sus variantes hacen de la relación causal algo dependiente de la posibilidad práctica de la manipulación humana (Hausman, 1986, 1998).

2.3.2. Teorías mecanicistas de la causalidad Estas teorías, a grandes rasgos, hacen énfasis en aquello que Hume planteó como una “conexión oculta” entre causa y efecto. Según estas nociones, se ubica al mecanismo como esa conexión oculta que permite o da lugar a la relación causal (Craver y Tabery, 2015). Glennan (2009) entiende que la noción de causación es necesariamente derivada del concepto de mecanicismo: en términos ontológicos, referir a relaciones causales es indirectamente referir a la existencia de mecanismos implícitos en éstas, pues los mecanismos vinculan a causas y efectos. Esta noción conlleva una circularidad, pues el concepto de mecanismo contiene un elemento causal inexorable. Glennan responde a esta objeción planteando que otras teorías de causalidad caen en el mismo inconveniente, y argumenta que, al menos para todas las causas

19

Nullius in verba Site www.nulliusinverbasite.com no fundamentales, la existencia del mecanismo intermedio explica cómo la causa produce su efecto (Glennan, 2009). La diferencia con la teoría manipulacionista es que la teoría mecanicista de la causalidad implica necesariamente la presencia del mecanismo como interventor en la acción o impacto de una variable causal sobre su o sus efectos, mientras que la teoría manipulacionista no incluye este aspecto. Además, la teoría mecanicista no hace depender la causalidad de la intervención humana, ya que la explicación mecanicista puede adecuarse a hechos (eventos que describimos como “mecanismos”, cuyas descripciones científicas mecanicistas tienen alta adecuación empírica) independientes de la intervención humana.

2.3.3. Teorías contrafactuales de la causalidad Este conjunto de propuestas acerca de la causalidad gozan de bastante aceptación y popularidad por parte de los neomecanicistas, en especial aquellos interesados en proporcionar una caracterización de la explicación científica (Craver, 2007; Glennan, 2002; Craver y Tabery, 2015), que ha dado como resultado una visión contrafactual de la causalidad, como también se han inclinado por la postura manipulacionista. El eje de esta postura radica en que los mecanismos pueden describir variables que ejercen un cambio o diferencia en los valores o propiedades de otras variables. La diferencia con la concepción manipulacionista está en que, dada una relación entre variables, la intervención sobre las variables de la causa puede ser utilizada para modificar el valor condicional de las variables del efecto. Suena a lo mismo, pero el siguiente ejemplo permite esclarecerlo: la idea básica es que el significado de las afirmaciones causales es explicable en términos de

Scientia in verba Magazine 2619-2586

condicionales contrafactuales (Menzies, 2014), de tal forma que, si X no hubiera ocurrido, Y no habría ocurrido tampoco. Se entiende que, a nivel general adecúa la idea básica de la manipulabilidad pero integra la posibilidad de los enunciados contrafactuales y asimismo la predicción en torno a cómo determinadas modificaciones de X pudieron haber modificado o podrían modificar el valor u ocurrencia de Y, sin necesidad de recurrir a eventos a posteriori. La mayor parte de estos análisis contrafactuales se enfocan en afirmaciones causales singulares o causas simbólicas de la forma “si ocurre x evento, ergo, ocurre y” (Menzies, 2014). David Lewis (1973) es uno de los pioneros en el desarrollo de esta postura, aunque la misma no está libre de dificultades, al igual que las anteriormente descritas, y ha sido objeto de varios debates académicos. Como respuesta a estos problemas, y contribución al desarrollo de una teoría contrafactual más sofisticada, se recomienda la lectura de Lewis (2004a, 2004b). Aunque existan versiones insignes de esta teoría, no es necesario analizarlas para los fines del desarrollo temático de este texto.

2.4. Organización y agregación Autores como Wimsatt (1997) proponen conceptos recursivos para el desarrollo del neomecanicismo, tales como organización y agregación. Una diferenciación que los mecanicistas han aprovechado para describir cómo se articulan u organizan las partes de un mecanismo con el fin de formar un todo. Asimismo, se entiende que las propiedades agregadas se suman a las propiedades de las partes del mecanismo que pasan a hacer parte de ese todo como mecanismo, esto implica que en conjunto, las partes pueden reorganizarse y ser intersustituidas entre sí, eliminando la condición de que se cambien las

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

20

Scientia in verba subpage /revista-scientia-in-verbapdf/ propiedades o comportamiento del conjunto de partes del mecanismo, la única forma en que las propiedades de ese conjunto puedan sufrir cambios es a través de la agregación o extracción de piezas, pero mientras eso no suceda, el conjunto puede desarmarse y volverse a armar sin interrumpir su propiedad y comportamiento esenciales o relaciones funcionales (Craver, 2011; Craver y Tabery, 2015). Estas características se mantienen porque la organización es irrelevante para la propiedad esencial del conjunto, o sea, una concepción de organización no agregativa (Wimsatt, 1997). Consideraciones que no tenía en cuenta el mecanicismo tradicional, pues consideraba la unidad organizativa (sin la posibilidad la reorganización ni intersustitución) del conjunto de partes como la única forma de conservar las propiedades y relaciones funcionales del mecanismo, además, el mecanicismo tradicional no especifica claramente qué entiende por parte, ni relación funcional entre las mismas, tampoco considera la posibilidad de que una parte siga siendo funcional en otro contexto mecanicista al trasladarse. Las distinciones esenciales entre mecanicismo clásico y neomecanicismo quedaron explicitadas en el decurso de este apartado. Vale la pena recalcar que el neomecanicismo puede responder a las principales críticas al mecanicismo clásico de forma convincente, en tanto elimina las limitaciones de emplear descripciones mecanicistas demasiado herméticas e ingenuas solamente a fenómenos abordados por la física, la química o la biología, teniendo en cuenta las objeciones para los casos donde no encajaba el mecanicismo clásico, y desarrollando nuevas propuestas más sofisticadas que logran adaptarse con mayor flexibilidad a los diseños actuales de investigación científica empleados en la investigación y teorización de

Barrera, S y Primero, G. 14-31

© Nullius in verba site

una amplia variedad de disciplinas. Se entiende entonces que a grandes rasgos el neomecanicismo rechaza el reduccionismo propio de la concepción clásica, y se sustenta en un conjunto de consideraciones epistemológicas y ontológicas de mayor elaboración.

3. El neomecanicismo aplicado en la filosofía de la psicología Las reflexiones sobre neomecanicismo en relación a la psicología se focalizaron principalmente en el área de la ciencia cognitiva (Wright y Bechtel, 2007; Bechtel, 2008; Piccinini y Craver, 2011; Weiskopf, 2011; Povich, 2014; Zednik, 2017). Abramova y Slors (2018) abordaron la relación entre neomecanicismo y cognición corporizada, y Bechtel (2009) aplicó el neomecanicismo al enfoque de la psicología ecológica de Gibson. Al parecer, todavía no hay exploraciones acerca de la relación del neomecanicismo con otras áreas y programas de investigación de la psicología (e.g., análisis conductual, psicopatología, psicometría, psicofísica, psicología cultural / social / del desarrollo / del aprendizaje / de la personalidad / clínica / educacional / organizacional / forense / comparada / evolucionista, etc.). Zednik (2017) propone una interpretación mecanicista de los 3 niveles propuestos por Marr (computacional, algorítmico, implementacional). Llega a la conclusión de que el nivel computacional plantea preguntas-qué sobre cuál es el objetivo computacional del sistema que se responden describiendo la conducta del mecanismo, el nivel algorítmico plantea preguntas sobre cómo se logra el objetivo computacional que se responden identificando operaciones de componentes, y el nivel implementacional plantea preguntas-dónde sobre la realización física que se responden identificando las partes componentes del mecanismo. El descubrimiento y la descripción de mecanismos para explicar

21

Nullius in verba Site www.nulliusinverbasite.com fenómenos cognitivos y conductuales no se logra con uno solo de esos niveles, sino con la integración de los tres niveles. Weiskopf (2011) cuestiona la propuesta de considerar a los modelos cognitivos como “bosquejos” (sketches) de mecanismos mediante la presentación de supuestos contraejemplos, tales como los “Fast Enabling Links” del modelo de reconocimiento de objetos de Hummel y Biederman (Weiskopf, 2011). Otro posible contraejemplo sería el aprendizaje por retropropagación del error (Buckner, 2015). Según esta objeción, tales casos funcionarían como contraejemplos porque no podrían satisfacer el criterio 3M (“model-to-mechanism mapping contraint”) propuesto por Kaplan y Craver (2011): “En los modelos explicativos exitosos… (a) las variables en el modelo corresponden a componentes, actividades, propiedades, y rasgos organizacionales del mecanismo estudiado que produce, mantiene, o subyace al fenómeno, y (b) las dependencias (posiblemente matemáticas) planteadas entre esas variables en el modelo corresponden a las relaciones causales (posiblemente cuantificables) entre los componentes del mecanismo estudiado” (Kaplan y Craver, 2011, p. 611). Zednik (2017) responde a esta objeción planteando que esas idealizaciones permiten avanzar el estudio de algunos factores causales relevantes, pero a la vez tienen un costo (oscurecer o desestimar la contribución de otros factores), y para eliminar ese costo, los investigadores buscan reemplazar las idealizaciones por constructos que reflejen más adecuadamente la estructura causal de los mecanismos involucrados. En forma consistente con este argumento, Buckner (2015) menciona que los investigadores conexionistas tienden a reemplazar la regla de retropropagación por otras reglas más plausibles. De este modo, no constituyen contraejemplos a la interpretación mecanicista, sino etapas

Scientia in verba Magazine 2619-2586

previas a una explicación mecanicista más completa. Otra objeción (Bickle, 2015; Polger, 2004) plantea que los modelos cognitivos son explicativamente irrelevantes, porque la caracterización de las propiedades físicas del mecanismo resulta suficiente para explicar los fenómenos conductuales y cognitivos. Zednik (2017) responde que los modelos cognitivos podrían describir las operaciones de los componentes y su organización funcional, sin especificar sus partes componentes y su organización estructural. En este sentido, son modelos incompletos (pues focalizan en aspectos funcionales y omiten aspectos estructurales), pero no son irrelevantes. Bechtel (2009) utiliza la investigación sobre procesamiento visual para explorar cómo el neomecanicismo puede integrar distintos niveles explicativos: la investigación de partes y operaciones, de su organización, y de su contexto (el cual puede incluir mecanismos más amplios, y procesos causales que podrían categorizarse como “mecanismos” en una concepción liberalizada del término, pero no en una concepción más estricta). La posibilidad de liberalizar el concepto de “mecanismo” fue explorada por DesAutels (2017), quien analizó si los factores causales de la evolución (selección natural, deriva, mutación) cumplen o no cumplen los requisitos de cinco rasgos centrales de los mecanismos (componentes, operaciones, organización, función, regularidad). En su análisis, encontró que existe bastante consenso acerca de los componentes y las operaciones, pero hay diferencias sustantivas respecto a la organización, la función y la regularidad. Los criterios más estrictos de organización (MDC, 2000) requieren condiciones de inicio y terminación, que los mecanismos estén localizados, estructurados, y orientados, y que las actividades de los componentes tengan un orden temporal. Los criterios más

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

22

Scientia in verba subpage /revista-scientia-in-verbapdf/ liberales de organización incluyen mecanismos que no poseen condiciones claras de inicio y terminación (e.g., mecanismos de regulación y retroalimentación), y “mecanismos efímeros” cuya configuración es inestable y breve (e.g., cadenas causales singulares). Los criterios más estrictos de función plantean una noción normativa, y los criterios más liberales proponen una noción causal no-normativa (función como rol causal). Los criterios más estrictos de regularidad requieren que el mecanismo sea responsable del fenómeno la mayor parte de las veces, mientras que otros autores proponen diversos grados de regularidad e irregularidad. Estos aportes de Bechtel (2009) y DesAutels (2017) permiten aplicar el neomecanicismo no sólo para reflexionar sobre los programas de investigación de la psicología que se focalizan en procesos internos (e.g., psicobiología, psicología cognitiva, conexionismo) sino también los que se focalizan en las relaciones entre el organismo y el contexto (e.g., análisis conductual, psicología ecológica, cognición situada).

4. Las críticas al mecanicismo tradicional no se aplican al neomecanicismo Desde fines de los años 80, varios artículos plantearon que el análisis conductual debe vincularse con el contextualismo y no con el mecanicismo (e.g., Barnes y Roche, 1994; Hayes y otros, 1988; Hayes y Hayes, 1989, 1992; Hayes, Hayes y Reese, 1988; Morris, 1988, 1991, 1993a, 1993b, 1997). Los argumentos derivan de un artículo en el cual Hayes y otros (1988) utilizaron las ideas de Pepper (1942) para plantear lo que consideran el “núcleo filosófico” del análisis conductual. Pepper (1942) analizó un conjunto de cosmovisiones (“world hypotheses”, “world views”) autónomas y “relativamente adecuadas”

Barrera, S y Primero, G. 14-31

© Nullius in verba site

(mecanicismo, contextualismo, organicismo, formismo) basadas en sus respectivas metáforas-raíz (máquina, evento en contexto, organismo vivo, forma). Según Hayes y otros (1988), el análisis conductual tiene rasgos que lo ubican en la cosmovisión contextualista: la operante es un acto en contexto, el criterio de verdad es pragmático (busca la predicción y el control), la práctica científica es un conjunto de actos en contexto, y admite la posibilidad de novedad (eventos incausados), por ejemplo al plantear que la operante es “emitida” y “ocasionada” (no “causada” en el sentido mecanicista de “producción directa”), y al presuponer una variabilidad (no explicada) en la conducta. Hayes y otros (1988) plantean que el análisis conductual también tiene elementos que parecen pertenecer a la cosmovisión mecanicista, y que podrían amenazar la consistencia filosófica del análisis conductual (salvo que se utilicen como medios para un fin, lo cual sería compatible con la cosmovisión contextualista): definiciones nofuncionales, reduccionismo biológico, análisis de causas, modelo del organismo reactivo. Según Hayes y otros (1988), los conflictos entre análisis conductual y otros sistemas psicológicos provienen de las diferentes cosmovisiones (y por ello, consideran que son “pseudoconflictos” ilegítimos, y no pueden resolverse). Por ejemplo, los autores asocian a las teorías cognitivas con la cosmovisión mecanicista, a las teorías piagetianas de etapas del desarrollo con el organicismo, y a las teorías de los tipos de personalidad con el formismo. En lugar de estos pseudoconflictos, los autores sugieren tres vías: (1) incrementar la amplitud y precisión del análisis conductual, y publicitar estos avances, (2) analizar la precisión y amplitud de otros sistemas respecto a sus propios términos y propósitos, sin suponer que sus debilidades impliquen un incremento de

23

Nullius in verba Site www.nulliusinverbasite.com las fortalezas del análisis conductual, (3) articular los supuestos y propósitos del análisis conductual y sus diferencias con otros sistemas, sin insistir en que otros lo adopten. También sugieren evitar mezclas entre postulados contextualistas y mecanicistas (porque eso sería inconsistente y confuso), y buscar alianzas con otros sistemas contextualistas (e.g., algunas formas de biología evolucionista, antropología cultural, marxismo, etología, psicobiología). Consideramos que el planteo de Hayes y otros (1988) se basa en el supuesto de que las cosmovisiones planteadas por Pepper son excluyentes y que los intentos de integración son incoherentes, pero este supuesto resulta cuestionable. Las opciones que describe Pepper pueden entenderse como tipos de modelos explicativos, y no como cosmovisiones autónomas y excluyentes. No hay contradicción entre estudiar mecanismos, actos en contexto, formas, y etapas del desarrollo. La elección de la explicación más apropiada depende de los objetivos del usuario del modelo explicativo. Por otro lado, cuando los autores de la metateoría conductista radical cuestionan el mecanicismo, no se refieren a las propuestas del neomecanicismo, sino a otras tesis y propuestas (e.g., el reduccionismo, la concepción de causalidad lineal y unidireccional, la concepción de causalidad como transmisión de fuerzas físicas por contigüidad, el atomismo, el esencialismo, la analogía grosera entre seres vivos y máquinas (e.g., relojes, computadoras), el desinterés por el contexto, la adopción de una concepción de verdad por correspondencia, la inferencia de entidades inobservables, la adopción del método hipotético-deductivo. Zilio (2013) analiza este conjunto de objeciones, y argumenta que el neomecanicismo no adopta las tesis que son cuestionadas por los autores de la metateoría conductista

Scientia in verba Magazine 2619-2586

radical. De hecho, las relaciones funcionales entre el organismo y el contexto cumplen los requisitos para ser consideradas “mecanismos” desde las propuestas del neomecanicismo.

5. Explicaciones no-mecanicistas y pluralismo explicativo Si el neomecanicismo se expande para incluir las cadenas causales efímeras, ¿qué cosas quedan fuera de esta concepción ampliada de “mecanismo”? Por otro lado, ¿cuál es la relevancia de las explicaciones que quedan por fuera del mecanicismo? Craver y Tavery (2015) enumeran aspectos de estudios científicos que quedan fuera del objetivo de “revelar mecanismos”: (1) estudios de estructuras físicas y sus relaciones espaciales sin considerar cómo funcionan (e.g., estudios de anatomía), (2) modelos predictivos sin pretensión de revelar estructuras causales por las cuales el sistema funciona, (3) clasificaciones según similitudes que no tienen en cuenta cómo surgieron los ítems clasificados ni cómo funcionan, (4) conocimiento de la existencia de una relación causal sin conocer sus detalles (diferencia entre “saber que” C es causa de E, y “saber cómo” C causa E). Schwartz y otros (2015) exploran los beneficios y riesgos de la creciente vinculación entre psicología y neurociencia. Distinguen dos formas de reduccionismo, a los cuales denominan “constitutivo” y “eliminativo”. El reduccionismo eliminativo considera que el nivel de análisis psicológico es innecesario, mientras que el reduccionismo constitutivo plantea que hay propiedades emergentes de un sistema que no pueden reducirse a las propiedades de los componentes del sistema. El reduccionismo eliminativo puede llevar a la desestimación de factores causales psicosociales en diversos fenómenos psicológicos. Los autores proponen una complementación

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

24

Scientia in verba subpage /revista-scientia-in-verbapdf/ entre la neurociencia y otros programas de investigación de la psicología, y previenen contra una “trampa de la unificación”, que ocurre cuando el éxito a corto plazo de un enfoque metodológico o conceptual genera un entusiasmo prematuro sobre el potencial del enfoque, y perjudica el desarrollo de otros programas de investigación fructíferos. Este planteo coincide con la propuesta de Bunge (1979, p. 80) a favor de un reduccionismo moderado («reducir lo que pueda reducirse, sin ignorar la emergencia y sin reducir lo irreducible»), evitando las posiciones extremas del anti-reduccionismo y del reduccionismo radical. La integración entre campos epistémicos suele ocurrir cuando sus hallazgos se vinculan mediante teorías que funcionan como puentes entre ambos campos (“interfield theories”), y que apelan a diversas relaciones entre los dominios de esos campos: relaciones causa-efecto, parte-todo, estructurafunción (Darden y Maull, 1977). Esas teorías-puente suelen describir e integrar mecanismos (Bechtel 1988: 101–102; Darden, 2005, 2006; Bechtel, 2006; Craver, 2007). Los distintos programas de investigación y tipos de explicación conllevan costos y beneficios, que deben ser evaluados en cada caso. Esta situación lleva a que diversos autores hayan defendido un pluralismo explicativo, que reconoce la existencia de distintos tipos de explicación, y plantea que la decisión acerca de cuál tipo de explicación es “mejor” o “peor” es relativo a la evaluación de costos y beneficios de las opciones disponibles, en función de los objetivos de la comunidad de investigadores. Weiskopf (2011) denomina “imperialismo de los mecanismos” (mechanism imperialism) a la perspectiva que niega (sin argumentos sólidos) la posibilidad de que los fenómenos puedan ser explicados con otras estrategias diferentes a la que propone el neomecanicismo. Knudsen

Barrera, S y Primero, G. 14-31

© Nullius in verba site

(2003) argumenta que las ciencias sociales funcionan mejor cuando logran un punto óptimo que evite los extremos de la unificación rígida (“trampa de la unificación”) y el pluralismo fragmentado (“trampa de la fragmentación”). Paulus (2015) argumenta que un foco excesivo en la búsqueda de mecanismos neurales de trastornos mentales puede resultar perjudicial para los objetivos de incrementar la eficacia de los tratamientos, y podría ser preferible incrementar el foco pragmático en el estudio de los predictores de riesgo. Weiskopf (2011) plantea que los modelos cognitivos satisfacen los requisitos de una buena explicación, sin ser explicaciones mecanicistas. Dos requisitos de una buena explicación son permitir el control y la manipulación, y responder preguntas contrafácticas, pero estas propiedades no siempre van juntas. Si tomamos estos dos requisitos como criterios normativos de una buena explicación, estos criterios son neutrales respecto al hecho de que la explicación sea o no sea mecanicista. Weiskopf plantea que los modelos cognitivos son componenciales y causales, pero que no son mecanicistas porque postulan elementos que no mapean a partes del sistema realizador de una forma obvia. Sin embargo, este argumento fue cuestionado por Povich (2014) y por Zednik (2017), quienes argumentan que esos modelos sí buscan mapear correctamente los procesos (aunque la identificación de las partes se delegue al programa de investigación de las neurociencias), y que la postulación de procesos biológicamente implausibles suele considerarse sólo una etapa provisoria, que debe ser reemplazada por un mapeo más correcto. Piccinini y Craver (2011) plantean 3 tesis sobre la relación entre los modelos cognitivos (funcionales) y los modelos mecanicistas: no-distinción (ambos modelos son explicaciones del mismo

25

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

tipo), integración (los modelos cognitivos son un subtipo de modelo mecanicista) y subordinación (los modelos cognitivos son bosquejos insatisfactorios de mecanismos). Barberis (2013) argumenta que cuando se proponen modelos explicativos, es necesario buscar el punto óptimo entre los objetivos de generalidad y precisión. En esa decisión, a veces es racional maximizar la generalidad a expensas de la precisión. Los modelos funcionales no son siempre “bosquejos insatisfactorios de mecanismos”, pues en ocasiones la generalidad es preferible a la precisión. Esta posibilidad implica que la tesis de subordinación es falsa, pues presupone que la precisión es siempre preferible. Por otro lado, si los neomecanicistas rechazan la posibilidad de que la generalidad sea preferible, entonces la tesis de integración también es falsa, pero esa tesis puede mantenerse si se acepta que la preferencia entre generalidad y precisión es relativa a los objetivos de la comunidad de investigadores. El neomecanicismo enfatiza el pluralismo integrativo en la investigación científica (Mitchel, 2003, 2009). Distintas disciplinas que investigan un fenómeno coexisten y se informan mutuamente, contribuyendo a las explicaciones mecanicistas de los aspectos etiológicos, constitutivos y contextuales del fenómeno (Bechtel, 2009; Tabery, 2014). A la vez, distintos autores han explorado qué requisitos debería poseer una explicación para ser considerada una “buena” explicación (Hochstein, 2017). Queda pendiente una exploración más detallada de las relaciones entre explicaciones mecanicistas y otros tipos de explicación en los distintos programas de investigación de la psicología. Consideramos que la investigación futura de estas cuestiones podría generar aportes significativos en la comprensión de las relaciones entre los distintos programas de investigación en psicología.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Referencias

Abramova, E., & Slors, M. (2018). Mechanistic explanation for enactive sociality. Phenomenology and the Cognitive Sciences, 1-24. Bacarlett, M. Fuentes, R. (2007). Descartes desde Canguilhem: el mecanicismo y el concepto de reflejo. Ciencia ergo sun. Universidad Autónoma del Estado de México México. México. Recuperado de: https://www.redalyc. org/articulo.oa?id=10414206 Barberis, S. D. (2013) Functional analysis, mechanistic explanations, and explanatory tradeoffs. Journal of Cognitive Science 14:229-251. Barnes, D., & Roche, B. (1994). Mechanistic and contextualistic epistemology: a contradiction within behavior analysis. The Behavior Analyst, 17, 165168. Bechtel, W. (1988). Philosophy of science: An overview for cognitive science, Hillsdale, NJ: Erlbaum. Bechtel, W. (2006). Discovering Cell Mechanisms: The Creation of Modern Cell Biology, Cambridge: Cambridge University Press. Bechtel, W. (2008). Mental Mechanisms: Philosophical Perspectives on Cognitive Neuroscience, London: Routledge. Bechtel, W. (2009). Looking down, around, and up: Mechanistic explanation in psychology. Philosophical Psychology, 22(5), 543-564. Bickle, J. (2015). Marr and reductionism. Topics in cognitive science, 7(2), 299311. Bunge, M. (1979). Treatise on Basic Philosophy: Volume 4 – Ontology II: A World of Systems. Dordrecht, Reidel. Cambridge: Cambridge University Press. Cartwright, N.D., 1989, Nature’s Capacities and their Measurement, New York: Oxford University Press. [Cartwright 1989 online] Cook, T and Campbell, D, (1979). Quasi-Experimentation: Design and Analysis Issues for Field Settings, Boston: Houghton Miflin Company. Craver C. F. (2007). Explaining the Brain: Mechanisms and the Mosaic Unity of Neuroscience, Oxford: Clarendon Press. Craver, C. and Darden, L. (2013). In Search of Mechanisms: Discoveries Across

26

Barrera, S y Primero, G. 14-31

27

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

the Life Sciences, Chicago: University of Chicago Press. Craver, C. & Tavery, J. (2015). Mechanisms in Science. Stanford Encyclopedia of Philosophy. Disponible online: https://plato.stanford.edu/entries/ science-mechanisms Craver, C. F. (2006). When mechanistic models explain. Synthese, 153(3), 355376. Cummins, R. (1975). Functional Analysis. Journal of Philosophy, 72: 741–764. Darden, L. (2005). Relations among fields: Mendelian, cytological and molecular mechanisms. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences, 36(2), 349-371. Darden, L. (2006). Reasoning in Biological Discoveries: Mechanism, Interfield Relations, and Anomaly Resolution, New York: Cambridge University Press. Darden, L., & Maull, N. (1977). Interfield theories. Philosophy of science, 44(1), 43-64. DesAutels, L. (2017). Mechanisms in Evolutionary Biology. En: Glennan, S., & Illari, P. M. (Eds.). The Routledge handbook of mechanisms and mechanical philosophy. Taylor & Francis. Fodor, J. (1968). Psychological Explanation, New York: Random House.

© Nullius in verba site

Hausman, D, (1998). Causal Asymmetries, Cambridge: Cambridge University Press. Hayes, S. (1988). Contextualism and the next wave of behavioral psychology. Behavior Analysis, 23(1), 7-22. Hayes, S. (1993). Analytic goals and the varieties of scientific contextualism. In: S. Hayes, L. Hayes, H. Reese, & T. Sarbin (Eds.), Varieties of scientific contextualism (pp. 11- 27). Nevada: Context Press. Hayes, S. C., & Hayes, L. J. (1989). Is behavior analysis contextualistic? Theoretical and Philosophical Psychology Vol 9 No 1. Hayes, S., & Hayes, L. (1992). Some clinical implications of contextualistic behaviorism: the example of cognition. Behavior Therapy, 23, 225-249. Hayes, S., Hayes, L., & Reese, H. (1988). Finding the philosophical core: a review of Stephen C. Pepper’s World hypotheses: a study in evidence. Journal of the Experimental Analysis of Behavior, 50(1), 97-111. Hochstein, E. (2017). Why one model is never enough: a defense of explanatory holism. Biology & Philosophy, 32(6), 1105-1125. Illari, P.M. (2011). Russo, F and J. Williamson (eds), (2011). Causality in the Sciences, Oxford: Oxford University Press. Kaplan, D. M., & Craver, C. F. (2011). The explanatory force of dynamical and mathematical models in neuroscience: A mechanistic perspective. Philosophy of science, 78(4), 601-627.

Gasking, D, (1955), Causation and Recipes, Mind, 64(256): 479–487. Geymonat, L. (1965). Filosofía Y Filosofía De La Ciencia. Nueva colección labor. Glennan, S, (1996). “Mechanisms and The Nature of Causation”, Erkenntnis. Glennan, S. (2002). Rethinking mechanistic explanation. Philosophy of Science, 69(1), S342–S353. Glennan, S., & Illari, P. M. (Eds.). The Routledge handbook of mechanisms and mechanical philosophy. Taylor & Francis. Hacking, I. (1996). Representar e intervenir. México D.F.: Seminario de Problemas Científicos y Filosóficos, UNAM; Instituto de Investigaciones Filosóficas, UNAM y Ed. Paidós. Hausman, D, (1986). Causation and Experimentation. American Philosophical Quarterly, 23(2): 143–54

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

Scientia in verba subpage /revista-scientia-in-verbapdf/

28

Kauffman, S.A., 1971, “Articulation of Parts Explanation in Biology and the Rational Search for Them”, in Roger C. Buck and Robert S. Cohen (eds), PSA 1970, Boston Studies in the Philosophy of Science, volume 8. Dordrecht: Reidel, pp. 257–272. Reprinted in Marjorie Grene and Everett Mendelsohn (eds), 1976, Topics in the Philosophy of Biology, Dordrecht: Reidel, pp. 245–263. Knudsen, C. (2003). The essential tension in the social sciences: Between the “unification” and “fragmentation” trap. Edward Elgar. Lewis, D, (2004a).Void and Object, in Collins, Hall, and Paul 2004, pp. 277–90. Lewis, D, (1973). Causation, Journal of Philosophy, 70: 556–67. Lewis, D, (2004b). Causation as Influence, in Collins, Hall, and Paul (2004), pp.

Barrera, S y Primero, G. 14-31

29

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

causation-counterfactual/

75–106. Machamer, P.K., L. Darden, and C.F. Craver, 2000 [MDC], “Thinking about Mechanisms”, Philosophy of Science, 67:1–25.

Rocha, L, (2004). Descartes y el significado de la filosofía mecanicista. Recuperado de: http://www.revista.unam.mx/vol.5/num3/art19/mar_art19.pdf

Menzies, P, (2014). Counterfactual Theories of Causation. Stanford Encyclopedia of Philosophy.

Salvático, L. (2006). Depurando al mecanicismo moderno. Editorial Brujas. Córdoba Argentina. Recuperado de: file:///C:/Users/Sergio/Documents/ mecanicismo/FIL%20EPI.pdf

Mitchell, S.D., 2003, Biological Complexity and Integrative Pluralism, Cambridge: Cambridge University Press. Mitchell, S.D., 2009, Unsimple Truths: Science, Complexity, and Policy, Chicago: University of Chicago Press. Morris, E. K. (1988). Contextualism: The world view of behavior analysis. Journal of experimental child psychology, 46(3), 289-323. Morris, E. K. (1993a). Behavior analysis and mechanism: on is not the other. The Behavior Analyst, 16, 25-43. Morris, E. K. (1993b). Mechanism and contextualism in behavior analysis: just some observations. The Behavior Analyst, 16(2), 255-268. Morris, E. K. (1997). Some reflections on contextualism, mechanism, and behavior analysis. Psychological Record, 47(4), 529-542. Morris, E.K. (1991). The contextualism that is behavior analysis: An alternative to cognitive psychology. En: A. Still y A. Costall (Eds), Against cognitivism: Alternative foundations for cognitive psychology, (123-149). Hempstead, England: Harvester-Wheatsheaf. Paulus, M. P. (2015). Pragmatism instead of mechanism: a call for impactful biological psychiatry. JAMA psychiatry, 72(7), 631-632. Pearl, J, (2009), Causality , Nueva York: Cambridge University Press. Pepper, S.C. (1942). World hypotheses. Berkeley: University of California Press. Philosophy of Science, 67, 1–25. Piccinini, G., & Craver, C. (2011). Integrating psychology and neuroscience: Functional analyses as mechanism sketches. Synthese, 183(3), 283-311. Polger, T. W. (2004). Neural machinery and realization. Philosophy of Science, 71(5), 997-1006. Povich, M. (2014). Mechanisms and model-based fMRI. Philosophy of Science 82 (5), 1035-1046 Recuperado de https://plato.stanford.edu/entries/

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

30

Schwartz, S. J., Lilienfeld, S. O., Meca, A., & Sauvigné, K. C. (2016). The role of neuroscience within psychology: A call for inclusiveness over exclusiveness. American Psychologist, 71(1), 52. Skipper, Jr and Millstein, R.A. (2005), Thinking about Evolutionary Mechanisms: Natural Selection, in Craver and Darden 2005: 327–347. Tabery, J. (2014). Beyond Versus: The Struggle to Understand the Interaction of Nature and Nurture, Cambridge, MA: The MIT Press. Vázquez, A. Acevedo, J. Manassero, M. Acevedo, P. (2011). Cuatro paradigmas básicos sobre la naturaleza de la ciencia. Weiskopf, D. A. (2011). Models and mechanisms in psychological explanation. Synthese, 183(3), 313. Weiskopf, D., & Adams, F. (2015). An introduction to the philosophy of psychology. Cambridge University Press. Wimsatt, W.C, (1997). Aggregativity: Reductive Heuristics for Finding Emergence, Philosophy of Science, 64: S372–S384. Wimsatt, W.C., 1972a, “Complexity and Organization”, in Kenneth F. Schaffner and Robert S. Cohen (eds), PSA 1972, Proceedings of the Philosophy of Science Association, Dordrecht: Reidel, pp. 67–86. Woodward, J (2016).Causation and Manipulability. Stanford Encyclopedia of Philosophy. Recuperado de: https://plato.stanford.edu/entries/causationmani/ Wright, C., & Bechtel, W. (2007). Mechanisms and psychological explanation. Philosophy of psychology and cognitive science, 4, 31-79. Zednik, C. (2017). Mechanisms in cognitive science. The Routledge Handbook of Mechanisms and Mechanical Philosophy, 389-400. Zilio, D. (2013). Análise do comportamento e neurociências: Em busca de uma possível síntese. Tese de Doutorado, Instituto de Psicologia, Universidade de São Paulo, São Paulo.

Barrera, S y Primero, G. 14-31

31

S

Gerardo Primero y Sergio Barrera

S

Licenciado en Psicología (UBA), docente de Psicología (UBA, CC Rojas), terapeuta cognitivo-conductual. Actualmente cursa la Maestría y el Doctorado en Epistemología e Historia de la Ciencia en UNTREF.

“Las concepciones de la materia en el MF y el MS pueden verse ambas como “reconstrucciones racionales” o “elucidaciones” (explications). Esto quiere decir que toman un término de uso cotidiano (“materia”) y le dan un sentido filosófico preciso en el marco de una teoría (en este caso las teorías de referencia son las ontologías del MS y el MF). Es importante aclarar, para evitar malentendidos, que hablar de “elucidaciones” no implica la aceptación de otras propuestas de Carnap, de Hempel, o del empirismo lógico.”

Psicólogo, promotor de divulgación científica y epistemológica. Director editorial en Nullius in verba site. Aspirante a maestría en psicometría. Intereses y otros estudios: Física, tecnología, ciencias cognitivas, epistemología.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

32

33

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Scientia in Verba Mag. 3, 34-49 (2019).

Magazine 2619-2586

El concepto de materia en los sistemas filosóficos de Gustavo Bueno y Mario Bunge Gerardo Primero1 y Alejandro Gracia Di Rienzo2 1  UBA, CC Rojas. 2  Universidad Autónoma de Madrid, Universidad de Kent en Canterbury

Resumen En este artículo examinaremos las diferencias entre los conceptos de materia del Materialismo Filosófico (MF) de Gustavo Bueno y del Materialismo Sistémico (MS) de Mario Bunge. Para ello, nos centraremos en las principales tesis que ambos sistemas sostienen acerca de los objetos abstractos, y mostraremos que no hay contradicción entre ellas, debido a que utilizan distintos conceptos de materia. El propósito general de este artículo es servir como clarificación preliminar para la tarea de evaluar el grado de compatibilidad o conflicto entre estos sistemas. En la sección 2 presentamos la definición de “materia” de Bunge (cuya nota característica es el cambio) y la de Bueno (cuya nota característica es la pluralidad). Las secciones 3 y 4 están dedicadas a examinar argumentos concretos del Materialismo Filosófico para mostrar que no contradicen a los del MS. En la sección 5 abordamos el obstáculo que suponen algunas falacias argumentativas en la comparación entre ambos sistemas. La sección 6 está dedicada a examinar unas breves consideraciones de Bunge sobre el MF. En la última sección presentamos y respondemos algunas posibles objeciones. Abstract: In this paper we will examine the differences between the concepts of matter in Gustavo Bueno’s Philosophical Materialism and Mario Bunge’s Systemic Materialism. To that end, we shall focus

on the main thesis defended in both systems regarding abstract objects, and we will argue that there is no contradiction between them, due to their different definitions of “matter”. The general purpose of this article is to serve as a preliminary clarification for the task of evaluating the degree of compatibility or conflict amongst these systems. In section 2 we present Bunge’s definition of “matter” (characterized by the notion of change) and also Bueno’s (characterized by the notion of plurality). Sections 3 and 4 are dedicated to some of the arguments propounded by Philosophical Materialism, in order to show that they do not contradict Systemic Materialism. In section 5 we approach some fallacies that may hinder the task of comparing the two systems. Section 6 is dedicated to some brief comments by Bunge on Philosophical Materialism, and lastly in section 7 we answer some possible objections.

1. Introducción. Gustavo Bueno Martínez (19242016) desarrolló desde 1968 un sistema denominado “materialismo filosófico” (MF). Mario Bunge (1919-) desarrolló desde 1960 un sistema denominado “materialismo sistémico” (MS) y un proyecto más amplio denominado “filosofía científica” (que no implica suponer que la filosofía es una ciencia, sino promover una práctica filosófica informada por la ciencia, que aborde

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

34

Scientia in verba subpage /revista-scientia-in-verbapdf/ problemas relevantes para la ciencia, que proceda usando y contrastando teorías según su coherencia interna y su compatibilidad con el conocimiento científico, y que utilice herramientas formales para minimizar la vaguedad; Romero, 2018). No existe a ún ningún intento sistemático de evaluar el grado de compatibilidad o conflicto entre las propuestas de ambos sistemas. La pregunta acerca del grado de compatibilidad o conflicto entre MF y MS podría ser relevante, sobre todo si se aborda con una actitud ecuánime (evitando los sesgos tribalistas, que llevarían a “defender el endogrupo y atacar al exogrupo”). La exploración del tema podría generar aportes valiosos para ambos proyectos filosóficos, tanto si la respuesta (respecto a distintos conjuntos de propuestas) fuese afirmativa, como si fuese negativa. Dada la amplitud de ambos sistemas, esa evaluación requeriría un proyecto demandante y extenso en el tiempo. En este texto nos proponemos encarar solamente un primer paso: analizar algunos obstáculos que podrían dificultar el avance de ese proyecto. Un obstáculo (entre otros) para abordar ese proyecto es el riesgo de malentendidos y equívocos derivados de diferencias terminológicas: si dos interlocutores usan el mismo término (X) con dos significados diferentes (S1 y S2), podrían defender tesis aparentemente contradictorias entre sí (e.g., “X es Y” y “X no es Y”), cuyo aparente conflicto desaparecería al explicitar la diferencia terminológica (e.g., “si X significa S1, entonces X es Y” y “si X significa S2, entonces X no es Y”). En un debate entre sistemas filosóficos, es necesario evitar el uso de argumentos inválidos por presencia de equívocos de este tipo. Esta situación parece ocurrir con algunas tesis de MF y MS, y la solución mencionada (clarificar las diferencias terminológicas para mostrar que no hay conflicto entre

Gracia, A y Primero, G. 34-49

© Nullius in verba site

dos tesis) es posible, aunque podría tener considerables dificultades. Otros obstáculos se derivan de la distinción entre “críticas internas” (que muestran inconsistencias respecto a valores, conceptos o tesis internos al sistema criticado), y “críticas externas” (que muestran inconsistencias respecto a valores, conceptos o tesis ajenos al sistema criticado). Sólo las críticas internas tienen efectividad argumentativa en un debate entre proponentes de distintos sistemas, porque una crítica externa conlleva una petición de principios (es decir, una situación en la cual se utilizan argumentos que contienen premisas que el interlocutor no acepta, y esas premisas no se justifican a partir de otras premisas que el interlocutor sí acepta). En ocasiones, una crítica externa puede reformularse de modo que no requiera la apelación a valores, conceptos o tesis ajenos al sistema criticado, pero no siempre esto es posible. Por ejemplo, los argumentos que apelan a preferencias personales (del tipo “prefiero la definición de materia del MF/MS porque…”) sólo tienen efectividad argumentativa si el interlocutor comparte criterios que le lleven a adoptar las mismas preferencias, de lo contrario constituyen una petición de principios. Un caso particular de obstáculo terminológico se encuentra en las diferentes definiciones y reglas de uso del término “materia” que se utilizan en MF y MS. Para evitar confusiones por equívoco, se podrían distinguir respectivamente como “materia-MF” y “materia-MS”. A continuación, nos dedicaremos a exponer brevemente las definiciones de “materia” en el MF y en el MS. En la tercera sección, analizaremos dos argumentos planteados por el MF para justificar la tesis de que los objetos matemáticos son materiales: el argumento a partir de la definición de materia y el argumento de la dicotomía “Espíritu / Materia”. En la

35

Nullius in verba Site www.nulliusinverbasite.com cuarta sección, examinaremos si MF y MS se contradicen a propósito de la “realidad efectiva” de los objetos abstractos, para lo cual evaluaremos algunos argumentos del MF. En la quinta sección, cuestionaremos el uso de descalificaciones sin contenido argumentativo y que obstaculizan el debats. En la sexta sección, analizaremos las objeciones de Mario Bunge a la reseña de un libro que adopta las tesis del MF. En la última sección, ofreceremos respuestas a cinco posibles objeciones.

2. Las definiciones de materia en el MF y el MS. Las concepciones de la materia en el MF y el MS pueden verse ambas como “reconstrucciones racionales” o “elucidaciones” (explications). Esto quiere decir que toman un término de uso cotidiano (“materia”) y le dan un sentido filosófico preciso en el marco de una teoría (en este caso las teorías de referencia son las ontologías del MS y el MF). Es importante aclarar, para evitar malentendidos, que hablar de “elucidaciones” no implica la aceptación de otras propuestas de Carnap, de Hempel, o del empirismo lógico. A diferencia de las definiciones léxicas, cuya función es describir los significados de los términos en una comunidad de hablantes, las definiciones en las disciplinas científicas a menudo sacrifican la adecuación al uso vigente de conceptos no-científicos o protocientíficos, si ese sacrificio permite obtener beneficios respecto a ciertos fines epistémicos (e.g., incrementar la precisión, contrastabilidad, posibilidad de medición, unificación teórica, etc.). Por ejemplo, el concepto de pez inicialmente significaba “animal que vive en el agua”, pero los zoólogos modificaron ese significado al excluir de su extensión a los cetáceos. Carnap (1950) propone que una estrategia similar puede utilizarse para determinar los conceptos en filosofía.

Scientia in verba Magazine 2619-2586

Carnap (1950) plantea que la elucidación (explication) es la transformación o reemplazo de un concepto impreciso (explicandum) con uno o más conceptos nuevos (explicatum/explicata) sujetos a cuatro criterios de adecuación: (1) similaridad de significado, (2) exactitud/precisión, (3) utilidad/fecundidad, (4) simplicidad. El primer criterio es más débil que la sinonimia: requiere que el explicatum pueda usarse en la mayoría de los casos, o en los casos más importantes, en los que se usaba el explicandum, pero no necesita preservar el significado exacto, y admite considerables diferencias (e.g., ampliar o reducir la extensión). De este modo, la elucidación se ubica en un punto intermedio entre la definición léxica (que requiere identidad de significado) y la definición estipulativa (que no requiere preservar el significado). En los conceptos empíricos, la precisión se incrementa mediante la formalización parcial o la cuantificación (Carnap distingue tres tipos de conceptos no-lógicos, en orden de precisión creciente: clasificatorios, comparativos, y cuantitativos). La utilidad/fecundidad es dependiente de los objetivos de cada programa de investigación, y en base a este criterio resulta permisible que existan varios explicata para el mismo explicandum, porque las distintas elucidaciones pueden ser útiles y fecundas en distintos modos, y pueden ser seleccionadas evaluando sus costos y beneficios en cada situación. La simplicidad es secundaria, y depende de la especificidad de cada caso. Con estas precisiones metodológicas en mente, veamos cómo llevan a cabo el MS y el MF sus respectivas reconstrucciones racionales del término “materia”. En el MS, el rasgo definitorio de la materia es el cambio. Una entidad x es material si y sólo si puede estar en más de un estado (Bunge, 1981, p. 22). Esta elucidación de “materia” incluye en su extensión a los objetos con masa,

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

36

Scientia in verba subpage /revista-scientia-in-verbapdf/ los objetos sin masa (e.g., fotones), los campos físicos, y el espacio-tiempo (cuya inclusión se justifica por la evidencia de ondas gravitacionales), y permite responder las objeciones de quienes suponen que “la física cuántica había destruido el materialismo al probar que las partículas no eran sino paquetes de ondas, las que a su vez no eran más que símbolos” (Bunge, 2014, p. 111). La energía no se considera una cosa, sino una propiedad (capacidad de cambiar) que poseen las entidades materiales. La ontología materialista del MS incluye los siguientes postulados (Bunge, 2007, pp.33 y ss.): (1) “Para todo x: (x es material = x es mudable = x tiene energía)”, (2) “Todo objeto es o bien material o bien conceptual, y ninguno es ambas cosas”, (3) “Todos los constituyentes del mundo son materiales”, (4) “Todas las cosas materiales y solamente ellas, junto con sus propiedades y cambios, son reales”. Romero (2018, pp. 38-39) subdivide el conjunto de entidades conceptuales en dos subconjuntos (entidades formales y entidades ficcionales), y señala que las entidades de ambos tipos son “artefactos conceptuales, invenciones de la mente humana, ficciones en sentido amplio”. Romero (2018, p. 44) resume la elucidación bungeana del concepto de “materia” del siguiente modo: «Decimos que un objeto es material si y sólo si su espacio de estados legales tiene más de un punto, i.e. si el objeto puede cambiar. La materialidad, entonces, es co-extensiva con la mutabilidad. Por otro lado, la capacidad de cambiar se denomina energía (ver Bunge 1981, 2000). Esta es la única propiedad universal de todos los existentes: esencialmente es la capacidad de interactuar. Los conceptos y ficciones no cambian ni interactúan, sólo las cosas materiales lo hacen. Tener masa no es una condición necesaria para la materialidad: los fotones y otras partículas sin masa tienen energía e interactúan, por lo tanto son materiales.

Gracia, A y Primero, G. 34-49

© Nullius in verba site

La materia en sí no es material pues es un concepto, no una cosa con energía. La materia es la clase de todas las cosas materiales. Del mismo modo, la realidad es el conjunto de todas las cosas reales (i.e., que existen independientemente de la mente). Al ser un concepto, la realidad no es real». En el MF, los rasgos esenciales de la materia son la pluralidad y la symploké. «Una realidad material, en el sentido dialéctico, incluye siempre pluralidad de partes, y pluralidad en su sentido más efectivo: pluralidad de heterogeneidad y de incompatibilidad […] Pero una realidad material –en una ontología materialista no mecánico-pluralista, lindante con el indeterminismo y el escepticismo– no es sólo una pluralidad de partes: es preciso que se reconozcan algunas de esas partes como manteniendo vínculos sintéticos de conexión» (Bueno, 1972: 392). «La materialidad, en sentido estricto o fuerte, la definimos, en el materialismo filosófico, por la discontinuidad entre las partes o elementos de una pluralidad o multiplicidad dada» (Bueno, 2016, p. 202). Es decir, en el MF un objeto es material si y sólo si es una pluralidad de partes entre las cuales hay vínculos de algún tipo pero de tal manera que no están todas las partes mutuamente conectadas, sino que algunas son irreductibles entre sí. A esta última condición la denomina Bueno “symploké”, siguiendo a Platón. En el MF se distingue, además, entre Materia en sentido ontológico-especial (“Mi”) y Materia en sentido-ontológico general (“M”) (Bueno, 1972, I, caps. 2, 3). La Materia ontológico-especial es el mundo dado a “escala humana”, es decir, trabajado y conceptualizado por la actividad humana (Bueno, 2016, pp. 296-301). A esta actividad humana de conceptualización del mundo se la llama en el MF “Ego Trascendental” (E) (Bueno, 2016; 1972, p. 65). El Mundo (Mi), al ser material, es plural y discontinuo. Sus partes se agrupan en tres géneros

37

Nullius in verba Site www.nulliusinverbasite.com mutuamente irreductibles: M1, M2 y M3. Se denomina M1 a “materialidades físicas-químicas, dadas en el espacio y en el tiempo”, M2 a “materialidades de orden subjetivo, aquellas que se dan antes en el tiempo que en el espacio”, y M3 a “sistemas ideales de índole matemática, lógica, etc., que propiamente no son ni espaciales ni temporales”. (Bueno, 1990, pp. 49-50; 1972, pp. 291-304, 321-325). Por otro lado, la Materia ontológicogeneral es la realidad independiente de la actividad del Ego Trascendental (E), aunque a la Idea filosófica de M sólo se puede llegar por la propia actividad de E. M es la materia no conceptualizada por los seres humanos. «La idea ontológicogeneral de Materia la entenderemos, sobre todo, como la Idea de la pluralidad indeterminada, infinita, en la que “no todo está vinculado con todo”» (Bueno, 1972, pp. 45-46). Conviene advertir que la “negatividad” de la Materia general M es antes gnoseológica que ontológica (Bueno, 1972, p. 60; 2016, pp. 44-45, 193); es decir, “M” no designa a “la nada”, sino a aquella realidad que desconocemos. De momento, nuestro objetivo no es comparar los conceptos diferentes de Materia o evaluar su adecuación a los estándares (antes citados) a los que se someten las reconstrucciones racionales. Tampoco nos interesa defender o refutar las tesis ontológicas de estos sistemas. Aquí nos basta con constatar que las definiciones de “materia” que proponen MS y MF son muy diferentes. Las consecuencias de esta diferencia terminológica se hacen especialmente palpables al comparar las posiciones del MF y el MS acerca de los objetos abstractos. A continuación demostraremos que entre las principales tesis de ambos sistemas respecto de los objetos abstractos no hay contradicción, y por tanto tampoco enfrentamiento argumentativo. Comenzaremos constatando que hay, al menos, una contradicción aparente entre el MF y el MS en la medida en que

Scientia in verba Magazine 2619-2586

el primero afirma: “los objetos abstractos son materiales” y el segundo afirma “los objetos abstractos no son materiales”. A continuación examinaremos los argumentos que se han propuesto a favor de la tesis del MF, ya que esta tesis tiene la intención explícita de lograr un enfrentamiento argumentativo con otras propuestas filosóficas.

3. Argumentos del MF a favor de la tesis de que los objetos abstractos son materiales. 3.1 El argumento a partir de la definición de materia. A cualquiera que se aproxime al MF le desconcertará la afirmación de que el conjunto de los números primos es “tan material como pueda serlo un montón de grava” (Bueno, 1972, p. 305). Esto es un corolario de la tesis más general de Bueno según la cual los objetos abstractos (M3) son materiales, aunque sean incorpóreos. Además de ser poco intuitiva (lo cual no es, en principio, razón para rechazarla), esta tesis general conduce a un problema argumentativo que es especialmente relevante para la comparación entre MS y MF. Bueno afirma que los objetos abstractos son materiales para enfrentarse al idealismo, al espiritualismo y al materialismo grosero. Es decir, la tesis tiene un sentido polémico, dialéctico: “Pensar es pensar contra alguien”, solía decir Bueno. El siguiente argumento (que se encuentra sugerido en Bueno, 1972, pp. 306-307 y en Giménez, 1994, p. 189) le sirve de apoyo: (1) X es material si y sólo si (a) X es una pluralidad de partes, (b) hay partes de X que son irreductibles entre sí (con lo cual X no es simple) y (c) no todas las partes de X están relacionadas, pero tampoco son todas independientes entre sí (condición

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

38

Scientia in verba subpage /revista-scientia-in-verbapdf/ de “symploké”). (2) M3 es una pluralidad de partes (incluye relaciones, números, valores morales, etc.). (3) Algunas partes de M3 son irreductibles entre sí (e. g. los teoremas de la lógica no son reducibles a casos particulares de teoremas topológicos, y viceversa; los conceptos axiológicos no son reducibles a conceptos aritméticos, etc.). (Cf. Bueno, 2016, pp. 301-302). (4) A la vez que hay irreductibilidad e independencia entre algunas partes de M3, otras están relacionadas entre sí (como es obvio). Por tanto, (5) M3 es material. Este argumento no presenta problemas de validez. La conclusión (5) se sigue claramente de la conjunción de (1), (2), (3) y (4). El problema que queremos apuntar aquí surge a la hora de averiguar si el argumento es correcto, es decir, si sus premisas son verdaderas. Concederemos por ahora las premisas (2), (3) y (4), y nos centraremos en la (1), ya que es la que da lugar al problema que queremos señalar. Esto no quiere decir que las premisas (2)(4) sean evidentes, ya que, por ejemplo, pueden suscitarse objeciones serias acerca del término “irreductibilidad”. No obstante, nuestro argumento no requiere que critiquemos esa premisas. La primera premisa es la reconstrucción racional del término “materia” en el MF, que podemos encontrar esbozada en varios lugares de la obra de Bueno y sus expositores (e. g. Bueno, 1972, pp. 306, 392; Giménez, 1994, p. 101). Lo que el argumento dice, en suma, es que M3 es material porque satisface la definición de materia del MF. Conviene aclarar de antemano algunas

Gracia, A y Primero, G. 34-49

© Nullius in verba site

dudas que pueden surgir por el empleo del término “pluralidad” en (1): ¿por qué no se emplea el término “conjunto”, que es menos vago? Pueden darse dos razones: (1ª) la expresión “pluralidad” es neutral, en el sentido de que abarca tanto a los conjuntos como a los agregados concretos (de ahí que Bueno pueda concluir que el conjunto de los números primos y un montón de grava son ambos “materiales”). (2ª) Si aquí sustituyéramos “pluralidad” por “conjunto”, la definición afirmaría que ser un conjunto es condición necesaria para ser material. Pero los conjuntos pertenecen a la extensión del concepto “objeto abstracto”. Por tanto la definición afirmaría que todos los objetos materiales son objetos abstractos, y esto es claramente indeseable respecto a los objetivos que se propone el autor. El problema del argumento de Bueno es que los interlocutores que adoptan otras posiciones filosóficas (e. g., espiritualismo, idealismo, materialismo grosero, MS, etc.), operan con otra idea de materia, que connota, típicamente, espacialidad, temporalidad y cambio (rasgos de los cuales carecen los números, los teoremas lógicos, etc.). Es decir, rechazan la premisa (1) como definición adecuada del predicado “ser material”. Como consecuencia de esta diferencia en el uso de los términos, cuando desde el MF se dice que los objetos abstractos son materiales, no se está contradiciendo a estas otras posiciones que dicen que los objetos abstractos son inmateriales. En particular, no se está contradiciendo al MS. Para que hubiera contradicción, MS y MF tendrían que estar empleando la misma definición de “material”. El MS puede perfectamente aceptar que los objetos abstractos satisfacen la definición que ha dado Bueno de “materia” (aceptará que son plurales, que tienen relaciones de dependencia e independencia – aunque añadirá que son “ficcionales”); simplemente no está de acuerdo con que esos atributos sean una buena definición

39

Nullius in verba Site www.nulliusinverbasite.com de “materia”. Para decirlo en términos del argumento presentado: el MS tal vez acepte las premisas (2), (3) y (4) (aunque seguramente expresándolas en otros términos), pero rechazará la premisa (1). Pero si la tesis de Bueno de que “M3 es material” no contradice a otras posiciones, entonces no tiene el efecto argumentativo que buscaba, a saber: enfrentarse a concepciones tradicionales que veían a los objetos abstractos como “inmateriales”. No obstante, el argumento presentado más arriba no es el único que puede esgrimirse desde el MF para apoyar la tesis de que M3 es material. Para reforzar nuestra argumentación conviene observar cómo otros argumentos en esta dirección llevan al MF al mismo problema.

3.2 El argumento de la dicotomía “Espíritu / Materia”. Consideremos, por ejemplo, el siguiente razonamiento polémico de Bueno, cuya conclusión ya hemos sugerido: «[…] ¿qué motivos podría haber para llamar espiritual al conjunto de los números primos? Este conjunto es tan material como pueda serlo un montón de grava» (Bueno, 1972, p. 305). El argumento que está implícito aquí es el siguiente: (1) La oposición “Material / Espiritual” es una oposición por contradicción. [I. e. si x es material, x no es espiritual, y si x es no es espiritual, x es material]. (2) El conjunto de los números primos no es espiritual. Por tanto, (3) El conjunto de los números primos es material [“tan material como un montón de grava”]. Nuevamente, el argumento es válido.

Scientia in verba Magazine 2619-2586

Además, podemos suponer que la premisa (2) de este argumento puede generalizarse a otros objetos abstractos para apoyar la tesis de que M3 es material. Ahora bien, no es difícil ver que este argumento está también sujeto al problema señalado más arriba, ya que la premisa (1) depende de las definiciones de “materia” y “espíritu” que se utilicen. Desde el MS, la oposición entre “x es espiritual” y “x es material” no es oposición por contradicción sino más bien por incompatibilidad ya que, si bien nada puede ser “espiritual y material”, se considera que los objetos abstractos son inmateriales, pero no por ello “espirituales”. El término “espíritu” se asocia a la tesis que “existen seres inmateriales (e.g., almas, dioses, ángeles), cuya existencia es independiente de que alguien los imagine”, y no a la tesis de que “existen seres vivos (materiales), capaces de imaginar objetos inmateriales, y tratarlos como si tuviesen una existencia autónoma respecto a quienes los imaginan (aunque de hecho no tienen tal existencia autónoma)”. Por tanto, el argumento depende nuevamente de las definiciones de los términos, e impide al MF contradecir al MS. En realidad, para generalizar nuestro argumento bastaría con constatar que el significado de la afirmación “los objetos abstractos son materiales” depende (en un sentido intuitivo) de la definición del predicado “material”. Puesto que esta definición es diferente en MS y MF, el significado de la aserción cambia. En particular, la aserción es verdadera en el MF y falsa en el MS. Ha quedado demostrado que la tesis del MF de que los objetos abstractos son materiales no contradice a la tesis del MS de que los objetos abstractos son inmateriales, y que por tanto el MF no logra el objetivo “dialéctico” con el cual proponía aquella tesis. Ahora podría suscitarse la duda de si MF y MS se contradicen sobre un aspecto más fundamental de los objetos abstractos:

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

40

Scientia in verba subpage /revista-scientia-in-verbapdf/ su “realidad efectiva”. El MF afirma que los objetos abstractos (M3) tienen tanta realidad como las entidades físicas (M1) (Bueno, 1972, p. 33), mientras que el MS le niega a los objetos abstractos realidad ontológica. Para ver cuál es la relación entre ambos sistemas en este punto, veamos qué argumentos aporta el MF para afirmar la realidad objetiva de los contenidos de M3.

4. El argumento de las baldosas pentagonales. Consideremos el siguiente argumento planteado por Gustavo Bueno (1990, p. 32): «Las figuras poligonales (cuadradas, hexagonales, triangulares…) que son relaciones entre un conjunto de baldosas (términos) no pueden existir independientemente de la sustancia química de estas baldosas (mármol, cerámica, etc.); se sabe que no todas las figuras poligonales son aptas para pavimentar sin resquicio un suelo dado: la composición de las figuras poligonales se abre así camino en el tercer género de materialidad, y no en el primero, puesto que si un conjunto de baldosas pentagonales de cerámica no cubren el suelo, ello no será debido a su contenido de cerámica sino a su figura pentagonal». En el Diccionario Filosófico de Pelayo García Sierra (1999, 63), el argumento se formula del siguiente modo: «Con baldosas de cerámica hexagonales o cuadradas puedo cubrir un pavimento sin lagunas; pero no puedo cubrirlo con baldosas pentagonales de corcho. La disociación se establece entre el género hexagonal y cuadrado en cuanto a su capacidad de cubrir espacio; pues la razón por la cual las baldosas de cerámica, etc., cubren el espacio es por ser hexagonales, y la razón por la cual los pentágonos de corcho no lo cubren, no es el ser de corcho, sino el ser pentagonales». Sobre este argumento diremos dos

Gracia, A y Primero, G. 34-49

© Nullius in verba site

cosas. En primer lugar, hay que tener en cuenta que el argumento no está orientado a apoyar la materialidad de M3 (ya que sería insuficiente para ese propósito). En segundo lugar, cuando se analiza en detalle el ejemplo de las baldosas, resulta evidente que la tripartición que propone el MF (en los géneros M1, M2, y M3) no encaja en forma simple y directa con la bipartición que propone el MS (en las categorías “entidad material” y “objeto ficcional”). Desde la perspectiva de MS, las formas de las baldosas son propiedades de objetos físicos, y no son entidades ficcionales. El MS no niega que algunos objetos matemáticos se originan en interacciones con objetos físicos y que algunos objetos matemáticos se aplican en ciencia o tecnología (Bunge, 1985, p. 35), pero sí niega que toda la matemática represente propiedades de objetos físicos. La distinción entre matemática pura y aplicada se utiliza justamente para señalar que no toda la actividad matemática está vinculada a la representación de propiedades de objetos físicos. Teniendo en cuenta este análisis, sería un error identificar “M3” con “objeto ficcional-MS”, porque “M3” parece incluir referentes que desde MS no se consideran como “objetos ficcionales”. El MS no niega que “pensar una ficción” tenga efectos, porque “pensar una ficción” es un proceso material-MS de una entidad material-MS. Lo que MS niega es la existencia de las ficciones en ausencia de quien las piensa, aunque reconoce que en ocasiones resulta útil tratarlos de ese modo (i.e., fingir que tienen existencia independiente de quien las piensa). En síntesis, en este caso la aplicación del argumento como objeción a la tesis del MS falla porque no describe correctamente la tesis del MS, sino que la distorsiona al reemplazar la bipartición propia del MS por la tripartición propia del MF, cuando no hay una correspondencia simple y directa entre ambas particiones. Remitimos al lector

41

Nullius in verba Site www.nulliusinverbasite.com al reciente artículo de Negrete (Negrete, 2018), donde se realizan objeciones y comentarios valiosos sobre la ontología del MS.

5. Advertencia sobre algunas falacias. Laso Prieto (1982) reconoce que las concepciones del MS «poco tienen que ver con el materialismo vulgar». Sin embargo, en contextos informales no-académicos (e.g., debates en grupos de filosofía de Facebook), nos hemos encontrado varias veces con este tipo de estrategia (calificar al MS como “materialismo vulgar”), que constituye una mera descalificación sin valor argumentativo. El término “materialismo vulgar” refiere a la obra de autores como Moleschott, Büchner y Vogt, cuyas propuestas no son similares al MS de Mario Bunge. El MS no sostiene la tesis de que “el cerebro segrega el pensamiento de la misma manera que el hígado segrega bilis” (tesis que usualmente se toma como ejemplo típico de “materialismo vulgar”), porque “pensar” no se considera una sustancia sino un conjunto de procesos con características específicas, y la relación con el cerebro (y con otros componentes del organismo y su entorno) no es de “secreción” sino de realización de esos procesos. El MS elucida el concepto de “mente” como una colección de funciones (actividades) de un organismo con procesos neurales (no es una cosa, sino una actividad de una cosa). Tales procesos neurales realizan diversas capacidades (e.g., conciencia, percepción, pensamiento, juicio, memoria). Los procesos denominados “mentales” son o bien procesos neurales, o bien procesos en el organismo que están en estrecha conexión con eventos neurales (esta última aclaración se debe a que estudios recientes sugieren que algunos procesos mentales son más complejos que lo que suponían las versiones más simples de la

Scientia in verba Magazine 2619-2586

identidad psiconeural, pues involucran diversas áreas del cerebro y diversos sensores y efectores fuera del cerebro). Omitir estas diferencias constituye una falacia del espantapájaros, pues cuestiona una posición distorsionada y débil (el “espantapájaros”), en lugar de representar correctamente la posición del interlocutor y argumentar sobre ella. De este modo, se genera una discusión con un interlocutor imaginario, que carece de efectividad argumentativa en relación a la posición que el interlocutor realmente sostiene. Nos hemos encontrado con un problema semejante al considerar algunas consideraciones que se hacen desde el MF acerca de quienes rechazan la doctrina de los tres géneros de materialidad. En palabras del propio Bueno: «[…] las dudas que suscita la gran extensión que damos [en el MF] al término “materialidad” proceden de perspectivas prefilosóficas y, por decirlo de una vez, pre-críticas» (Bueno, 1972, p. 305). O como dice F. Giménez: «Si alguien afirma que no comparte tal doctrina [la doctrina de la materialidad de los Tres Géneros], que no ve ninguna razón para hablar de materia en lugar de “ser” o “ente” es que tiene una falsa conciencia filosófica, tiene prejuicios ideológicos espiritualistas, sustancialistas y corporeístas […]» (Giménez, 1994, p. 190). Esto no es un argumento aceptable contra la tesis del MS de que los objetos abstractos son inmateriales. En primer lugar, está por demostrar que esa tesis implique posiciones espiritualistas (cf. nuestra respuesta a la objeción 1ª más abajo). En segundo lugar, y más importante: la acusación de que la tesis depende de un prejuicio espiritualista o corporeísta es una descalificación sin valor argumentativo. Para evaluar los intercambios en un debate, se puede utilizar la jerarquía propuesta por Paul Graham (2008), que distingue (de menor a mayor grado de calidad): (1) mera

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

42

Scientia in verba subpage /revista-scientia-in-verbapdf/ descalificación (incluyendo ejemplos simples y elaborados), (2) ad hominem (refiere a la persona y no al contenido), (3) responder al tono (refiere a la forma y no al contenido), (4) contradicción (refiere al contenido, expresa desacuerdo, pero no lo argumenta), (5) contraargumento (ofrece argumentos, pero no usa citas ni focaliza en el tema, si el cambio de tema es relevante se debería explicitar y justificar), (6) refutación citando un pasaje no central (cita un pasaje y argumenta en contra, evitando tergiversar la tesis, pero no es el punto central), (7) refutar citando el punto central (cita el punto central y argumenta en contra, evitando tergiversar la tesis). En síntesis, para que se convierta en algo más que mera descalificación, se debe formular un argumento explícito. La mera descalificación resulta contraria a un debate filosófico fructífero. Consideramos que dos principios metafilosóficos han de guiar la tarea de confrontar filosóficamente los sistemas del MF y el MS en futuros estudios: (1) evaluar las propuestas filosóficas según el criterio de fertilidad (i.e., explorar su contribución a la búsqueda de la verdad o el bien, a través del planteo de problemas y la propuesta de soluciones, aceptando que nuevos hallazgos puedan corregir la solución propuesta, o incluso descartar el problema planteado), y (2) tolerar la diversidad de filosofías auténticas y promover el debate racional entre ellas. La confrontación entre sistemas filosóficos, a través de la formulación de críticas bien argumentadas y de réplicas racionales a esas críticas, permite el escrutinio de las tesis, conceptos y argumentos, tanto propios como ajenos. Este tipo de práctica distingue la actitud escéptica, caracterizada por el análisis sistemático de argumentos y evidencias, de la actitud dogmática, caracterizada por la aceptación o rechazo ciegos respecto a los argumentos y evidencias.

Gracia, A y Primero, G. 34-49

© Nullius in verba site

6. Objeciones de Mario Bunge a la reseña de un libro que adopta las tesis del MF Teniendo en cuenta la escasez de textos que exploren las relaciones entre las tesis del MF y del MS, puede resultar de interés analizar una breve réplica de Mario Bunge (2013) a una reseña (Vacas y Llames, 2012) de un libro que adopta las tesis del MF (Pérez Álvarez, 2011). Bunge (2013, p. 74) escribe en su réplica: «Me asombró leer, en el último número de El escéptico, una reseña de El mito del cerebro creador, de Marino Pérez Álvarez. Me asombró por tres razones. La primera es la crítica que hacen a lo que llaman “cerebrocentrismo”, como si los procesos cerebrales ocurriesen en todo el cuerpo y, no solamente en el cerebro. (¿Será por esto que la Inquisición quemaba el cuerpo íntegro del hereje que sostenía que el creador es el ser humano y no Dios, en lugar de contentarse con decapitarlo?). La segunda razón es la ausencia de argumentación y, en particular, la ausencia de crítica racional a la neurociencia cognitiva, que es la fase contemporánea de la psicología, como lo sabe quienquiera se moleste en revisar las revistas de psicología científica. La tercera razón es que los comentaristas sostienen que lo que llaman “materialismo filosófico” supera tanto al monismo como al dualismo (psiconeurales). Las historias de la filosofía y de la psicología nos enseñan que, desde el siglo VI a.C., el materialismo filosófico ha sostenido el monismo psiconeural, o sea, la hipótesis de que lo mental es nada más y nada menos que la función específica del cerebro, en particular la creación de ideas nuevas. En resumen, la reseña en cuestión es falsa en el mejor de los casos, confusa en el peor, y en todo caso dogmática.» Consideramos que la primera objeción está mal planteada al decir «como si los procesos cerebrales ocurriesen en todo el

43

Nullius in verba Site www.nulliusinverbasite.com cuerpo y no solamente en el cerebro». Es claro que si un proceso es “cerebral” es porque ocurre en el cerebro, y si ocurre en otras partes del cuerpo entonces no es sólo “cerebral”. Lo que excede al cerebro son los “procesos psicológicos”, no los “procesos cerebrales”, y esto se puede ejemplificar analizando la percepción visual: no es suficiente (aunque sí necesaria) la activación de un sistema neural para hablar de «percepción visual», pues también se requiere un estímulo visual, sensores sensibles a ese estímulo visual, efectores para ajustar los sensores al estímulo, y un repertorio de conductas (adquirido en la filogenia o en la ontogenia) para reconocer e interactuar con el estímulo. Sin la participación de estos componentes, no hablaríamos de percepción, sino de alucinación o imaginación. En la percepción, la actividad neural es un componente necesario, pero también son necesarios otros componentes del organismo (e.g., sensores y efectores) y del ambiente (e.g., estímulos, lentes, bastones para ciegos). Otro ejemplo de procesos psicológicos que exceden al cerebro son las emociones, que involucran también la actividad del sistema nervioso autónomo y periférico, cambios hormonales, percepción interoceptiva, y reacciones faciales y corporales involuntarias. Respecto a la segunda crítica, consideramos que se basa en un malentendido. Bien entendida, la crítica al “cerebrocentrismo” no cuestiona el estudio del rol del cerebro (cuya relevancia nadie niega) ni desestima la importancia de la neurociencia. En cambio, cuestiona una forma de reduccionismo radical, que consiste en negar o minimizar la relevancia de otros componentes de los procesos psicológicos (e.g., el resto del cuerpo, los objetos del ambiente, las relaciones interpersonales, el aprendizaje, la cultura). Marino Pérez Álvarez (2011) plantea que el cerebrocentrismo consiste

Scientia in verba Magazine 2619-2586

en «no tener en cuenta que el cerebro es parte del organismo y que dicho organismo vive inmerso en un contexto social e histórico», y en «descuidar el papel que tienen la conducta y la cultura en la conformación del ser humano, incluyendo la configuración del propio cerebro». La neurociencia tiene un rol central en el estudio de los sistemas y mecanismos cerebrales, pero la psicología no sólo estudia los sistemas y mecanismos cerebrales, sino también otros sistemas y procesos más amplios (e.g., procesos sensoriales, procesos efectores, comportamientos motores dirigidos a objetivos, procesos de comunicación interpersonal, procesos de aprendizaje, etc.). Respecto a la tercera crítica, cuando comprendemos que los sistemas y procesos que exceden al cerebro (y lo incluyen) también son materialesMS, podemos ver que la crítica al cerebrocentrismo no está cuestionando al materialismo, sino al reduccionismo radical, lo cual coincide con las críticas que planteó Bunge hacia diversas formas de reduccionismo fisicalista, biologicista o sociologista (e.g., Bunge, 1979, 1990). El MS tiene los recursos conceptuales necesarios para analizar e integrar todos los niveles de análisis de la psicología, sin caer en reduccionismos que nieguen o minimicen la relevancia de algunos de esos niveles. Bunge (1979, p. 80) defiende un reduccionismo moderado («reducir lo que pueda reducirse, sin ignorar la emergencia y sin reducir lo irreducible»), y rechaza las posiciones extremas del anti-reduccionismo y el reduccionismo radical. El cerebrocentrismo sería un caso particular de reduccionismo radical. En la misma categoría, podemos incluir otros ejemplos, tales como el reduccionismo sociologista y el determinismo genético.

7. Respuesta a algunas posibles objeciones.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

44

Scientia in verba subpage /revista-scientia-in-verbapdf/ Objeción 1ª: La oposición entre “Espíritu” y “Materia” es necesariamente oposición por contradicción. Es arbitrario por parte del MS negar esto, ya que las Ideas filosóficas tienen una objetividad históricamente dada y mantienen relaciones por encima de la voluntad de quienes las usan. Históricamente, la relación entre esas dos ideas ha sido de contradicción, y por tanto el argumento de la dicotomía “materia / espíritu” no está sujeto al problema apuntado. Respuesta: Incluso si aceptamos el postulado de la “objetividad de las Ideas filosóficas” de Bueno (1972, pp. 13, 15), el argumento de esta objeción es incorrecto. La premisa (1) del argumento del dilema “espiritual / material” no ha tenido históricamente mucho apoyo. Hay que tener en cuenta que la distinción “espiritual / material” se presentaba en la metafísica tradicional como una división de la categoría de sustancia. Pero Aristóteles ubica a los números en la categoría de cantidad (Categorías, 4b20-25), y dedica prácticamente todo el libro XIII de su Metafísica a demostrar que los números no son sustancias (cf. por ejemplo 1083b20). Además, las definiciones tradicionales de “espíritu” no eran adecuadas para los números. Por ejemplo, ninguna de las seis definiciones de “espíritu” que recoge Tomás de Aquino (Suma Teológica, I, q. 41 a. 3 ad 4) puede aplicarse a los números. De esto se sigue que en la metafísica tradicional no tendría sentido llamar a los números “espirituales”, pero tampoco “materiales”, ya que caían fuera de esa división, que sólo afectaba a las sustancias. La oposición es ahí nuevamente de incompatibilidad, y no de contradicción. Por tanto puede decirse que el argumento de la dicotomía se basa en un falso dilema. Objeción 2ª: Si Mario Bunge plantea que sólo existen objetos materiales, debe reducir todo lo demás (e. g. conceptos) a ese tipo de objetos. Al plantear un materialismo emergentista, Bunge

Gracia, A y Primero, G. 34-49

© Nullius in verba site

no prescinde de los conceptos, pero tampoco los reduce a objetos materiales. Un criterio para decir que X es real es que X sea irreducible e imprescindible. No tiene sentido decir que los conceptos son ineliminables y al mismo tiempo no reconocerlos como reales. Por tanto, la posición del MS sobre los objetos abstractos es inconsistente. (Negrete, 2018) Respuesta: Este argumento se basa en varios errores en la interpretación de las tesis del MS. Lo que plantea Bunge es que “sólo tienen existencia real los objetos materiales” (Bunge, 2007, p. 56), donde “real” significa “que existe independientemente de cualquier sujeto” (Bunge, 2007, p. 55). En cambio, los conceptos tienen existencia conceptual, y no son reales en ese sentido. Si se define el término “real” de otro modo (e.g., como “todo X tal que X es irreducible, imprescindible, ineliminable”), entonces se está cometiendo una falacia por equívoco, pues no hay contradicción al afirmar que X puede ser “real-1” (en cierto sentido del término), y a la vez no ser “real-2” (en otro sentido del término). Respecto a la exigencia de “reducir todo lo demás a los objetos materiales”, aquí no corresponde hablar de “reducción”, sino de “inclusión” o “exclusión” en los conjuntos de entidades materiales o conceptuales. El MS incluye la capacidad de pensar conceptos como un proceso de una entidad material, y a la vez niega la existencia autónoma de las ideas, sin por ello negar que las ideas sean útiles para entender el mundo. Bunge (Weingartner y Dorn, 1990, p. 604) plantea que «Para investigar los aspectos lógicos, semánticos y metodológicos de las ideas de todo tipo, debemos fingir que tienen existencia independiente. Esto es lo que implica hacer una abstracción de las ideas respecto a sus correspondientes procesos de pensamiento. Este dualismo metodológico es consistente con un monismo ontológico, porque incluye

45

Nullius in verba Site www.nulliusinverbasite.com la advertencia de que la abstracción en cuestión es un proceso cerebral. El cerebro a la vez crea un constructo, y luego lo trata como si fuese un existente ideal independiente». Objeción 3ª: El ficcionalismo matemático de Mario Bunge es autocontradictorio, porque si se define “X es real” mediante el criterio “X es independiente del sujeto”, entonces las entidades matemáticas, al cumplir esa condición, deben considerarse reales. (Negrete, 2018) Respuesta: Un primer malentendido proviene de confundir dos criterios diferentes: “X existe independientemente de cualquier sujeto” y “X existe independientemente de un sujeto particular”. Las entidades matemáticas cumplen el segundo criterio, pero no el primero. Otro malentendido proviene de confundir las entidades matemáticas, con las propiedades del mundo que pueden ser representadas mediante propiedades matemáticas. Las propiedades del mundo cumplen el criterio de existir “independientemente de cualquier sujeto”, pero las entidades matemáticas no lo cumplen. Objeción 4ª: El ficcionalismo no puede explicar el hecho de que la matemática funcione y sea imprescindible para explicar la estructura de la realidad. (Negrete, 2018) Respuesta: No es necesario negar el ficcionalismo para entender la aplicabilidad de las matemáticas. Las posibilidades de los sistemas materiales pueden describirse con un subconjunto de las posibilidades de los sistemas conceptuales de los cuales disponemos. La tesis ficcionalista respecto a los constructos de la matemática pura es compatible con la tesis de que la matemática aplicada es imprescindible para investigar el mundo. Romero (2018, p. 98) argumenta que «precisamente porque la matemática pura es ontológicamente neutral, las

Scientia in verba Magazine 2619-2586

ideas matemáticas pueden transportarse a diversos campos de investigación. […] Un lenguaje exacto basado en las matemáticas tiene un mayor poder expresivo para describir con precisión el mundo, en comparación con un lenguaje natural que está infectado con vaguedad e imprecisión. […] No hay una manera a priori para determinar si una teoría matemática será o no será útil para la ciencia fáctica, porque no sabemos de antemano cómo es el mundo. Cuanto más se enriquecen nuestras teorías matemáticas, mayor es nuestra capacidad de representar la realidad. Por lo tanto, debemos fomentar la investigación básica en matemáticas si queremos expandir nuestra comprensión del mundo». El origen de algunos constructos matemáticos (pero no todos) proviene de la abstracción de propiedades de sistemas materiales. Las ciencias fácticas utilizan algunos constructos matemáticos para representar algunas propiedades de sistemas materiales. Al mismo tiempo, la matemática pura explora sistemas conceptuales desvinculados de referencias materiales. Los constructos de la matemática pura refieren a constructos y no a sistemas materiales. Bunge (1985, p. 35) plantea: «Del hecho de que algunas ideas matemáticas se hayan originado en intereses prácticos, o se hayan aplicado en la ciencia o la tecnología, podríamos tener la tentación de concluir que todos los objetos matemáticos representan algún rasgo de la realidad (la tesis materialista empirista, pragmatista, y vulgar); o que toda cosa es idéntica a, o al menos una realización o copia imperfecta de, algún objeto matemático (la tesis idealista objetiva). Ambas conclusiones son erróneas […] Las proposiciones en la matemática pura son acerca de objetos puramente conceptuales». La matemática pura explora los espacios de posibilidades conceptuales, independientemente de la exploración de las posibilidades de los sistemas

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

46

Scientia in verba subpage /revista-scientia-in-verbapdf/ materiales. La exploración a priori de posibilidades conceptuales genera sistemas conceptuales potencialmente aplicables a ciertos aspectos del mundo, pero necesitamos de la investigación empírica para evaluar e identificar cuáles. La exploración a priori genera sistemas conceptualmente posibles, pero eso no implica que correspondan a sistemas materialmente existentes. La investigación conceptual genera un incremento del repertorio de sistemas conceptuales, y permite la selección sistemática de los sistemas conceptuales aplicables a las propiedades de los sistemas materiales Objeción 5ª: La Idea de Materia de Bueno no es una estipulación arbitraria, sino el resultado de un análisis objetivo de la realidad mundana. Respuesta: Nuestro argumento no requiere que la Idea de Bueno sea arbitraria. Hemos constatado, eso sí, el desconcierto que puede provocar la tesis de que los objetos abstractos son materiales, pero hemos advertido que ese carácter poco intuitivo de la tesis no es una razón para rechazarla. Conviene insistir en que nuestro propósito aquí no es discutir la verdad o falsedad de la afirmación “los objetos abstractos son materiales”, sino mostrar que esa afirmación tiene un significado diferente en el MF y en el MS. Nuestra argumentación sólo requiere que el concepto de materia de Bueno sea diferente al de Bunge, ya que eso es lo que da lugar al problema señalado. Y es el caso que son diferentes; por tanto el argumento se mantiene independientemente de si consideramos arbitraria o no la Idea de Materia de Bueno. Contrarréplica: la Idea de Materia del MF no sólo no es arbitraria, sino que es mejor y más potente que la del MS, ya que la Idea de Materia de Bueno puede servir para clasificar las posiciones de Bunge, mientras que esto no ocurre recíprocamente. Por ejemplo, la filosofía de las matemáticas

Gracia, A y Primero, G. 34-49

© Nullius in verba site

de Bunge queda caracterizada desde el MF como “formalismo bigenérico tipo V” (cf Bueno, 1972, p. 151). Respuesta a la contrarréplica: El criterio en el que se basa este argumento es insuficiente. Que la terminología de un sistema sirva para clasificar a otro sistema (sin que esto ocurra recíprocamente) no es una razón suficiente para preferir esa terminología a la del otro sistema. Hay otros criterios relevantes para evaluar terminologías, como por ejemplo la adecuación al uso común o científico, la parsimonia, la riqueza, etc. Por tanto el argumento de esta contrarréplica no basta para afirmar que la definición de Bueno es más potente que la de Bunge; o, si muestra que es más potente, no establece convincentemente que esta potencia sea razón para preferir la definición de Bueno. Por nuestra parte, diremos que la elección entre estas definiciones alternativas es en gran medida una cuestión de evaluación de méritos o deficiencias de cada concepto de materia en relación a un conjunto de valores que pueden ser compartidos o nocompartidos por los interlocutores. Esto no implica renunciar a la objetividad filosófica, ya que lo que ésta exige no es tanto el uso de “la definición auténtica de Materia”, sino la presentación explícita de los valores, conceptos y tesis de los que se parte, para evitar caer en equívocos y malentendidos. Si, como hemos mostrado, MS y MF emplean definiciones diferentes de “materia”, la confrontación entre ellos no debería ser acerca de si tales o cuales objetos son materiales o no, sino acerca de si tales objetos poseen o no ciertas propiedades cuyo significado ha sido previamente acordado, y acerca de los méritos o deficiencias de cada concepto de materia en relación a un conjunto de valores epistémicos.

47

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Negrete, J. A. (2018). “Materialismo sensato… pero equivocado: el caso de Mario Bunge”. Sitio disponible en: http://nulliusinverbasite.com/textoargumentativo/materialismo-sensato-pero-equivocado-el-caso-demario-bunge/

Referencias

Bueno, G. (1972). Ensayos Materialistas. Madrid, Taurus.

Pérez Álvarez, M. (2011). El mito del cerebro creador. Cuerpo, conducta y cultura. Madrid, Alianza.

Bueno, G. (1990). Materia. Oviedo, Pentalfa.

Romero, G. E. (2018). Scientific Philosophy. Switzerland, Springer.

Bueno, G. (2016). El Ego Trascendental. Oviedo, Pentalfa. Bunge, M. (1979). Treatise on Basic Philosophy: Volume 4 – Ontology II: A World of Systems. Dordrecht, Reidel.

Vacas, M. y Llames, L. (2012). “Reseña de El mito del cerebro creador. Cuerpo, conducta y cultura”. El escéptico, Nº 37, p. 74. Weingartner, P., & Dorn, G. J. (Eds.). (1990). Studies on Mario Bunge’s Treatise. Amsterdam, Rodopi.

Bunge, M. (1981). Scientific Materialism. Dordrecht, Reidel. Bunge, M. (1983). “Sobre materialismo y dialéctica”. El Basilisco: Revista de materialismo filosófico, (15), 94-95. Bunge, M. (1985). Treatise on Basic Philosophy: Volume 7 – Epistemology & Methodology III: Philosophy of Science and Technology – Part II: Life Science, Social Science and Technology. Social Science and Technology. Dordrecht, Reidel. Bunge, M. (1990). What kind of discipline is psychology: Autonomous or dependent, humanistic or scientific, biological or sociological?. New Ideas in Psychology, 8(2), 121-137. Bunge, M. (2007). A la caza de la realidad. Barcelona, Gedisa. Bunge, M. (2013). Sobre El mito del cerebro creador. El escéptico, Nº 38, p. 74. Bunge, M. (2014). Memorias: Entre dos mundos. Barcelona, Gedisa. Carnap, R. (1950). Logical Foundations of Probability. Chicago, University of Chicago Press. García Sierra, P. (1999). Diccionario filosófico. (http://www.filosofia.org/filomat/ index.htm). Giménez, F. (1994). La ontología materialista de Gustavo Bueno. Oviedo, Pentalfa. Graham, P. (2008). How to disagree. Disponible en: www.paulgraham.com/ disagree.html Laso Prieto, J. M. (1982). “Mario Bunge vs. dialéctica”. Revista Argumentos Nº 53 (pág. 44-45), año IV.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

48

Gracia, A y Primero, G. 34-49

49

S

Gerardo Primero y Aejandro Garcia

S

Licenciado en Psicología (UBA), docente de Psicología (UBA, CC Rojas), terapeuta cognitivo-conductual. Actualmente cursa la Maestría y el Doctorado en Epistemología e Historia de la Ciencia en UNTREF.

“Partimos de la idea de que las investigaciones científicas y los conocimientos que llegan a generarse están estrechamente relacionados con ciertos valores, creencias, normas y prácticas epistémicas y sociales que constituyen una forma de vida. Que las prácticas sean epistémicas significa que generan conocimiento, además de que tienen una estructura axiológica que configura la vida emocional de los sujetos.”

Estudiante de Filosofía en la Universidad Autónoma de Madrid. Actualmente (2018-2019) reside y estudia en la Universidad de Kent en Canterbury.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

50

51

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Scientia in Verba Mag. 3, 52-54 (2019).

Magazine 2619-2586

Breve reflexión sobre filosofía y vacunación Mónica Gómez Salazar1

1  Facultad de Filosofía y Letras de la UNAM.

Consideremos la pregunta de por qué pensar las ciencias de la vida desde la filosofía, específicamente con relación al campo de la medicina, respecto a la aplicación del coctel de vacunas contra el sarampión, paperas y rubeo- la (mmr) y la tensión que hay entre la decisión individual por parte de los padres de familia de no vacunar a sus hijos y las consecuencias de estas decisiones que ponen en riesgo las condiciones de salud colectivas. Partimos de la idea de que las investigaciones científicas y los conocimientos que llegan a generarse están estrechamente relacionados con ciertos valores, creencias, normas y prácticas epistémicas y sociales que constituyen una forma de vida. Que las prácticas sean epistémicas significa que generan conocimiento, además de que tienen una estructura axiológica que configura la vida emocional de los sujetos. Los conceptos que formulemos y los conocimientos que desarrollemos estarán orientados por un cierto contexto histórico que nos precede y que en algún grado nos condiciona a seleccionar ciertos objetivos y proyectos, y no otros, que atañen a lo que tenemos por valioso. Así, en tanto que cualquier conocimiento está contextualmente condicionado es parcial y no es neutral. El acierto de las prácticas epistémicas, sean o no científicas, puede considerarse como un criterio que nos permite corroborar que sabemos que a través de ciertas prácticas obtendremos los resultados previstos. Pero el acertar

una vez, o a menudo, no significa que se genere conocimiento. Es decir, de la regularidad en los resultados no se sigue necesariamente que nuestras previsiones tendrán éxito. Es necesario contar también con buenas razones desde las cuales sepamos cómo es que nuestras prácticas muy probablemente serán acertadas. Si seguimos esta idea, parecería que bastaría con ofrecer buenas razones a los padres de familia para que vacunen a sus hijos, razones tales como que la vacunación con la mmr ha sido exitosa al punto de casi poder erradicar enfermedades como el sarampión. Sin embargo, los hechos nos dicen que el que tengamos las mejores razones posibles para defender la aplicación de esta vacuna, no bastan para persuadir a los padres y tampoco son suficientes las acciones acertadas que comprobarían que en efecto funciona la vacunación. Si nos tomamos en serio la idea de que todo conocimiento se genera, se mantiene y transforma con relación a algún contexto histórico, con ciertas creencias, valores, emociones y prácticas sociales, entre otros (Olivé, 2007, 2004), nos daremos cuenta que al estar involucrados aspectos emocionales y axiológicos, para actuar no basta con que tengamos proposiciones suficientemente justificadas que nos afirmen con razonable seguridad la verdad de una creencia. Para actuar se requiere también considerar el papel de los sentimientos. De este modo, tenemos que hay padres de familia que temen que sus hijos se

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

52

Scientia in verba subpage /revista-scientia-in-verbapdf/ vuelvan autistas como consecuencia de la aplicación de la vacuna mmr. Según Collins y Pinch, lo que se sabe hasta el momento es que un número de niños comienza a mostrar síntomas de autismo en los primeros años de vida, aproximadamente en el tiempo en el que también es administrada la vacuna para evitar las enfermedades mencionadas. En los casos en los que el autismo se presenta después de la vacunación, los padres consideran una secuencia temporal como si fuera la causa del autismo en los niños. Sea que haya, o no, una relación entre el autismo y las vacunas, la complejidad del tema reside en por qué los padres están convencidos de que el autismo es provocado por la vacunación mencionada. En cambio, por ejemplo, tiene menos fuerza en ellos el hecho comprobado y bien documentado de que si sus hijos enfermaran de sarampión podrían tener daño cerebral. La primera información de una relación entre autismo y vacunación, nos dice Collins, proviene de las preocupaciones de los padres de familia antes que de investigación científica reportada (Collins & Pinch, 2005: 181-182). Una noción de verdad ligada a una buena justificación parece insuficiente. Los resultados exitosos no necesariamente impulsan a los sujetos a actuar considerando esos resultados, los hechos muestran que los padres de familia tienen por verdaderas creencias falsas de modo que las acciones que dichas creencias guían son erradas. Buena parte de los padres de familia tienen por válidas las razones que estarían sustentando una postura según la cual la mmr produce autismo. Sabemos, nos dice Collins, que si dejamos de vacunar muy probablemente habrá epidemias y las consecuencias de las epidemias serán peores que las posibles consecuencias de la vacunación (Collins & Pinch, 2005: 187). Hasta aquí tenemos un ejemplo donde los padres de familia ignoran las razones válidas

Gómez, M. 52-54

© Nullius in verba site

en las que se sustenta un conocimiento y optan por justificar sus creencias desde los motivos más personales. Sin embargo, la justificación de creencias como aquellas que ponen en duda el aplicar alguna vacuna, no siempre se basa en razones subjetivas. La decisión de los Pinch es un buen ejemplo. En 1992, los Pinch, quienes vivían en Estados Unidos, tuvieron que decidir si permitían que su hija de pocos meses de vida, recibiría las series de vacunas para evitar la difteria, tétanos y tosferina (dtp) (Collins & Pinch, 2005: 192). Se trata de un caso interesante porque estos padres sociólogos, con interés en sociología del conocimiento, trabajaban en la Universidad de Cornell. Su investigación sobre la aplicación de la vacuna fue detallada y podríamos decir que justificaron con buenas razones su creencia de que era mejor vacunar a su hija primero con la combinación de dos vacunas para difteria y tétanos y no para tosferina si querían evitar los efectos secundarios derivados de esta última. De acuerdo con su investigación, la vacuna que causa mayores efectos secundarios es la dtp, específicamente por el elemento de la tosferina el cual podría causar problemas. Según su postura, debido a que su hija vivía en una zona rural pequeña, específicamente en Ithaca, con poca exposición a niños, además alimentada con leche materna que le ofrecía mejores defensas, no parecía tan arriesgado sólo aplicar dos vacunas con la idea de que en esas condiciones de vida muy probablemente su bebé no enfermaría (Collins & Pinch, 2005: 195). Pero una decisión así es poner la salud de su hija al margen de la comunidad de la que forma parte, lo cual es un error. Entre menor sea el número de niños vacunados mayor será el riesgo de contraer una enfermedad. Los Pinch, en su momento, se sintieron reivindicados, ya que después de un año de estos argumentos se leyó en el New York

53

Nullius in verba Site www.nulliusinverbasite.com Times que en Estados Unidos se había decidido comenzar a administrar el tipo de vacuna más segura contra la tosferina y con menos efectos secundarios (Collins & Pinch, 2005: 196). Sucedió que diez años después, en el 2002, hubo una epidemia de tosferina en Ithaca. Las epidemias se desarrollan más fácilmente en poblaciones no vacunadas. Una de las premisas fundamentales del argumento es que la vacunación disminuye la posibilidad de epidemias, y como toda acción, sea acertada o no, a corto o largo plazo tiene consecuencias, aquellas familias que decidieron con base en razones individualistas, se encuentran con que sus nietos viven con un riesgo marcadamente mayor de contraer la enfermedad en parte como consecuencia de su decisión de proteger a sus hijos dejándolos sin vacunar o vacunándolos con un tipo de vacuna menos efectiva (Collins & Pinch, 2005: 198). La pregunta es entonces: ¿por qué con estas desventajas, ciertos padres deciden por la opción de mayor riesgo e incertidumbre? Bain nos dice que una creencia no tiene significado si no es con relación a nuestras acciones, la mera concepción o representación de la creencia mediante una proposición no basta (Bain, 1884,1865). La diferencia entre concebir o imaginar (con o sin un sentimiento fuerte) y la creencia, es actuar o estar preparado para actuar cuando la ocasión se presenta (Bain, 1865). Aun así, podríamos acostumbrarnos a actuar sistemáticamente de manera errada, con relación a creencias falsas, insuficientemente justificadas y, con todo, tenerlas por verdaderas. La filosofía es importante y concretamente interesa a las ciencias de la vida, porque nos permite cuestionar, revisar, volver a indagar si las razones que sustentan nuestras creencias, así como las acciones que éstas guían, son acciones acertadas y no acciones que propician unas condiciones de daño.

Scientia in verba Magazine 2619-2586

Con lo que contamos es con nuestras justificaciones y no hay manera de que podamos acceder a la verdad al margen de ellas (Cartwright, et. al., 1996). La formulación de nuestras hipótesis y el ponerlas a prueba, con- frontándolas con otras hipótesis relacionadas con otros marcos conceptua- les, tendría como finalidad investigar si se trata de hipótesis que comprue- ban ser útiles, acertadas, que funcionan en unas condiciones de existencia específicas. Esta manera de proceder nos permite imaginar alternativas diferentes a nuestras prácticas sociales, justificaciones y creencias; en la experiencia se verá si son acertadas o se refutan. Sólo que no olvidemos que si ya se cuenta con hipótesis que se comprueban útiles, que funcionan, como sería el caso de las consecuencias acertadas de la vacunación, y deci- dimos volver a experimentar, los efectos que se sigan podrían perjudicar a la comunidad, ser imprevisibles e irreversibles. Desde la filosofía, por ejemplo, a partir de una postura como la del plu- ralismo ontológico y epistemológico (Olivé 1999, 1995), es posible contras- tar y poner a prueba las creencias y las prácticas epistémicas y sociales relacionadas con diferentes marcos conceptuales y sus contextos relevan- tes, a fin de que nuestras decisiones personales y colectivas, al estar mejor justificadas, dependan menos de la fortuna. Investigación realizada gracias al Programa UNAM-DGAPA-PAPIIT IN403017 ‘Sofística y Pragmatismo’.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

54

S

Mónica Gómez Salazar

S

Doctora en Filosofía por la Universidad de Barcelona, España. Sus líneas de investigación incluyen pluralismo epistemológico, ética y filosofía política multicultural, pragmatismo y justicia social. Es autora del libro Pluralidad de Realidades, Diversidad de Culturas UNAM, 2009; coautora junto con Adalberto de Hoyos del libro Pluralismo de valores: inconmensurabilidad, globalización y derechos humanos, México, UNAM

55

Scientia in verba subpage /revista-scientia-in-verbapdf/

Categorización perceptual

© Nullius in verba site Scientia in Verba Mag. 3, 57-59 (2019).

conceptual

vs

categorización

Caleb S. Medina1 1  Universidad Autónoma del Estado de Morelos (UAEM). México.

Siguiendo una discusión de hace muchos años y que se manifiesta en muchas de las áreas que estudian al ser humano y sus capacidades, vamos a verla en el problema de la categorización, es decir el cómo se adquieren los conceptos. La clásica discusión se debe al enfrentamiento de las visiones innatas que dan peso a lo racionalista y a mecanismos que están programados en el ser humano. La segunda visión es la empirista, según la cual las capacidades cognitivas se desarrollan progresivamente por medio de la percepción, la asociación y el aprendizaje en general. Según esta segunda visión, de categorización perceptual, los conceptos se generan cuando las características que representan pasan por los sentidos, estas percepciones se asocian con otras, en un proceso de elaboración que crea conceptos y posteriormente los diferencia en categorías. Hay varios datos empíricos que apoyan las bases de estas teorías, comenzando por el ya estudiado condicionamiento clásico o Pavloviano, que demuestra que la asociación y generalización de estímulo por medio de similitudes es una fuerte norma de aprendizaje que a menudo es utilizada por el ser humano, habiendo estudios que sugieren que estas normas de asociación son básicas para la creación de conceptos. Estudios como los de Rakison & Butterworth (1998) donde niños entre uno y dos años de edad eran expuestos a objetos que representaban tanto cosas

“Ninguna teoría innatista niega el papel del aprendizaje en la categorización, para Fodor (1986) por ejemplo tenemos ideas innatas como contenido proposicional (sabemos que) y tenemos mecanismos psicológicos innatos (capacidades como la memoria); estas facultades innatas interactúan con las experiencias perceptivas para completar contenidos que la dotación de fábrica no especifica; es evidente que la capacidad innata del lenguaje nos ayuda a reconocer y separar objetos perceptuales que no conocemos”

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

56

Medina, C. 57-59

animadas como inanimadas, cuyas características eran a veces mezcladas (un animal con ruedas, un vehículo con piernas o un objeto con piernas y ruedas) mostraron que los infantes toman en cuenta las partes de los objetos para decidir a qué categoría pertenecen, teniendo en cuenta tanto las similitudes y diferencias que vienen desde el input perceptual. Otros estudios como los de Kemler, Russell, Duke & Jones (2000), en concordancia con estas teorías empiristas, muestran que a los niños se les facilita crear categorías funcionales similares, como por ejemplo “sirve para limpiar” cuando sus características físicas perceptuales son similares, es decir, si ven algo suave como una tela en los objetos que entran en la categoría de “limpian”. El otro grupo de teorías apelan a una capacidad innata para crear categorías, donde la mente tiene unas presuposiciones de cómo es el mundo. Aunque hay varias vertientes de esta visión, donde se da más o menos peso a estas estructuras innatas (ver por ejemplo Mandler, 2004, Pinker,1995; Fodor, 1986), en general se cree que nociones como animado-inanimado o el entender la relación de causa-efecto, son entendimientos que vienen de fábrica dentro de las características cognitivas de todo ser humano. Frente a esto también se han realizado varios estudios, basados en sesgos y mecanismos ya muy conocidos de la cognición, como estudios sobre la

57

Nullius in verba Site www.nulliusinverbasite.com atención, sobre ceguera al cambio y otros que nos muestran que no percibimos ni recordamos todos los detalles ni características que hay en el mundo, para los innatistas esto deja la pregunta de cómo podríamos hacer categorías con la percepción si contiene estas limitaciones, un ejemplo de esto es la facilidad que tenemos para diferenciar un rostro masculino de uno femenino y de la que no podemos reportar en qué características nos basamos, lo cual es una capacidad innata y evolutivamente necesaria. Ninguna teoría innatista niega el papel del aprendizaje en la categorización, para Fodor (1986) por ejemplo tenemos ideas innatas como contenido proposicional (sabemos que) y tenemos mecanismos psicológicos innatos (capacidades como la memoria); estas facultades innatas interactúan con las experiencias perceptivas para completar contenidos que la dotación de fábrica no especifica; es evidente que la capacidad innata del lenguaje nos ayuda a reconocer y separar objetos perceptuales que no conocemos, como un extranjero que luego de vivir en México, puede aprender a diferenciar la categoría de Quesadillas de las de Sincronizadas. Pero como refiere Mandler (2003) el que algo se vuelva más detallado, no significa que sea diferente. La capacidad innata para diferenciar aspectos fundamentales existe, como el saber que Michael Jackson no deja de ser él por cambiar su color de piel o cortar su cabello, hay un “algo” innato que hace que lo reconozcamos como perteneciente al ser humano, sin importar sus cambios. Los niños autistas, por ejemplo, pueden imitar las palabras o las conductas de otros seres humanos, pero no pueden imitar una intención, no pueden entender las intenciones de los demás; muchas veces repiten la palabra “tú” para referirse a sí mismos, porque no entienden en función de quién va esa palara, es decir

Scientia in verba Magazine 2619-2586

que tienen la capacidad para percibir y asociar palabras y sucesos, pero no es suficiente para categorizar. En palabras de Pinker (2003) “junto con los robots y los chimpancés, las personas autistas nos recuerdan que el aprendizaje cultural es posible sólo porque las personas neurológicamente normales poseen un equipamiento innato para realizarlo.” Algo que no queda del todo claro para estas perspectivas es la forma en que interactúan el del aprendizaje y la generalización, las experiencias externas y las capacidades internas, nadie es en esta época es totalmente innatista ni totalmente empirista, venimos con algo y aprendemos otro tanto, pero ¿qué tanto peso se le debe dar a cada aspecto? ¿cuáles son las normas que hacen que un bebé generalice objetos que nunca ha visto? ¿Hay un límite para integrar a una categoría algo?, de nuevo, queda mucho por investigar para acercarnos un poco más al problema de si tenemos ya el mundo organizado en términos generales en nuestra mente, o aprendemos a organizarlo con el tiempo.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

58

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Referencias

Fodor, J. A. (1986). La modularidad de la mente: un ensayo sobre la psicología de las facultades. Ediciones Morata. Kemler Nelson, D. G., Russell, R., Duke, N., & Jones, K. (2000). Two-year-olds will name artifacts by their functions. Child development, 71(5), 1271-1288. Mandler, J. M. (2003). Conceptual categorization. Early category and concept development: Making sense of the blooming, buzzing confusion, 103131. Mandler, J. M. (2004). The foundations of mind: Origins of conceptual thought. New York: Oxford University Press. Pinker, S. (1995). El instinto del lenguaje: Cómo crea el lenguaje la mente (Traducción de José Manuel Igoa González). Madrid: Alianza. Pinker, S. (2003). La tabla rasa (La negación moderna de la naturaleza humana). Paidós Ibérica, SA. Rakison, D. H., & Butterworth, G. E. (1998). Infants’ attention to object structure in early categorization. Developmental Psychology, 34(6), 1310.

Medina, C. 57-59

59

S

Caleb S. Medina

“Este artículo tiene un final abierto. Está claro que la realidad es más matizada, plural e interconectada de lo que nuestras barreras disciplinares pueden soportar; ella, muchas veces, se nos escurre ante la mirada atónita de nuestras teorías. Quizá, después de todo, no podamos evitar la maldición de Procusto ”

S

Caleb S. Medina es psicólogo colombiano que actualmente está adscrito al Centro de Investigación de Ciencias Cognitivas (CINCCO) en la la Universidad Autónoma del Estado de Morelos (UAEM) en México, dentro de la Maestría en Ciencias Cognitivas.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

60

61

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Scientia in Verba Mag. 3, 62-87 (2019).

Magazine 2619-2586

La maldición de Procusto. Diversidad e integración de los saberes científicos. Capítulo 1 Héctor Aldo Palma1 1  Universidad de Buenos Aires. Universidad Nacional de Quilmes. Argentina

REFERENCIA: Palma, H. (2018), “La maldición de Procusto. Diversidad e integración de los saberes científicos”, en Palma, H. (2018)(edit.), Conexiones y fronteras. Desafíos filosóficos de las ciencias sociales en el siglo XXI, Buenos Aires, Editorial Biblos. Procusto tenía estatura y fuerzas prodigiosas y atraía a su mansión a los viajantes para robarles y hacerles sufrir atroces suplicios. Les tendía sobre un lecho de hierro y si sus piernas excedían los límites del mismo, cortaba con un hachazo la porción sobrante; si, por el contrario, las piernas resultaban cortas las estiraba hasta que dieran la longitud del lecho fatal. (Leyenda griega)

El enorme corpus del saber científico disponible está organizado, principalmente, a partir del tipo de objetos estudiados y las formas de abordarlos. La física, la biología, la química, la sociología, la historia –por nombrar solo algunas áreas generales- tienen en claro de qué tipo de cosas habrán de ocuparse y cómo hacerlo. Esta división teórica y que se refleja en la organización administrativa, académica y cultural de los saberes surge de las marcas distintivas de la racionalidad científica en nuestra tradición, que, exagerando y simplificando un poco, podríamos calificar como analítica, simplificadora y compartimentadora de la realidad. Esta forma de organizar, producir y distribuir el conocimiento ha producido a lo

largo de los últimos siglos formidables e innegables éxitos aunque también arrastra notorias debilidades que, en les últimas décadas, se vuelven acuciantes. Sobre estos temas tratarán las páginas que siguen. En primer lugar se mostrará por qué las cuestiones propias del mundo biológico no pueden, en una medida significativa, ser explicadas solamente en términos físico-químicos y por qué las cuestiones sociales –correlativamenteno pueden ser explicadas desde lo meramente biológico. Asimismo, en parte como derivación de lo anterior, se hará un breve recorrido por algunas otras formas de pensar la organización de los saberes a partir del abordaje de problemas complejos y se planteará la necesidad práctica de hacerlo.

1. Multiplicidad de saberes y perspectivas Supóngase la siguiente situación imaginaria. Una fría mañana de viernes del mes de junio de 2022, en la Bolsa de Valores de Buenos Aires, un señor canoso vestido con ropa costosa golpea con fuerza una mesa y se lastima la mano. ¿Cómo explicar científicamente este hecho trivial? Parece fácil pero no lo es, porque el golpe en la mesa ocurre en un contexto más abarcativo en el cual, como si fueran los círculos concéntricos en la superficie del agua cuando se tira una piedra, pueden agregarse más y más dimensiones relacionadas. La situación económica del país es mala, la desocupación y la

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

62

Scientia in verba subpage /revista-scientia-in-verbapdf/ pobreza asuelan desde hace tiempo y de manera creciente; el gobierno de turno no consigue, o no quiere, dar soluciones de fondo a los problemas de las mayorías. La desigualdad ha crecido paulatina e indefectiblemente desde hace años por la concentración de la riqueza, lo cual ha generado más violencia. Han aumentado las tasas de criminalidad y de conflictos. La población en las calles presagia momentos difíciles e imprevisibles. En la Bolsa de Valores de Buenos Aires se viven momentos de nerviosismo. No por solidaridad con esos millones de pobres que andan por allí, sino por la persistente caída del valor de las acciones en el último mes. Las marcas en las pantallas muestran números y gráficos que corren y los atentos accionistas y agentes de bolsa van esbozando muecas que deforman sus caras, a veces grotescamente. Procesos similares se vienen viviendo en los países de la región, en la cual han venido ganando elecciones partidos políticos que impulsan, en mayor o menor medida, políticas neoliberales de endeudamiento, aumento de la desocupación estructural y baja de salarios, baja de las coberturas sociales y desfinanciamiento y posterior privatización del sistema de jubilaciones, etc. Claro está, esto ocurre en una ciudad de un país de Sudamérica (Argentina), del planeta Tierra del sistema solar, Vía Láctea, Universo (conocido). En este escenario el señor canoso de ropa costosa golpeó la mesa. ¿Qué podrían decir las ciencias? Como se comprenderá, hay muchos abordajes posibles. Un biólogo podrá contarnos que ha contraído los músculos adecuados por una orden emanada del cerebro; otro biólogo nos hablará de los genes. Pero otros intentarán dar cuenta del golpe en la mesa de otro modo. Los historiadores deberán esperar que pase el tiempo, pero mientras tanto pueden ir hacia atrás a buscar la génesis de lo que hoy está sucediendo. También sociólogos y politólogos buscan razones

Palma, H. 62-87

© Nullius in verba site

de lo que ocurre aunque no coincidan entre ellos. Los economistas hacen lo propio, algunos más apocalípticos en sus pronósticos, cínicos los otros augurando un futuro próspero a un ejército de miserables desdentados y harapientos, y enarbolando metáforas organicistas y psicologistas sobre el humor del mercado, los terceros. Otros economistas teóricos pontificarán sobre las bondades de la competencia como motor del progreso social, siempre prestos a sacar a relucir sus hipótesis ad hoc antes que abandonar sus fracasadas teorías. Los abanderados de las neuroayudas tratan de evangelizar a sus lectores sobre la responsabilidad individual (del cerebro) en el éxito y en el fracaso social, mientras que los psicólogos pretenden defender sus históricas incumbencias alrededor de las angustias humanas sin ocuparse de los estados neuronales; los psicólogos evolucionistas inventarán historias verosímiles (de dudosa corroboración) sobre el origen evolutivo remoto, en los albores del homo sapiens sapiens, de las conductas actuales en tiempos de crisis bursátil; los tres podrán decir algo sobre el señor que se lastimó la mano. No faltarán los que aseguren (con algún premio Nobel incluido) que la violencia, el delito e incluso ciertas características que llevan a las personas a la pobreza, están en los genes. Los educadores (siempre bienintencionados) se opondrán argumentando que no hay nada en la biología humana que no pueda modificarse a partir de la igualdad de oportunidades y de la escuela. Quizá puedan terciar los antropólogos de lo próximo, habida cuenta de lo difícil que es hoy encontrar tribus incontaminadas, ocupándose ahora de esas tribus que pululan por las calles de la ciudad. Quizá muchos de ellos circulen por los canales de televisión en programas de la tarde tratando de ilustrar al público desde su rol de especialistas; otros, un poco más seriamente, aprovechan subsidios de

63

Nullius in verba Site www.nulliusinverbasite.com las agencias y bancos internacionales para estudiar por qué razones los pobres son tan resistentes, dejando para más adelante por qué son tantos y cada vez son más. También quedarán para más adelante, quizá para nunca, estudiar a los ricos dado que no hay líneas de subsidios internacionales para eso. Los médicos podrían aconsejar sobre el estrés que produce lo que está pasando en la sociedad y, obviamente, sobre los riesgos de los golpes en la mano. Incluso algún físico (a riesgo de ser ridiculizado) podría intentar explicar el complejo episodio relatado apelando al estado de la totalidad de las partículas intervinientes y, quizá y con poco tacto, reconfortar al señor que se lastimó la mano al golpear la mesa, explicándole que en verdad la mesa que parece dura y maciza, es casi un vacío en el cual un enorme número de micropartículas se mueven velozmente en todas direcciones. Para no aburrir al lector omito los posibles aportes de astrónomos, paleontólogos, estudiosos del clima y la deriva de las placas tectónicas. Perspectivas y miradas distintas de una realidad múltiple y polifacética, algunas complementarias, otras incompatibles entre sí. Un hecho trivial (el señor del golpe) que se conecta con un sinnúmero de otros hechos triviales y no tan triviales. Una realidad, múltiples abordajes científicos. Aun sin ocuparnos del molesto problema de la verdad de nuestras teorías, es legítimo preguntarse: ¿hay algún orden o jerarquía entre los distintos enfoques mencionados en el párrafo anterior? o, más simplemente ¿hay alguno de esos enfoques que tenga privilegios explicativos o epistémicos sobre el resto? Como se comprenderá, en principio todo depende de qué parte del conjunto de hechos descripto nos interese explicar y cómo. Sin embargo la cuestión no es meramente estipulativa e implica consideraciones más sustanciales. Sobre ello tratarán las páginas siguientes,

Scientia in verba Magazine 2619-2586

luego de tres consideraciones previas con respecto al encuadre de nuestra argumentación. En primer lugar, dejaremos de lado –al menos como decisión metodológicael problema metafísico de “la realidad” para centrarnos en lo que los humanos llamamos conocimiento científico de esa realidad y, sobre todo, de los múltiples modos o perspectivas que ese conocimiento adquiere. Se da por supuesto aquí –lo cual no significa de ningún modo eludir ni, mucho menos, resolver la cuestión- que hay una realidad independiente de los sujetos en alguna medida significativa, y que a los humanos nos es posible y, sobre todo necesario, hablar de ella de modos muy diferentes, a veces incluso incompatibles entre sí. Es decir que se diferencia entre la ontología del mundo y nuestra gnoseología – es decir, entre lo que existe y nuestro conocimiento de ello- sin siquiera suponer que el éxito de nuestras teorías resulte de que reflejan las estructura del mundo. Después de todo, lo que podemos conocer y decir es el resultado de que nuestro aparato perceptual e intelectual -propio y específico de la especie humana- se conformó a través de un proceso evolutivo particular y contingente a lo largo de millones de años. Efectivamente, percibimos a través de nuestros sentidos en un espectro de longitud de onda relativamente amplio pero bastante limitado; tenemos un modo particular(mente humano) de organizar mentalmente nuestras percepciones (asociación de ideas, generalización, simplificación, jerarquización, etc.) que, seguramente y hasta donde sabemos, no es el mismo modo en que otras especies se relacionan con el entorno1. Y como 1  Dejaremos para otra oportunidad la reflexión acerca de cuál es la relación entre estas capacidades que nos han permitido sobrevivir y evolucionar (hasta ahora, al menos) y nuestras teorías científicas que aspiran a ser verdaderas en un sentido relevante. Después de todo, el resto de las especies han podido sobrevivir sin tener ninguna teoría acerca de la realidad

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

64

Scientia in verba subpage /revista-scientia-in-verbapdf/ nuestro interés en este artículo es analizar la forma en que se organizan los saberes, -esta es nuestra segunda consideraciónno abordaremos la cuestión de la verdad de nuestras teorías. Finalmente, también provisoriamente al menos, asumiremos que nuestros conceptos y teorías científicas son buenas (aunque siempre perfectibles o reemplazables) porque permiten la construcción de modelos, -por qué no metáforas2– o representaciones exitosas de la realidad y tienen estas características comunes: Permiten operar sobre la realidad empírica e incluso, en muchos casos, predecir con una enorme precisión, y articular explicaciones racionales Son públicas (es decir no pueden reducirse a experiencias privadas o íntimas) y por tanto aceptados intersubjetivamente (en principio, por la comunidad de especialistas). Dan explicaciones plausibles y racionales (racionalidad compartida e históricamente situada) sobre los fenómenos observados (lo que podríamos denominar “base empírica”). Son consistentes internamente (es decir no afirman “A” y “no A” dentro de un sistema teórico) y externamente (es decir, no son contradictorias con el resto de las teorías científicas aceptadas). Renuncian a incluir en sus explicaciones y descripciones instancias teológicas, místicas o sobrenaturales Lo dicho hasta aquí tiene, obviamente, muchas consecuencias. Por ejemplo nos exime (al menos momentáneamente) de ocuparnos de preguntas del tipo “¿qué es?” (es decir cuestiones metafísicas sobre la realidad) o del tipo “¿qué quiere usted decir con X?” (es decir reducir el problema de cómo nuestro conocimiento se relaciona con la realidad a cuestiones puramente lingüísticas o semánticas). Pero, quizá la más importante en torno al objetivo de este artículo sea que esta

2  Sobre el uso de metáforas en ciencia véase: Palma (2016)

Palma, H. 62-87

© Nullius in verba site

forma de concebir el conocimiento (científico) como una multiplicidad de perspectivas exitosas y consistentes entre sí, permite revisar uno de los mitos acerca de la ciencia moderna -el de la unidad- porque circunscribe el análisis al conjunto de los saberes, sus vínculos, aspectos en común y especificidades.

2. El mito de la unidad de la ciencia “(…) la ciencia es una unidad, todas las afirmaciones empíricas pueden expresarse en un solo idioma, todos los estados de cosas son de una clase y se conocen por el mismo método” (Carnap) La organización del conocimiento que tenemos es el resultado de esa forma particular y contingente de obtenerlo y legitimarlo durante los últimos siglos, durante los cuales se ha consolidado uno de los más grandes y difundidos mitos alrededor del conocimiento científico moderno: la unidad de la ciencia. Consiste en atribuir a todas sus manifestaciones particulares características básicas similares, lo cual permitiría reunirlas en un conjunto homogéneo denominado “la ciencia”, en singular, más allá de las obvias diferencias disciplinares. Ese conjunto homogéneo de características también permitiría diferenciarla clara y tajantemente de otros saberes, discursos y prácticas humanas como por ejemplo las llamadas “pseudociencias”, la literatura, el saber vulgar, la religión, la magia, la moda, etc. De hecho, el uso de la expresión “la ciencia” en el lenguaje vulgar, en la comunicación pública de la ciencia y, sobre todo entre los propios científicos es generalizado. Hay razones históricas, sociológicas, políticas e incluso ideológicas que explicarían el origen y la vigencia de este gran mito fundante. Quizá haya que rastrearlo hasta los inicios de la Modernidad, cuando las nuevas formas de concebir el saber se alzaban en conjunto contra el

65

Nullius in verba Site www.nulliusinverbasite.com dogmatismo, la autoridad y la tradición propias del mundo medieval. Pero hoy la denominación ha perdido ese carácter revulsivo inicial y, más allá de algunas características como las ya señaladas (su carácter público, su éxito, el compromiso

Scientia in verba Magazine 2619-2586

3. Reduccionismo y emergentismo : dos estrategias de abordaje de la realidad

Tabla 1. Columnas A y B

racionalista, la consistencia interna y la compatibilidad con el resto del conocimiento consolidado), no parece que hubiera muchos elementos en común entre las diversas ciencias. Como quiera que sea, la creencia en que existe algo así como “la ciencia” persiste y es probable que muchos de los malentendidos y aporías en que ha caído la filosofía de las ciencias en los últimos 100 años deriven de la instalación del mito fundante de la unidad de la ciencia como parte de la agenda de discusiones. Insisto con que el problema no radica en las obvias diferencias en cuanto a objetos o áreas de estudio, metodologías e instrumentos y aspectos sociológicos que, en todo caso, serían solo manifestaciones particulares de unas diferencias básicas y más relevantes epistémicamente que serán el objeto de las secciones siguientes.

Como se ha dicho, aquí se tratará de algunos supuestos básicos acerca los vínculos entre los saberes y, para ello es conveniente analizar los dos principios metodológicos de abordaje de la realidad para entenderla, explicarla y controlarla en sus especificidades y detalles más allá de que, como un todo –inasible e indeterminado-, ella se nos presenta como exuberantemente compleja y polifacética: el reduccionismo y el emergentismo. No se trata de teorías científicas ni de métodos concretos, sino de principios metodológicos3, de 3  Método es un instrumento o un conjunto de instrucciones prácticas que sirven, en el caso particular de las ciencias, para guiar una investigación o controlarla, para evitar o minimizar errores y no malgastar esfuerzos. Se trata de propuestas concretas y prácticas, variables en grado sumo y relativas al tipo de investigación en que se usan. Un principio metodológico es algo más general, una estrategia a priori sobre la forma de encarar la investigación, como por ejemplo, en ciencias sociales, los llamados holismo e

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

66

Scientia in verba subpage /revista-scientia-in-verbapdf/ supuestos generales sobre las formas de abordar lo real: el reduccionismo (principal estrategia del intento por justificar la unificación de las ciencias) y emergentismo. Véase tabla 1. Aceptemos, provisoriamente al menos, que la columna A indica niveles o formas de organización del mundo (natural y social). En la columna B, por su parte, aparecen las disciplinas o áreas científicas que, según las incumbencias disciplinares estándar, se ocupan de las distintas formas de organización de la realidad. Huelga señalar que ninguna de las dos columnas es exhaustiva: en la columna A podrían desagregarse niveles de organización de la realidad y en cada uno especificar otros objetos, procesos y vínculos; en la B subdisciplinas y áreas increíblemente específicas. Las disciplinas mencionadas responden más o menos bien a las características de los niveles de la columna A, y se corresponden con las divisiones administrativas y académicas aceptadas de las ciencias. Para evitar inferencias exageradas acerca de lo que el cuadro dice, cabe aclarar algunas cuestiones. Primero, no pretende decir nada sobre el supuesto orden temporal de aparición de los distintos niveles en la historia del universo, aunque resulta bastante plausible que así haya sido (los seres vivos después de los elementos inanimados, y los seres con cerebro desarrollado mucho después del momento de aparición de lo viviente en el planeta Tierra o, quizá, en otras partes del Universo). Segundo, tampoco obedece –al menos en principioa criterios de complejidad o simplicidad de los distintos niveles. Finalmente, tampoco es necesario inferir del cuadro nada acerca de relaciones causales, es decir explicar la sucesión de niveles en términos de causa-efecto. Se ha dicho que para los reduccionistas la causa de cada nivel radica en las condiciones del nivel más bajo (causalidad ascendente); individualismo metodológico (véase Yturbe, 1993).

Palma, H. 62-87

© Nullius in verba site

por el contrario para los emergentistas podrían darse casos en los que niveles superiores funcionen como causa de procesos que se dan en niveles inferiores (causalidad descendente), por ejemplo si la acción humana modificase el curso de la evolución biológica (véase, por ejemplo Popper & Eccles, 1977). Como quiera que sea, la noción de “causa” es demasiado problemática y enturbiaría la discusión presente. Lo que debe inferirse del cuadro es más modesto: una ontología básica en la cual la organización y elementos de cada nivel presuponen la existencia, organización y elementos del/los nivel/es inferior/es. Por ejemplo, no existirían moléculas si no existieran átomos, no habría seres vivos vertebrados y con cerebro desarrollado si no existieran macromoléculas orgánicas, y así. Hechas estas aclaraciones, se puede caracterizar el reduccionismo como la estrategia que supone que lo que ocurre en los niveles 2 y 3 puede explicarse adecuadamente en términos, conceptos o teorías de algún nivel más bajo (1 y 1 o 2, respectivamente). Por ejemplo cuando se quieren explicar fenómenos biológicos a partir de sus componentes físico- químicos, o fenómenos sociales en términos biológicos. En una fórmula un tanto simplista pero ilustrativa: el “todo es igual a la suma de las partes”. Las discusiones técnicas acerca de los modos de considerar la reducción han sido complejas, aunque podrían señalarse tres formas principales: como traducción, como derivación y como explicación. La reducción como traducción, asociada al empirismo lógico4 y, principalmente a los aportes de Carnap (1928) y Neurath (1931) es, probablemente, el más fuerte intento de lograr la ciencia unificada. Una 4  El movimiento por la Unidad de la Ciencia fue muy potente. Organizó varios congresos internacionales (Praga, 1934; París, 1935 y 1937; Copenhague, 1936; Cambridge, Inglaterra, 1938; Cambridge, Massachusetts, 1939 y Chicago, 1941) y publicó durante años la International Encyclopedia of Unified Science.

67

Nullius in verba Site www.nulliusinverbasite.com teoría T se reduce a una teoría B cuando las afirmaciones de T han sido traducidas al lenguaje de B. El objetivo programático de la Concepcion Cientifica del Mundo (veáse Carnap et al, 1929) era lograr un lenguaje único, básico para todas las áreas de las ciencia, incluso para dar cuenta de los fenómenos psicológicos. Ese lenguaje sería el de la física, el único apropiado para la ciencia unificada. Dice Carnap: “(…) la ciencia es una unidad, todas las afirmaciones empíricas pueden expresarse en un solo idioma, todos los estados de cosas son de una clase y se conocen por el mismo método” (Carnap, 1934, p. 32). El romántico y monumental intento de lograr una traducción en lenguaje fisicalista apuntaba a que éste fuera: intersensual (es decir producto de la observación de varios sentidos), intersubjetivo (significaría lo mismo para cualquier persona que adoptara los mismos signos y reglas), y universal (que por su medio debía ser posible expresar cualquier enunciado, ya fuera de las ciencias de la naturaleza o de las humanas, y tanto si se trataba de enunciados protocolares -o enunciados empíricos- como de hipótesis científicas más elevadas). Aunque los intentos fisicalistas resultaron un fracaso en términos programáticos, pues la traducción solo pudo hacerse en algunos pocos casos5 sus ecos culturales no se acallaron y dieron lugar a otras formas de concebir la reducción. Hempel, por ejemplo la entendió en dos pasos: primero una traducción y luego una reducción de las leyes de la teoría a las de una teoría base por derivación (Hempel, 1966). Algo similar pero sin la necesidad de la traducción previa propone Nagel para quien la reducción opera cuando las leyes de una teoría se muestran como consecuencia lógica de los supuestos teóricos de una ciencia básica (Nagel, 1961). Su objetivo era acercarse al ideal

5  Véase Ayer (1959) y para una relectura de la importancia del empirismo lógico, véase Reisch (2005)

Scientia in verba Magazine 2619-2586

de “una teoría comprensiva que integre todos los dominios de la ciencia natural en términos de un conjunto común de principios”. La otra variante (reducción como explicación) está asociada a Kemeny y Oppenheim (1956) y básicamente sostiene que una teoría T se reduce a una teoría B cuando el conjunto de datos observacionales de T puede explicarse (según el modelo nomológico deductivo)6 también por B. Claramente, los diversos modos de pensar la reducción habilitan una forma diacrónica de reduccionismo: cualquier desarrollo científico bien confirmado se conservaría a lo largo de la historia de la ciencia, ya sea integrado por subsunción en las teorías posteriores, ya sea porque lo que afirma puede derivarse de ellas reductivamente. Este punto de vista se pone en cuestión sobre todo a partir del seminal trabajo de Kuhn (1969) y se comienza a poner el acento en los puntos de ruptura y discontinuidad de la ciencia. En los repetidos intentos de hacer un planteo exitoso de la reducción, el estatus atribuido a las ciencias sociales ha sido variado: desde algunas propuestas conminatorias de lograr una reducción fisicalista, hasta el reconocimiento de que se trata de una tarea imposible, pero cuyas consecuencias lejos de conducir al replanteo de los alcances de la racionalidad humana hacia otras formas que incluyeran una ciencias con especificidades, más bien consolidaron la creencia de que se trata de saberes de inferior calidad, certeza y objetividad7. 6  En la literatura epistemológica, el modelo nomológico deductivo es aquel que explica o predice hechos (la estructura lógica sería la misma para ambos casos) a partir de una ley o enunciado universal. 7  Considérense, por ejemplo, las clasificaciones más o menos difundidas, de ciencias “duras” –a veces se usa “exactas”- y “blandas” donde y por alguna razón no explicitada “duro” refiere a rigurosidad, formalidad y seriedad y resulta mejor que “blando”, asociado a la falta de esas tres condiciones. La habitual convivencia en las ciencias sociales de teorías diversas, e incluso incompatibles, es considerado como dato inequívoco de esa inferioridad.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

68

Scientia in verba subpage /revista-scientia-in-verbapdf/ Más allá de las formales sutilezas lógicas y epistemológicas, la historia de las ciencias es rica en ejemplos de reducciones de todo tipo. Veamos sólo algunos. Ha sido muy común pretender explicar fenómenos historio-sociales complejos en términos de causas simples; la marcha de la economía a partir de las conductas de los individuos; en las disputas acerca del origen y composición de la inteligencia humana resulta un caso paradigmático la idea del factor g de Spearman que la concebía como una cosa única y medible; durante el siglo XIX varias teorías científicas (craneometría, frenología, antropología criminal) pretendieron encontrar las causas de las desigualdades sociales, incluso la criminalidad, en características biológicas8. El siglo XIX fue prolífico en metáforas científicas reduccionistas, como por ejemplo las sociologías organicistas que pretendían que la sociedad es un organismo: las células son los individuos, los tejidos y órganos son las distintas asociaciones a las que pertenecen las personas y, finalmente el cuerpo completo funcionando como un todo armónico es la sociedad. Y no se trataba de meras formas de hablar o de inocentes metáforas didácticas9, sino de verdaderas descripciones de la estructura y funcionamiento de las sociedades y propuestas políticas. En efecto, si la sociedad es un organismo, el conflicto social es categorizado, concebido y evaluado como “enfermedad”. Se concibe a las sociedades como armónicas y ordenadas salvo cuando reciben el ataque externo del agente patógeno. El ataque (conflicto) viene de afuera y no como resultado de injusticias propias del funcionamiento de la sociedad; en este contexto el agente atacante debe ser extirpado para preservar la armonía y la salud social. 8  Véase Gould (1981), Chorover (1979). 9  Sobre el problema de las metáforas en las ciencias véase: Palma (2016)

Palma, H. 62-87

© Nullius in verba site

También el siglo XIX fue testigo de la reducción de las químicas orgánicas e inorgánicas a una sola (aunque persistió tal división solo como cuestión organizativa). Asistimos en la actualidad a los intentos de las neurociencias por reducir los estados mentales a estados neuronales. En las últimas décadas se produjo una reducción de enorme éxito y repercusión con la biología molecular, que ha establecido cuál es la estructura química de los ácidos nucleicos, que desempeñan papeles centrales en algunos de los procesos biológicos más importantes, como la codificación y la transmisión de la información genética; también ha avanzado en el conocimiento de la secuenciación de muchas de esas macromoléculas (a través del desarrollo de los genomas de algunas especies) y en el análisis de los mecanismos moleculares que permiten la expresión de las reacciones químicas celulares que culminan en la síntesis de las proteínas. Como se habrá observado, en la lista precedente hay casos exitosos y de los otros. Algunos logros maravillosos de la razón humana, pero también simplificaciones que dejan de lado aspectos relevantes en la explicación de los fenómenos, e incluso reducciones que han sido funcionales ideológicamente a algunas de las más funestas alianzas entre ciencia y política. Es que, a pesar de que el calificativo “reduccionista” suele ser usado peyorativamente, el alcance, posibilidades y plausibilidad de los distintos tipos de reducción es un problema de ciencia empírica. Es un problema científico que no admite una resolución epistemológica general o a priori. El otro principio, opuesto al reduccionismo, es el emergentismo que, según una fórmula simplificada paralela a la anterior, supone que “el todo es más que la suma de las partes”. Según este punto de vista, cada nivel de organización del cuadro precedente

69

Nullius in verba Site www.nulliusinverbasite.com introduce verdaderas novedades con respecto al nivel inferior. Si fuera una cuestión ontológica habría que pensar que las múltiples y diferentes estructuras del universo entero constituyen una superposición de niveles y cada uno de ellos inauguraría fenómenos radicalmente nuevos, irreductibles a los anteriores. Dos ejemplos clásicos: conocer las características del hidrógeno y el oxígeno no bastaría, según el punto de vista emergentista, para dar cuenta de las características de un compuesto de ambos como el agua que, de hecho, reúne características que no tiene ninguno de sus componentes; del mismo modo que saber cuál es la composición fisicoquímica de los seres vivos y todas las propiedades y características de esos elementos no alcanzaría para conocer las particularidades que adquiere la materia cuando se configura de modo tal que compone un ser vivo. La crítica reduccionista más fuerte al emergentismo no radica tanto en negar la existencia de novedades en lo real, sino más bien en considerar que el estatuto de novedad sobreviene de la ignorancia actual. De modo tal que se reconoce que se trataría de un emergentismo gnoseológico que no sería más que una ilusión engañosa de nuestra insuficiente capacidad cognoscitiva: la emergencia no sería una propiedad de los objetos, estados o procesos, sino de los conceptos y leyes disponibles actualmente. En una apretada fórmula, según este modo de ver: si conociéramos todo lo que hay que conocer sobre algún fenómeno seríamos reduccionistas y abandonaríamos el emergentismo. En tal caso, las distintas perspectivas anotadas en nuestro ejemplo inicial, simplemente serían formas de economizar esfuerzos explicativos: es más sencillo explicar el funcionamiento de la Bolsa de Valores apelando a teorías económicas y sociológicas que esperar una explicación físico- química. En estos términos la discusión queda casi

Scientia in verba Magazine 2619-2586

empantanada y dado que nuestro interés aquí es otro, la dejaremos para otra oportunidad. Así como en la historia de las ciencias hay innumerables casos de reduccionismo, también los hay de antireduccionismo. Una de las formas típicas y más criticadas ha sido el vitalismo de primeras décadas del siglo XX. Los vitalistas, que se oponían a la reducción de la vida a fenómeno físico-químico o mecánico, defendían la existencia de un principio vital específico: entelechie o psychoid le llamaba Hans Driesch, o élan vital, le llamaba Henri Bergson. La objeción que se instaló contra estas posiciones es el carácter misterioso e inaccesible de estos principios vitales. Si bien esto es cierto, se debe reconocer que los vitalistas han sido denostados algo injustamente porque sus argumentos críticos con respecto a las limitaciones de las concepciones meramente mecanicistas de lo viviente eran impecables, aunque claro está, la segunda parte del planteo es la que generó el descrédito: nunca pudieron hallar esa cualidad misteriosa inexplicable que definiría lo vivo10. A ello hay que agregar la irrupción fuertemente prometedora de la genética y de la biología molecular como garantías futuras de reducción. Como quiera que sea, actualmente ya no hay vitalistas y la biología, como veremos, parece haber cortado el nudo gordiano de otro modo. Nuevas áreas de conocimiento como la ecología, así como los enfoques llamados holistas o sistémicos tienden a privilegiar posiciones emergentistas. En el origen de las ciencias sociales hay un giro emergentista, consistente en considerar, justamente, que los fenómenos sociales son emergentes con relación a los estados de los individuos particulares tomados aisladamente. Fenómenos como las relaciones sociales, culturales o económicas serían más que la suma de las psicologías individuales o los estados 10  Véase: Carnap et al (1929).

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

70

Scientia in verba subpage /revista-scientia-in-verbapdf/ neuronales de los cerebros de esos individuos. Como quiera que sea, ni el principio reduccionista ni el emergentista pueden aceptarse o descalificarse a priori y, por lo tanto, mucho menos elevarlos a práctica científica universal. Ambos pueden conducir a éxitos formidables de la razón humana, pero también a dejar sin explicación adecuada fenómenos multifacéticos (el primero) y a postular cualidades misteriosas inexistentes o a quedarse en meras especulaciones (el segundo). Las aspiraciones a la ciencia unificada y la reducción fisicalista de todas las áreas no pasaron, como ya se dijo, de ser apuestas programáticas con escasos resultados parciales11. Pero, a lo largo de la historia de las ciencias el reduccionismo se ha manifestado escalonadamente, de la física a la biología y de ésta a las ciencias sociales. En las secciones que siguen trataremos de mostrar algunos de estos intentos y, sobre todo, por qué están destinados al fracaso, al menos en el estado actual de nuestro conocimiento: básicamente porque nuestras explicaciones acerca de la biología son emergentes con relación a la física, y el conocimiento de lo social es emergente con relación a la biología.

4. Emergencia de los fenómenos biológicos o por qué la biología no puede reducirse a la física Un biólogo molecular paseaba relajadamente un domingo por el campo y se cruza con un pastor conduciendo su rebaño. Con ánimo de conversar un poco, y un poco soberbio, le dice al pastor: “Apostemos algo. Si le digo cuántas ovejas lleva usted ¿me regala una?” No sin sorprenderse el pastor acepta y el biólogo molecular en un instante y con 11  Suelen aparecer cada tanto nuevas propuestas en la misma línea aunque sin la meticulosidad del empirismo lógico. Véase: Wilson (1998); Brockman (1995).

Palma, H. 62-87

© Nullius in verba site

precisión dice el número exacto de ovejas. El biólogo, entonces, toma un animal y comienza a irse. Pero el pastor le pide una revancha: “Si adivino cuál es su profesión me devuelve el animal y me da el dinero que lleva encima”. Aceptado el desafío, el pastor asegura: “Usted es biólogo molecular”. Atónito el biólogo pregunta “¿cómo es que usted ha adivinado”. Socarronamente el pastor contesta: “es que se está llevando al perro”

En 1943 Ernst Schrödinger (uno de los fundadores de la física cuántica y premio Nobel de física en 1933) dictó unas conferencias en el Trinity College de Dublin bajo el título ¿Qué es el vida?, publicadas al año siguiente en un libro de título homónimo (Schrödinger, 1944) que representa el intento típico de reducción de la biología a la física, no casualmente por parte de un físico nacido y criado en Viena (cuna del movimiento que pugnó con más fuerza por la unidad de la ciencia), premiado por sus trabajos en el área a la cual, supuestamente, convergerían todas las otras luego de consumada la unificación. El objetivo era lograr una explicación fisicoquímica para los “fenómenos espacio-temporales que tienen lugar dentro de los límites espaciales de un organismo vivo”. Aceptado este punto de partida, asumía que ni la física ni la química conocidas podían hacerlo y, por lo tanto, había que repensar las teorías vigentes12. Pero Schrödinger estaba convencido de que esto era posible porque la estructura del mundo real así lo indicaría. Quizá, simplemente, la conclusión debería haber sido que ello no era posible porque algunos principios básicos de la física no pueden aplicarse a la biología y, viceversa, algunos principios básicos de la biología no son aplicables al mundo inanimado (véase Mayr, 2004; Rose, 1997); pero además y con más precisión, hay una enorme cantidad de procesos biológicos emergentes con relación a los

12  Véase en el texto de Murphy y O´Neil (1999) una serie de artículos escritos a propósito de los 50 años de la publicación del texto de Schrödinger

71

Nullius in verba Site www.nulliusinverbasite.com componentes fisicoquímicos. En primer lugar, la complejidad de los sistemas biológicos estructurados jerárquicamente (macromoléculas, genes, células, organismos pluricelulares, poblaciones, especies) con propiedades emergentes en cada nivel de organización e integración. La intrincada red de interacciones, causalidades cruzadas y nuevas configuraciones que surgen de las vinculaciones de las unidades más pequeñas con el resto, hacen que, si bien el análisis de las partes sea un componente importante, todo ello debe inscribirse en un abordaje holístico. En segundo lugar, los sistemas biológicos son abiertos y por eso no aplican allí (al menos parcial y momentáneamente) los principios de la entropía13 de la segunda ley de la termodinámica. Otro proceso específico que funciona en el mundo viviente y no en el inanimado es el de la evolución, en los términos planteados, a partir de 1859, por Charles Darwin en El Origen de las Especies, y sus transformaciones posteriores. La teoría darwiniana no sólo suplantó la idea esencialista o tipológica de especie 14 por una versión poblacional y estadística, sino que estableció la selección natural como principal -aunque no únicomecanismo evolutivo. Este sencillo mecanismo se basa en la variabilidad de la herencia, pero desacopla esos cambios o mutaciones al nivel individual del rigor selectivo del ambiente, introduciendo un elemento de azar sumamente importante. 13  Hay una discusión, ya saldada, que apuntaba a impugnar a la teoría de la evolución de Darwin en su totalidad porque la complejidad creciente de lo viviente incumpliría la segunda ley de la termodinámica. Pero los sistemas vivientes son abiertos, de modo que incorporan energía externa, trasladando temporalmente la entropía al entorno en el cual viven y del que forman parte. 14  Tradicionalmente se consideraba a los individuos distintos de cualquier especie como variaciones sobre un tipo o esencia común que definía su pertenencia a la misma. Importaba mucho menos la variación que lo común. Darwin inaugura una visión poblacional de las especies, es decir como grupos estadísticos o poblaciones en las cuales prevalecen ciertos rasgos por sobre otros, composición promedio que puede cambiar con el tiempo.

Scientia in verba Magazine 2619-2586

De hecho la extinción, en condiciones dramáticas de presión selectiva del ambiente, es parte de la evolución y de la selección natural. No es menor, entonces, que la teoría de la evolución no pueda predecir en qué forma evolucionarán las especies actuales y ello ha sido a veces considerado, por algunos cientificistas reduccionistas, como un demérito científico, sobre todo cuando se hacía la comparación con los éxitos predictivos de la física o la química. Al sumarse los desarrollos de la genética, queda claro que los seres vivientes están sometidos a una doble causalidad en contraposición con los procesos puramente físicos: por un lado una causalidad físico-química que tiene lugar en los procesos metabólicos y, por otro lado una causalidad derivada de los programas genéticos, presentes en todos los procesos del mundo viviente. Otra dualidad propia de la biología que se superpone en parte –y solo en parte- con la anterior da objeto a las dos grandes formas en que la disciplina se subdivide: la biología funcional y la biología histórica. La biología funcional se ocupa de la fisiología de los organismos vivos, en especial de los procesos celulares incluidos los del genoma. La otra rama es indispensable para explicar la totalidad de un mundo viviente que evoluciona. Mientras la primera utiliza un lenguaje fisicoquímico, la segunda se parece mucho más a un relato histórico. Pero lo que parecía una pacífica división de tareas se hace más sustancial con la irrupción de la llamada teoría EVODEVO15 que viene a trazar un puente entre la causalidad próxima (la fisiología y el desarrollo de los seres individuales) y la causalidad remota (la que da cuenta 15  Algunos consideran a la EVO-DEVO como una nueva síntesis de la biología aunque, al menos por ahora, eso parece algo desmedido. La integración de esta nueva perspectiva no es sencilla ni fácil, toda vez que algunos de los conceptos e ideas surgido en la biología del desarrollo parecen ser, cuando menos, no del todo compatibles con la ortodoxia neodarwiniana.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

72

Scientia in verba subpage /revista-scientia-in-verbapdf/ de la existencia de determinadas especies en un momento determinado). Queda pendiente averiguar si la vida es un fenómeno completamente provinciano en el Universo, es decir si solo existe en el planeta Tierra –cosa bastante improbable- y, sobre todo, si la vida en otras partes, si la hubiera, funciona de modo similar al que conocemos. En resumen, lo seres vivos presentan características completamente ausentes en el mundo inanimado: reproducción, metabolismo, replicación, regulación, crecimiento adaptación, evolución y organización jerárquica, procesos de autoregulación.

5. Emergencia de los fenómenos sociales o por qué las ciencias sociales no pueden reducirse a la biología Tenemos memoria, tenemos amigos, Tenemos los trenes, la risa, los bares, Tenemos la duda y la fe (…) Tenemos urgencias, amores que matan, Tenemos silencio, tabaco, razones, Tenemos Venecia, tenemos Manhattan, Tenemos cenizas de revoluciones (…) Tenemos poetas, colgados, canallas, Quijotes y Sanchos, Babel y Sodoma, Abuelos que siempre ganaban batallas (…) (Joaquín Sabina)

No ha habido –hasta ahora al menosintentos por explicar la conducta humana y el funcionamiento de las sociedades en términos de movimiento de protones, bosones de Higgs, electrones, etc. y, en ese sentido la apuesta maximalista del fisicalismo queda tan solo como una suerte de idea regulativa. Sin embargo, como ya se dijo antes, buena parte de la historia de la biología (y ciencias biomédicas para ser más exactos) de los últimos dos siglos consiste en intentos de dar cuenta de fenómenos sociales en términos biológicos, sin contar con las metáforas biológicas utilizadas en ciencias sociales (por ejemplo las

Palma, H. 62-87

© Nullius in verba site

sociologías organicistas). Pasamos así, del determinismo fisicalista de la sección anterior a los determinismos biológicos de la conducta y organizaciones humanas. Es menester señalar que este giro reduccionista tiene consecuencias no solamente teóricas, sino también –y quizá fundamentalmente- políticas e ideológicas; después de todo se trata de lo específicamente humano. El determinismo biológico no es una teoría científica sino más bien un grupo relativamente heterogéneo de teorías que suponen una relación causal directa desde lo biológico humano a lo social. Más específicamente, en palabras de Gould (1981), consiste en afirmar que tanto las normas de conducta compartidas, pero sobre todo las diferencias sociales y económicas que existen entre los grupos humanos (básicamente raza, clase y sexo) derivan de ciertas condiciones heredadas o innatas (la naturaleza biológica humana), y que, en este sentido, la estructura y relaciones sociales no hacen más que reflejar esas condiciones biológicas. Comienzan a proliferar estas teorías hacia fines del XVIII o principios del XIX según un giro muy particular consistente en legitimar la desigualdad16 de hecho, a partir de la diversidad biológica; es decir superponiendo lo que es un problema político (la desigualdad)

16  Es sabido que una de las notas centrales de la Modernidad (y del modo capitalista) consiste en considerar a los individuos como seres iguales que venden su fuerza de trabajo en el mercado, a diferencia de los modos esclavista y feudal. El modo moderno de concebir la constitución de la sociedad y de la soberanía a través de la figura del “contrato social” presupone la igualdad, racionalidad y libertad de los contratantes: solo hay un verdadero pacto entre individuos iguales, que saben y calculan lo que hacen y que además eligen hacerlo. En ese sentido, la llamada Revolución Gloriosa en Inglaterra (1688) y, sobre todo la Revolución Francesa (1789) sostienen la igualdad como bandera de la potente burguesía que reclama un papel central en la política. Hacia fines del siglo XVIII y principios del XIX, el pensamiento moderno ya había incorporado y aceptado la igualdad, obviamente una igualdad formal. Entonces, la desigualdad de hecho comienza a justificarse, no ya en sede filosófica, sino a través de la diversidad biológica: hay seres superiores e inferiores y eso se justifica y se detecta a través de las ciencias.

73

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

con una cuestión biológica (la diversidad). El gran cambio que se da por esos tiempos es que la ciencia biológica comienza a dar cuenta de las escalas jerárquicas 17 humanas de inferiores y superiores. En el contexto de un marco racista generalizado y unánimemente aceptado, también se consideraba inferior –en distinto grado y por distintas causasa mujeres, delincuentes, alcohólicos, prostitutas, anarquistas, epilépticos, exconvictos, gitanos, judíos, y otros. Veamos algunos ejemplos. Hacia principios del XIX, se discutía el origen de la Humanidad como causa de las diferencias entre los hombres. Los monogenistas respetando literalmente el relato bíblico de la creación de Adán y Eva, sostenían el origen único de la especie humana, y justificaban las diferencias existentes en que la degeneración que se produjo luego de la caída del paraíso no fue pareja para todos. El otro grupo, los poligenistas, sostenían que las razas humanas eran grupos biológicos diferentes que procedían de distinto origen y “como los negros constituían otra forma de vida, no era necesario que participasen de la „igualdad del hombre” (Gould, 1981, p. 23). Por esa época surge la frenología que intentaba detectar las zonas del cerebro en las que se encontraban localizadas con cierta precisión las distintas funciones, y cuyo desarrollo ocasionaba la hipertrofia de esas zonas con el consiguiente abultamiento del cráneo que les recubría. De modo tal que una buena lectura de ese mapa craneano, palpando y analizando las protuberancias, informaba sobre las cualidades morales e intelectuales innatas de los individuos. Hacia las primeras décadas del s. XIX la craneometría fue agregando distintas mediciones del cráneo y el cerebro bajo el supuesto de que el tamaño y el peso de éste, el índice creaneano o el ángulo facial

eran indicadores inequívocos del nivel de inteligencia y por tanto, de jerarquías humanas. En la práctica funcionaba como suerte de profecía autocumplida sobre aquello de lo cual todos estaban convencidos; decía el reputado médico francés Paul Broca:

17  Todorov (1989) utiliza el término “racialismo” para diferenciar la legitimación científica de la antigua convicción acerca de las jerarquías raciales.

18  Véase: Kevles (1995); Stepan (1991); Palma (2004); Miranda y Vallejo (2005, 2008), Vallejo y Miranda (2007, 2010).

“En general, el cerebro es más grande en los adultos que en los ancianos, en los hombres que en las mujeres, en los hombres eminentes que en los de talento mediocre, en las razas superiores que en las razas inferiores (…) A igualdad de condiciones, existe una relación significativa entre el desarrollo de la inteligencia y el volumen del cerebro.” (Citado en Gould, 1981:58)

En el cambio de siglo, el médico italiano Ezechia M. Lombroso (más conocido como Cesare Lombroso) publicaba su teoría del criminal nato que, según decía, explicaba aproximadamente la mitad de los crímenes que se cometían. Algunos individuos portaban, en lo profundo de su personalidad, el estigma de la criminalidad como un rasgo atávico que afloraba y los compelía a delinquir; asimismo una serie de rasgos corporales visibles eran signos inequívocos y reveladores de esa condición. Con el correr de las décadas otras versiones deterministas de la criminalidad apelaban a otras condiciones biológicas como por ejemplo el sistema endócrino. El movimiento eugenésico18 de la primera mitad del siglo XX, que se extendió a casi todo el mundo, también mantenía una visión determinista y hereditarista de las características humanas. Intentaba resolver los problemas sociales (la decadencia de la raza/especie, la criminalidad, la deficiencia mental, el delito, la pobreza, etc.) estableciendo un control de la reproducción a través de tecnologías biomédicas. Se trataba de promover la reproducción de los superiores y minimizar la reproducción de los inferiores (Palma, 2005) con el

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

74

Scientia in verba subpage /revista-scientia-in-verbapdf/ objetivo de mejorar la composición promedio de la población. La moderna sociobiología19 humana intenta encontrar las bases biológicas –genéticas- de la conducta humana. Hay versiones que sostienen que las conductas humanas son flexibles y que surgen de la interacción de genes, pero también hay versiones mucho más duras, que dejan poco margen para un repertorio amplio de conductas y que pronostican el hallazgo futuro de genes asociados deterministamente a conductas concretas: el gen de la infidelidad, de la homosexualidad, los celos, la criminalidad, etc. Más allá de algunos éxitos parciales loables, también una buena parte de la psicología evolucionista, apoyándose en una versión hiperseleccionista y adaptacionista de la teoría de la evolución, pretende encontrar en ventajas adaptativas en un pasado remoto el origen ancestral de conductas humanas elaboradas y complejas. Vale la pena aquí un par de digresiones. La primera referida a que tradicionalmente la Humanidad se ha considerado a sí misma como diferente (y superior) al resto de los seres vivientes, aunque compartiendo con ellos las características materiales biológicas básicas, consideración que impregnó la filosofía y las religiones desde la antigüedad. El sentido de la vida humana estaba dado por esa discontinuidad (para el cristianismo su “imagen y semejanza” con el creador). Pero en el siglo XIX, teoría darwiniana de la evolución mediante, se ubica el origen de la humanidad en el devenir natural a partir de ancestros no humanos, de modo tal que impulsa un núcleo inequívoca pero, sobre todo, adecuadamente zoocéntrico. El hombre pasó a formar parte del sistema de lo viviente sin ningún privilegio biológico porque los principios generales de la especie humana coinciden con el resto del mundo viviente. Sin embargo, este 19  Véase el trabajo inicial de Wilson (1975) y, para un análisis crítico de la sociobiología: Ruse (1980).

Palma, H. 62-87

© Nullius in verba site

razonable zoocentrismo puede pasar de lo que en un principio resultó un gran avance del conocimiento y la cultura humana (el hombre es un animal más) a la exageración de pensar que el hombre es “tan sólo” un animal más y que las mismas explicaciones valen tanto para las conductas animales más simples e instintivas, como para los elaborados rituales conductuales humanos. La continuidad entre animales y humanos, perfectamente probada en las ciencias biológicas, no debe hacer perder de vista que también hay profundas discontinuidades que no radican, que quede absolutamente claro, en ninguna naturaleza especial ni sagrada, sino que son el resultado de la evolución, pero cuyas consecuencias supervienen o emergen de su origen evolutivo. Muchos estudios muestran claramente que hay solo una diferencia de grado entre algunas de las características humanas y sus equivalentes en otras especies, sobre todo de otros mamíferos en general y primates en particular. Pero algunos rasgos de la evolución humana consiguen independizar, en algún sentido relativo pero relevante, los procesos sociales de su origen biológico. Volveremos luego sobre esto. La segunda digresión, referida a que el reduccionismo en biología no solamente tiene consecuencias teóricas en el sentido de complicar o impedir la comprensión de procesos complejos en toda su dimensión. También tiene consecuencias prácticas o políticas. En primer lugar traslada la clave de comprensión de complejos problemas sociales a la esfera individual. La pobreza, la exclusión social, la creciente diferencia entre los sectores más ricos y los más pobres, la indolencia y la marginalidad frente a la falta de futuro, el individualismo extremo o la violencia, serían, entonces, el resultado de procesos que se dan al interior de los individuos. Claro que, al mismo tiempo, se los responsabiliza de la mala fortuna

75

Nullius in verba Site www.nulliusinverbasite.com de haber nacido con esa configuración biológica20 porque esas consideraciones sobre el origen de los males cumple una función ideológica: legitimar las diferencias sociales. En segundo lugar, entonces, no valdría la pena invertir fondos públicos o privados en mejorar la calidad y las expectativas de vida de los sectores más vulnerables de la población, en la atención de coyunturas sociales especiales y, mucho menos, en el reconocimiento de que la calidad de vida es un derecho. Esos fondos se pueden ahorrar (de paso se puede alivianar la carga impositiva a sectores más poderosos) y en cambio se puede invertir (muchísimo menos) en estudios sobre biología molecular y, ahora, en neurociencias21. Como contraparte, es menester reconocer que hay una tendencia que puede observarse en muchos científicos sociales consistente en creer que la impugnación de algunos determinismos biológicos burdos y caricaturescos, alcanza para impugnar cualquier nivel explicativo de la biología en la conducta de los humanos. Esta creencia suele completarse con la tesis (a veces tan burda y endeble como los determinismos burdos de signo contrario) según la cual todo condicionamiento es social y por tanto reversible dado que el ser humano sería infinitamente maleable. Lo cierto es que todos los seres vivos funcionan según un programa22 genético, es decir un 20  Son interesantes las discusiones de principios del siglo XX a partir de la idea de criminal nato, aquel que por su naturaleza biológica resulta compelido a delinquir. Como esta idea derivaba, de algún modo, en la ausencia de responsabilidad del criminal sobre sus actos, la justificación de las penas comenzó a justificarse como una estrategia de la “defensa social”. 21  No se incluye aquí la explosión editorial de textos que podrían calificarse como de “neuroayuda”: una mezcla que incluye un poco de neurociencia vulgarizada y muchos consejos prácticos para sobrevivir en una sociedad hostil, pero desde una actitud exacerbadamente individualista, acomodaticia y complaciente, que presupone sin cuestionar una globalización neoliberal brutal y definitiva. 22  Sobre la noción de “programa” véase: Jacob (1970) y Monod (1970).

Scientia in verba Magazine 2619-2586

conjunto de instrucciones o información codificada en el ADN de las células. Pero el nivel de determinación es variable: hay programas que determinan instrucciones completas (como por ejemplo los que controlan la conducta instintiva de los insectos y de los invertebrados inferiores); pero hay otros incompletos, es decir que pueden incorporar información externa mediante aprendizaje u otras experiencias anteriores. Ese es el nivel de la mayoría de las conductas de los humanos -y otros animales, no importa eso aquí- que sobre una gama de patrones de respuestas posibles pero limitadas, permiten opciones diferentes; en estos casos queda claro que el programa no dispara en los organismos el despliegue de acciones y conductas preformadas completamente, sino un proceso que se reajusta en función de las continuas perturbaciones internas y externas (Mayr, 2004). Más allá de los intentos mencionados y de no poder hacer predicciones serias sobre el futuro de las ciencias, vale la pena repasar algunas características por las cuales nuestras descripciones y explicaciones de los procesos sociales emergen de los procesos meramente biológicos o psicológicos individuales y requieren métodos, expedientes probatorios y registros explicativos propios y diferentes. Si bien hay constricciones genéticas –también físicas y químicas- que limitan la variabilidad de las conductas humanas posibles, el repertorio es muy amplio. Esto puede verse no solamente en las dispares reacciones individuales ante situaciones similares sino también en la enorme diversidad de culturas actuales e históricas, variabilidad que alcanza desde los procesos sociales y cotidianos más básicos hasta los más elaborados y generales. Los intentos por establecer leyes – en el mismo sentido que las leyes físicas o químicas- en la historia humana han fracasado aunque

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

76

Scientia in verba subpage /revista-scientia-in-verbapdf/ se pueda contar con tibios éxitos en la búsqueda de rasgos universales que definan lo humano, como la prohibición del incesto. Pero incluso en este caso las manifestaciones culturales concretas difieren fuertemente en cuanto al tipo de prohibición. Las formas de organización familiar van desde unos pocos individuos hasta varias decenas, lo mismo que las organizaciones más amplias, los rituales, la comunicación, el poder, la educación de las nuevas generaciones, las religiones, las idiosincrasias, las formas de producir, intercambiar y consumir bienes, etc. Por eso los repetidos intentos por capturar aquello que define lo humano – la naturaleza o esencia humana- a lo largo de los siglos han fracasado: el animal racional se derrumbó con Freud; el zoon politikon de Aristóteles se desligó de la cosa pública en la Modernidad y se dedicó a sus asuntos privados; la imagen y semejanza del cristianismo quedó descartada- no sin enconadas luchas que en algunos medios aún persisten- con la revolución darwiniana; la ficcional igualdad natural de los iusnaturalistas de los siglos XVII y XVIII no pudo dirimir, finalmente, si los hombres eran malos como pensaba Hobbes, buenos y pacíficos como creía Locke o amorales como especulaba Rousseau, por poner solo algunos ejemplos provenientes de la filosofía. Es discutible –y se ha discutido- si lo dicho precedentemente nos habilita para introducir un panegírico sobre la libertad humana (véase por ejemplo Rose, 1997). Quizá, después de todo, sólo seamos sistemas biológicos de respuestas múltiples y variadas pero, al cabo, acotadas y predecibles. Veamos si no, la enorme capacidad que tienen los medios de comunicación actuales para instalar agendas de discusión e incidir en el pensamiento y las elecciones políticas o de consumo de los ciudadanos y que muestra qué tan parecidas pueden ser las conductas masificadas de los humanos.

Palma, H. 62-87

© Nullius in verba site

Analizar esto excede los objetivos de estas páginas, pero aun si el caso fuera esta modesta y angustiante libertad condicionada, sería suficiente para mostrar que los intentos reduccionistas no pueden dar cuenta de los procesos sociales complejos. Tampoco hay que olvidar que las conductas humanas (al menos las más significativas y relevantes) son intencionales, obedecen a propósitos, intereses y valores imposibles de explicar en otros niveles. De hecho buena parte de las ciencias sociales se basa en la captación de estas conductas intencionales mediante cierta empatía específica que permite comprenderlas. En la misma línea, otra característica que no se encuentra ni en los sistemas físicos ni en los sistemas meramente biológicos es el rol fundamental de lo simbólico y, sobre todo del lenguaje, en las agrupaciones humanas. Aunque pueda argumentarse que la comunicación (no verbal) es una característica que se encuentra en otras especies animales y que la diferencia con el homo sapiens es de grado, la diferencia que hace el lenguaje abstracto y conceptual es fundamental. Las instituciones humanas no solamente son creaciones humanas y constituyen una ontología superpuesta a lo natural, sino que funcionan según pautas sociales (modificables, eliminables, exitosas, inútiles y diversas) que a su vez también son constituyentes y constitutivas de la subjetividad de esos mismos humanos que las crean y los que los suceden. Las religiones, el derecho, las pautas de convivencia, las costumbres, la educación y la cultura en general funcionan así. De modo que lo que surge de esas vinculaciones va más allá de los sustratos físicos, las biologías e incluso las psicologías de los individuos particulares para constituir verdaderos sistemas emergentes. Quizá valga la pena insistir en algo obvio: no es que los humanos y sus

77

Nullius in verba Site www.nulliusinverbasite.com productos no se rijan o no estén sujetos a las legalidades física, biológicas o psicológicas, sino que simplemente esas perspectivas son o bien insuficientes o bien irrelevantes (o en el mejor de los casos subsidiarias o complementarias) para dar cuenta de lo social. Un elemento no siempre tenido en cuenta para marcar las especificidades de lo social es el rango temporal en que transcurre. En el universo físico se describen fenómenos que ocurren en tiempos mínimos (millonésimas partes de un segundo, o incluso menos) por ejemplo en la física cuántica, pero también fenómenos que ocurren en tiempos increíblemente largos como miles de millones de años cuando se trata de las formaciones planetarias o el tiempo del Universo. En el mundo biológico también hay un rango temporal variable y amplio pero no tanto. La biología del desarrollo ontogenético, por ejemplo, puede ir desde algunas horas hasta 100 o 120 años en algunos animales y varios cientos en algunas pocas especies vegetales. Pero es muy diferente cuantitativa y cualitativamente el tiempo evolutivo que funciona en cientos de miles o millones de años. La especiación, la extinción, la aparición de nuevos grupos o familias de seres vivientes ocurre en lapsos extensos: el “tiempo profundo”. Este concepto inicialmente usado para la comprensión del tiempo geológico (sobre todo a partir de Hutton y Lyell, en el siglo XIX), es también el tiempo que va desde el origen de la vida en la Tierra (hace unos 3500 millones de años) hasta hoy23. Pero las ciencias sociales explican procesos que, a lo sumo, pueden darse en unos pocos miles de años (como los históricos o antropológicos de largo 23  Gould (1987) señala con acierto que cuando Freud enumeró las teorías que provocaron las tres heridas narcisistas a la Humanidad (la de Copérnico, la de “Darwin-Wallace” e, inmodestamente, la que él mismo creyó introducir) olvidó la del tiempo profundo que ubica a toda la historia de la Humanidad en una insignificante fracción de los últimos cien mil o doscientos mil años.

Scientia in verba Magazine 2619-2586

plazo), pero en general lo hacen de aquellos que no van más allá de algunas décadas o cientos de años. Vale decir, por un lado y lo más obvio, que una enorme cantidad de procesos son irrelevantes para las ciencias sociales y, por otro lado, los procesos sociales son independientes en sus rangos temporales a los físicos y biológicos. Por ejemplo los acelerados y notorios cambios culturales, económicos y sociales tienen como protagonistas a humanos que no difieren biológicamente en nada de sus ancestros de hace muchos miles de años, aunque las diferencias culturales y sociales sean profundas. Para finalizar esta sección deberíamos retomar algo que adelantamos un poco más arriba, sobre algunos reduccionismos atípicos o inversos, que toman la impugnación de los reduccionismos biológicos y fisicalistas como una legitimación de la tesis, según la cual, no tendrían mayor relevancia los puntos de vista biológicos y fisicoquímicos porque los seres humanos serían, como decíamos, casi infinitamente maleables y solo cuentan las influencias y determinaciones de la cultura y la sociedad. Resuelven la vieja (y ya demodé) discusión decimonónica entre natura-nurtura simplemente eliminando uno de los polos y reforzando que “todo es social” o, dicho con más propiedad, que todo lo que rodea a los humanos es una construcción social. En esta especie de batalla por demarcar lugares de soberanía explicativa, por ejemplo, los teóricos de las ciencias de la educación no dialogan con las neurociencias cognitivas; los antropólogos intentan mostrar que la imponente variabilidad de las culturas humanas es signo inequívoco de que la biología puede decir muy poco al respecto, etc. Hay un elemento inherente a la categoría “construcción social”: nunca se usa para calificar cosas tales como los códigos jurídicos, el uso del dinero, el matrimonio civil, las formas de

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

78

Scientia in verba subpage /revista-scientia-in-verbapdf/ gobierno, las costumbres familiares, etc. porque resulta una obviedad que se trata, justamente, de una construcción social. En cambio sí se usa con un sentido impugnatorio, es decir para rebelarse contra creencias instaladas y naturalizadas, por ejemplo en los estudios sobre género (como diferente del sexo biológico). Incluso hay estudios acerca del carácter social de la maternidad, en oposición a las creencias tradicionales sobre el rol de la mujer y su fundamento biológico (véase Hacking, 1998). Hay un caso particularmente interesante del uso (y abuso) de la categoría de “construcción social” en las últimas décadas del siglo XX con las llamadas “sociologías del conocimiento científico”, para diferenciarse de la tradicional sociología de la ciencia y de la epistemología estándar de la tradición anglosajona heredera (con algunas herejías) del empirismo lógico. Mientras que la sociología tradicional (Merton, 1973) se ocupaba sólo del funcionamiento de las comunidades de científicos, estos nuevos puntos de vista relativistas, posmodernistas, e incluso irracionalistas, piden la palabra acerca de la determinación social de los contenidos de las ciencias, es decir de las teorías. Resultó fundamental el strong programme, desarrollado a mediados de los 70 en la Science Studies Unit de Edimburgo, fundamentalmente por Bloor (1971) y Barnes (1985), quienes consideraron que el conocimiento científico está determinado socialmente, porque la actividad científica y el conocimiento resultante son productos del trabajo de los individuos en el seno de una comunidad científica, con su propia estructura, organización y relaciones internas; y porque la actividad científica se encuentra profesionalizada, por lo cual los factores macrosociales externos influyen en la forma y el funcionamiento de la comunidad. A partir de allí, rápidamente surgen

Palma, H. 62-87

© Nullius in verba site

nuevas líneas de estudio como, por ejemplo, los programas relativista y constructivista, los estudios etnometodológicos aplicados a las comunidades científicas24 y la retórica de la ciencia25 que, básicamente, sostiene la posibilidad (y la necesidad) de analizar los escritos científicos a través de las categorías usadas en el análisis literario y del discurso y la retórica, bajo el supuesto de que el objetivo primordial de científicos es persuadir a los pares. Estas posturas tienen algunos inconvenientes, principalmente dos. En primer lugar, no es que sus estudios sobre los determinantes sociales en la ciencia sean inadecuados o falsos sino que toman la parte por el todo, descuidando – o al menos sin poder explicar adecuadamente- el problema epistemológico de la relación cienciarealidad. En segundo lugar, al asimilar la práctica científica a otras prácticas culturales –lo cual es perfectamente razonable e interesante- pierden de vista lo que las ciencias tienen de específico, de cierta autonomía que surge de su propia práctica y de sus objetivos (véase Palma, 2008, 2016).

6. De las disciplinas a los problemas: los estudios inter, multi y transdisciplinarios “(…) Cuando se proclamó que la Biblioteca abarcaba todos los libros, la primera impresión fue de extravagante felicidad. Todos los hombres se sintieron señores de un tesoro intacto y secreto (…) A la desaforada esperanza, sucedió, como es natural, una depresión excesiva. La certidumbre de que algún anaquel en algún hexágono encerraba libros preciosos y de que esos libros preciosos eran inaccesibles, pareció casi intolerable (…)” (J. L. Borges, La biblioteca de Babel) 24  Véase: Bloor, 1971; Latour, 1987; Woolgar, 1988; Latour y Woolgar, 1979. 25  Véase: Locke, 1992; De Coorebyter, 1994; Bauer, 1992; Gross, 1990.

79

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com Cuatro características definen, a grandes rasgos, la organización y el estado del conocimiento científico en la actualidad. En primer lugar la disciplinariedad por objetos: más allá de la variedad de clasificaciones que se han intentado para abarcar el conjunto del conocimiento humano a lo largo de los siglos, las mismas se basan, fundamentalmente, en los distintos tipos de objetos estudiados. Ello también puede percibirse en la administración y organización académica de los estudios, en las publicaciones especializadas y libros de texto, en la evaluación de subsidios y premios a través de pares evaluadores, etc. Este tipo de organización puede encontrar una justificación fundamental en que el análisis, es decir la separación en unidades cada vez más pequeñas parece ser una de las formas típicas en que los humanos podemos comprender mejor el mundo múltiple que nos rodea. También puede comportar una utilidad instrumental o práctica, por ejemplo cuando se separa entre química orgánica y química inorgánica aunque ningún químico piense en estos tiempos que obedecen a reglas diferentes, como se creyó originalmente. Pero también esta forma de división ha terminado, de alguna manera, ontologizándose, hipostasiándose, es decir compartimentando la realidad según las disciplinas que la estudian. En segundo lugar, hay un crecimiento exponencial del volumen de la información y conocimiento disponibles. Suele decirse que hay más científicos vivos que la suma total de científicos que hubo en toda la historia de la Humanidad y ello contribuye a generar un enorme volumen de información genuina y de la que deriva de la compulsión a publicar a que están sometidos los científicos para validar sus carreras personales. En tercer lugar, hay una tendencia, también creciente, a la especialización y aun a la ultraespecialización, llegando a

Magazine 2619-2586

niveles increíbles: biólogos moleculares que dedican años a investigar sobre una sola molécula; médicos especialistas en partes cada vez más pequeñas de nuestros cuerpos, etc. Finalmente, la inconmensurabilidad parcial entre áreas disciplinares derivada de los distintos tipos de formación académica, las perspectivas y métodos o enfoques diferentes, la diversidad del lenguaje, arsenal conceptual y marcos teóricos utilizados. Claramente, estas características se relacionan y retroalimentan. La tercera resulta de la exacerbación de la primera, pero también deriva en parte de la segunda, en la medida en que es imposible para cualquier persona manejar el conocimiento disponible como lo era en otras épocas. La cuarta deriva solo en parte de las anteriores y es la causa de una dificultad comunicacional y conceptual severa consistente en que el parcelamiento de los saberes no se resuelve volviendo a sumar lo que se ha dividido, porque, justamente hay una inconmensurabilidad fundacional derivada de que los científicos se forman académica, profesional y culturalmente a través de diferentes lenguajes, metáforas y registros discursivos; pero también en diferentes perspectivas de abordaje de la realidad, metodologías y formas de validar, describir y aceptar “verdades”. También difieren, y no es menor, los rituales de ingreso, egreso, reputación y desprestigio entre las diversas comunidades disciplinares. Está claro que esto no impide la comunicación en un sentido definitivo e irresoluble. De hecho siempre se puede (emulando al antropólogo de Quine26) ir desde una incomprensión inicial a la construcción de un lenguaje de acercamiento o complementario, pero eso no solo es muy dificultoso, sino que seguramente deja residuos de incomprensión o incomunicación manifiesta. 26  Véase Quine (1960, 1970)

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

80

Scientia in verba subpage /revista-scientia-in-verbapdf/ Estas dificultades que surgen del parcelamiento de los saberes, nada novedosas por cierto, han dado lugar a propuestas de superación que, trascendiendo la disciplinariedad, deben enfrentarse a la inconmensurabilidad con mayor o menor capacidad de superarla. Estos nuevos enfoques han recibido distintos nombres e, incluso, bajo la misma denominación se trata de propuestas diferentes. No interesa aquí hacer una elucidación detallada sobre las discusiones al respecto, sino remarcar al menos tres niveles de integración o superación diferenciados: enfoques multidisciplinarios, interdisciplinarios y transdisciplinarios. Los tres tienen en común que ponen el acento sobre un problema a resolver y no en los enfoques disciplinares especializados. La multidisciplinariedad resulta de la mera suma de perspectivas diferentes sobre un mismo problema determinado y, en este sentido, constituiría el nivel más bajo de integración. Son los equipos más fáciles de armar porque se trata de una mera adición, en los que sólo hay circulación de información consolidada disciplinarmente y en los cuales las decisiones teóricas y prácticas no suelen contemplar todas las posiciones. Es bastante común encontrar equipos de trabajo multidisciplinarios en el área de la salud, en algunos grandes proyectos ingenieriles, desarrollos urbanos, etc. Las propuestas interdisciplinarias son más comprometidas en cuanto a la integración de saberes porque pretenden ser más que la mera sumatoria de posiciones individuales. Como quiera que sea es necesario hacer algunas aclaraciones. En primer lugar, el movimiento de síntesis de dos o más especialidades es inverso al movimiento de separación y compartimentación anterior, de modo que tanto más fuerte será la síntesis cuanto más fuerte haya sido la división. Consecuentemente, el grado

Palma, H. 62-87

© Nullius in verba site

de interdisciplinariedad no resulta de un punto de vista ontológico, sino más bien del estado administrativo de la organización académica. De modo que, en algún sentido, todas las investigaciones son interdisciplinarias. En segundo lugar, el grado de inconmensurabilidad será directamente proporcional a las diferencias de las disciplinas o especialidades integradas. Por ejemplo, no hay mucha dificultad en integrar biología y química, pero sí las hay al pretender hacer lo propio entre sociología y biología. Por eso es esperable que el éxito de la interdisciplinariedad (me refiero al éxito en la integración y no a la investigación en sí misma) sea mayor o más consolidado en áreas disciplinarias más afines temáticamente pero sobre todo de enfoques, lenguajes y estilos similares. Ejemplos: bioinformática, bioquímica, estudios latinoamericanos, psicología evolucionista, inteligencia artificial, geografía, oceanografía. En las últimas décadas ha habido propuestas más ambiciosas, que se hicieron eco de la iniciativa seminal de Jean Piaget de la década del „70, y que suelen autodenominarse “transdisciplinarias”. La literatura al respecto es amplia (véase Gómez Gonzáles, 2016), pero simplificando algo excesivamente las cosas, puede decirse que, en la actualidad, hay dos formas principales de concebir la transdisciplinariedad. La primera, como un estilo integrado de investigación sobre núcleos problemáticos (Mittelstrass 2003) y más allá, obviamente, de sectores epistémicos delimitados en la tradición. La segunda como un principio para la unidad del conocimiento, posición que surge de una propuesta realizada por el Centro Internacional para la Investigación Transdisciplinar (CIRET, por sus siglas en inglés) en el Primer Congreso Mundial de Transdisciplinariedad, celebrado en Portugal en 1994. La comprensión del mundo actual, según

81

Nullius in verba Site www.nulliusinverbasite.com este punto de vista, implica la unidad del conocimiento global. Nicolescu (2002) explicita los tres postulados de la transdisciplinariedad: la existencia de niveles de realidad (se refiere la realidad cuántica y a la realidad macrofísica), la existencia de vinculaciones intermedias entre esos niveles y la complejidad. La transdisciplinariedad concierne a: “(…) lo que está a la vez entre las disciplinas, a través de las diferentes disciplinas y más allá de toda disciplina. Su finalidad es la comprehensión del mundo presente en el cual uno de los imperativos es la unidad del conocimiento.” (Nicolescu, 2002:35)

7. Final y prospectiva Este artículo tiene un final abierto. Está claro que la realidad es más matizada, plural e interconectada de lo que nuestras barreras disciplinares pueden soportar; ella, muchas veces, se nos escurre ante la mirada atónita de nuestras teorías. Quizá, después de todo, no podamos evitar la maldición de Procusto (aquel bandido que mencionábamos en nuestro epígrafe inicial y que asaltaba a los viajantes en la antigua Grecia). Así como él resolvía muy fácil los desajustes entre sus camas y sus secuestrados, en los últimos siglos las divisiones disciplinares y las ultra o microespecializaciones funcionaron cortando artificialmente lo que sobraba (y, por qué no, también rellenando artificialmente lo que faltaba). Pero también es cierto que, con esa impronta, el programa científico moderno ha producido éxitos maravillosos en la comprensión, aplicaciones prácticas y control del mundo, de modo que bien podría preguntarse ¿cuál es el problema, entonces? Es que las cosas han ido cambiando, la Humanidad se encuentra actualmente en una encrucijada inédita en la cual, como nunca, hay que tomar decisiones que afectarán a las futuras generaciones

Scientia in verba Magazine 2619-2586

de un modo dramático y, quizá, decisivo para la supervivencia de la especie: la degradación del medioambiente natural, la superpoblación, la desigualdad creciente (globalización y capitalismo financiero mediantes), los conflictos armados (capaces como nunca de llegar a la autodestrucción de la Humanidad). Frente a este desafío, los caminos que llevaron a la enorme capacidad científica y tecnológica actual parecen agotarse y la solución o, al menos, los paliativos para estos problemas requieren, como condición necesaria –aunque clara y definitivamente insuficiente si la política no acompaña- del conocimiento integrado y abarcativo de la multiplicidad de factores en juego. Son problemas complejos y múltiples que requieren las miradas (parceladas pero, al fin, integradas) de físicos, químicos, biólogos, sociólogos, economistas, historiadores, antropólogos, psicólogos, filósofos, artistas, etc. Pero para ello, y dejando de lado la dimensión política del asunto para otra oportunidad, se vislumbran al menos dos obstáculos enormes. En primer lugar, uno de los más grandes desafíos radica en cómo reorganizar la ciencia a futuro dado que, las carreras académicas (los planes de estudio de grado y posgrado de las universidades, las carreras de investigador, distribución de subsidios, la evaluación por pares), las publicaciones, los programas de política científica nacionales e internacionales y los edificios y laboratorios donde se investiga, están organizados según una óptica disciplinar más o menos rígida y definida. Cómo se podrá reorganizar todo esto para lograr científicos distintos, rompiendo con este estilo de fragmentación y especialización crecientes, un estilo que, por otra parte, no solamente tiene siglos de existencia, sino que tiende a profundizarse; que más allá de los déficits señalados, en una paradoja que parece llegar a su límite, tiene un grado de éxito más que aceptable;

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

82

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

y, quizá lo que es más importante, todas las carreras individuales, los sistemas de premiación, ascenso y adquisición de prestigio están perfectamente aceitados y consolidados de modo que todos conocen el juego y sus reglas. En segundo lugar, no es descabellado pensar que la fragmentación y el análisis, seguidos de una trabajosa y muchas veces fallida integración, quizá sea la única forma en que los humanos podemos generar y aumentar el conocimiento de la realidad, de modo que la integración sea solo una fantasía romántica, uno de esos ideales imposibles de alcanzar. Pero seguramente se trata de una tarea a la que no se puede renunciar como tantas otras tareas que la Humanidad viene ensayando, aunque fracase parcial y reiteradamente.

Palma, H. 62-87

83

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

© Nullius in verba site

Harré, R. (1970), The Principles of Scientific Thinking, London: Macmillan. Hempel, C.G. (1966), Philosophy of Natural Science, N. Jersey, Prentice Hall

Referencias

Ayer, A. (comp.) (1959), Logical Positivism, Glencoe, The Free Press. En castellano: El positivismo lógico, México, FCE (1965).

Hesse, M. (1966), Models and Analogies in Science, Notre Dame, University of Notre Dame Press. Jacob, F., (1970), La logique du vivant. Une histoire de l’heredité, París, Editions Gallimard. En castellano: La Lógica de lo viviente, Barcelona, Laia, 1977.

Barnes, B., (1985), “El problema del conocimiento”, en Olivé (comp.), 1985. Bauer, H.H. (1992), Scientific Literacy and the Myth of Scientific Method. Urbana, University of Illinois Press. Black, M., (1962), Models and metaphors, Ithaca, Cornell University Press. En castellano: Modelos y metáforas, Madrid, Tecnos, 1966. Bloor, D., (1971), Knowledge and Social Imaginary, David Bloor. En castellano: Conocimiento e imaginario social, Barcelona, Gedisa, 1998. Brockman, J. (1995), The Third Culture: Beyond the Scientific Revolution, Simon & Schuster. Carnap, R. (1934), The Unity of Science, Londres, Routledge and Kegan Paul. Carnap, R. et al (1929), Wissenschaftliche Weltauffassung. Der Wiener Kreis, Viena, A. Wolf Verlag. En castellano: “La Concepción Científica del mundo: el Círculo de Viena”, REDES, Vol.9, N° 18, PP. 103-149, Buenos Aires, Universidad Nacional de Quilmes (2002). Carnap, R., (1928), Der logische Aufbau der Welt, Berlín, Weltkreis. Chorover, S. L., (1979), From Génesis to genocide, N.Y., MIT. En castellano: Del génesis al genocidio, Bs. As., Editorial Orbis S.A, 1985. De Coorebyter, V. (ed) (1994), Rhetoriques de la Science, París, PUF. Gould, S. J., (1981), The Mismeasure of Man, N.Y., Norton. En castellano: La falsa medida del hombre, Bs. As., Editorial Orbis S.A., 1985. Gómez González, F.J. (2016), ¿El mito de la ciencia interdisciplinar? Obstáculos y propuestas de cooperación entre disciplinas, Madrid, Catarata. Gould, S., (1987), Time’s Arrow. Time’s Cycle. Myth and Metaphor in the Discovery of Geological Time, Cambridge; Harvard University Press. En castellano: La flecha del tiempo, Madrid, Alianza, 1992. Gross, A.G., (1990), The Rhetoric of Science, Cambridge, Harvard University Press. Hacking, I. (1998), ¿La construcción social de qué?, Buenos Aires, Paidos.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

Scientia in verba subpage /revista-scientia-in-verbapdf/

84

Kemeny. J. y Oppenheim, P. (1956), “On Reduction”, Philosophical Studies, 7, 6-19. Kevles, D. J., (1995), In the name of eugenics, Cambridge, Harvard University Press. Kuhn, T., (1969), The Structure of Scientific Revolutions, Chicago, University of Chicago Press (1° versión de 1962, 2° versión incluyendo el Postscriptum-1969, de 1970). En castellano: La estructura de las revoluciones científicas, México, FCE, 1992. Latour, B. y Woolgar, S., (1979), Laboratory Life: the Social Construction of Scientific Facts, Hollywood, Sage. En castellano: La Vida en el laboratorio, Madrid, Alianza, 1995. Latour, B., (1987), Science in Action, Cambridge, Harvard University Press. En castellano: Ciencia en acción, Barcelona, Labor, 1992. Locke, D., (1992), Science as Writing, Yale University. En castellano: La ciencia como escritura, Madrid, Fronesis, 1997. Mayr, E., (2004), What Makes Biologie Unique? Considerations on the Autonomy of a Scientifique Discipline, Cambridge, Press Syndicate of the Universitiy of Cambridge. En castellano: ¿Por qué es única la biologia? Consideraciones sobre la autonomia de una disciplina cientifica, Buenos Aires, Katz editores, 2006. Merton, R., (1973), The Sociology of Science, New York, Free Press. En castellano: La sociología de la ciencia, Madrid, Alianza, 1977. Miranda, M. y Vallejo, G. (comp.) (2005) Darwinismo social y eugenesia en el mundo latino, Buenos Aires/Madrid, Siglo XXI. Miranda, M. y Vallejo, G. (comp.) (2008) Políticas del cuerpo. Estrategias modernas de normalización del individuo y la sociedad, Buenos Aires/ Madrid, Siglo XXI. Mittelstrass, J.: Transdisziplinarität – institutionelle Wirklichkeit. 2003

Palma, H. 62-87

wissenschaftliche

Zukunft

und

85

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com

Magazine 2619-2586

Monod, J., (1970), Le Hasard et la nécessité, París, Ediciones du Seuil. En castellano: El azar y la necesidad, Barcelona, Tusquets, 1993. Moulines, U. (1982), Exploraciones metacientificas, Mardid, Alianza. Murphy, M. P. y O‟Neill L. A. J. (eds.). 1995, What´s life? The Next Fifty Years Speculations on the Future of Biology. En castellano: La Biología del Futuro. ¿Qué es la vida? Cincuenta años después. Tusquets Editores, Barcelona, 1999. Nagel, Ernest. 1961. The Structure of Science: Problems in the Logic of Scientific Explanation. New York: Harcourt, Brace, and World. Neurath, O. (1931), “Sociology and Physicalism” en Logical Positivism, New York: The Free Press.

A. J. Ayer, ed. (1959),

Nicolescu, B., (2002), “Manifesto of Transdisciplinarity”, State University of New York Press, New York, USA, http://www.ceuarkos.com/manifiesto.pdf

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Stepan, N. L., (1991), The hour of eugenics: race, gender and nation in Latin American, Ithaca, Cornell University Press. Todorov, T., (1989), Nous et les autres. La réflexion française sur la diversité humaine, Éditions du Seuil. En castellano: Nosotros y los otros, México, Siglo XXI, 1991. Vallejo, G. y Miranda, M. (2007), Políticas del cuerpo, Buenos Aires, Siglo XXI. Vallejo, G. y Miranda, M. (2010), Derivas de Darwin. Cultura y política en clave biológica, Buenos Aires, Siglo XXI. Wilson (1998), Consilience. The Unity of Knowledge, Nueva York, Alfred a Knopf Inc Wilson, Edward (1975), Sociobiology, the New Synthhesis, Cambridge, Belknap. En castellano: Sociobiología, la nueva síntesis, Barcelona, Omega, 1980 Woolgar, S., (1988), Science: the Very Idea, Londres, Tavistock. En castellano: Ciencia: abriendo la caja negra, Barcelona, Anthropos, 1993.

Olivé, L. (comp.), (1985), La explicación social del conocimiento, México, U.A.M. Palma, H. (2004), “Gobernar es seleccionar”. Historia y reflexiones sobre el mejoramiento genético en seres humanos, Bs. As., J. Baudino. Palma, H. (2008), Filosofía de las ciencias. Temas y problemas, San Martín, UNSAMedita. Palma, H. (2016), Ciencia y metáforas. Crítica de una razón incestuosa, Bs. As., Editorial Prometeo. Quine, W., (1960), World and Object, Cambridge, MIT Press. Quine, W.V.O., (1970), “On the reasons for the indeterminacy of translation”, Journal of philosophy, LXVII, 178-183 Reisch, G. (2005), How the Cold War transformed Philosophy of Science. To the Icy Shapes of Logic, New York, University of Cambridge. Rose, S. (1997), Lifelines. Biology, Freedom, Determinism, Nueva York, Penguin Books. En castellano: Trayectorias de vida. Biología, libertad determinismo, Barcelona, Granica, 2001. Ruse, M. (1980), Sociobiology: Sense or Nonsense?, Dordrecht, D. Reidel Publishing Company. En castellano: Sociobiología, Madrid, Cátedra, 1989. Schrödinger, E., (1944), What is the Life?. The Physical aspect ofthe living Cell, Cambridge, Cambridge University Press. En castellano: ¿Qué es la vida?, Madrid, Hyspamérica (1985).

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

86

Palma, H. 62-87

87

S

Héctor A. Palma

S

Héctor A. Palma es profesor en Filosofía (Universidad de Buenos Aires), Magister en Ciencia, Tecnología y Sociedad (Universidad Nacional de Quilmes) y Doctor en Ciencias Sociales y Humanidades (Universidad Nacional de Quilmes). Se dedica a temas de historia y filosofía de la biología, principalmente sobre evolucionismo, darwinismo y sus derivaciones, entre otros.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

88

“Sabemos que la labor de determinar qué criterios deben utilizarse para trazar la línea divisoria entre lo que se considera terapia y pseudoterapia es compleja. Por ello, lo que se reclama es sencillamente la creación de una comisión de trabajo en la que participen sociedades científicas y colegios profesionales, que siente las bases para que los Colegios Oficiales de Psicología puedan velar por que las actuaciones de los psicólogos se realicen de acuerdo con estos criterios, en vez de permitir que “todo valga” en el seno de la Psicología.”

89

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Scientia in Verba Mag. 3, 90-93 (2019).

Magazine 2619-2586

Por una Psicología científica: los psicólogos nos plantamos frente a las pseudoterapias Irene Fernández Pinto1 1  Instituto Terapéutico de Madrid (ITEMA)

Es posible que durante las últimas semanas hayas visto, en Redes Sociales o en los medios de comunicación (p. ej., en este artículo de El País), que ha habido cierta controversia en torno a la enmienda presentada por el Consejo General del Colegio Oficial de Psicólogos (CGCOP) al Plan de Protección de la Salud frente a las Pseudoterapias que está preparando el Gobierno. Te explicamos en qué ha consistido esta polémica y por qué es importante eliminar las prácticas pseudoterapéuticas del ámbito de actuación de los psicólogos.

¿Qué está pasando? En concreto, el párrafo que nos alarmaba de la enmienda del CGCOP, era el siguiente:

“Hay que señalar que en el ámbito de las terapias psicológicas debe actualizarse lo que se considera fundamentado en evidencia científica, ya que algunas de las que pueden ser consideradas pseudoterapias pueden suponer beneficios contrastados para la salud de los pacientes, cuando son utilizadas correctamente por profesionales psicólogos en el marco de una adecuada relación terapeutapaciente.”

Este párrafo, cuya interpretación se presta a cierta ambigüedad, podría dar a entender dos cuestiones que nos alarman: 1) que en Psicología podemos considerar como “evidencia científica” algo diferente que en otras disciplinas y 2) que una pseudoterapia puede ser beneficiosa

siempre y cuando la aplique un psicólogo. La ambigüedad que mencionábamos se comienza a diluir cuando comprobamos que el Colegio Oficial de Psicólogos promueve abiertamente formaciones que incluyen terapias no fundamentadas en la evidencia, como es el Psicoanálisis entre otras, sin ir más lejos en su Curso de Introducción a las principales psicoterapias que comienza este mismo mes de febrero. Ante esto, más de 1600 psicólogos que consideramos que nuestra práctica debe basarse en la evidencia científica no nos sentimos representados y hemos querido que nuestra respuesta sea contundente para abrir un debate que permita eliminar esta lacra que son las pseudoterapias de nuestro ámbito de actuación. Aquí puedes leer la carta que hemos enviado al CGCOP: “Por una psicología científica”. Varias sociedades científicas como la SAVECC, la SEJyD y la SEPEX han emitido comunicados similares. Sabemos que la labor de determinar qué criterios deben utilizarse para trazar la línea divisoria entre lo que se considera terapia y pseudoterapia es compleja. Por ello, lo que se reclama es sencillamente la creación de una comisión de trabajo en la que participen sociedades científicas y colegios profesionales, que siente las bases para que los Colegios Oficiales de Psicología puedan velar por que las actuaciones de los psicólogos se realicen de acuerdo con estos criterios, en vez de permitir que “todo valga” en el seno de la Psicología.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

90

Scientia in verba subpage /revista-scientia-in-verbapdf/

¿Qué es una pseudoterapia y por qué es importante el método científico? Para responder a estas cuestiones primero tenemos que definir algunos términos. En primer lugar, debemos que recordar que la Psicología es la CIENCIA que estudia el comportamiento humano. Partiendo de esta base, ya podemos deducir que el quehacer del psicólogo debe estar fundamentado en la evidencia científica para poder considerarse realmente Psicología. En segundo lugar, tal y como se indica en este recomendable artículo “¿Qué es esa cosa llamada pseudociencia? Una visión desde la Psicología”, podríamos definir la pseudociencia como aquello que toma la apariencia de ciencia sin serlo. Y en la misma línea, una pseudoterapia o terapia pseudocientífica es aquella práctica que, pese a su pretensión de tratar enfermedades o problemas psicológicos, no ha demostrado científicamente su efectividad. ¿Y por qué es tan importante que la labor de los psicólogos esté basada en la evidencia científica? ¿Por qué exigimos que la eficacia de las intervenciones se demuestre mediante el método científico? ¿No vale con el juicio o la experiencia profesionales o con las observaciones de que nos está funcionando? Para responder a estas preguntas, te recomiendo este vídeo de Helena Matute, es largo pero ameno (te verás reflejado en muchos ejemplos) y merece la pena que te reserves un rato para verlo: Aspectos psicológicos de las creencias irracionales y la pseudociencia La idea es la siguiente: las personas no somos tan racionales como nos gusta pensar, sino que nuestros razonamientos son víctimas de numerosos sesgos cognitivos que nos llevan al engaño: cosas que nos resultan muy evidentes no siempre son tal y como aparentan. No

Fernández, I. 90-93

© Nullius in verba site

somos ordenadores lógicos, sino seres fruto de la evolución y del aprendizaje que nos han permitido adaptarnos al entorno razonablemente bien, pero para ello muchas veces tiramos de heurísticos o “atajos mentales” que en ciertas circunstancias fallan. Un ejemplo muy típico es la confusión entre correlación y causalidad: tendemos a asumir que cuando dos fenómenos se producen a la

vez uno de ellos causa el otro, lo cual no siempre se corresponde con la realidad Estos sesgos cognitivos son los que explican que nuestras impresiones particulares sobre la eficacia de una intervención no siempre sean correctas. Por ejemplo, si parece que un tratamiento me funciona porque he mejorado tras la terapia, debo saber que esto se podría explicar también por la remisión espontánea: hay problemas que mejoran por sí solos incluso aunque no hagamos nada. El método científico es el mejor antídoto que hemos desarrollado frente a este problema, pues los diseños experimentales intentan precisamente controlar otras variables que puedan explicar la supuesta eficacia independientemente de nuestro falible juicio personal y profesional. Detrás de toda pseudoterapia siempre hay “profesionales” y usuarios convencidos de su eficacia que nos pueden contar historias de éxito conmovedoras,

91

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com

Magazine 2619-2586

pero hasta que no pase el filtro del método científico estas historias no son más que anécdotas, tal vez más fruto de la casualidad que de la causalidad. Ya, pero… ¡la Ciencia no lo sabe todo! Efectivamente esto es así, de hecho, una característica del buen quehacer científico es precisamente el escepticismo, que cuando se enfoca constructivamente permite que avancemos y que cosas que hoy damos por ciertas mañana descubramos que no lo son. Esto a veces “nos descoloca”, pero pese a ello o, mejor dicho, precisamente por ello, el método científico es el mejor método que conocemos para acumular conocimientos sólidos y, en cualquier caso, es preferible a las opiniones de quienes desconocen el tema o de quienes tienen intereses que no siempre están alineados con lo que es mejor para el usuario.

¿Cuál es el peligro pseudoterapias?

de

las

Un argumento muy frecuente es el siguiente: “¿Por qué os molestan tanto si lo peor que puede pasar es “simplemente” que no funcione?” Y a esto hay que responder de varias maneras: Motivos económicos: Vender algo que no funciona con pretensiones de que sí lo hace es fraude, un fraude que en el caso de la “psicología” cuesta miles de euros a personas que hacen grandes esfuerzos por costeárselo (sin contar con el tiempo y esfuerzo invertidos). Esto se produce en un contexto en el que no se da suficiente importancia a la salud mental y en el que es muy difícil obtener una ayuda adecuada y ágil en el sistema público de salud, con lo cual no podemos permitirnos desperdiciar recursos. No sorprenderá que precisamente lo que muchas pseudoterapias psicológicas tienen en común es que los tratamientos suelen ser muy caros y alargarse a veces durante muchos años, para lucro del pseudoterapeuta, ese mismo que dice

que su juicio profesional está por encima de los criterios científicos de eficacia. Iatrogenia: Este término se refiere al daño que puede provocar una intervención realizada por un profesional sanitario. Y es que además de ser ineficaz, un tratamiento inadecuado puede hacer mucho daño. Esto sucede, por ejemplo, cuando se insta al paciente a centrarse en su pasado o a ahondar en sus preocupaciones y malestares, sin dar soluciones concretas y factibles en el aquí y ahora. Esta práctica es frecuente en muchas pseudoterapias y con frecuencia provoca un empeoramiento del problema y dificulta su solución posterior, tal y como muchos psicólogos comprobamos con rabia cuando acuden a nuestra consulta personas que han pasado previamente por este tipo de tratamientos. Por supuesto, aunque una terapia esté basada en la evidencia también puede existir mala praxis profesional, que debe ser vigilada. Oportunidades perdidas: Esto, que podría considerarse un caso particular del anterior, se refiere a que con frecuencia las personas que han perdido el dinero o incluso sufrido y empeorado con una pseudoterapia es probable que se resistan a volver a pedir ayuda a un profesional de la Psicología, al carecer de directrices claras que distingan a un psicólogo de un pseudopsicólogo. Esto puede generar una cronificación o un empeoramiento del problema, máxime teniendo en cuenta el estigma que aún existe con respecto a ir al psicólogo. Pérdida de confianza en la Psicología: Como resultado de todo lo anterior, y en la medida en que no existan criterios claros para garantizar que la actuación del psicólogo se rige por ciertos estándares y avales científicos, es natural que los usuarios, sus allegados y la sociedad en su conjunto desconfíen de nuestra disciplina y de nuestros profesionales. Esto obviamente es un problema para los propios psicólogos, pero es más

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

92

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

preocupante aún la cantidad de personas con problemas que quedan sin atender por miedo a “tirar el dinero” o a ser atendidos por un “charlatán” que haga más mal que bien. Por todo ello, es esencial que se limiten las actividades del psicólogo para que se ciñan a aquellos enfoques, estrategias y técnicas que hayan pasado unos filtros razonables de eficacia. Como decimos, esta delimitación es difícil de hacer, no se trata de blancos y negros sino que hay grises, pero si lo deseas, te invitamos a leer estos análisis críticos de nuestro compañero Sergio García Morilla sobre algunas de las terapias o técnicas que están en el punto de mira: constelaciones familiares, Gestalt, EMDR, programación neurolingüísticas (PNL) o Reiki, sin olvidar, por supuesto, el psicoanálisis.

La alianza terapéutica y veredicto del pájaro Dodo

el

Un último argumento que esgrimen los defensores de las pseudoterapias es el comúnmente denominado “veredicto del pájaro Dodo”, que viene a decir que la eficacia de todas las terapias es equivalente, independientemente de su modelo teórico y de las técnicas que se empleen, ya que la clave está en la alianza terapéutica, o relación terapeutapaciente, que es la que explicaría la mayor parte del cambio. De hecho, en la propia enmienda del CGCOP que citábamos al principio se hace alusión a

Fernández, I. 90-93

la relación terapéutica para justificar el uso de la pseudoterapia por parte de los psicólogos. Este argumento, muy polémico, tiene ya casi un siglo de antigüedad, momento en el cual los modelos y técnicas con que contamos en la actualidad aún estaban en pañales. A día de hoy parece que, cuando se emplean meta-análisis de calidad, la terapia cognitivo-conductual muestra una mayor eficacia que otras terapias y pseudoterapias. Esta cuestión se explica más detenidamente en este otro artículo. La alianza terapéutica es pues una condición necesaria para que se produzca el cambio en terapia y esta sea eficaz, pero no deberíamos considerarla suficiente ni pensar que la relación entre el profesional y el usuario nos da carta blanca o impide que nuestras actuaciones puedan ser ineficaces o incluso dañinas. En resumen, los psicólogos que defendemos una Psicología basada en la evidencia científica abogamos por que nuestra profesión cuente con mecanismos de control que garanticen a los usuarios que el tratamiento reciben es realmente eficaz y eficiente. Y sobre todo, queremos que cuando una persona toma la (no siempre fácil) decisión de ir a terapia psicológica, pueda hacerlo con la confianza de que el profesional que la atenderá utilizará las mejores herramientas a su alcance para ayudarla. Queremos que ir al psicólogo deje de parecerse a jugar a la lotería, “A ver qué tipo de terapia me sale”, y que las personas puedan ir con confianza y sin necesidad de conocer los entresijos de nuestra profesión para poder atinar con un profesional adecuado que base su práctica en lo que sabemos que es más eficaz para ayudarle.

93

Scientia in verba subpage /revista-scientia-in-verbapdf/

Recomendaciones divulgación psicológica. Canales amigos y asociados

Divulgación Psicológica es un canal de comunicación cuyo interés es acercar la psicología científica y las psicoterapias basadas en la evidencia a la población en general, tanto al público profesional como al no profesional.

S

Irene Fernández Pinto

S

Click a la imagen para ir al enlace

Irene es psicóloga con habilitación sanitaria, máster en modificación de conducta por el Instituto Terapéutico de Madrid (ITEMA) y máster en Metodología de las Ciencias del Comportamiento y de la Salud con especialización en las áreas de Evaluación Psicológica y Psicometría. Ha participado en la construcción y adaptación de tests psicológicos nacionales e internacionales como el SENA, entre otras.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

94

En Divulgación Psicológica tenemos el firme compromiso de hacer llegar esta información con la finalidad de hacer nuestro aporte a la sociedad y a su salud psicológica, de manera que puedan conocer alternativas eficaces de solución

Canal sobre divulgación científica en psicología. La idea es hacer principalmente de conocimiento público los estudios científicos en psicología, para que puedan llegar a una población general, ya que a veces la ciencia se limita a un vocabulario para la misma comunidad.

Juan Martín Florit es licenciado en psicología y psicólogo clínico. Trabajó en el centro de salud mental “Procedere”, ha sido asesor escolar en distintas escuelas, supervisor, conferencista, columnista en el diario y asesor del equipo interdisciplinario del hospital materno-infantil Blanco Villegas. Además de hacer consultorio. Juan ofrece talleres de psicoeducación a padres y está preparando un postgrado on-line sobre psicoterapia Infantojuvenil. Además es autor invitado en nulliusinverbasite

95

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site Scientia in Verba Mag. 3, 97-118 (2019).

Los compromisos del realismo científico Antonio J. Diéguez Lucena1

1  Unviersidad de Málaga. España Este trabajo presenta alguna de las cuestiones que analizo en mi libro Realismo científico, publicado por la Universidad de Málaga en 1998. Publicado por primera vez en : P. Martínez Freire (ed.), Filosofía actual de la ciencia, suplemento nº 3 de Contrastes (1998), pp. 145-173.

“Para sus partidarios, la fuerza del realismo está en tener un mayor poder explicativo que sus alternativas rivales. El realista cree que él puede explicar incluso el éxito temporal de teorías falsas, mientras que para el instrumentalista todo éxito es un misterio. Así, al mencionado ejemplo de Rescher, vale oponer las palabras de Smart: “[…] el sistema ptolomeico puede proporcionar casi las mismas predicciones relativas a los movimientos aparentes de los planetas que la hipótesis copernicana. De ahí que el presupuesto de la verdad realista de la hipótesis copernicana explique la utilidad instrumental de la ptolomeica.”

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

1. Las modalidades del realismo El realismo científico se ha convertido en las dos últimas décadas en uno de los temas más discutidos en la filosofía de la ciencia y, sin embargo, no parece haber siquiera un acuerdo mínimo sobre qué es lo que debe entenderse bajo dicha denominación. Defensores y detractores efectúan a veces afirmaciones tan diferentes de lo que el realismo científico cabalmente propone que el diálogo entre ellos pierde a menudo todo su sentido. Pese a la imposibilidad de encontrar una caracterización que pueda satisfacer a todos, creo que el realismo científico, en sus diferentes variantes, ha intentado responder fundamentalmente a la siguiente pregunta: ¿Cuál es la relación que guardan nuestras teorías científicas y el mundo? Esto, por lo pronto, marca ya una diferencia notable entre el realismo científico y el realismo metafísico tradicional. En efecto, no se trata de dilucidar la naturaleza ontológica del mundo, ni su carácter primario o independiente frente al espíritu o la mente; se trata más bien de averiguar cuál es la mejor manera de interpretar las teorías científicas a la luz de los objetivos y los resultados alcanzados por la ciencia a lo largo de su historia, bien que para

96

Diéguez, A. 97-118

ello sea necesario presuponer ciertas condiciones en el mundo y en nuestro acceso cognitivo a él. Para responder a esta cuestión, los defensores del realismo científico han desplegado argumentos diversos que ponen de manifiesto el grado mayor o menor de compromiso que cada uno de ellos mantiene sobre los aspectos particulares en que ésta ha sido analizada. En un intento de recoger, aunque sólo sea parcialmente, estos matices diferenciales, y sin ánimo de ser exhaustivo en un asunto que no lo permite, propongo desglosar el realismo científico en cinco tesis principales: 1) Realismo ontológico. Las entidades teóricas postuladas por las teorías científicas bien establecidas existen (aunque pueda haber excepciones ocasionales). Dicho en otras palabras: los términos teóricos típicamente refieren. Al realismo ontológico se oponen el instrumentalismo sobre entidades (las entidades teóricas son meros recursos predictivos) y el constructivismo social (las entidades teóricas son construidas socialmente). 2) Realismo epistemológico. Las teorías científicas nos proporcionan un conocimiento adecuado, aunque perfectible, de la realidad tal como ésta es con independencia de nuestros procesos cognitivos. Al realismo epistemológico se oponen el fenomenismo (las teorías científicas sólo tratan de fenómenos observables) y el idealismo epistemológico (las teorías científicas versan sobre una realidad hecha por la mente).

97

Nullius in verba Site www.nulliusinverbasite.com 3) Realismo teórico. Las teorías científicas son susceptibles de verdad o falsedad. Al realismo teórico se opone el instrumentalismo teórico (las teorías científicas son instrumentos de cálculo, útiles o inútiles, empíricamente adecuadas o inadecuadas, pero no verdaderas o falsas). 4) Realismo semántico. Las teorías científicas son verdaderas o falsas en función de su correspondencia con la realidad. Al realismo semántico se oponen el pragmatismo (la verdad o falsedad de las teorías han de entenderse en relación con las actividades cognitivas humanas), el coherentismo (la verdad o la falsedad de las teorías no significa otra cosa que su coherencia con un sistema previamente aceptado de creencias o de teorías) y el relativismo (la verdad o la falsedad de las teorías son relativas a los contextos en los que éstas surgen). 5) Realismo progresivo. La ciencia progresa teniendo como meta la verdad. Las nuevas teorías contienen más verdad y/o menos falsedad que las anteriores. Al realismo progresivo se opone lo que, a falta de nombre mejor, cabe llamar antirrealismo sobre el progreso (el progreso en la ciencia no puede ser establecido como un acercamiento creciente a la verdad).1 Estas cinco tesis no tienen por qué ser aceptadas conjuntamente y, de hecho, sólo la filosofía de algunos realistas fuertes como Karl Popper y Mario Bunge encajaría con todas. Lo más frecuente es que los defensores del realismo asuman sólo algunas de ellas, como es el caso de Ian Hacking o de Ronald Giere, o que si las aceptan en su totalidad, lo hagan de forma muy matizada, como sucede con Ilkka Niiniluoto. No obstante, no todas las combinaciones parecen posibles. Entre estas tesis realistas existen relaciones de orden que obligan a aceptar algunas si es 1  1. Para otras posibles clasificaciones, a las cuales debe parcialmente la que ofrezco, remito al lector a Moulines (1991), cap. II, 2, Haack (1987), Niiniluoto (1987), pp. 154-155 y González (1993).

Scientia in verba Magazine 2619-2586

que se aceptan otras determinadas. Así por ejemplo, el realismo epistemológico presupone el realismo ontológico. No tiene sentido creer que las teorías científicas nos proporcionan un conocimiento adecuado (aunque perfectible) de la realidad tal y como es en sí misma y, al mismo tiempo, negar una referencia objetiva a todos los términos teóricos de cualquier teoría. Sería incoherente sostener que la teoría de la relatividad nos dice algo sobre el modo en que realmente está constituido el Universo mientras que se niega la existencia real de referentes para términos como espacio-tiempo, masa, energía, etc. Sin embargo, esta relación no se da a la inversa. El realismo ontológico no exige la aceptación del realismo epistemológico. Es posible pensar que los términos teóricos tienen una contrapartida real que los hace ser algo más que instrumentos de cálculo –contrapartida a la cual se refieren cuando son utilizados por los científicos–, y considerar a la vez que nunca alcanzamos mediante nuestras teorías un conocimiento de la realidad tal como es en sí misma, sino sólo tal como nos llega a través de nuestros lenguajes, esquemas conceptuales, categorías mentales, instrumentos de medida, etc. El idealismo epistemológico, el realismo interno de Putnam y cierto tipo de fenomenismo, como el de Niels Bohr en su interpretación de la teoría cuántica, comparten esta opinión de claro sabor kantiano. Por lo tanto, podemos escribir: Realismo epistemológico → Realismo ontológico Del mismo modo, el realismo semántico exige, como resulta obvio, la aceptación del realismo teórico, pero no al contrario. Un realista semántico sostiene que las teorías científicas son (aproximadamente) verdaderas o falsas, y en esto coincide con el realista teórico, pero entiende además que esa verdad o falsedad significa que las teorías se corresponden o no en un

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

98

Scientia in verba subpage /revista-scientia-in-verbapdf/ cierto grado con el mundo. En cambio, un pragmatista como Dummett o como Putnam, un relativista como Kuhn, o un coherentista como Neurath, admitirán la atribución de verdad o falsedad a las teorías científicas, pero no las entenderán como una correspondencia o falta de correspondencia entre el contenido de las teorías y la realidad objetiva. Gráficamente: Realismo semántico → Realismo teórico También el realismo progresivo presupone el realismo teórico, sin que suceda a la inversa; lo que permite a Kuhn, Laudan y van Fraassen aceptar el realismo teórico al tiempo que niegan que el acercamiento progresivo a la verdad sea la meta de la ciencia. Así pues: Realismo progresivo → Realismo teórico Por lo normal, el realismo progresivo va también acompañado del realismo semántico y del realismo epistemológico, pero no siempre sucede así. Por ejemplo, un pragmatista como Peirce cree en la convergencia de la investigación científica hacia una teoría ideal, sin asumir por ello el realismo semántico. Por otra parte, el realismo teórico no exige mantener el realismo epistemológico, como lo muestra el caso de Putnam (y anteriormente el de Kant). E igualmente, se puede ser un realista semántico –esto es, aceptar que las teorías científicas son verdaderas o falsas en función de su correspondencia con los hechos– pero negar al mismo tiempo el realismo ontológico o el epistemológico. En efecto, cabe pensar que no sea factible en la práctica atribuir ningún grado de verdad o falsedad a las teorías científicas (aun cuando sean susceptibles en principio de tal atribución), dado que éstas contienen afirmaciones sobre entidades no observables cuya supuesta verdad es más prudente dejar en suspenso, y que, por tanto, debe limitarse todo juicio sobre dichas teorías a su mayor o menor adecuación empírica, es decir, a su grado de correspondencia con los fenómenos

Diéguez, A. 97-118

© Nullius in verba site

estrictamente observables. Esto es, por ejemplo, lo que hace van Fraassen y lo que le lleva a tratar las entidades teóricas exclusivamente como recursos predictivos de nuevos fenómenos. Aparte de ilustrar claramente por qué el realismo científico no debe ser entendido como una cuestión de todo o nada, hay otro dato importante a destacar en este entramado de relaciones que se acaba de esbozar. Es fácil constatar que la posición que se adopte sobre el problema de la verdad en la ciencia es independiente de la posición que se asuma con respecto al realismo ontológico y epistemológico. Esto es algo que ha sido suficientemente argumentado por Michael Devitt, quien termina su libro Realism and Truth afirmando: “ninguna doctrina de la verdad es en modo alguno constitutiva del realismo”.2 En lo dicho antes se confirma que, en efecto, ninguna de las tres tesis realistas que incluyen el concepto de verdad (realismo teórico, realismo semántico y realismo progresivo) exige la previa aceptación del realismo ontológico y del epistemológico, que constituyen, por decirlo así, la base del realismo científico. Se puede, por tanto, ser antirrealista y defender que la verdad cumple un papel importante en la ciencia –tal es el caso de muchos pragmatistas. Mientras que, por otro lado, se puede ser un realista ontológico y epistemológico sin que ello determine el compromiso que pueda adquirirse con respecto a una determinada concepción de la verdad. De hecho, la independencia relativa entre los aspectos ontológicos y epistemológicos del realismo y la creencia en que las teorías científicas pueden aproximarse a la verdad ha sido plasmada de forma concreta en la obra de varios autores, principalmente Ian Hacking, Nancy Cartwright, Rom Harré y Ronald Giere. Todos ellos han defendido, con diferentes matices, un realismo desligado del concepto de verdad.3 2  Devitt (1984), p. 227. 3  Cf. Hacking (1983), Cartwright (1983), Harré (1986)

99

Nullius in verba Site www.nulliusinverbasite.com

2. ¿Es el realismo científico una hipótesis empírica? Entre los tópicos centrales en el debate sobre el realismo científico está la propuesta de algunos (Boyd y Devitt, por ejemplo) de entenderlo como una hipótesis científica equiparable a cualquier otra hipótesis perteneciente a la ciencia, en especial en lo que se refiere a su capacidad para ser contrastada empíricamente. De acuerdo con ello, el realismo científico pretendería describir el modo en que proceden los científicos en la elaboración, interpretación y evaluación de teorías y, por lo tanto, debería someterse a una contrastación empírica a partir de los datos proporcionados por la historia de la ciencia y por otras disciplinas metacientíficas. Estos datos bastarían para confirmarlo o desmentirlo. Sin embargo, creo que esta propuesta ha de ser tomada con cautela. El análisis de las cinco tesis realistas que hemos citado pone de manifiesto que el carácter empírico que puedan tener es variable en cada una de ellas. En el realismo ontológico, ese carácter empírico parece, al menos en principio, una cosa clara. Si se dice que las entidades teóricas postuladas en una teoría bien establecida existen, parecería natural comprobarlo acudiendo a la historia de la ciencia y juzgando, a la luz de lo que ahora pensamos, si en efecto las teorías que estuvieron bien establecidas dada la evidencia disponible en un momento dado, tenían como referentes entidades reales. Algunos antirrealistas es esto lo que tienen en mente cuando acuden a los ejemplos del flogisto, del éter, del calórico y otros casos de referencia fallida en el pasado, y se preguntan si no sucederá lo mismo con las entidades postuladas por las teorías vigentes hoy en día. Pero las cosas son más complejas de lo que esta primera impresión nos dice. y Giere (1988).

Scientia in verba Magazine 2619-2586

Por una parte, es conveniente aclarar que nada en el realismo le impide reconocer que no todos los términos teóricos utilizados en la ciencia tienen la misma función epistemológica ni la misma índole semántica. El realismo acepta que no todos pretenden designar directamente una entidad real. Los hay como ‘electrón’ en física que sí pretenden hacerlo. Pero los hay también como ‘homo oeconomicus’ en economía o ‘gas ideal’ en física cuya finalidad es más bien ofrecer modelos heurísticos acerca de realidades mucho más complejas. Los hay incluso como ‘color’ y ‘sabor’, atribuidos como propiedades a los quarks en la cromodinámica cuántica, que son puramente instrumentales. Y los hay finalmente como ‘inteligencia’ en psicología o ‘tiempo’ en física sobre los que se discute si hacen una cosa u otra. Por otra parte, el realismo científico no implica, pese a lo que escribe Nicholas Rescher, que “las ideas de nuestra ciencia de hoy describen correctamente el mobiliario del mundo real”. Ni obliga a “adoptar categóricamente las implicaciones ontológicas del teorizar científico precisamente conforme a la configuración propia del nivel hoy alcanzado”.4 Tampoco pretende reclamar, como le imputa Putnam, la existencia de una sola descripción verdadera del mundo, situada la modo de un límite asintótico como meta final pero nunca alcanzable de la investigación.5 Dicho claramente: realismo, falibilismo, pluralismo y perspectivismo no son doctrinas encontradas. No se ve ninguna razón por la cual el realismo científico deba llevar a la conclusión de que “hemos comprendido las cosas a la perfección, de suerte que nuestra ciencia es la ciencia correcta y ofrece la «última palabra» definitiva sobre estos problemas”.6 Al entender ‘oxígeno’, ‘fuerza’ o ‘electrón’ como términos que tienen un correlato 4  Rescher (1994), p. 186. 5  Cf. Putnam (1978), p. 123 y (1990), p. 30. 6  Rescher (1994), p. 185.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

100

Scientia in verba subpage /revista-scientia-in-verbapdf/ real no se presupone que hemos dicho la última palabra sobre ellos, ni siquiera que no podamos estar equivocados sobre la existencia de sus referentes. Significa tan sólo que nuestras teorías, provisionales y falibles, nos dicen que el mobiliario del mundo es de cierta manera y que aceptarlas conlleva habitualmente aceptar dicho mobiliario. Incluso si supusiéramos –algo para la que la historia de la ciencia no proporciona motivos– que los casos de inexistencia de las entidades postuladas por las teorías son los más frecuentes, ello no obligaría al realista a admitir que las entidades teóricas deben ser consideradas como ficciones útiles antes que como objetos reales. Tendría que conceder, eso sí, que nuestras teorías habían fracasado hasta el momento (o en el periodo de tiempo de que se trate) en lograr su verdadero fin: acceder a la estructura de lo real. Roger Trigg, por ejemplo, no titubea en declarar: “si alguna vez decidimos que nuestra ciencia actual auténticamente no representa la naturaleza del mundo, deberíamos rechazar la ciencia, pero no repudiar el realismo”.7 Al antirrealista le parecerá esto una salida desesperada, ya que en cualquier situación será siempre mejor abandonar el realismo que la ciencia, pero no menos desesperada es la hipótesis de partida. El realista aduce que en tal hipótesis, junto con el realismo nos habremos llevado por delante la ciencia misma, pero no habremos avanzado un ápice en favor de algún tipo de antirrealismo. El que un término teórico como ‘flogisto’ carezca de referencia real no prueba que la mejor manera de 7  R. Trigg (1989), p. XX. Más adelante (p. 187) explica: «Si se dice que nuestras teorías fracasan en su intento de referirse a entidades particulares porque esas entidades no existen de hecho, eso puede refutar las teorías, pero apoya (upholds) al realismo. Si el realismo es falso, no es posible concebir la comprobación de las teorías en contraste con la realidad, pues la realidad sería entonces sólo lo que las teorías dicen que es. En otras palabras, el destino del realismo no puede decidirse por el ‘éxito’ o el ‘fracaso’ en la ciencia, puesto que el sentido normal de estos términos presupone el realismo».

Diéguez, A. 97-118

© Nullius in verba site

entender su función en la química del XVIII sea tenerlo por un instrumento predictivo o una construcción de los científicos. Para el realista es simplemente un término que fracasó a la hora de encontrar referente; y la multiplicación de ejemplos no añade nada al asunto. Paralelamente, tampoco se puede probar el realismo ontológico haciendo un recuento de las teorías pasadas que acertaron en describir entidades que hoy consideramos reales, porque eso da por supuesto lo que se quiere probar, que las entidades referidas son reales y no instrumentos o construcciones. No se trata de negar que las consideraciones empíricas ejerzan algún tipo de influencia, positiva o negativa, sobre el realismo ontológico o sobre cualquier otro. Si un análisis histórico consiguiera mostrar que la mayoría de los términos teóricos de teorías bien establecidas fracasaron en su referencia, el realismo ontológico quedaría en una posición bastante difícil, (pero no fuera de juego, pues todavía podría resguardarse en su carácter normativo y no descriptivo). Afortunadamente para el realismo eso no ha sido mostrado hasta el momento. Hay que insistir, sin embargo, en que no es ésta una vía que al instrumentalista le favorezca demasiado, porque lo que él afirma no es una cuestión de número. El instrumentalista no dice que la mayoría de los términos teóricos sean como ‘flogisto’, sino que todos los términos teóricos (‘oxígeno’ igual que ‘flogisto’) han de ser entendidos como herramientas conceptuales, y que ponerse a averiguar si tienen referente real o no es una tarea equivocada, por carente de sentido, que malinterpreta su función en el seno de las teorías. Razón por la que al instrumentalista de nada le valen tampoco los ejemplos de teorías con referencia real que el realista quiera ponerle por delante. La opción entre el realismo ontológico y el instrumentalismo

101

Nullius in verba Site www.nulliusinverbasite.com (o el constructivismo) determina el modo en que se interpretarán los hechos. El realista considerará un hecho que ‘oxígeno’ –a diferencia de ‘flogisto’– es un término que se refiere a una entidad real, y el instrumentalista pensará que la única diferencia entre ambos está en que ‘flogisto’ pertenece a una teoría que ya no nos sirve para explicar los fenómenos conocidos. Los “hechos” no son los mismos si se los contempla desde un lado o desde otro, y no hay hechos más elementales o menos reinterpretables a los que apelar. En una situación parecida se encuentra el realismo epistemológico. Como tesis filosófica general acerca del conocimiento no puede ser probada o refutada mediante ningún conjunto de datos. Pero también aquí el peso de los hechos podría ser relevante para tomar una decisión, y dado el rápido crecimiento de las ciencias cognitivas en las últimas décadas, con más razón que en el caso anterior. Un realismo epistemológico excesivamente ingenuo (por excesivamente empirista) que creyera en el “dogma de la inmaculada percepción” y no diera a la mente cierto papel activo en el proceso de conocimiento; que la considerara un , en expresión de Rorty, o un cubo que se llena a través de los sentidos, en la gráfica imagen de Popper, resultaría imposible de casar con lo que la psicología cognitiva nos dice sobre los procesos en los que se despliega el conocimiento humano. Quizás sean las restantes tesis realistas (realismo teórico, realismo semántico y realismo progresivo) las más alejadas parecen estar de posibles apoyos o contraejemplos empíricos. Las tres se basan en la aceptación de la verdad como elemento central en la interpretación de las teorías científicas, y la verdad (su aceptación y su definición) es un asunto donde poco pueden intervenir los hechos. ¿Qué diferencia empírica marcaría el que se atribuyera o dejara de atribuir a nuestras teorías el predicado semántico

Scientia in verba Magazine 2619-2586

‘verdadero’? Excepto, claro está, que algunos individuos se sentirían más reconfortados en un caso que en otro. ¿Qué hechos variarían, por ejemplo, para un científico del XIX que creyese que la teoría atómica era verdadera frente a otro que pensara que sólo era empíricamente adecuada? ¿Y en qué hechos se dejaría apreciar una consecuencia distinta si se dijera que la verdad debe interpretarse como una relación de las teorías con el mundo, en vez de como una relación de las teorías con ciertas condiciones epistémicas, o con otras teorías, o con un contexto de creencias delimitado por ellas mismas? De nuevo aquí hay que insistir en que una relación de casos históricos en que los científicos hubieran aceptado determinadas teoría sin creer en su verdad, sino como instrumentos predictivos, no refutaría el realismo teórico o el semántico, como no refutaba al ontológico. En efecto, es perfectamente

Dalton atom model. Wiki Commons

asumible para el realista –tanto como lo pueda ser para el instrumentalista– el hecho de que los científicos aceptan sus teorías por muy diversas razones,

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

102

Scientia in verba subpage /revista-scientia-in-verbapdf/ y entre ellas por su utilidad práctica, con independencia de lo que piensen sobre su verdad. Es sabido que muchos químicos del siglo pasado aceptaron

Max Planck Commons

Wiki

la teoría atómica de Dalton a modo de recurso heurístico y predictivo porque pensaban que el átomo no pasaba de ser una ficción útil. A comienzos del siglo XX, Max Planck introdujo la noción de cuanto de acción como un artificio matemático para hacer encajar las ecuaciones con los resultados experimentales sobre la emisión y absorción de energía, pero sin creer en principio que la radiación de energía fuera realmente discontinua. Muchos físicos usan la función de onda como un instrumento de cálculo y no considerarían adecuado hablar de su verdad o falsedad, puesto que para ellos no refleja ningún estado real. Un realismo atento a la historia de la ciencia no negará estos hechos ni otros muchos similares. En lo que el realismo insiste, sin embargo, es que no toda teoría es aceptada sólo por su valor instrumental ni todos los términos teóricos son heurísticos. Para el realismo, en las ciencias maduras es la regla más que la excepción que los términos teóricos pretendan referirse a algo real, en ocasiones a través de un modelo muy

Diéguez, A. 97-118

© Nullius in verba site

idealizado (cualquier modelo es siempre una idealización), y pretendan tener un valor ontológico y no sólo instrumental. En tales casos, la aceptación de la teoría a la que pertenecen suele comportar la creencia en la existencia de las entidades a las que se refieren. Y en cuanto a los términos teóricos que no designan directamente entidades supuestamente reales, en la medida en que en el seno de las teorías establecen relaciones entre los restantes términos, y quedan ellos mismos integrados en el conjunto, puede decirse que, de manera indirecta, se refieren a propiedades o relaciones objetivas. Aunque su función sea principalmente instrumental, modelizan aspectos concretos de la realidad que, en lo esencial, se consideran similares al modelo. Cuando, sin embargo, los científicos aceptan una teoría sin creer en ella, sólo por su utilidad práctica, todos los términos teóricos son tomados en plano de igualdad como meros recursos predictivos. Esto ocurre de hecho en la ciencia, pero el realista cree que la tendencia a largo plazo es que las teorías que se aceptan sólo por su valor instrumental sean sustituidas por otras cuyas entidades son tenidas por reales. Una razón para pensar así es que el que los científicos no suelen sentirse muy satisfechos cuando en un ámbito determinado de fenómenos cuentan sólo con teorías instrumentales o con entidades teóricas en cuya existencia en el fondo no creen. Piensa el realista que en tales circunstancias los científicos se preocupan por establecer o desechar finalmente la existencia de esas entidades, ya que para ellos mismos es importante buscar la razón del éxito instrumental de la teoría. Si “salvar los fenómenos” fuera lo único que les importara ¿por qué habrían de tomarse tantas molestias, por ejemplo, para detectar el neutrino? Les debería bastar con postularlo como un recurso teórico sin preocuparse por su existencia y desecharlo cuando

103

Nullius in verba Site www.nulliusinverbasite.com dejara de convenirles. Algunos realistas van más lejos y mantienen además que ese éxito se debe a que la teoría es (aproximadamente) verdadera. Pero lo que ningún realista está obligado a admitir es, como pretende van Fraassen,8 que toda aceptación de una teoría por parte de los científicos implique que éstos creen en la verdad literal de la teoría. Una cosa son los motivos que tienen los científicos para aceptar teorías, que como queda dicho son muy diversos, y otra es la relación que las teorías científicas mantienen con el mundo. El realismo es una respuesta a esto último. Finalmente, el realismo progresivo ha sido rechazado por aquellos que no admiten una convergencia hacia una meta determinada en la ciencia, y ven en su historia una sucesión de cambios más o menos discontinuos en los que hay pérdidas y ganancias en lugar de retención de verdades. Para Kuhn y Feyerabend las grandes teorías rivales son inconmensurables. Los criterios de estimación con los que se las juzga, incluidos los criterios con los que determinar qué ha de ser tenido por verdadero o por falso, son criterios basados en los deseos, los valores, la ideología y la psicología de los científicos antes que en la naturaleza de las teorías y en su relación con la evidencia empírica disponible. Por tanto, cualquier evaluación comparativa entre estas teorías será deudora de factores externos al contenido de las propias teorías. No hay para estos autores progreso hacia teorías con mayor contenido de verdad, porque ni siquiera podemos comparar el contenido de las teorías rivales en términos de verdad objetiva. La verdad es a lo sumo una cuestión intrateórica. Para Larry Laudan,9 en cambio, sí que hay criterios objetivos y neutrales de comparación entre teorías rivales, pero la verdad no es uno de ellos. Al menos no es el más adecuado para construir 8  Cf. van Fraassen (1980), p. 8. 9  Cf. Laudan (1977), cap. 4.

Scientia in verba Magazine 2619-2586

un modelo racional del progreso científico. En gran medida con el fin de evitar las conclusiones radicales de Kuhn y Feyerabend, Laudan prescinde del concepto de verdad en su filosofía y define la ciencia como una actividad de resolución de problemas. La racionalidad científica consiste simplemente en elegir teorías que sean cada vez más efectivas en la resolución de problemas, sin que en ello intervenga para nada la cuestión de la verdad o la verosimilitud de esas teorías. La verdad queda eliminada como meta de la ciencia, y el progreso científico es entendido como un aumento de la efectividad de nuestras teorías en la resolución de problemas. No hay acumulación de contenido o de poder explicativo. Unas teorías resuelven unos problemas, otras teorías resuelven otros, que pueden coincidir parcialmente con los primeros. Lo que el progreso exige es que las nuevas teorías resuelvan más problemas que las anteriores, pero no que resuelvan todos los que resolvían las anteriores más algunos otros. Sin embargo, tampoco estas críticas contra el realismo progresivo lo contraponen a un cúmulo de hechos desnudos. Más bien lo sitúan ante diferentes alternativas globales con las que interpretar el desarrollo de la ciencia. Alternativas que no carecen ellas mismas de dificultades serias. El realismo progresivo no enuncia una cuestión empírica, sino semántica. Un supuesto acercamiento progresivo a la verdad no sería algo a contrastar sin más a partir de la experiencia. Como puede verse, la cuestión de si el realismo científico es una hipótesis científica es más compleja de lo que parece. Hilary Putnam hace dos apreciaciones sobre el carácter empírico del realismo que merece la pena reseñar. La primera es que el realismo podría ser falso, y la segunda que los hechos son relevantes para apoyarlo o criticarlo. Ambas cosas le mueven a decir que el realismo es

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

104

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

“como (like) una hipótesis científicas”, pero añade inmediatamente que eso no significa que el realismo sea una hipótesis como tal, ni que sea científico en el sentido de que pertenezca a la ciencia.10 Si eso es lo que se quiere decir cuando se proclama que el realismo científico es una hipótesis empírica, entonces quizás no haya mucho que discutir, excepto para poner reparos a este modo de expresión. En efecto, muchas ideas filosóficas, incluida la existencia de un Dios bueno y omnipotente, cumplen los dos requisitos que Putnam señala: podrían ser falsas, y hay hechos relevantes en su favor o en su contra ¿diremos también de ellas que son como hipótesis empíricas? Es de notar además que Putnam no dice que el realismo sea una hipótesis empírica, dice sólo que es parecido (like). Sin embargo, otros que han afirmado el carácter empírico del realismo se han expresado con frecuencia en unos términos que hacen pensar más bien en lo que Putnam con toda razón niega, a saber, que el realismo científico es científico no tanto porque se refiera a la ciencia, cuanto porque forma parte de ella, y que su carácter empírico lo sitúa al lado de cualquier otra hipótesis científica, al menos en lo que respecta a su modo de validación. Si fuera como dicen éstos, no se entiende por qué el realismo no ha sido incorporado después de tanto tiempo al acervo de conocimientos establecidos sobre una sólida base empírica, al igual que otras hipótesis científicas, y por qué esta discusión aún continúa. Resultaría un caso bastante insólito en la historia de la ciencia. Por las razones expuestas, creo que el realismo, como concepción general del conocimiento científico, es entendido de manera más adecuada en su función interpretativa que como una hipótesis empírica similar a cualquier hipótesis científica, y, por tanto, debe ser juzgado en la medida en que es capaz de

proporcionar una mejor o peor visión que sus rivales de nuestra relación cognoscitiva con el mundo, y de dotar de sentido y coherencia a los numerosos y multiformes aspectos de dicha relación. La evidencia empírica tiene, pues, un papel que cumplir en este juicio, pero no con la preeminencia ni la intensidad que se le otorga en la contrastación de una hipótesis científica.

10  Cf. Putnam (1978), pp. 78-79.

11  Cf. Harman (1965).

Diéguez, A. 97-118

3. La inferencia de la mejor explicacion Uno de los argumentos más plausibles con los que cuenta el realismo científico en las versiones fuertes, que aceptan el realismo teórico y el realismo semántico, sirve para ilustrar lo que venimos diciendo. Se trata del argumento que Gilbert Harman bautizó como ‘inferencia de la mejor explicación’.11 En esencia, la inferencia de la mejor explicación es un tipo de inferencia abductiva que consiste en lo siguiente: dado un hecho concreto a explicar, si hay para él varias hipótesis explicativas posibles evidencialmente equivalentes, pero una de ellas es claramente la mejor en lo que se refiere a su poder explicativo, es decir, proporciona la explicación más probable, o la más elegante, o la más profunda, o la más simple, o la menos rebuscada, o la que mejor coordinación da a los detalles, o la más comprehensiva, o la más coherente con explicaciones anteriores, etc., entonces (en ausencia de otras circunstancias relevantes que pudieran modificar la decisión) debe aceptarse esa hipótesis en lugar de las otras. En la ciencia, este tipo de inferencia es empleada a menudo. Un ejemplo puede darlo el muy conocido experimento de Rutherford sobre la estructura de los átomos. En torno a 1910 Ernest Rutherford había observado en su laboratorio de física que cuando se bombardeaban finas láminas de oro con un haz de partículas

105

Nullius in verba Site www.nulliusinverbasite.com alfa, que tienen carga positiva, son muy masivas y poseen una gran energía cinética, la gran mayoría de ellas, como era de esperar, atravesaban la lámina y salían dispersadas con un pequeño ángulo de inclinación. Pero encontró también, para su sorpresa, que algunas de ellas rebotaban frontalmente y salían despedidas hacia atrás. Según sus propias palabras era algo así como si se disparase con una bala de 15 pulgadas contra un papel de seda y el proyectil se volviese contra el que dispara. Rutherford pensó que ese efecto de retroceso debía ser el resultado de una colisión, y que sólo podía obedecer al hecho de que los átomos de la lámina tenían la mayor parte de su masa concentrada en un núcleo con carga eléctrica positiva rodeado de electrones relativamente muy alejados del núcleo. El modelo atómico nuclear era para Rutherford la mejor explicación del fenómeno de dispersión de las partículas alfa, el cual no sólo carecía de explicación en el modelo atómico entonces vigente, el de Thomson, sino que era inexplicable. Esta misma estructura de argumentación fue la empleada, por citar otro caso conocido, en 1913 por el químico francés Jean Perrin para establecer más allá de toda duda razonable la existencia de los átomos. La mejor explicación del hecho de que mediante trece procedimientos muy diversos se obtuviese siempre un valor coincidente del número de Avogadro era suponer que las moléculas y, por ende, los átomos existían realmente. Este segundo ejemplo indica que la inferencia de la mejor explicación sirve para algo más que para encontrar la causa más probable de un fenómeno particular, como la desviación de las partículas alfa. Sirve de igual manera, o al menos eso se pretende, para establecer la existencia de ciertas entidades teóricas como los átomos, es decir, para mostrar que ciertos términos teóricos con un papel central en teorías concretas tienen una referencia

Scientia in verba Magazine 2619-2586

genuina. Es un argumento que puede venir así en ayuda, y muy eficaz por cierto, del realismo ontológico.12 Pero no queda ahí el uso que se hace de él. Como hemos dicho, el mismo esquema argumentativo ha sido utilizado por algunos realistas no ya para defender la existencia de esta o aquella entidad teórica concreta, sino para apoyar directamente el realismo científico. Veamos cómo. La ciencia es una actividad sumamente exitosa. Nos permite un manejo asombroso de los fenómenos naturales que se viene incrementando ininterrumpidamente desde su nacimiento. Las nuevas teorías tienen más éxito que las anteriores en ese manejo. Algunas de ellas, como la teoría cuántica, superan en eficacia predictiva, en exactitud y en aplicaciones prácticas todo lo que hubiera podido soñar un científico hace apenas cien años. Este aumento de la eficacia y este éxito sin rival es algo sobre lo que realistas y antirrealistas coinciden sin problemas. Para los instrumentalistas el éxito es el objetivo mismo de la elaboración de teorías, el rasgo definitorio del conocimiento auténtico, pero también un dato último. El realista, sin embargo, no se contenta con quedarse ahí, en el dato del éxito. Quiere averiguar además por qué se produce, qué es lo que hace que las teorías científicas sean tan buenos instrumentos para manejar el mundo. Muchos realistas creen que la mejor explicación del éxito de las teorías científicas en su tarea instrumental consiste precisamente en suponer que el mundo es en realidad (al menos de manera aproximada y sin descartar la posibilidad del error) como dicen las teorías. Bajo esta forma, la inferencia de la mejor explicación ha sido llamada

12  Nancy Cartwright prefiere llamar a estos dos usos del argumento “inferencia de la causa más probable”. Lo hace así para poner de relieve que en ellos no se infiere la verdad de leyes de esquemas explicativos generales, sino causas concretas. Como ahora diremos, otros usos del argumento no se conforman con eso y dan un paso que Nancy Cartwright no está dispuesta a dar. Cf. Cartwright (1983), pp. 82-85.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

106

Scientia in verba subpage /revista-scientia-in-verbapdf/ también “argumento del milagro”, ya que se considera que si las teorías científicas no fuesen una descripción verdadera del mundo real, entonces el éxito de la ciencia sería un milagro incomprensible. Cuando aún era un realista corriente (y creía en la teoría de la verdad como correspondencia), Putnam fue uno de sus principales valedores: Si hay tales cosas [electrones, espaciotiempo curvo, moléculas de ADN], entonces una explicación natural del éxito de estas teorías es que son informes parcialmente verdaderos de su comportamiento. Y una explicación natural del modo en que las teorías científicas se suceden unas a otras –por ejemplo, el modo en que la Relatividad einsteiniana sucedió a la Gravitación Universal newtoniana– es que se reemplaza una explicación parcialmente correcta/parcialmente incorrecta de un objeto teórico –digamos, el campo gravitatorio, o la estructura métrica del espacio, o ambos– por una explicación mejor del mismo objeto u objetos. Pero si estos objetos no existen realmente, entonces es un milagro que una teoría que habla de acción gravitatoria a distancia prediga con éxito los fenómenos; es un milagro que una teoría que habla de espacio-tiempo curvo prediga con éxito los fenómenos; y el hecho de que las leyes de la teoría anterior sean derivables ‘en el límite’ de las leyes de la teoría posterior no tiene significación metodológica.13 No es necesario, sin embargo, ser tan terminante para que el argumento funcione. El instrumentalista puede tener una explicación del éxito que no lo deje relegado al ámbito de lo providencial. Para beneficio del argumento basta con que esa explicación sea peor que la del realista. Lo que el realista afirma no es que la verdad sea la única explicación del éxito práctico de una teoría concreta, sino que es la mejor explicación del 13  Putnam (1978), p. 19.

Diéguez, A. 97-118

© Nullius in verba site

éxito generalizado y creciente del conocimiento científico. El éxito puede ser debido en ocasiones puntuales a otros factores aparte de la verdad, por ejemplo, al azar. Las causas del éxito de una teoría determinada pueden variar, y es evidente que ideas equivocadas pueden llevar a resultados prácticos exitosos. Así, la construcción de las primeras máquinas de vapor se llevó a cabo sobre la base teórica de que el calor era un fluido sutil (el calórico) que pasaba de los cuerpos calientes a los cuerpos fríos. También, como nos recuerda Rescher, los navegantes se orientaron muy bien durante siglos pensando que las estrellas estaban fijas en la bóveda celeste, algo que no puede ser considerado hoy ni siquiera como “aproximadamente verdadero”.14 Por eso el realista precavido no sostiene que del éxito de una teoría se infiere necesariamente su verdad. No tiene, pues, por qué sentirse abrumado ante la lista que Laudan presenta con teorías que fueron exitosas en su tiempo y que después fueron abandonadas como falsas. Lista que incluye, entre otras, la teoría del flogisto, la teoría del calórico, la teoría de las fuerzas vitales en fisiología, y la teoría del éter electromagnético.15 Decir que la mejor explicación del éxito de las teorías es su verdad aproximada no es lo mismo que decir que del éxito de una teoría se infiere necesariamente su verdad o que los términos principales de una teoría tengan un referente real. Ahora bien, un éxito prolongado y repetido de una teoría en situaciones diversas sí es para el realista una señal –por supuesto falible– de que entre la teoría y la realidad existe algo más que una adecuación empírica. ¿Por qué si no esta adecuación empírica continuaría dándose en las situaciones nuevas? Por otro lado, aun cuando una teoría falsa pueda circunstancialmente tener éxito, es difícil ver cómo el crecimiento exponencial de la ciencia, así como la 14  Cf. Rescher (1987), pp. 65-66. 15  Cf. Laudan (1984), p. 231.

107

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com

Magazine 2619-2586

Scientia in verba subpage /revista-scientia-in-verbapdf/

coherencia y el apoyo mutuo de diversas teorías con éxito en ámbitos diferentes, pueda ser explicado sin recurrir al concepto de verdad. Para sus partidarios, la fuerza del realismo está en tener un mayor poder explicativo que sus alternativas rivales. El realista cree que él puede explicar incluso el éxito temporal de teorías falsas, mientras que para el instrumentalista todo éxito es un misterio. Así, al mencionado ejemplo de Rescher, vale oponer las palabras de Smart: “[…] el sistema ptolomeico puede proporcionar casi las mismas predicciones relativas a los movimientos aparentes de los planetas que la hipótesis copernicana. De ahí que el presupuesto de la verdad realista de la hipótesis copernicana explique la utilidad instrumental de la ptolomeica. Tal explicación de la utilidad instrumental de determinadas teorías no sería posible si todas las teorías fuesen consideradas como meramente instrumentales”.16 A menos que se quiera inventar al maniqueo para darse el placer de refutarlo, se debe conceder al realismo la mejor forma de sus argumentos y no atribuirle más cosas que las que en ellos se contengan. Independientemente de los errores o exageraciones de este o aquel realista, el argumento de la mejor explicación en esta versión que comentamos se limita a sentar dos premisas, la primera de las cuales es compartida por el antirrealismo: a) Las teorías en las ciencias maduras tienen éxito. b) La mejor manera de explicar ese éxito es suponer que la realidad es, de manera aproximada, como dicen las teorías. La tesis b) afirma que la hipótesis realista es la que mejor explica el hecho del éxito, esto es, que el éxito práctico de la ciencia es lo que razonablemente cabe esperar si se admite que las entidades teóricas postuladas por las teorías existen

realmente (realismo ontológico), y también que la estructura que las teorías intentan imponer al mundo encajan con él al menos en sus líneas principales (realismo epistemológico y semántico). Así pues, lo que se afirma es que de las múltiples conceptualizaciones que se pueden hacer de la realidad, cualquiera que sea exitosa, muy posiblemente lo será porque guarda cierta similitud con el modo de ser de lo real. Debe destacarse ante todo que el realismo no se presupone como una posición ya establecida y aceptada, sino como una hipótesis explicativa entre otras posibles. Se parte de su posibilidad y de las consecuencias que de ello se seguirían. Además, tanto la referencia genuina como la verdad aproximada, son necesarias para que el argumento se sostenga en pié. El realismo ontológico por sí sólo no bastaría. Una teoría errónea y carente de éxito podría contener empero términos con referentes realmente existentes. La teoría galileana de las mareas, que las atribuía a la suma nocturna y a la substracción diurna de los movimientos de traslación y rotación de la Tierra, que en el primer caso tienen la misma dirección y en el segundo la contraria, es una teoría falsa, sin éxito (predecía una marea diaria, en lugar de dos), pero con referencia genuina. En la crítica que Laudan hace del realismo hay algunos aspectos mal caracterizados contra los que Laudan arremete cual molinos de viento. Entre ellos está precisamente éste: “La afirmación del realista de que debemos esperar que las teorías con referencia sean empíricamente exitosas es simplemente falsa”.17 Tal cosa es, en efecto, una falsedad manifiesta, sólo que el realista que la afirma es el inventado por Laudan. Para mayor claridad digamos que la inferencia de la mejor explicación no contiene ni explícita ni implícitamente ninguno de estos otros supuestos:

1. Una teoría cuyos términos teóricos no refieren no puede tener éxito jamás. 2. Una teoría cuyos términos teóricos refieren tiene éxito siempre. 3. El éxito de una teoría justifica su verdad. Dicho en pocas palabras, el realista afirma que la referencia genuina de los términos centrales de una teoría junto con la verdad aproximada es la mejor explicación de su éxito instrumental. Pero no afirma que el éxito instrumental de una teoría implique necesariamente la referencia genuina de sus términos o su verdad. Aclarado esto, puede exculparse al realista de la acusación que se le imputa de cometer la falacia de afirmación del consecuente, es decir, de efectuar el siguiente razonamiento incorrecto:18 p es verdadera → la aplicación de p tendrá más éxito que la de sus alternativas falsas p’, p”, etc. La aplicación de p tiene más éxito que sus alternativas. Por lo tanto, p es verdadera. Decir que A es la mejor explicación de Z no es lo mismo que decir que A implica Z o que Z implica A. Es simplemente afirmar que cuando se da Z, de todas las explicaciones posibles (A, B, C, etc.) de Z, la mejor es A. La idea de que A explica Z mejor que B o C representa una valoración comparativa entre diversos explanans posibles, pero no conduce en ningún momento a la tesis de que explicar sea implicar, de que una explicación de un hecho ha de adoptar necesariamente la forma de una implicación entre el explanans y el explanandum. Tras décadas de discusión sobre los modelos de explicación científica, no hace falta insistir mucho en que el concepto de implicación es en exceso restringido para dar cuenta del modo en que funciona la explicación en la ciencia. Sólo algunas veces encajan las explicaciones científicas con la forma de argumentaciones en las que el hecho explicado es implicado por las premisas

16  J. J. C. Smart (1975), p. 118.

17  Laudan (1984), p. 223.

18  Cf., por ejemplo, Rescher (1987), p. 66.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

108

Diéguez, A. 97-118

© Nullius in verba site

explicativas. Con mayor razón habrá, pues, que descartar este esquema estrecho en ámbitos menos formales y rigurosos que la ciencia. Si oímos pequeños ruidos por la noche y vemos por la mañana que ha desaparecido el queso de la despensa, la mejor explicación es suponer la presencia de un ratón en la casa. Sin embargo, esto no excluye la posibilidad de que se produzca el ruido y desaparezca el queso sin que haya un ratón (alguien puede haberse llevado el queso y el ruido puede producirlo el perro del vecino). Tampoco se excluye la posibilidad de tener un ratón en casa y no oír ningún ruido ni ver desaparecer el queso. Por lo tanto, ni ruido y desaparición del queso implica ratón, ni ratón implica ruido y desaparición del queso. Aún así, se concederá que dado que se oye ruido y el queso desaparece, lo más probable es que tenga un ratón en casa. O si se quiere, la probabilidad de oír ruidos y ver desaparecer el queso es mayor si se tiene un ratón en casa que si no se tiene, y por lo tanto, el dato de los ruidos y la desaparición del queso, proporciona buenas razones para creer que el ratón existe de hecho. Este mismo análisis es trasladable al caso de la verdad y el éxito de las teorías. El realista puede conceder a Laudan que éxito no implica verdad. Puede reconocer asimismo que la supuesta verdad de una teoría no tiene por qué conseguir más éxito que la supuesta falsedad de otra. Y con todo ello, el realista puede sin embargo mantener coherentemente que la mejor explicación del éxito prolongado es la verdad, porque (dadas ciertas condiciones acompañantes, como la habilidad técnica, los recursos adecuados o el tiempo suficiente) es probable tener éxito instrumental con teorías verdaderas. En cambio, si las teorías son falsas o se proponen al azar, no es normal esperar que se consigan con ellas resultados apreciables en el manejo de los fenómenos, aun cuando puedan

109

Nullius in verba Site www.nulliusinverbasite.com darse ocasionalmente casos en que así suceda. Sin embargo, ésta no es la única crítica que ha recibido la utilización de la inferencia de la mejor explicación como argumento en favor del realismo. Se ha objetado también que cuando se aplica para probar la verdad de las teorías el argumento se torna circular. El realista –se dice– no puede lícitamente concluir la verdad del realismo a partir de la tesis de que el realismo es la mejor explicación del éxito instrumental de la ciencia porque entonces da por sentado que la hipótesis que mejor explica unos hechos ha de ser verdadera, y eso es justamente lo que el antirrealista no acepta. Para el antirrealista, que algo sea la mejor explicación de un hecho no es garantía de su verdad. Él niega que la inferencia de la mejor explicación sea una inferencia legítima cuando se aplica a cosas inobservables. El argumento sólo sería concluyente para aquellos que ya están previamente convencidos del realismo, para aquellos que piensan que una buena explicación es una señal de la verdad en lugar de un informe empíricamente adecuado.19 Van Fraassen ha formulado esta objeción de manera precisa. Por una parte –aduce en The Scientifc Image–, la afirmación realista de que estamos dispuestos a creer que la hipótesis o teoría que mejor explica una serie de fenómenos es verdadera es ella misma una hipótesis psicológica que puede ser sustituida por otra rival, a saber: que estamos dispuestos a creer que la hipótesis o teoría que mejor explica los fenómenos es empíricamente adecuada, es decir, que los fenómenos observables son como la teoría dice. Son dos hipótesis posibles, una realista y la otra antirrealista, y “casos como el del ratón en el entablado no pueden proporcionar una evidencia eficaz entre estas dos hipótesis rivales. Pues el ratón es una cosa observable; por 19  Cf. Fine (1986), pp. 114 y ss., Laudan (1984), pp. 242-3, y Lipton (1991), pp. 158-168.

Scientia in verba Magazine 2619-2586

lo tanto, ‘hay un ratón en el entablado’ y ‘todos lo fenómenos observables son como si hubiera un ratón en el entablado’ son totalmente equivalentes; cada una implica a la otra (dado lo que sabemos sobre ratones)”.20 Así pues, según esto, el argumento presupone que una hipótesis que mejor explica los hechos es, por eso mismo, verdadera; lo cual es de por sí una concepción de la explicación peculiar del realismo. La regla de inferencia es cuestionada, pero lo es a través de la noción de verdad que se encierra tras ella. Para el antirrealista no hay por qué creer que la hipótesis que mejor explica ciertos fenómenos es verdadera; basta con creer que es empíricamente adecuada. Por otro lado –continúa van Fraassen en las mismas páginas–, aun si se aceptara que debemos tomar como verdadera la mejor explicación de un fenómeno, el argumento necesita una premisa adicional para ser correcto. La inferencia de la mejor explicación parte de la posesión de un elenco de hipótesis diferentes para explicar un fenómeno, de entre las cuales se elige la que proporciona una explicación mejor que las otras. Ahora bien, ¿cómo han de ser las hipótesis de ese conjunto inicial? Para el realista deberán ser hipótesis que expliquen las regularidades observadas (señalando, por ejemplo, una causa objetiva, aunque quizás no observable, de esas regularidades), pero el antirrealista se conforma con hipótesis de la forma ‘la teoría Ti es empíricamente adecuada’, tomando las regularidades como un hecho bruto y sin intención de recurrir a nada más allá de las mismas. “Así, el realista necesitará su especial premisa extra de que toda regularidad de la naturaleza necesita una explicación […]. Y esta es justamente la premisa que distingue al realista de sus oponentes”.21 He aquí, pues, el segundo motivo para imputar circularidad a la inferencia de la mejor explicación. El argumento 20  Van Fraassen (1980), p. 21. 21  Van Fraassen (1980), p. 21.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

110

Scientia in verba subpage /revista-scientia-in-verbapdf/ central del realista, al que van Fraassen denomina ‘argumento final’ (ultimate argument), podría ser escrito así: Premisa extra: Toda regularidad necesita explicación [que puede incluir entidades inobservables]. Premisa 1: [Es una regularidad constatable que] las teorías en las ciencias maduras tienen éxito. Premisa 2: La mejor explicación de ese éxito instrumental de las teorías científicas es suponer que la realidad es, de manera aproximada, como dicen la teorías. [Regla de inferencia abductiva: Si hay una hipótesis que es la que mejor explica una regularidad, conclúyase esa hipótesis] Luego: La realidad es, de manera aproximada, como dicen las teorías científicas de las ciencias maduras [incluyendo las entidades inobservables]. Al aceptar la premisa adicional el realista, según van Fraassen, ya estaría presuponiendo el realismo, porque la exigencia de buscar explicaciones a las regularidades factuales da por sentado que tras esas regularidades hay realmente causas inobservables. En consecuencia, sería circular usar el argumento para concluir la existencia de dichas causas. El argumento quiere probar la existencia de entidades inobservables (y de afirmaciones verdaderas sobre ellas), pero la razón que aduce para ello es que eso permite la mejor explicación del éxito de la ciencia, y la noción realista de mejor explicación contiene ya la idea de que tales entidades inobservables existen y se puede afirmar con verdad cosas sobre ellas. En cuanto al éxito de la ciencia, aceptando que reclame él mismo una explicación, hay, según su criterio, una alternativa mejor que la realista. En la medida en que facilita la interacción entre el ser humano y su entorno, la ciencia es un fenómeno biológico. Lo

Diéguez, A. 97-118

© Nullius in verba site

oportuno será entonces explicar en términos biológicos (darwinistas) la razón de su éxito. Van Fraassen lo aclara con un ejemplo. El hecho de que el ratón huya del gato puede ser explicado de dos maneras. Puede decirse que . Esta es la explicación de San Agustín y, como la del realista, implica la adecuación entre el “pensamiento” del ratón y el mundo. Pero un darwinista dará una explicación muy diferente. Para él, la pregunta de por qué el ratón huye de su enemigo el gato es ociosa. Una especie que no se protege de sus enemigos naturales no sobrevive, por tanto todas las especies que hay lo hacen. Si se razona del mismo modo con respecto a las teorías científicas, se obtiene una explicación de su éxito que no necesita recurrir al concepto de verdad: “El éxito de la ciencia no es un milagro. Ni siquiera es sorprendente para una mente científica (darwinista). Pues cualquier teoría científica nace a una vida de feroz competición, en una selva de garras y colmillos enrojecidos. Sólo las teorías exitosas sobreviven –las que de hecho se adhieren a las regularidades reales de la naturaleza”.22 Como se ve, las objeciones de van Fraassen afectan a los diversos usos señalados del argumento. Todos presupondrían la noción de que la mejor explicación de un fenómeno ha de ser una hipótesis verdadera. Y todos presupondrían que las regularidades empíricas (desaparición del queso o de los muebles, resultados de mediciones experimentales, éxito instrumental de las teorías) no son regularidades brutas, sino que necesitan una explicación en el sentido realista. No obstante, en la medida en que el uso que él denomina ‘argumento final’ es el más fuerte, será en dicho uso en el que me centraré, pues si éste se salva de las críticas, será posible también salvar a los otros menos problemáticos. Las réplicas a las objeciones de van 22  Van Fraassen (1980), p. 26.

111

Nullius in verba Site www.nulliusinverbasite.com Fraassen se han basado en dos líneas de defensa: 1) la circularidad del argumento o no existe o, si existe, no es fatal para el argumento, y 2) La explicación del éxito que da van Fraassen no explica nada en realidad, sobre todo no explica el éxito predictivo de nuevos fenómenos. Por razones de espacio, aquí sólo me puedo ocupar de la primera.23 Dentro de esa primera línea, Peter Lipton ha comparado la circularidad de la que se acusa a la inferencia de la mejor explicación con la circularidad que desde Hume se atribuye típicamente a la justificación inductiva de las inferencias inductivas. Solemos confiar en las inferencias inductivas porque vemos que han tenido éxito en el pasado y de ahí inferimos que seguirán teniendo éxito en el futuro. Pero esta inferencia en la que se sustenta nuestra confianza es ella misma una inferencia inductiva, con lo cual se da por supuesto lo que queremos probar –que la inducción merece nuestra confianza–, y estamos incurriendo, por tanto, en una justificación circular, en una petitio principii. Ahora bien, según Lipton, es difícil dar una caracterización unívoca de qué sea la circularidad en un argumento. Él considera que la noción de circularidad es relativa a la audiencia ante la que se exponga el argumento. Lo que para unos es una argumentación circular para otros puede no serlo. Así, para alguien que mantenga una actitud escéptica ante la inducción, su justificación inductiva será una mera falacia; en cambio, para los que previamente están dispuestos a confiar en la inducción, su justificación mediante una inferencia de tipo inductivo no es falaz, puesto que “nada hay de ilegítimo en dar argumentos para creencias que ya se mantienen”.24 La justificación inductiva de la inducción no convencerá al escéptico, pero eso no significa, según Lipton, que carezca de valor para los que aprueban la 23  Para reconstruir la segunda línea de defensa remito al lector a Musgrave (1985) y Ursúa (1993), cap. II. 24  Lipton (1991), p. 164.

Scientia in verba Magazine 2619-2586

inducción. Lo mismo le sucedería a la inferencia de la mejor explicación, es circular para el antirrealista, pero no para el realista, quien por tanto la puede usar legítimamente en defensa de su posición.25 La réplica de Lipton no es, en mi opinión, satisfactoria, ya que en el mejor de los casos respondería sólo a la primera de las imputaciones que hace van Fraassen, no a la segunda. Se puede interpretar, en efecto, que van Fraassen efectúa contra la inferencia de la mejor explicación la misma crítica que Hume hiciera contra las inferencias inductivas en general: pretender justificar la regla de inferencia en la que fundamentan su corrección en una inferencia del mismo tipo. Es decir, así como los intentos de justificar inductivamente la regla de inferencia inductiva la están ya presuponiendo de antemano, se comete el mismo error si se quiere ahora justificar la regla de inferencia abductiva recurriendo a su éxito en la práctica científica, o sea, si se la quiere justificar abductivamente. La circularidad aludida es entonces una circularidad relativa a la justificación de la inferencia y, por tanto, se puede entender a Lipton cuando replica que al que la acepta previamente como una forma válida, la acusación no le impresiona demasiado. No sería inoportuno en este punto traer a colación las respuestas que los defensores de la inducción han dado reiteradamente a las tesis de Hume. Por un lado, parece que pedirle a la inducción una justificación, en el sentido de encontrarle un fundamento firme que garantice su fuerza demostrativa al modo de las inferencias deductivas –esto es, que establezca la verdad de las conclusiones dada la verdad de las premisas– es una exigencia desmedida y fuera de lugar. Por otro lado, si lo que se reclama cuando se pide una justificación de la inferencia inductiva son sólo buenas razones para aceptar su validez como modo de 25  En lo esencial, ésta es también la réplica de R. Boyd 1984, pp. 72-73.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

112

Scientia in verba subpage /revista-scientia-in-verbapdf/ inferencia, una razón más que suficiente es su eficacia en el pasado. Con ello se recurre, bien es verdad, a un argumento inductivo, pero la circularidad aquí detectable no tiene un carácter vicioso si no se insiste en exigir que cualquier justificación sea una justificación última. No obstante, caben respuestas más directas y ajustadas a la primera objeción de van Fraassen. Éste no acepta que una hipótesis que mejor explica unos fenómenos sea por eso verdadera, sino sólo empíricamente adecuada; y sostiene que, por ejemplo, en lugar de creer en la verdad de la hipótesis ‘Tengo un ratón en casa’, se ha de creer sólo en que todo es como sí tuviera un ratón en casa. Pero ¿qué pasa si se procede del mismo modo cuando el argumento se utiliza para apoyar directamente el realismo? Supongamos que el antirrealista admitiera la posibilidad de que la mejor explicación del éxito de la ciencia es el realismo (ontológico, epistemológico y semántico). Eso, según la argumentación de van Fraassen, no debería llevarlo más que a la conclusión de que el realismo era empíricamente adecuado, pero no verdadero.26 En otras palabras, lo que el argumento nos debiera conducir a creer no es que la realidad es, de manera aproximada, como dicen las teorías de las ciencias maduras, sino que todos los fenómenos observables son como si la realidad fuera, de manera aproximada, como dicen las teorías de las ciencias maduras. Sin embargo, al hacer esto, el antirrealista estaría formulando una tesis bastante peculiar: “el realismo es empíricamente adecuado, pero no verdadero”. Pero esta afirmación va más en contra del antirrealista que del realista. De hecho, negar el realismo para sostener al cabo que las apariencias fenoménicas se estructuran como si hubiera una realidad independiente homóloga es, como ya enseñó Shimony, hacer al fenomenismo parasitario del 26  Es esa la objeción primera de van Fraassen (1980), p. 20 y también la de Fine (1986), p. 114.

Diéguez, A. 97-118

© Nullius in verba site

realismo.27 El realista parte de la premisa de que la mejor explicación del éxito de las teorías es la suposición de que la realidad es como las teorías dicen. Si el antirrealista concede esta premisa, entonces ya no tiene armas para descalificar el argumento, porque en tal caso debe admitir que pueda haber buenas hipótesis explicativas que vayan más allá de lo puramente fenoménico, y no tiene sentido que lo excluya en la regla de inferencia. Una vez admitidas las mismas premisas y la validez del argumento, la conclusión ha de ser igual para todos. Teniendo en cuenta que se trata de un argumento inductivo, cabe la posibilidad de que las premisas sean verdaderas y no lo sea la conclusión. Pero lo que no puede ocurrir es que, aceptadas las premisas y la validez del argumento, se esté en desacuerdo sobre cuál debe ser la conclusión. Así pues, si se decide a aceptar la verdad de las premisas, el antirrealista se priva de la única salida que le quedaba para mantener la circularidad. Sin embargo, la circularidad que van Fraassen le imputa en segundo lugar a la inferencia de la mejor explicación es de una clase diferente y menos excusable en caso de ser cierta. Es una circularidad en el argumento propiamente dicho, no en su justificación como modo de inferencia. Según nos dice, el argumento quiere establecer una conclusión que ya se da por supuesta en las premisas. En otras palabras, no rechaza en este caso la inferencia de la mejor explicación porque se justifique a su vez mediante una inferencia de la mejor explicación. La rechaza porque el contenido de la inferencia es circular. Está claro que no se le puede aplicar ahora la misma estrategia de defensa que a los argumentos inductivos en general. De lo contrario, cualquier petitio principii estaría en el mismo caso. Como ya vimos, la circularidad 27  Cf. A. Shimony (1976), p. 573.

113

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com imputada consiste en aceptar entre las hipótesis explicativas posibles algunas que, por incluir entidades inobservables, ya presuponen el realismo. Lo ilegítimo sería, por tanto, introducir una realidad inobservable detrás de los fenómenos, dando por sentada y no problemática la pretensión de que el argumento sirve para establecer explicaciones transfenoménicas de regularidades fenoménicas. Para el realista esas regularidades reclaman efectivamente una explicación, mientras que para el antirrealista no hay nada que explicar: hay que tomarlas como son. Ahora bien, ¿hace realmente circular al argumento la pretensión del realista? Yo creo que no. El antirrealista está en su derecho de parar la petición de explicaciones una vez que se alcanzan determinadas regularidades fenoménicas, aunque ciertamente es una exigencia bastante difícil de cumplir, pues el propio van Fraassen se siente obligado a dar una explicación del éxito de la ciencia. Es verdad que lo hace como si fuera una concesión provisional a las pretensiones realistas, como para mostrar que puede vencerle en su mismo terreno, pero luego se toma el trabajo en nota a pié de página de defender su explicación frente a las objeciones. Al reclamar una explicación de las regularidades fenoménicas, el realista deja abiertas posibilidades que el antirrealista niega, pero también está en su derecho de hacerlo. Esas posibilidades incluyen la postulación de la existencia de entidades inobservables. Sin embargo, es importante notar que el realista parte en su argumento de la mera posibilidad de tal cosa. Entre otras hipótesis explicativas posibles, el realista cuenta con algunas en las que el antirrealista no está dispuesto a seguirle porque introducen entidades inobservables. En un caso típico, el argumento acepta la posibilidad de estas hipótesis explicativas, sostiene además que una de ellas es la mejor entre las

Magazine 2619-2586

otras alternativas igualmente posibles, y concluye que debe ser aceptada como verdadera. Desde este punto de vista no hay circularidad alguna. Se parte de la posibilidad de una hipótesis para concluir su verdad. La circularidad habría estado en partir de la verdad de una hipótesis para concluirla sin más. Dicho de otro modo, el argumento de la mejor explicación no presupone la verdad del realismo, sino la posibilidad de que sea verdadero; no lo da desde el principio como admitido, sino sólo como alternativa a considerar.

4. Conclusiones ‘Realismo científico’ es una denominación ambigua y hasta cierto punto difusa que ha englobado posiciones muy diferentes (por ejemplo, Putnam y Bunge) y que ha recibido interpretaciones diversas. Para centrar la discusión, aquí hemos entendido que designa un cierto modo de concebir la relación entre las teorías científicas y la realidad. Una vez desglosado en varias tesis, hemos mostrado que éstas no han sido, ni tienen por qué ser, aceptadas en bloque. Sobre todo, hay que saber que la opinión que se adopte acerca del problema de la verdad (si es o no un objetivo de la ciencia, y si lo es, cómo entenderla), no compromete necesariamente en lo que se piense acerca de la existencia de las entidades teóricas y de la independencia de la realidad con respecto a nuestros procesos cognitivos. Algunas de estas tesis que integran el realismo tienen un carácter más empírico que otras. Todas, sin embargo, se entienden mejor como principios interpretativos, teniendo siempre presente que las consideraciones empíricas, aunque relevantes para enjuiciarlas, no pueden servir como evidencia para la validación o refutación de ninguna de ellas. Dicho de otro modo, el realismo científico no pertenece a la ciencia empírica. No es propiamente una

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

114

Scientia in verba subpage /revista-scientia-in-verbapdf/ teoría científica sobre la ciencia, puesto que versa sobre la mejor manera de interpretar nuestros conceptos y teorías científicos, lo cual no es una cuestión empírica. Tal como se lo entiende habitualmente, pertenece a la filosofía de la ciencia; pero como otras muchas doctrinas filosóficas, no carece de consecuencias empíricas que lo puedan presentar con un grado mayor o menor de plausibilidad. El estudio de cuestiones empíricas, tales como el tipo de procesos mentales que conducen a la elaboración de teorías, los procedimientos institucionalizados o relativamente improvisados por los que los científicos consiguen el acuerdo sobre la aceptación de éstas, o la función de adaptación al medio que el conocimiento científico pueda cumplir, son sin duda pertinentes y hasta relevantes en la evaluación de cualquier teoría epistemológica. No es posible hoy una epistemología fundamentada exclusivamente en la metafísica. Pero también es cierto que, al menos por el momento, la idea de una epistemología completamente naturalizada, esto es, convertida ella misma en una ciencia, es sólo un proyecto incipiente. La inferencia de la mejor explicación es quizá el arma más poderosa con la que cuenta el realismo; lo que explica que sea tan criticada por los antirrealistas. No obstante, adecuadamente formulada, puede escapar de las objeciones más fuertes presentadas hasta el momento. La inferencia de la mejor explicación no es una forma de la falacia de afirmación del consecuente (objeción que suelen hacer contra toda inferencia inductiva aquellos que se dejan seducir por el maximalismo deductivista). Tampoco es una petitio principii cuando se la usa explícitamente para argumentar en favor del realismo. Se trata de un modo de inferencia ampliamente usado en la vida cotidiana y con un más que notable historial en la investigación científica.

Diéguez, A. 97-118

© Nullius in verba site

No es razonable descalificarla sólo porque el realista ha hecho uso de ella en favor de su concepción de la ciencia. Por lo normal aceptamos una hipótesis (dejemos de lado si la consideramos además verdadera) cuando es la mejor explicación de una serie de fenómenos. ¿Por qué ese procedimiento inferencial debería ser recusado cuando el realista lo emplea para explicar la serie de éxitos pasados y presentes de determinadas teorías? La respuesta del realista es que la verdad aproximada de las teorías explicaría muy bien dicho fenómeno del éxito y concluye que debe aceptarse la hipótesis de que nuestras mejores teorías son aproximadamente verdaderas o, si se quiere, que la realidad es, de manera aproximada, como dicen las teorías de las ciencias maduras. Ciertamente, el uso de la inferencia para concluir la existencia de entidades inobservables (electrones, genes, quarks, agujeros negros) cuando éstas permiten explicar causalmente una variedad de fenómenos, está mejor asentado y tiene mejor historial que el uso de la inferencia en su forma de “argumento final” para explicar el éxito de las teorías científicas. Esto ha llevado a Nancy Cartwright a distinguir entre la “inferencia de la causa más probable”, que iría de efectos concretos a causas concretas, y la inferencia de la mejor explicación propiamente dicha; y a aceptar la primera pero no la segunda.28 Mientras la inferencia de la causa más probable apoyaría sólo el realismo ontológico, la inferencia de la mejor explicación en su forma de “argumento final”, se dirige especialmente a sustentar el realismo semántico. Coincido en que la primera posee más solidez que la segunda, pero encuentro también que las críticas dirigidas contra la segunda son rebatibles y que el realismo tiene razón al sostener que no tenemos mejor explicación del éxito de la ciencia que la de suponer la 28  Cf. Cartwright (1983), pp. 82-85.

115

Nullius in verba Site www.nulliusinverbasite.com verdad aproximada de nuestras teorías. El realismo prudente no identifica el éxito de una teoría con su verdad, ni defiende que el éxito implique verdad o la verdad éxito. Tampoco afirma que una teoría cuyos términos centrales refieren será una teoría exitosa. Es evidente que ha habido teorías con éxito temporal que luego se han desechado porque eran falsas o porque postulaban entidades inexistentes. También ha habido teorías que postulaban entidades aceptadas hoy como existentes y que tuvieron durante un tiempo menos éxito que sus rivales, como fue el caso del atomismo frente a la teoría de las afinidades electivas en la química del XVIII. Lo que el realismo sostiene es que entre las otras posibilidades (el azar, la falsedad, la providencia divina, la armonía preestablecida, la dura competencia por conseguir la aceptación, etc.), la verdad aproximada de una teoría y la referencia genuina de sus principales términos teóricos es la que mejor explica su éxito instrumental duradero. El antirrealista tiene la salida de decir que, en realidad, el éxito de las teorías científicas no requiere explicación porque es el resultado inevitable del propio proceso de selección de teorías. Pero eso es ya en sí mismo una explicación alternativa a la del realista, sólo que mucho más problemática y menos convincente. Desde el punto de vista psicológico resultaría bastante extraño el agrado y la sorpresa que causa un nuevo descubrimiento científico si el éxito de nuestras teorías fuera un dato último o el producto natural de la rivalidad entre teorías. En numerosas ocasiones los científicos que han participado en grandes descubrimientos o han conseguido unificar bajo los mismos principios fenómenos muy dispares describen su experiencia como la de quien ha conseguido arrancar algún secreto al Universo. No se entendería tampoco por qué los científicos no suelen quedarse

Scientia in verba Magazine 2619-2586

satisfechos con teorías que funcionan bien pero de las que no saben la razón de su éxito. Finalmente –devolviendo el envite al antirrealista–, si bien algunas teorías con referencia genuina tuvieron durante un tiempo menos éxito que sus rivales, y supuesto que la adecuación empírica o la eficacia predictiva fuera lo único que importara, no se explica por qué en ocasiones se aceptaron dichas teorías antes de que superaran a las rivales en éxito predictivo, como ocurrió en el caso de la teoría copernicana frente a la ptolemaica. En tales ocasiones parece muy claro que la ontología de la teoría se puso por encima de su exactitud para salvar las apariencias. El realista puede coherentemente defender el realismo ontológico y el epistemológico sin defender al mismo tiempo el semántico. No obstante, en el argumento de la mejor explicación se encuentra un buen modo de unir estas diversas modalidades, ya que al aceptar que la realidad es aproximadamente como dicen las teorías científicas, se acepta implícitamente que las entidades teóricas postuladas por las teorías existen realmente y que la estructura que las teorías intentan imponer al mundo encajan con él en sus líneas principales. El antirrealismo, que ya en el debate sobre los fundamentos de la teoría cuántica había mostrado su tendencia a buscar posiciones mínimamente comprometidas desde el punto de vista ontológico para poder hacerlas permanentes, pone de nuevo de manifiesto esta tendencia al atajar la pretensión realista de encontrar una explicación del eficaz funcionamiento de la ciencia. Sin embargo, si entre los objetivos de la ciencia está mejorar nuestra comprensión del mundo, no nos podemos dar por contentos aceptando sólo un conjunto de ecuaciones que funcionan bien pero sobre cuyo significado nos está vedado indagar.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

116

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Referencias

BOYD, R. N. (1984), “The Current Status of Scientific Realism”, en J. Leplin (ed.), Scientific Realism, Berkeley: University of California Press. CARTWRIGHT, N. (1983), How the Laws of Physics Lie, Oxford: Clarendon Press. DEVITT, M. (1984), Realism and Truth, Oxford: Blackwell. FINE, A. (1986), The Shaky Game. Einstein Realism and the Quantum Theory, Chicago: The University of Chicago Press. GIERE, R. (1988), Explaining Science. A Cognitive Approach, Chicago: The University of Chicago Press. GONZÁLEZ, W. (1993), “El realismo y sus variedades: El debate actual sobre las bases filosóficas de la ciencia”, en A. Carreras (ed), Conocimiento, ciencia y realidad, Zaragoza: Mira Editores. HAACK, S. (1987), “Realism”, Synthese, 73, pp. 275-299. HACKING, I. (1983), Representing and Intervening, Cambridge: Cambridge University Press. HARMAN, G. H. (1965), “Inference to the Best Explanation”, Philosophical Review, 74, pp. 88-95. HARRÉ, R. (1986), Varieties of Realism, Oxford: Blackwell. LAUDAN, L. (1977), Progress and its Problems, Berkeley: University of California Press. –– (1984), “A Confutation of Convergent Realism” , en J. Leplin (ed), Scientific Realism, Berkeley: Unversity of California Press, pp. 218-249. LIPTON, P. (1991), Inference to the Best Explanation, London: Routledge. MOULINES, U. (1991), Pluralidad y recursión. Estudios epistemológicos, Madrid: Alianza. MUSGRAVE, A. (1985), “Realism versus Constructive Empiricism”, en P. M. Churchland y C. A. Hooker (eds), Images of Science, Chicago: The University of Chicago Press, pp. 197-221. NIINILUOTO, I. (1987), “Progress, Realism, and Verisimilitude”, en P. Weingartner

Diéguez, A. 97-118

117

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

y G. Schurz (eds), Logic, Philosophy of Science and Epistemology. Proceedings of the 11th International Wittgenstein Symposium, Wien: Hölder-Pichler. PUTNAM, H. (1978), Meaning and the Moral Sciences, London: Routledge & Kegan Paul. –– (1990), Realism with a Human Face, Cambridge, MA.: Harvard University Press. RESCHER, N. (1987), Scientific Realism. A Critical Reappraisal, Dordrecht: Reidel. –– (1994), Los límites de la ciencia, trad. L. Rodríguez Duplá, Madrid: Tecnos. (1ª ed. en inglés en 1984). SHIMONY, A. (1976), “Coments on two Epistemological Theses of Thomas Kuhn”, en R. S. Cohen, P. K. Feyerabend y M. W. Wartofsky (eds), Essays in Memory of Imre Lakatos, Dordrecht: Reidel, pp. 569-588.

S

Antonio Diéguez Lucena

S

SMART, J. J. C. (1975), Entre ciencia y filosofía, trad. Esperanza Guisán, Madrid: Tecnos. TRIGG, R. (1989), Reality at Risk. A Defence of Realism in Philosophy and the Sciences, 2ª ed., London: Harvester. URSÚA, N. (1993), Cerebro y conocimiento: Un enfoque evolucionista, Barcelona: Anthropos. Catedrático de lógica y filosofía de la ciencia de la unviersidad de Málaga Investigador Principal en el Grupo de Investigación en Ciencias Cognitivas, del Plan Andaluz de Investigación, código HUM 264.

VAN FRAASSEN, B. C. (1980), The Scientific Image, Oxford: Clarendon Press.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

118

119

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site Scientia in Verba Mag. 3, 121-130 (2019)

Fragmento de la tesis: Hipótesis metafísicas en la ciencia: Capítulo 4. Evaluaciónm de los argumentos Mtro. Mauricio Dimeo Coria1 1  Universidad Salesiana, Universidad YMCA México

Resumen.

“Si partimos de la definición de realidad de Bunge, donde un objeto es real si es capaz de influir o ser influido por otro, vemos que la realidad de las entidades que postula la ciencia radica en su capacidad de interacción y no en su observabilidad, es decir, los observables y los inobservables son reales en la medida en que podamos percibir su influencia hacia otros objetos.”

Particularmente, trataremos de responder tres cuestiones: a) si podemos comprometernos con la existencia de entidades inobservables, b) si es necesario ser materialista en la ciencia y c) si es indispensable una metafísica de la ciencia.

4.1 ¿Podemos comprometernos con la existencia de entidades inobservables? En este apartado veremos cómo la noción de realidad de Bunge se contrasta con el empirismo de van Fraassen y qué papel juegan en la investigación científica.

4.1.1 Realidad de las entidades. La postura de van Fraassen sobre las entidades que postula la ciencia, obedece a un escepticismo justificado, en razón de que la ciencia ha formulado una infinidad de entidades inobservables, las cuales tuvieron que desecharse, aun cuando en su momento resultaron útiles al avance de la ciencia. Por otro lado, de acuerdo con Bunge (1983) el cambio científico no desecha a la mayoría de las entidades, sino que las perfecciona para integrarlas a los nuevos paradigmas, así por ejemplo, el concepto de átomo ha ido mejorando hasta perder su significado etimológico y adquirir una gran importancia para la física cuántica. Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

120

Dimeo, M. 121-130

Lo mismo ocurre con conceptos como masa o evolución, sólo una mínima parte de las entidades formuladas son desechadas completamente, como el calórico, el flogisto o el éter. Esto se debe a que la mayor parte de las entidades formuladas en la ciencia poseen cierta realidad, es decir, no podemos afirmar que todas las entidades que se teorizan son reales plenamente puesto que se ha descubierto lo contrario, pero tampoco podemos mantenernos agnósticos en cuanto a su existencia, dado que, como sostiene Bunge, poseen cierta influencia sobre otras entidades. Van Fraassen respondería a Bunge que dicha influencia evidencia que tales entidades poseen sólo cierta adecuación empírica y con ello evitamos hacer compromisos ontológicos, es decir, sostener que las entidades que formula la ciencia sobreviven en razón del éxito empírico que brindan, genera una visión que permite trabajar con inobservables sin asumir un compromiso de existencia sobre éstos, que luego deba ser rechazado. Partiendo de Bunge, podemos contestar que establecer grados de realidad es indispensable para categorizar las entidades que se nos presentan en la investigación científica. Ya que no sólo debemos adecuarnos empíricamente, también es necesario atribuir realidad a las entidades teóricas, siempre que se haga una clara gradación en razón de la capacidad de interacción de tales entidades. De lo contrario concebiríamos a la ciencia como una disciplina ciega, en el sentido de ser incapaz de conocer

121

Nullius in verba Site www.nulliusinverbasite.com su campo de trabajo y estaríamos menospreciando la posibilidad racional de conocer nuestro entorno y a nosotros mismos. En ese sentido, el dilema sobre si las entidades que postula la ciencia son plenamente reales o empíricamente adecuadas es un falso dilema, la solución para poseer una ciencia que se desarrolla con plena conciencia de lo que investiga, radica en sostener que cada entidad que postula la ciencia es real en cierto grado (Bunge, 2002a:89), es real en la medida en que influye sobre otros objetos y es imaginaria en la medida en que le imponemos nuestra teoría. Y si es verdad, como sostiene van Fraassen, que las teorías son exitosas cuando encajan en regularidades reales en la naturaleza (1996:61), esto es posible en la medida en que poseen grados de realidad.

4.1.2 Observable e inobservable. Van Fraassen sostiene una concepción semántica de las teorías, donde los modelos de datos juegan un papel fundamental en la construcción de entidades inobservables, tales entidades funcionan como criterios útiles dentro de marcos teóricos determinados. Si bien van Fraassen hace una distinción acertada entre lo observable y lo inobservable, probablemente no implica que debamos mantenernos agnósticos en cuanto a la existencia de los inobservables, ya que de acuerdo con Bunge, la ciencia no es meramente observacional o teórica, en razón de que su parte experimental nos permite conocer la existencia de inobservables, en la medida en que podemos interactuar con tales objetos. Como explica Bunge, la realidad de un objeto no reside en su observabilidad, sino en su capacidad de influir sobre otros objetos. De lo contrario las ilusiones serían más reales que los electrones, pues éstas son más visibles que los

Scientia in verba Magazine 2619-2586

últimos. Defender la realidad de los inobservables es fundamental para el avance de la ciencia, ya que las entidades inobservables abundan en la física, la química y la biología, entre otras, y no confiar en su realidad, contrastada experimentalmente, impide el avance de las investigaciones. Los recursos destinados a la investigación científica serían más discutibles si no se confiara en la existencia de los átomos, del ADN o del pensamiento, entre otros. En ese sentido, si partimos de la definición de realidad de Bunge, donde un objeto es real si es capaz de influir o ser influido por otro, vemos que la realidad de las entidades que postula la ciencia radica en su capacidad de interacción y no en su observabilidad, es decir, los observables y los inobservables son reales en la medida en que podamos percibir su influencia hacia otros objetos. Van Fraassen contestaría que no podemos medir la interacción de un objeto si no estamos seguros de qué objeto se trata, ya que si no podemos observarlo directamente su existencia está sujeta a la interpretación de las teorías y por tanto podemos estar midiendo una influencia inexistente o errónea. Sin embargo, Bunge contestaría que el hecho de que haya interacción significa que estamos midiendo un objeto o campo en particular, de modo que tenemos la posibilidad de asignarle grados de realidad a dicho objeto, sin importar que momentáneamente le estemos dando un nombre o una caracterización que no lo identifique adecuadamente. Es decir, el objeto es real en la medida en que podemos medir su interacción (como su masa o su energía) y es irreal en la medida en que le atribuimos concepciones que no le corresponden, la cuestión está en establecer el grado preciso de realidad y no en mantenernos agnósticos ante su existencia. De este modo favorecemos una investigación científica consciente de los objetos con los

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

122

Scientia in verba subpage /revista-scientia-in-verbapdf/ que trabaja y no una investigación ciega que subestime la capacidad humana de conocer su entorno.

4.1.3 Apariencia y realidad. Para van Fraassen las apariencias no son reales, en la medida en que son resultado de las mediciones, por lo que su utilidad científica es limitada. Por el contrario, para Bunge las apariencias son parte de la realidad y gradualmente reales, pues cuando menos ocurren dentro del cerebro y el cerebro es plenamente real. Las apariencias no son radicalmente distintas a los fenómenos, ya que no hay nada que podamos observar fidedignamente de modo absoluto. En otras palabras, todo lo que percibimos es una apariencia, aunque sea en grado mínimo, (en la medida en que el ojo es una mediación entre el mundo y el cerebro), por lo que darles un valor epistémico es fundamental para comprender la realidad. Van Fraassen respondería que pese a que las apariencias puedan tener cierto grado de realidad, no podemos conocer dicho grado, debido a que las mediciones están sujetas a la interpretación del observador y de la teoría, de modo que tanto las apariencias como los inobservables están fuera de nuestro alcance y es mejor juzgarlos de acuerdo a su adecuación empírica. A lo que Bunge contestaría que están a nuestro alcance en razón de que podemos medir su interacción sobre otros objetos, ya que si bien las mediciones son interpretables, poseen patrones de medida objetivos y estandarizados, de modo que las apariencias y los inobservables son reales en cierto grado, lo importante es investigar dicho grado y no limitarse a la adecuación empírica. Por ejemplo, para van Fraassen los átomos son apariencias en la medida en que requieren de la mediación de

Dimeo, M. 121-130

© Nullius in verba site

un microscopio y de la correspondiente carga teórica para ser vistos. Por el contrario, para Bunge la apariencia que obtenemos del microscopio refleja átomos gradualmente reales, en razón de que a pesar de que existe una construcción teórica de fondo y una mediación entre el sujeto y el objeto, el mismo ojo también es una mediación entre los fenómenos y el cerebro, de modo que si seguimos a van Fraassen hasta las últimas consecuencias: todo sería una apariencia y si seguimos a Bunge podemos ordenar el mundo en una oscilación gradual entre apariencia y realidad.

4.2 ¿Es necesario ser materialista en la ciencia? En este apartado analizaremos la visión de van Fraassen con respecto al materialismo y la propuesta que hace Bunge sobre el mismo.

4.2.1 Qué es materia. La crítica de van Fraassen al materialismo es aplicable a la mayoría de los materialismos que se han sostenido a lo largo de la historia, los cuales conciben a la materia compuesta de partículas y no de campos electromagnéticos o de fuerzas. Por el contrario, Bunge concibe a la materia como todo aquello con la capacidad de cambiar y esto genera una concepción compleja de materia. Este problema parece únicamente conceptual, pero es de suma importancia, ya que no podemos introducir en la misma categoría de inmateriales al campo neutrínico y a la idea de unicornio. La distinción de material e inmaterial no tiene por función imponer un concepto a la realidad en su conjunto, sino categorizar la realidad de modo que sea fácil distinguir lo que posee realidad plena y aquello que se deriva de objetos materiales, como las ideas. Es

123

Nullius in verba Site www.nulliusinverbasite.com decir, un sueño no cambia, lo que cambia es el cerebro que produce el sueño; un espejismo no cambia, lo que cambia es el sujeto que ve o los objetos que hacen posible el espejismo; un teorema no cambia, lo que cambia es el sujeto que piensa de distinta forma; en pocas palabras, las ideas no cambian sino los cerebros de los sujetos que las formulan. A lo que van Fraassen respondería que aun así no tiene ninguna función para la ciencia categorizar a todo lo que no sea ideal como material, ya que esto no es pertinente para la investigación empírica. Bunge contestaría que si bien la investigación científica no está estrechamente relacionada con la noción filosófica de materia, es importante concebir la constitución material de todo objeto que estudie la ciencia para evitar la mezcla con elementos anticientíficos, tales como las energías sobrenaturales, los fantasmas o los demonios, los cuales abundan en las ciencias alternativas. Un homeópata, un acupunturista o un psicoanalista bien podrá decir que su teoría es exitosa (por su repercusión histórica y social) y que posee adecuación empírica (por sus efectos inmediatos). Pero con una visión materialista se puede distinguir que los elementos de cualquier pseudociencia no poseen una influencia real, es decir, no son materiales y por tanto no pueden causar un efecto fisiológico más allá de la sugestión. En otras palabras, muchos pseudocientíficos logran cierto éxito empírico por el llamado efecto placebo, pero si no se sabe distinguir claramente cuando una medicina actúa mediante mecanismos materiales, de una práctica supersticiosa que genera un efecto meramente emocional, podemos confundir a la ciencia con la charlatanería.

4.2.2 Materia y mente. Van Fraassen critica una noción de materia imposibilitada para considerar

Scientia in verba Magazine 2619-2586

a las intenciones, la conducta o las decisiones como materiales. Pero considerarlos inmateriales nos haría suponer que pueden existir con independencia del cerebro. Es decir, no podríamos afirmar burdamente, que tales elementos se componen de objetos materiales y que si abrimos el cerebro los encontraremos, pero sí es un hecho que sin procesos cerebrales no existen procesos mentales, o más exactamente, que los procesos mentales son procesos cerebrales, pues no se da uno y después el otro, ni tampoco se dan simultáneamente, sino que constituyen el mismo fenómeno visto desde distintas perspectivas. A lo que van Fraassen preguntaría, ¿Cómo podemos reducir fenómenos tan complejos como la personalidad humana a meras conexiones neuronales? Pareciera que estamos abusando del concepto de materia sin que esto nos ayude a explicar los fenómenos. Bunge contestaría que no estamos reduciendo los fenómenos psicológicos a fenómenos químicos, pero tampoco los estamos excluyendo, dado que la personalidad es algo más que conexiones cerebrales, pero es un hecho que no existiría sin éstas. En otras palabras, la personalidad es un elemento emergente de las conexiones neuronales, pero sigue siendo un fenómeno que depende estrictamente de factores materiales (cerebrales) en la medida en que no se da sin tales conexiones, o más claramente, es un mismo fenómeno estudiado desde distintos enfoques. En otras palabras, Bunge sí está proponiendo la reducción de la mente al cerebro, pero esto no significa que su concepción minimice los procesos mentales, ya que sólo existen como procesos cerebrales.

4.2.3 El materialismo. Van Fraassen acierta en el sentido de que históricamente el materialismo se ha acomodado a la ciencia en turno para

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

124

Scientia in verba subpage /revista-scientia-in-verbapdf/ postularse como su director, pero eso no implica per se que debamos rechazar todo materialismo, pues estaríamos tirando el agua de la bañera junto con el niño. Ya que el materialismo contemporáneo de Bunge no pretende enseñarnos qué creer dogmáticamente, sino ser una herramienta de distinción entre las ideas y los objetos con capacidad de cambiar, así como una gradación de existencia en las entidades teóricas. De este modo, comprometernos con el materialismo nos ayuda a distinguir claramente lo que existe en la realidad y lo que sólo existe como pensamiento, así como los diversos grados de realidad en las entidades que postula la ciencia. Pero sobre todo pretende mostrar que la realidad es una sola en la medida en que se compone de una sola sustancia, es decir, que todo es capaz de interactuar con todo en la medida en que todo es material. Lo que le brinda diversidad a la realidad es el pluralismo de propiedades que disfruta la materia, la cual genera varios niveles de organización, entre ellos el físico, el químico, el biológico, el social y el técnico. A lo que van Fraassen respondería que formular niveles de organización de la materia es arbitrario en la medida en que estamos especulando más allá de los datos empíricos, ya que mucho de lo que nos hace suponer tales niveles se compone de inobservables, tales como átomos, moléculas, cadenas de ADN, clases sociales e información electrónica. Bunge contestaría que los niveles de organización son hipótesis metafísicas que parten de la investigación científica y están justificados en razón de que se constituyen a partir de la capacidad de influencia de los objetos y la evidencia que surge a partir de ellos. Que los niveles de organización se estructuran a partir del grado de complejidad de sus componentes, los cuales son reales en la medida en que pueden interactuar con otros objetos.

Dimeo, M. 121-130

© Nullius in verba site

4.3 ¿Es necesaria una metafísica de la ciencia? El problema central de la presente tesis reside en la pregunta sobre si es necesaria una metafísica de la ciencia, esta interrogante quedará más clara con el análisis de tres conceptos en Bunge y van Fraassen: verdad, explicación y universales.

4.3.1 Ciencia y verdad El empirismo de van Fraassen restringe la noción de verdad para las teorías que involucren entidades observables y prefiere la adecuación empírica para las teorías que involucren entidades inobservables. Ya que su postura se enfoca más en el valor empírico de las teorías, que si las entidades de tales teorías corresponden a elementos de la realidad. El problema radica en que su noción de verdad consiste en la correspondencia con la realidad (1996:117), de modo que un juicio sólo puede ser verdadero o falso y esto lo restringe. Por el contrario, Bunge propone una concepción gradualista de la verdad, donde no hay ninguna afirmación absolutamente verdadera, sino que cada verdad se aproxima en mayor o menor grado a la realidad. En ese sentido, si dos teorías rivales e incompatibles son útiles a la ciencia, no se debe solamente a que ambas sean adecuadamente empíricas, sino que ambas disfrutan de cierto grado de verdad, en la medida en que resuelven problemas y las entidades que formulamos (gradualmente reales) interactúan con el mundo. Es decir, no necesitamos restringir la noción de verdad para hacer ciencia, sino sólo complejizarla de modo que sea aproximativa y no absoluta. A lo que van Fraassen respondería que una concepción gradualista de la verdad generaría que toda afirmación pudiera

125

Nullius in verba Site www.nulliusinverbasite.com ser verdadera cuando menos en mínimo grado, de modo que la noción de verdad se disolvería y perdería su utilidad. Bunge contestaría que la concepción gradualista de la verdad no reside en la arbitrariedad, sino en el contraste de las teorías con la realidad y en la medida en que las teorías son capaces de resolver problemas, no sólo son empíricamente adecuadas sino aproximadamente verdaderas, aun si hay varias teorías incompatibles entre sí. La importancia de asignarle valores de verdad a las teorías es similar a asignarle grados de realidad a los inobservables: apostamos por una investigación científica capaz de dialogar con la naturaleza, consciente del campo de estudio con el que trabaja y no una investigación ciega que subestime la capacidad humana de conocer su entorno

4.3.2 Explicación. Van Fraassen minimiza el valor de la explicación porque implica riesgos metafísicos de búsqueda de la verdad, pero le atribuye cierta importancia por su búsqueda de teorías más sencillas, unificadas y factibles de ser empíricamente adecuadas, es decir, resalta su valor pragmático. En particular, el rechazo parcial de van Fraassen a las explicaciones radica en que éstas sobrepasan los datos empíricos y dicen más de lo que se puede deducir de los hechos, por ejemplo, explicar por qué la evolución dio origen a los primates es mucho menos útil que explicar cómo aconteció dicho fenómeno. En tal sentido, de lo que se trata es de rechazar las malas explicaciones, aquéllas que sobreponen lo metafísico a lo pragmático. Por otro lado, Bunge sostiene que no podemos rechazar toda explicación metafísica, sino distinguir las buenas explicaciones, aquellas que buscan explicar los mecanismos mediante los cuales ocurren los fenómenos. Dado que si no buscamos mecanismos detrás de

Scientia in verba Magazine 2619-2586

los hechos, las explicaciones no tendrán contenido real y si rechazamos las explicaciones la ciencia será sólo una acumulación de datos. A lo que van Fraassen respondería que la búsqueda de explicaciones mecanísmicas no sólo choca con la búsqueda de resolución de problemas que ejerce la ciencia, sino que sobrepasa la comprensión empírica de los fenómenos. Bunge contestaría que la resolución de problemas que practica la ciencia es el punto de partida para formular explicaciones mecanísmicas, mismas que no sobrepasan la base empírica, dado que un mecanismo es un hecho empírico. De modo que la explicación mecanísmica no abulta de metafísica a la ciencia, sino que parte de ella. Además, las explicaciones mecanísmicas son necesarias para distinguir a la ciencia de la pseudociencia, tales como el psicoanálisis, la acupuntura y la homeopatía, las cuales no son capaces de explicar los mecanismos materiales mediante los que pretenden funcionar.

4.3.3 Metafísica y universales. Finalmente, el rechazo de van Fraassen a la metafísica abarca la noción de universales. Donde la noción de “mundo” es plenamente contradicha por afirmar la existencia de un conjunto inobservable, en vez de concretarse en la existencia de observables individuales, es decir, se está abultando la ciencia de metafísica. Además, sostiene que el criterio para formular universales es arbitrario, de modo que cada metafísica selecciona a los universales que desee, tal como el materialismo hace con el concepto de materia. Si bien es cierto que el realismo sobre los universales es anticientífico en la medida en que atribuye realidad plena a los conceptos: no podemos rechazar de tajo al realismo moderado, ya que los universales existen como propiedades de las cosas, es decir, los objetos poseen

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

126

Scientia in verba subpage /revista-scientia-in-verbapdf/ propiedades en común y también son útiles en las teorías, ya que éstas comparten elementos en común, tal como sostiene Bunge. La importancia de la universalidad radica en que en la realidad todo está relacionado en algún sentido, de modo que comparten la cualidad universal de poder influirse y para ello requieren de poder moverse, de modo que comparten la universalidad substancial de ser materiales. Además, los supuestos metafísicos de las teorías dependen de ellas mismas y no son meras especulaciones. Van Fraassen contestaría que aun cuando podamos afirmar que hay relaciones entre las cosas, no podemos establecer un criterio de universalidad que sea plenamente objetivo, ya que la evidencia empírica no es suficiente para elegir un criterio de universalidad. A lo que Bunge respondería que el criterio para categorizar universales no es absoluto, pero sí aproximadamente verdadero, en la medida en que podemos hallar propiedades comunes entre las cosas, como resultado de la investigación empírica. Esto es necesario porque implica que podemos categorizar a la realidad, es decir, que el ser humano es racionalmente capaz de ordenar el mundo.

CONCLUSIONES En la presente tesis hemos buscado evaluar las posturas más extremas sobre la posibilidad de una metafísica de la ciencia. Mientras van Fraassen rechaza esta posibilidad tajantemente, Bunge la defiende y la justifica extensa e intensamente. Sobre la cuestión realista, van Fraassen contribuye a una visión crítica de la ciencia, pues no podemos aceptar las entidades hipotéticas de manera gratuita, sino que debemos mantener cierta

Dimeo, M. 121-130

© Nullius in verba site

desconfianza, en razón de que gran parte de su existencia es una construcción teórica. Sin embargo, esto no nos puede orillar al agnosticismo, ya que, partiendo de Bunge, toda entidad posee cierto grado de realidad (en la medida en que es capaz de interactuar con otro objeto) y cierto grado de ficción (en la medida en que es una construcción mental). Por lo que la clave es poseer una definición precisa de lo real. De lo contrario estaríamos subestimando la capacidad humana de conocer su entorno y menospreciando el poder de la ciencia para caracterizar satisfactoriamente lo inobservable. Sobre la cuestión materialista, van Fraassen contribuye a la discusión al señalar que el materialismo puede minimizar nuestra capacidad de crítica si lo aceptamos dogmáticamente y que generalmente ha sido una noción pobre y reduccionista de la ciencia. Empero, es posible formular una concepción materialista que no caiga en la crítica de van Fraassen, tal como propone Bunge, de modo que sea una herramienta eficaz para saber distinguir entre lo imaginario, ficticio o mental, de lo que es capaz de cambiar, moverse o poseer energía por sí mismo. Sobre si es necesaria una metafísica de la ciencia, van Fraassen contribuye a la reflexión al mostrarse sumamente crítico ante las posturas que pretenden imponer criterios o cosmovisiones a la ciencia. En ese aspecto Bunge estaría de acuerdo, pero no podemos que rechazar a la metafísica de tajo, pues requerimos de un mínimo de presupuestos tanto para hacer ciencia como para construir una visión del mundo acorde con el desarrollo de la investigación científica. Por lo que necesitamos de una metafísica que no se imponga a la ciencia, sino que parta de los resultados de la investigación científica y que además tenga una función hipotética antes que absoluta, de modo que pueda adaptarse a los cambios científicos. Desde mi punto de vista las

127

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

controversias sobre el realismo dependen de nuestra visión sobre el ser humano, sobre qué tanto confiemos en nuestra capacidad para conocer la realidad y transformarla. En el fondo es una apuesta por la razón humana, es decir, si creemos en nuestra capacidad para construir teorías verdaderas o si nos creemos incapaces de conocer lo inobservable. Históricamente las controversias comenzaron en los extremos, con el realismo ingenuo y el escepticismo radical como el de Gorgias. Actualmente la discusión es una cuestión de matices, todos confían en el método científico como el mejor de los métodos, confían en que podemos conocer la realidad, ya sea meramente de observables como van Fraassen y su empirismo constructivo, de estructuras como Ladyman y el realismo estructural o incluso de inobservables como Bunge y el realismo científico. El problema central de la presente tesis: si es pertinente una metafísica de la ciencia, también es una cuestión de matices, pues van Fraassen, pese a que la rechaza de tajo, sí acepta algunas hipótesis filosóficas, como la posibilidad de conocer la realidad (al menos en parte) y la realidad del mundo externo, esta última es una hipótesis metafísica básica. Finalmente, el aceptar o no una metafísica de la ciencia está relacionado con el peso de la historia. Si miramos al pasado veremos grandes ruinas de sistemas metafísicos. Pero si miramos al futuro, tenemos la posibilidad de construir una óptima metafísica de la ciencia, capaz de estar a la altura de los avances científicos y contribuir a una mejor visión de la realidad.

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Referencias

Bhaskar, Roy. 1987. Scientific Realism and Human Emancipation, London: Verso. Bickhard, M. H. 2000. Emergence. In P. B. Andersen, C. Emmeche, N. O. Finnemann, P. V. Christiansen (Eds.) Downward Causation. (322-348). Aarhus, Denmark: University of Aarhus Press. Boyd, Richard. 2002 “Scientific Realism” The Stanford Encyclopedia of Philosophy. Url: http://plato.stanford.edu/entries/scientific-realism/ Bueno, Gustavo. 1972 Ensayos materialistas. Madrid, Taurus. Bunge, Mario. 1973 “¿Es posible una metafísica científica?” en Teorema: Revista internacional de filosofía, Vol. 3, Nº. 4, pags. 435-454 –1981. Materialismo y Ciencia. Barcelona, Ariel. –1983. «Paradigmas y revoluciones en ciencia y técnica» El Basilisco, número 15, marzo-agosto, páginas 2-9. –2000 La Investigación Científica. Su estrategia y su filosofía. Trad. de Manuel Sacristán. México, Siglo XXI. –2001. Diccionario de Filosofía. México, Siglo XXI. –2002a. Crisis y Reconstrucción de la Filosofía. Barcelona, Gedisa. –2002b. Ser, saber, hacer. México, Paidós. –2004. Emergencia y Convergencia. Novedad Cualitativa y Unidad de Conocimiento. Barcelona, Gedisa. –2007 A la caza de la realidad, la controversia sobre el realismo. Barcelona, Gedisa. –2008: Tratado de filosofía. Vol. I, Semántica 1: Sentido y referencia. Barcelona: Editorial Gedisa. Chakravartty, Anjan. 2007. A metaphysics for scientific realism, knowing the unobservable. New York, Cambridge. Ferrater Mora, José. 1979. De la materia a la razón, Madrid, Alianza. Giere, Ronald. 2006. Scientific perspectivism

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

128

Dimeo, M. 121-130

Chicago, University of Chicago

129

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

Press. Hacking, Ian. 1996. Representar e Intervenir. Trad. de Sergio Martínez. México, Paidós. Harré, Rom 1995 “Realism and an Ontology of Powerful Particulars”. International Studies in the Philosophy of Science, Vol. 9, Nº 3, p. 285300. Kuhn, Thomas. 2004 La estructura de las revoluciones científicas, 2a edición. México : Fondo de Cultura Económica. Ladyman, James. 2009. “Structural Realism” The Stanford Encyclopedia of Philosophy. Url: http://plato.stanford.edu/entries/structural-realism/ Lakatos, Imre. 2002 La metodología de los programas de investigación científica Madrid, Alianza.

S

Mtro. Mauricio Dimeo

S

Laudan, Larry 1986 El progreso y sus problemas: Hacia una teoría del crecimiento científico. Madrid, Encuentro. Miller, Alexander. 2009. “Realism” The Stanford Encyclopedia of Philosophy. Url: http://plato.stanford.edu/entries/realism/ Popper, Karl. 1998. “La selección natural y el surgimiento de la mente” en Martínez, Sergio F. y Olivé, León (comps.). Epistemología Evolucionista. México, Paidós. –1985 La lógica de la investigación científica. Madrid, Tecnos. Psillos, S. 1999. Scientific Realism: How Science Tracks Truth. London: Routledge. Van Fraassen, Bas. 1996. La Imagen Científica. Trad. de Sergio Martínez. México, Paidós.

Profesor de Filosofía en Colegio Reina Maria Profesor de Filosofía en UNIVERSIDAD SALESIANA Former Profesor de Filosofia at Universidad YMCA México Estudió maestría en filosofía de la ciencia en UNAM MX

–1997. “Structure and Perspective: Philosophical Perplexity and Paradox”, pp. 511-530 in M. L. Dalla Chiara et al. (eds.) Logic and Scientific Methods. Vol 1. Dordrecht: Kluwer. –2002. The Empirical Stance. New Haven, London. Yale University. –2007. «Structuralism(s) about Science: Some Common Problems», Proceedings of the Aristotelian Society, LXXXI, pp. 45-61. –2008. Scientific Representation: Paradoxes of Perspective. Oxford, Clarendon Press.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

130

131

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site Scientia in Verba Mag.3,133-139 (2019)

La “verdad” para el ciudadano y el científico Ricardo Gustavo Martínez1

1  Universidad Nacional de Tucumán.. Argentina

Muchas veces usamos el término “verdad” para expresar si una afirmación; realizada por otro o nosotros mismos, se cumple o cumplió. Y lo hacemos porque creemos estar seguro de lo que decimos y pensamos. Tales afirmaciones, por lo general, se refieren a lo sucedido sobre un acontecimiento o proceso: que puede ser social, o físico. Las primeras ocurren cuando expresamos, “la juventud se pone violenta cuando toma alcohol”, y cuando ocurre en la naturaleza; por ejemplo, “el vapor quema más que el agua hirviendo”. También solemos expresar nuestra “verdad”; subjetiva por cierto, cuando adjetivamos a un sujeto o un objeto, como por ejemplo, al señalar: “Jorge es muy alto”, o “esta piedra de ágata es roja”. En todos estos casos decimos que es “verdad” cuando “creemos” sinceramente que lo es, si estamos obrando de buena fe. Cuando “creemos1” algo, se supone que lo hacemos porque tenemos pruebas de que eso es así, porque lo hemos visto o nos lo han dicho. De esta forma actuamos como ciudadanos comunes en todos los ámbitos, aun en los que no somos especialistas o tenemos oficio realizando una tarea específica. Es por ello que podemos decir que esta forma de actuar es propia del hombre común, no así del erudito en ciencia, o el filósofo, cuando su formación ha moldeado sus mecanismos mentales y su actitud al prepararlo en una metodología específica; la búsqueda

“Entonces, ¿Qué es deducir? O, en otras palabras, ¿qué se entiende por deducción? Para explicar esta noción es necesario analizar previamente la de razonamiento o inferencia y luego la de razonamiento o inferencia válida. Una proposición o enunciado es una expresión lingüística de la cual tiene sentido predicar verdad o falsedad y sólo los enunciados o proposiciones pueden ser verdaderos o falsos.”

1  Este “creemos” no es el utilizado comúnmente con una posibilidad cuando expresamos: “creo que lo vi en …”. Todo lo contrario este “creemos” tiene el carácter de estar seguros.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

132

Martínez, R. 133-139

de una “verdad” usando un método2. Tanto el hombre de a pie, como el científico, poseen un cocimiento “cotidiano” o “espontáneo”, producto de sus experiencias personales a partir del mismo momento en que nacen, pero a diferencia del primero, el hombre de ciencia cuenta con conocimientos técnicos específicos y herramientas mentales ampliadas y potenciadas por su formación profesional, que configuran una forma específica de razonar. Esta forma de deducir implica procesos mentales que se encuentran explicitados en la “lógica” – también usada por filósofos desde tiempos de Aristóteles-, para poder discernir entre lo que tiene mayor posibilidad de ser cierto, y lo que no lo es. Este instrumento cognitivos adquiere un importante valor para expresar con mayor seguridad la veracidad de las afirmaciones enunciadas. Su uso será tratado más adelante, veamos ahora como el hombre común construye su conocimiento cotidiano e idiosincrático – por ser único y propio de cada individuocomo resultado de su interacción con el medio. En la interpretación de fenómenos naturales el ciudadano común se basa en lo aparente, o sea en su experiencia sensitiva – “así es, porque así lo veo”-, generando y construyendo representaciones o esquemas conceptuales, a partir de sus sapiencias previas. Veamos ahora algunas afirmaciones que resultan de interpretaciones espontaneas sobre fenómenos naturales; aseveración: 2  El método científico, con sus características, y la mayéutica en el caso de filósofos.

133

Nullius in verba Site www.nulliusinverbasite.com “los gases no pesan, ni ocupan lugar en el espacio”. ¿Por qué, habríamos de pensar lo contrario? Si durante nuestras vidas nunca sentimos su peso al levantarnos. O acaso nos costó esfuerzo alguno “apretarlo” al aplaudir. Otro ejemplo un poco menos convencional; científicamente hablando, es el hecho de que si nos interrogasen: si un colectivo en el que viajan una persona gorda y una flaca frena bruscamente, ¿Quién se iría más bruscamente hacia adelante? Seguramente el sentido “común” o “vulgar” nos lleve a afirmar: “el flaco, ya que, de nuestra experiencia cotidiana, sabemos que es mucho más difícil de mover un cuerpo más pesado”. Sin embargo, la física nos enseña, que el cuerpo de mayor masa será el que más difícilmente cambie la velocidad que posee, el colectivo con todo su pasaje – o sea el que mayor inercia posee- y por este motivo sería el gordo el que más adelante llegaría. Vemos aquí que los argumentos o evidencias con las que cuenta el ciudadano común para asegurar su “verdad”, muchas veces; y muchas son demasiadas, son razones científicamente incorrectas. De igual forma en la interpretación de los eventos sociales, las “representaciones” pueden surgir a partir de las interacciones cotidianas con otros individuos, como consecuencia de pensamientos tales como: “así es porque me lo enseñaron y/o dijeron que así era” (Yuni et Al.; 1.999), muchas veces están caracterizadas por su superficialidad, y más de una vez se contraponen al conocimiento científico. Aunque en este caso, a diferencia de lo que ocurre cuando el ciudadano interpreta los fenómenos naturales, la conclusión puede resultar errónea por ser fruto de una forma de razonar falaz o un sesgo cognitivo.3 Por ejemplo, es frecuente escuchar realizar afirmaciones tales como: “las tortugas traen mala suerte”. A esta conclusión, 3  “sesgos cognitivos” según lo denominan los psicólogos.

Scientia in verba Magazine 2619-2586

posiblemente se ha llegado por estar al tanto que en dos o tres hogares de vecinos; que poseen tortugas en sus casas, ocurrieron hechos desdichados, sin tener en cuenta que se deja de lado al resto del vecindario, posiblemente porque los hechos des-venturados de los otros ocurrieron más alejados en el tiempo, o no están presentes al momento de emitir tal afirmación. Esta forma de razonar para llegar a la afirmación respecto a las injustamente acusada tortugas, es conocida como “inducción”, una forma de deducir muy útil, pero solo cuando se tiene los recaudos que científicos y filósofos conocen muy bien; para no caer en una inducción apresurada, o una falacia -denominada generalización apresurada4-

El razonamiento, la poderosa herramienta cognitiva. Como lo expresa el subtítulo el razonamiento es una actividad cognitiva propia de los seres humanos, que comúnmente es utilizada como sinónimo de deducción. Para el filósofo – y el científico- que muchas veces actúa como filósofo-, el razonar incluye varias formas de encontrar una afirmación (denominada conclusión) a partir de otras llamadas premisas. Que se suponen verdaderas. Estas formas de razonar son descriptas en el estudio de la disciplina lógica, y pueden consistir en un razonamiento deductivo, o uno inductivo. Los enunciados o afirmaciones de las que se parte a fin de obtener una conclusión o deducción, pueden ser verdaderas o falsa, o sea cumplir con la condición de veracidad o no. Tanto en matemáticas como en lógica estas primeras afirmaciones o enunciados se consideran 4  muestra sesgada o Secundum quid, es una falacia que se comete al inferir una conclusión general a partir de una prueba insuficiente. Una generalización apresurada puede ser una inducción falsa, y por tanto a una conclusión errónea.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

134

Scientia in verba subpage /revista-scientia-in-verbapdf/ verdades “a priori”, y pueden ser parte de un conjunto de ellas, constituyendo un axioma5 o sistema axiomático; como lo son los axiomas de la geometría utilizados por Tales de Mileto6 en el siglo VI a de C. La lógica es, precisamente, la ciencia que tiene por objeto estudiar los procedimientos deductivos, de modo que, al analizar el concepto de deducción, nos introduciremos de lleno en el campo de esta disciplina (para simplificar utilizamos la palabra lógica como si significará lo mismo que “lógica deductiva”). Entonces, ¿Qué es deducir? O, en otras palabras, ¿qué se entiende por deducción? Para explicar esta noción es necesario analizar previamente la de razonamiento o inferencia y luego la de razonamiento o inferencia válida. Una proposición o enunciado es una expresión lingüística de la cual tiene sentido predicar verdad o falsedad y sólo los enunciados o proposiciones pueden ser verdaderos o falsos. La lógica como disciplina posee algunas herramientas las cuales permiten a filósofos y científicos, hacer uso de los mismos tipos de razonamientos vistos anteriormente, pero considerando ciertas restricciones para reducir la posibilidad de cometer actos fallidos como los anteriormente expuestos. Como sería muy extenso desarrollar aquí todos los casos posibles y el uso de la lógica, solo se intentara explicar por qué es imposible encontrar verdades concluyentes en las ciencias naturales siendo solo posible refutar conclusiones de forma experimental, y así encontrar la falsedad de proposiciones o enunciados en un razonamiento, y así poder desestimar hipótesis. Al ser solo posible determinar la falsedad de conclusiones y proposiciones, se deja como parte del 5  Proposición o enunciado tan evidente que se considera que no requiere demostración. 6 Utilizados en la geometría descriptiva, usada comúnmente y conocida como geometría cartesiana.

Martínez, R. 133-139

© Nullius in verba site

conocimiento científico “verdades”7 provisorias, tal como propone el epistemólogo Karl Popper. Como se ha expresado anteriormente, se considera que una afirmación es “verdadera”, cuando se cree hay pruebas de ello. La lógica nos impone mayores precisiones para considerar a un conocimiento como prueba, que la forma utilizada al razonar vulgarmente – “así es porque me lo enseñaron o dijeron que así era”-. Pero, ¿Cuántos elementos de prueba son necesarios para que una creencia constituya conocimiento? ¿Cuáles razones son buenas razones?, para considera que una afirmación es “verdadera”. Este es un problema filosófico difícil e importante. Por ahora solo se reflexionará en el siguiente aspecto: casi todos nuestros conocimientos empíricos, es decir nuestro conocimiento acerca del mundo real, son conocimientos para los cuales no es posibles obtener pruebas concluyentes, es decir, pruebas que garanticen la veracidad de una afirmación. Por ejemplo: si imaginamos a Aristóteles observando un atardecer, él está viendo que el sol se mueve en el firmamento y desaparece en el horizonte. Él cree que el Sol se mueve y la Tierra esta quieta por una excelente razón- porque lo está viendo-. Además es consciente de que sus sentidos pueden fallar, por ser víctima de una alucinación, o estar bajo los efectos del alcohol; pero sabe que muchas veces lo ha visto, y no todos los días sus sentidos lo pueden engañar. De este ejemplo y muchos otros se debe admitir que los datos empíricos –proporcionados por los sentidos- no son razones concluyentes para creer, y en consecuencia, el presunto conocimiento de que el Sol se mueve y la Tierra esta quieta en el universo, podría 7  Debemos recordar que una de las características del conocimiento científico es la provisionalidad del saber obtenido, o sea las afirmaciones son consideradas “verdaderas” en forma provisoria, o sea, hasta tanto surja una nueva interpretación de los hechos que se ajuste mejor a la realidad

135

Nullius in verba Site www.nulliusinverbasite.com ser en realidad una afirmación falsa. Esto hoy en día, nos parece obvio porque los hombres de ciencia ya han encontrado muchas otras razones para considerar que la tierra no está fija en el espacio.

Scientia in verba Magazine 2619-2586

no concluyentes, por eso su verdad era provisoria en sus tiempos. Los razonamientos no son verdaderos ni falsos sino correctos o incorrectos, o, en otras palabras, válidos o inválidos.

Tabla 1. Premisas e inferencias

Entonces, de lo anterior podemos inferir que el conocimiento empírico – el adquirido a través de nuestros sentidoses un conocimiento falible, razón por la cual es considerado un conocimiento en sentido débil, o un conocimiento “a posteriori”8. Es por ello que el tipo de conocimiento -empírico- propio del que posee el ciudadano común y el obtenido por investigadores de las ciencias fácticas; las naturales, y las sociales, es una condición de prueba “débil”. En lógica esto se expresa de la siguiente forma: sí X sabe que p en sentido fuerte sí y sólo sí (además de cumplirse las otras condiciones) X tiene pruebas concluyentes de que p, es decir, pruebas que son incompatibles con la falsedad de p; y se dirá que lo sabe en sentido débil si lo cree por buenas razones, pero no concluyentes. Por ejemplo Aristóteles (X) sabe que la tierra esta fija (p) en el universo, por buenas razones, pero 8  Tipo de conocimiento que se verifican recurriendo a la experiencia, se refieren a hechos. Tienen una validez particular y contingente.

Esta noción de validez o corrección es central tanto para la lógica como para las matemáticas: por ello, es necesario comprenderla claramente. De esto se desprende que puede haber razonamientos válidos, con premisas y conclusión verdaderas, otros con premisas y conclusión falsa y otros con premisas falsas (todas o al menos una) y conclusión verdadera o falsa. Podemos decir entonces que la validez de un razonamiento depende de su forma, es decir, de la forma en que están relacionados sus componentes (enunciados o proposiciones), sin tener en cuenta lo que ellos significan. En un razonamiento válido, si las premisas son verdaderas, entonces la conclusión es verdadera. Quiere decir que los razonamientos válidos garantizan la verdad de la conclusión sólo en el caso de que las premisas sean verdaderas. (Ver tabla 1) Entonces (ver tabla1)

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

136

Scientia in verba subpage /revista-scientia-in-verbapdf/

El concepto de verdad Como hemos visto, para que X sepa que p, p tiene que ser verdadera. Pero, ¿qué es una proposición verdadera? Tratáremos de responder a esta pregunta, no asignando a “verdadero” y “falso” un significado inventado por nosotros, sino haciendo explícito el sentido que todo el mundo da a estas palabras cuando las usa. Consideremos la siguiente proposición verdadera: “las golondrinas son aves migratorias”. ¿Por qué decimos que es verdad? Por una razón extremadamente sencilla: porque “las golondrinas son aves migratorias”. Para comprenderlo mejor consideremos esta otra proposición: “hace diez millones de años llovió en el lugar donde hoy es la ciudad de Buenos Aires”. Aunque nadie pueda saber si esta proposición es verdadera o falsa, sin embargo, tiene que ser una de las dos situaciones, ya que hace diez millones de años, en ese lugar, o llovió, en cuyo caso la proposición es verdadera, o no llovió, en cuyo caso es falsa. Podemos expresar esto de un modo general mediante la siguiente definición: una proposición es verdadera si describe un estado de cosas real, en caso contrario, es decir, si describe un estado de cosas posibles, pero no real, es falsa.

Verdad y realidad Tal como expresa el diccionario de la lengua española cuando alguien habla de “la realidad” hace referencia a la existencia indiscutible y efectiva de algo o alguien, con existencia en el mundo real, o universo. Muchas veces el ciudadano común hace referencia a su realidad, o a la realidad política que le toca vivir, esa “realidad”, solo es una interpretación de los hechos que lo rodean. Esa realidad a la que el ciudadano de a pie hace referencia esta distorsionada por su interpretación personal; como consecuencia de las “ideas espontaneas” o el “conocimiento vulgar”,

Martínez, R. 133-139

© Nullius in verba site

o los sesgos cognitivos al momento de construir sus propias representaciones. Ya Platón en la alegoría de la Caverna nos dice que nuestra visión del mundo sensible, no es el mundo “real”, la verdadera realidad se encuentra en lo que él denomino “mundo de las ideas”, un mundo al que se podía llegar a través de la dialéctica y con el conocimiento indispensable de las matemáticas como instrumento -toda una “metodología científica” para la época- el equivalente actual, al mundo del “conocimiento científico”, si extrapolamos la representación a nuestra época. Este “conocimiento científico”, se obtiene actualmente a través de una metodología especifica propia de cada área de saber, lo que permite conseguir un conocimiento objetivo, libre de toda creencia y prejuicio del investigador. Esto implica que la realidad del mundo y universo, debiera pensarse a partir del “conocimiento científico”, y no del que se está acostumbrado, como ciudadano común. Por lo tanto, se debería procurar que los juicios que se realizan siempre partan de un conocimiento lo más técnico posible. Esto, no implica que se pueda llegar a una “verdad” absoluta y eterna, pero sí a un conocimiento lo más próximo al “conocimiento científico”. Un conocimiento que representa una “verdad” depurada por contrastaciones y refutaciones, a lo largo del tiempo, que es falible –o sea, puede cambiar- pero se acerca a la realidad lo mejor que a la ciencia le ha sido posible. Las ciencias nos representan la “verdadera realidad” de un universo complejo, en forma de modelos analógicos, y representaciones, a fin de simplificar esa complejidad para su mejor comprensión. La lógica y sus formas de razonamiento nos permiten llegar a conclusiones que la ciencia expresa como afirmaciones consideradas verdades provisionales, que encuentran su justificación a través de la observación

137

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com y experimentación en otros enunciados que consideramos verdaderos. También el investigador encuentra relaciones entre magnitudes física – dentro de ese modelo-, que son expresadas en fórmulas matemáticas, las que suministran una solución a problemas del mundo real, a pesar de que muchas veces poseen términos que no tienen un referente real, pero sirven de manera instrumental para medir y calcular variables a partir de otras conocidas, o predecir el comportamiento de un sistema físico, sus efectos y consecuencias. A diferencia del conocimiento “espontaneo”, el conocimiento científico es elaborado por cánones metodológicos, propios de la disciplina de su incumbencia y son corroborados mediante criterios de validación como la experimentación o el consenso de la comunidad científica. Los criterios utilizados para validar el conocimiento científico en las ciencias, son muy diferentes a los esgrimidos en el caso del conocimiento vulgar. Este concepto de la verdad y la realidad, se considera es el aceptado por la comunidad científica en su mayoría, se ha visto distorsionado por una moderna – o pos moderna, como se auto define- corriente filosófica, en su obra intelectual. Esta construcción cultural se haya alejada de la concepción de científicos. Para muchos de ellos la verdad es construida por mayorías en contextos de dominación, y acorde a sus propios intereses.

A modo de conclusión Este artículo fue escrito con la intención de que resulte entendible y ameno tanto al ciudadano interesado en el conocimiento en general, como a docentes de los distintos niveles que no poseen una formación específica en los temas que trata, pero su interés por las ciencias los llevan a descubrir temas nuevos para profundizar con una

Magazine 2619-2586

primera aproximación. Las motivaciones que llevaron a cuestionar el uso del concepto de “verdad” han germinado a través de la profundización de ideas que han surgido como consecuencia de apreciaciones por parte de mis alumnos – ideas que han tomado trascendencia en los jóvenestal como el concepto de pos verdad y su concatenación con el uso del término “la realidad” como una visión subjetiva de los acontecimientos sociales, que considero llevada al campo de las ciencias experimentales puede llevar a relativismos conceptuales. Por lo anteriormente expresado se considera que la temática y los conceptos vertidos son de una importancia pedagogía fundamental, por ser conocimientos que no se enseñan en forma explícita a quienes debieran tener en claro el concepto de “verdad” en sus distintas acepciones. Y su relación con las significaciones que se le da al término “realidad” para no caer en relativismos filosóficos-epistemológicos. Se ha intentado que el lenguaje empleado sea lo suficientemente claro, sin perder rigor técnico, como para ser entendido por cualquier persona medianamente formada o docente de cualquier nivel de instrucción, y permitirles hacer hincapié en sus enseñanzas de las diferenciaciones expuestas a fin de evitar inducir a los estudiantes en un relativismo epistemológico que puede resultar muy perjudicial. El término verdad puede tener varias acepciones tanto en el lenguaje cotidiano como filosófico, aquí se lo tomara tal como lo hace Tarsky (1944) la concepción Aristotélica clásica de la verdad cuando referencia: “Decir de lo que es lo que no es, o de lo que no es que es, es falso, mientras que decir de lo que es que es, o de lo que no es que no es, es verdadero9”.

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Referencias

Apuntes de lógica. (1965) Centro de estudiantes de Psicología. UBA Farr R. (1988). Las representaciones sociales. En: Psicología II. Barcelona: Paidós. Galagovsky, L y Adúriz Bravo, A. (2001). Modelos y Analogías en la Enseñanza de las Ciencias Naturales. El Concepto de Modelo Didáctico Analógico. Enseñanza de las Ciencias 19 (2), 231-242, ICE, Barcelona. España. Popper R. Karl. (1962). La Lógica de la Investigación Científica. Ed. Tecnos S.A. Madrid Valdés Villanueva Luis Ml. Ed. (1991).La búsqueda del significado. La concepción semántica de la verdad y los fundamentos de la semántica. Alfred Tarsky. Impreso en España por Azalso. Tracia, 17, Madrid Yuni J.; Urbano C. (1999). Mapas y Herramientas para Conocer la Escuela. Córdoba Ed. Brujas.

9  9 Metafísica de Aristóteles

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

138

Martínez, R. 133-139

139

S

Ricardo Gustavo Martínez

“Mi breve sugerencia, por el momento, es considerar la vasta red de mediaciones pedagógicas que, explícita o implícitamente, en grados o completamente, actúan sobre toda consideración epistemológica. ”

S

Licenciatura en Química. Orientación Fco. Qca Facultad de Bioquímica Química y Farmacia Universidad Nacional de Tucumán. Año 1984 Nº Registro 147 Inscripto en la carrera Especialización en Enseñanza de las Ciencias Exactas. Fac. de Cs. Exactas y Tecnología. U.N.S.E.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

140

141

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Scientia in Verba Mag.3, 142-144 (2019)

Magazine 2619-2586

Algunas consideraciones breves sobre pedagogía y epistemología Johnny Jaramillo Serna1 1  Universidads de Antioquia. Medellín

De la Pedagogía se han ensayado algunas definiciones. (1) Disciplina encargada de crear los planes de estudio, en forma de técnicas de enseñanza (definición Francesa); las técnicas de enseñanza deben ser conformes a cada disciplina. De ahí que la tradición Francesa contenga una didáctica por cada área del saber, y al conjunto de todas las didácticas se le llame pedagogía. El título pedagogía casi resultaría un título sobrante en este sentido, por cuanto el pedagogo y el didacta lo único que tendrían de diferente sería un grado de conocimiento, aún siendo más central el conocimiento del segundo (del didacta de las matemáticas básicas, por ejemplo, frente al casi omnisciente pedagogo que conoce un poco de todas las didácticas). Disciplina encargada de crear los planes de estudio con base en la selección de contenidos a enseñar (definición anglosajona). Tradicionalmente, los anglosajones se han visto más interesados por los criterios que debería regir la selección de contenidos (teoría curricular), antes que preguntarse por la forma en que los contenidos deben ser enseñados (didáctica), suponiendo tal vez una fuerte conexión con sus principios liberales más básicos que Reino Unido y Estados Unidos comparten: dejad que el cómo lo solucione cada cual. Ahora bien, esto no quiere decir que la selección de contenidos no limite ideológicamente las formas posibles en que ciertas cosas se han de enseñar, por ejemplo, si no

se seleccionan contenidos con base científica suficiente o nula en la biología (como el creacionismo), esto impondrá limitaciones en la forma de enseñar de todos los maestros de biología, la forma de organizar la investigación, las preguntas y los problemas en una clase, guiándose en este caso por el cómo de la biología. En cierto modo, la tradición anglosajona pone más énfasis en las disciplinas en sí mismas que en la forma de hacerlas llegar, como esperaba Comenio (padre de la didáctica moderna), al mayor número de personas de la forma más accesible posible. (3) Disciplina que se encarga de estudiar los aspectos históricos, sociales y filosóficos de los conceptos de formación y educación (definición Alemana). Para los Alemanes, la Bildung aspira a ser el carácter definitivo que distinguiría a la pedagogía de cualquier forma institucionalizada de saber sobre prácticas educativas, en tanto que sería una ciencia normativa cuyo objeto reside en lo que ser humano debe y puede ser en todas sus formas (Herbart). Para los Alemanes, las cuestiones sobre qué contenidos seleccionar y cómo enseñar, son preguntas a investigar bajo una serie de preguntas más amplias: ¿qué clase de ser humano se debe o se quiere perseguir con tales preguntas? ¿Es siquiera posible o deseable o mandatario tomar una de las opciones disponibles? Hacia dónde y por qué son el carácter más filosófico de la tradición Alemana de la pedagogía; el qué, en la tradición anglosajona; el cómo, en la tradición Francesa.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

142

Scientia in verba subpage /revista-scientia-in-verbapdf/ Vistas así las cosas, realmente no tendría por qué presuponerse una capa metodológica discontinua entre las distintas tradiciones de la pedagogía. Preguntar por el cómo presupone preguntar cómo se enseña el qué seleccionado, y ambas presuponen hacia dónde quiero llegar globalmente con ello y por qué (aún, es cierto, si los agentes que educan y se educan no sean intencionalmente conscientes del por qué). Ahora quisiera ensayar un par de reformulaciones en lenguaje pedagógico, a las preguntas epistemológicas: ¿qué cuenta como creencia/proposición verdadera? ¿Cómo accede un agente epistémico a la justificación de su creencia/proposición verdadera? y ¿De qué tipo de conocimiento es capaz el ser humano? Tradicionalmente se han ensayado criterios semánticos para definir la verdad de una creencia/proposición, esto es, la clase de significado que debe tener una creencia/proposición para contener valores de verdad. La historia es larga pero conocida. Desde la insistencia en la correspondencia con realidades no relativas (correspondencia clásica, con Platón) hasta la formulación de conceptos claros y distintos (consistencia y validez metalógicas, con Aristóteles). Supongamos una situación. El señor A dice conocer que el señor B es su padre. Cuando se le pregunta por qué sabe esto, la pregunta ‘¿por qué sabe esto?’ podría ser reformulada en dos: ¿qué es exactamente lo que el señor A sabe del señor B? y ¿cómo lo sabe el señor A? Ambas preguntas se remontan a ambas teorías semánticas de las que se habló hace un momento. ‘¿Qué es...?‘ presupone que cualquier persona, incluido el mismo señor A, cree que hay algo de lo cual hablar, una referencia cualquiera (dejaré de lado las consideraciones en torno al externalismo semántico para otra ocasión) y ‘exactamente...’

Jaramillo, J. 142-144

© Nullius in verba site

presupone que cualquiera persona, incluido el mismo señor A, cree que la exactitud (incluidas, por extensión del uso natural, nociones intuitivas sobre validez metalógica) con la que hablamos, determina si estamos refiriéndonos a algo, algo de lo cual hablar, o, aún si lo estuviéramos haciendo, si estamos (y si podemos hacerlo) distinguiendo entre al menos dos referencias similares pero distintas. Supongamos que el señor C le pregunta al señor A: ¿se hicieron pruebas genéticas, acaso? y el señor A responda que no. Debido a la falta de exactitud del señor A en la formulación de que cree saber algo, sería posible que el señor A se estuviera refiriendo a la referencia de paternidad por contrato civil (sin mediación genética alguna de por medio) o no se estuviera refiriendo a nada, si lo que quería decir es que cree saber que el señor B es su padre genético. Mi posición es que la la clase de conexión entre referencia y exactitud que esperaríamos en la formulación del señor A sobre la creencia de un conocimiento [en adelante VC(x): para todo conocimiento de algo], está determinada por las siguientes condiciones: (1) ¿Qué contenido debemos seleccionar en la formulación de VC(x)? (2) ¿Cómo podemos aprender el contenido seleccionado en la formulación de VC(x)? (3) ¿Hacia qué clase de cosas estamos aspirando con saber qué VC(x) y en qué condiciones estamos para aspirarlas? Por ejemplo, asignarle justificación a C, verdad a (x), estar interesado en un coqueteo implícito al señor A, etc. Vistas así, las tres condiciones son de un carácter pedagógico indudable. Que el señor A crea saber algo sobre el señor B y su relación con el señor A, presupone toda clase de mediaciones sobre los contenidos a enseñar(transmitir), aprender y derivar para todo aquél, incluido el señor A, que esté en relación con una forma de VC(x). Mi breve sugerencia, por el

143

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

momento, es considerar la vasta red de mediaciones pedagógicas que, explícita o implícitamente, en grados o completamente, actúan sobre toda consideración epistemológica. Tal vez podríamos alcanzar un conocimiento verdadero y justificado, sin duda más completo, si atendemos a la clase de mecanismos pedagógicos que podrían estar mediando la creencia de (x) es el caso.

S

Johnny Jaramillo Serna

S

Estudiante de Pedagogía. Interesado por la filosofía, el rigor, las artes y las ciencias tanto que no podría reemplazarlas por las necesidades más básicas, y aún preferiría la muerte antes que ceder frente a un argumento malo, una posición injusta, y una disonante obra abstrusa, profusa y confusa de cualquier índole. Sistema filosófico preferido: Materialismo filosófico, de Gustavo Bueno.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

144

145

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site Scientia in Verba Mag.3, 147-152 (2019)

Ateísmo epistemológico: unos garabatos Manuel Corroza Muro1

1  Universidad Politécnica de Madrid. Universidad de Navarra. Madrid. España

Introducción La posibilidad de probar la existencia o la inexistencia de Dios ha suscitado una cantidad enorme de discusiones filosóficas y teológicas a lo largo de la historia. Estas discusiones han tratado, fundamentalmente, sobre conceptos tales como los de “existencia”, “causalidad” o “razón suficiente”, “perfectibilidad”, “bien” y “mal” y “justificación moral”1,2.

“Frente a un ateísmo que podemos definir como substancialista y moral – substancialista, porque acepta la reificación impuesta por el teísmo tradicional, y moral porque incide con una terquedad obtusa en el conocido problema del mal y se empeña en una cualificación ética de la negación de Dios- es posible presentar otros discurso, otro argumentario ateísta.”

La forma habitual de utilización de estos conceptos ha consistido, por lo general, en tratarlos como atributos o carácterísticas definitorias de la divinidad. Unos atributos que en ocasiones encontraban anclaje en supuestos previos sobre los adornos ontológicos que deberían engalanar a la divinidad –es el caso de los atributos de existencia, causa última o perfección absoluta- y que otras veces partían de la presentación, estilizada y tal vez algo idealizada, de ciertos universales cognitivos y conductuales del ser humano -por ejemplo, la justificación final de nuestra naturaleza moral. Así, el célebre argumento ontológico de San Anselmo, expuesto en el segundo capítulo de su ‘Proslogion’3 combina ambos aspectos: los supuestos previos de 1  ‘The Blackwell Guide to the Philosophy of Religion’. William E. Mann (ed.), Blackwell Publishing, Oxford, 2005. 2  ‘Contemporary Debates in Philosophy of Religion’. Michael L. Peterson and Raymond J. Vanarragon (eds), Blackwell Publishing, Oxford, 2004. 3  ‘Proslogion’ San Anselmo, Ediciones Folio, Barcelona, 2003.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

146

Corroza, M. 147-152

absoluta perfectibilidad del ente divino y la capacidad experiencial del hombre para imaginar la naturaleza de tal entidad. Ambos caminos desembocan en la atribución necesaria de la existencia como un atributo o característica que la divinidad no puede dejar de poseer. Precisamente, este carácter atributivo o predicativo de la existencia ha focalizado las principales críticas al argumento anselmiano, especialmente las procedentes de Kant y, en menor medida, de Hume. El propio Santo Tomás de Aquino consideraba que el razonamiento ontológico de Anselmo partía de un a priori sobre la naturaleza de Dios y ponía en juego pretensiones desmedidas de conocimiento de la esencia divina. El propio Santo Tomás, en la conocida exposición de sus cinco vías para la demostración de la existencia de Dios4 recae en el error anselmiano, puesto que sus argumentos demostrativos sobre la existencia de Dios, si bien no presuponen dicha existencia como un predicado, tienen que echar mano por fuerza de conceptos e ideas que bien cabría calificar como descripciones condensadas, es decir, como atributos. Ya sean estos la inmovilidad o reposo absoluto (primera vía), la causalidad eficiente primera (segunda vía), la necesariedad última (tercera vía), la suma perfectibilidad (cuarta vía) o la perfectísima intencionalidad (quinta 4  ‘Historia de la filosofía (volumen 4): de San Agustín a Escoto’. Frederick Copleston, Editorial Ariel, Barcelona, 1994.

147

Nullius in verba Site www.nulliusinverbasite.com vía). Una derivada contemporánea de la pentavía tomista, el llamado argumento cosmológico Kalam, reformulado en los últimos años por William Lane Craig5, mantiene y refuerza este punto de vista al hablar de un Dios personal, trascendente y creador. Por último, en el ya mítico debate radiofónico de la BBC que mantuvieron el sacedote Frederick Copleston y el filósofo y matemático Bertrand Russell sobre la existencia de Dios en 19486, ambos contendientes agruparon sus argumentos en tres apartados conceptuales –la contingencia, la experiencia religiosa y el argumento moral- que presuponían una caracterización inicial del ente sobre cuya existencia se estaba discutiendo: un ser necesario, por supuesto, comunicativo con el ser humano y depositario absoluto de una moral deontológica del bien. Por supuesto, estos tres ejemplos no agotan de ninguna manera el contenido de las discusiones sobre la existencia y naturaleza de Dios y sobre otras importantes cuestiones colaterales. La revitalización, de la mano de Alvin Plantinga7 y otros autores, de las discusiones sobre el celebérrimo “problema del mal” y su acoplamiento con la temática del libre albedrío, son una clara muestra de la riqueza y viveza de estos debates interminables. Ahora bien, conviene llamar la atención sobre un importante aspecto de fondo. Todos los debates de este tipo, incluso aquellos que pretenden abordar tan solo el aspecto formal de la existencia de Dios, y no su naturaleza y atributos, parten inevitablemente de una caracterización de principio, de un 5  ‘The Kalam Cosmological Argument’. William Lane Craig, USA, 1979. 6  ‘Recuperada la discusión Russell-Copleston sobre la existencia de Dios’. Javier Montserrat, en la web Tendencias 21, 2009. En https://www.tendencias21.net/ Recuperada-la-discusion-Russell-Copleston-sobre-laexistencia-de-Dios_a2925.html 7  ‘God, Freedom and Evil’. Alvin Plantinga, Harper and Row, USA, 1974.

Scientia in verba Magazine 2619-2586

conjunto de rasgos, de un arquitectura de cualidades y comportamientos que, precisamente, se presuponen en esta entidad sobre cuya existencia se está discutiendo. Esta cualificación no es otra cosa que una esencialización, incluso una reificación de una idea, la idea de Dios. Conviene llamar la atención sobre este punto, porque, en mi opinión, resulta de extrema importancia a la hora de abordar no solamente la estructura argumental de la apologética teista (aquella que sostiene la existencia de algún tipo de divinidad), sino también los propios contenidos del contraataque discursivo de los ateos. El debate habitual entre teístas y ateos tiene lugar en la arena de la reificación y de la substancialización de la idea de Dios. Unos, los teístas, apuntalan sus argumentos con todo un armazón de atributos excelsos y de prendas virtuosas con las que visten una idea muy concreta de Dios. Una idea, por cierto, que no es en absoluto la única posible en nuestros registros históricos y antropológicos. Los otros, los ateos, acceden a pelear en esa arena y a jugar con las cartas marcadas por sus adversarios, pensando siempre, como diría George Lakoff8, en el elefante en el que no deberían pensar. Los ateos juegan casi siempre en campo contrario, y no se dan cuenta. Frente a un ateísmo que podemos definir como substancialista y moral –substancialista, porque acepta la reificación impuesta por el teísmo tradicional, y moral porque incide con una terquedad obtusa en el conocido problema del mal y se empeña en una cualificación ética de la negación de Dios- es posible presentar otros discurso, otro argumentario ateísta. Se trata de un ateísmo epistemológico, semántico y conceptual, más en la línea de la filosofía analítica, del positivismo lógico y del materialismo histórico y antropológico. Entendiendo aquí el término ‘materialismo’ en un sentido 8  ‘No pienses en un elefante: lenguaje y debate político’. George Lakoff, Editorial Complutense, Madrid, 2007.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

148

Scientia in verba subpage /revista-scientia-in-verbapdf/ amplio, no forzosamente adscrito a una interpretación ingenua o marxista. En este sentido, y profundizando un poco más, la fundamentación epistemológica y semántica del ateísmo tiene un interés particular en tanto en cuanto no presupone un contenido cognitivo especialmente elaborado, a diferencia de otras fundamentaciones con mayores exigencias epistémicas. Este ateísmo semántico, que en cierto modo puede encapsularse como un tipo de ateísmo epistemológico, recurre a muy pocas herramientas conceptuales. Concretamente, a tres, a saber: los conceptos de signo, sentido y referencia. Estos tres conceptos son importantes aportaciones que debemos al lógico alemán Gottlob Frege (18481925), considerado con justicia como el fundador de la moderna lógica simbólica. Frege presentó estas nociones en un artículo publicado en 1892 y titulado ‘Sobre sentido y referencia’9. Simplificando mucho, nuestro autor viene a decir que signo es el conjunto de caracteres de una lengua que designa un nombre propio o una expresión lingüística, mientras que el sentido de esa expresión sería el modo en que tal expresión designa un objeto real. La referencia, por último, vendría a ser el objeto real designado por el signo a través de un modo concreto, modo que viene determinado por el sentido. Entre estos tres conceptos se establece una doble relación secuencial que Frege explica con claridad. La conexión regular entre el signo, su sentido y su referencia es tal, que al signo le corresponde un determinado sentido y a éste, a su vez, una determinada referencia, mientras que a una referencia (a un objeto), no le corresponde solamente un signo. Frege afirma, además, que, en un conjunto perfecto de signos, a cada 9  “Sobre sentido y referencia”, en ‘Estudios sobre semántica’. Gottlob Frege, Ediciones Folio, Barcelona, 2002.

Corroza, M. 147-152

© Nullius in verba site

expresión debería corresponderle un sentido determinado; pero las lenguas naturales no cumplen este requisito. La cosa queda más clara si ponemos un ejemplo, el mismo que utiliza Frege para ilustrar su punto de vista. Tomemos el planeta Venus, un cuerpo celeste perfectamente definido, un objeto real e identificable. Pues bien, en este caso, el signo vendría a ser el conjunto de caracteres lingüísticos que conforman la expresión (o “nombre propio”, en palabras de Frege) “el lucero matutino”. El sentido estaría dado por el significado de dicha expresión, esto es, la designación de una lucecita que se observa al alba en unas determinadas coordenadas en relación con otros cuerpos celestes. Y la referencia sería el propio objeto designado de esa manera, es decir, el planeta Venus.La cuestión aquí es que una misma referencia (el planeta Venus) puede quedar designada por dos o más sentidos. En realidad, por muchísimos sentidos. Y así, expresiones como “lucero matutino”, “lucero vespertino” -Venus también se oberva como una luz en el cielo del atardecer- o “el segundo planeta más cercano al Sol” son sólo tres de los potencialmente infinitos sentidos con los que podemos referirnos a un único objeto, en este caso al planeta Venus. Pero, y esto es importante, se trata de sentidos no contradictorios entre sí. Muy bien. Pero entonces, ¿qué tiene esto que ver con la fundamentación del ateismo? ¿Qué tiene que ver con Dios, o con la idea de Dios? Esencialmente, y este es el embrión de hipótesis que pretendo mantener, “Dios”, en cuanto signo lingüístico o incluso en cuanto concepto o noción, carece de sentido y por tanto, carece de referencia. Un repaso a las diferentes definiciones o descripciones que a lo largo de la historia las distintas religiones – especialmente las monoteístas- y sus diferentes formulaciones, mas o menos heréticas, han hecho de la idea de Dios

149

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

ilustra a la perfección la afirmación sobre la carencia de sentido. Entendida esta carencia de sentido como la presencia, en realidad, de múltiples sentidos contradictorios entre sí. Esto es algo que uno puede comprobar por sí mismo en cualquier excursión literaria por el Antiguo y el Nuevo Testamento. También es perceptible esta contradicción en las formulaciones elaboradas por ilustres creyentes de toda laya. Y así, por ejemplo, poco tienen que ver las caracterizaciones de la deidad que presentan místicos como Teresa de Jesús o Husayn Mansûr Hallâdj, en su Poemario Sufí con las que ponen en suerte pensadores como Descartes o Hegel. Pero es que los sentidos de la divinidad que presentan a su vez estos autores difieren radicalmente entre sí; ya que poco o nada tiene que ver el Dios relojero cartesiano, que pone en marcha el mecanismo del mundo para a continuación desentenderse de él con la deida panhistórica de Hegel, que continuamente interfiere en la historia de la humanidad, guiando su itinerario a través de un proceso dialéctico que, al parecer, debe culminar con la instauración del estado prusiano como manifestación máxima del Espíritu Absoluto. En este mismo sentido Rudolf Carnap (1871-1970), uno de los fundadores del positivismo lógico, opina que “Dios” es una palabra metafísica carente de significado. Carnap, en un artículo titulado “La superación de la metafísica mediante el análisis lógico del lenguaje”10 publicado en 1932, distingue tres usos lingüisticos de la palabra “Dios”. Un uso mitológico, al que atribuye un significado claro, un uso metafísico (el que aquí nos interesa), y un uso teológico a medio camino entre los dos anteriores. Sobre

el uso metafísico de la palabra “Dios”, afirma Carnap lo siguiente:

10  “La superación de la metafísica mediante el análisis lógico del lenguaje”. Rudolf Carnap. En ‘El positivismo lógico’. A.J. Ayer (comp.), Fondo de Cultura Económica, México, 1965.

11  “Sobre la religión. A propósito de un libro de Alberto Fierro”, en ‘Elogio del ateísmo. Los espejos de una ilusión’. Gonzalo Puente Ojea, Siglo Veintiuno de España Editores, Madrid, 1995.

(…) en su uso lingüístico metafísico la palabra “Dios” designa algo que está más allá de la experiencia. El vocablo es deliberadamente despojado de cualquier significado relativo a un ser corpóreo o a un ser espiritual que se halle inmanente en lo corpóreo, y como no se le otorga un nuevo significado, deviene asignificativo. A menudo puede parecer que la palabra “Dios” también posee significado en el orden metafísico, pero ante una cuidadosa inspección las definiciones establecidas al respecto han mostrado ser pseudodefiniciones.

En cuanto a la afirmación de que la idea de Dios carece de referencia, podría resultar trivial si se acepta la previa carencia de sentido de la idea de Dios. Si existen múltiples modos contradictorios entre sí para designar un objeto que se pretende real, ¿es lícito afirmar la existencia de dicho objeto? Gonzalo Puente Ojea, en el capítulo segundo de su libro “Elogio del ateísmo. Los espejos de una ilusión”11, afirma, al referirse a la dimensión simbólica del hecho religioso, que esta dimensión no es autoexplicativa, es decir, no puede clausurarse epistemológicamente en sí misma. Toda realidad simbólica ha de explicarse desde fuera de ella misma, o sea, desde el objeto real referido. Si tal objeto no es real, no existe o no es inequívocamente identificable, entonces el símbolo se convertiría en lo que Carnap denomina un pseudovocablo, una palabra cuyo significado es inverificable. Afirma Puente Ojea que “(…) las operaciones simbólicas de carácter religioso suelen tender a eliminar de hecho toda referencia y a identificarse con lo meramente conductual -gesto, rito, comportamiento-” Y más adelante, A.N. Whitehead advierte

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

150

Scientia in verba subpage /revista-scientia-in-verbapdf/ reiteradamente sobre los efectos perversos de la actividad simbolizante cuando se pierden los anclajes con los referentes objetivos u objetivables -no siempre necesariamente empíricos-. (…) y no parece que una indagación dirigida a desvelar la naturaleza de la religión deba privilegiar la vertiente simbólica de los hechos religiosos y relegar su vertiente epistemológica y su pretensión de verdad. En definitiva, y para terminar, creo que la crítica lógico-semántica de la

© Nullius in verba site

Post Scriptum No nos engañemos. Las múltiples ideas de Dios siempre irán por delante de cualquier crítica lógica, histórica, cosmológica o filosófica en general. Una de las ventajas de utilizar conceptos sin un sentido unívoco y carentes de referencias objetivables es que uno puede definirlos como quiera, las más de las veces utilizando argucias agumentativas del tipo ad hoc.

Figura 1. De izquierda a derecha: Gottlob Frege (1848-1925), Rudolf Carnap (1891-1970) y Gonzalo Puente Ojea (1924-2017).

utilización de la palabra “Dios” es capaz de poner al descubierto la carencia de sentido de la propia noción -o nociones, a veces contradictorias- de Dios. Un vocablo, un concepto si se quiere, carente de un sentido unificado y cuya referencia, esto es, la realidad objetivable a la que se designa con el signo lingüístico “Dios”, o no existe o resulta inverificable. A partir de este mero apunte, que no es una hipótesis perfectamente articulada, pueden desarrollarse nuevas argumentaciones que terminen por relegar la palabra “Dios”, y la idea misma de Dios, al almacén de los vocablos inútiles. En ello estamos.

Corroza, M. 147-152

Un creyente podrá argumentar que la existencia de Dios es indemostrable porque lo contrario tendría como consecuencia la conversión de la deidad en objeto de conocimiento. Y, ya se sabe, todo aquello que es cognoscible termina formando parte del conjunto total de las cosas conocidas. Y, por definición, un conjunto de cosas siempre es más completo que cualquiera de las cosas que integran ese conjunto. Pero, justamente, Dios representa la infinita completitud de todas las cosas. Entonces, y en consecuencia, demostrar la existencia de Dios conduciría a una paradoja, la de convertirlo en una realidad cognoscible

151

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

entre otras muchas. Algo que no cabe en la definición de Dios como “ente supremo” (y éste es sin duda un aspecto de la definición itrrenunciable para cualquier creyente monoteísta). El ateísmo epistemológico, del que he trazado unas pocas líneas con brocha gorda, no pretende demostrar la inexistencia de Dios, por supuesto. Pero tampoco pretende combatir la idea de Dios desde los supuestos y los logros de las ciencias naturales. En realidad, el ateísmo epistemológico tiene un sentido propedéutico. Esto es, critica la utilización de la idea de Dios, incluso por parte aquéllos que pretenden combatirla, si antes no se ha realizado una labor de aclaración lógica y semántica. Y si, de resultas de esta labor previa, se concluye que “Dios” es un concepto carente de sentido y de referencia, entonces, ¿de qué estamos hablando?

S

Manuel Corroza Muro

S

Doctor en Ciencias Biológicas y Licenciado en Filosofia

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

152

153

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site Scientia in Verba Mag.3, 155-165 (2019)

Epistemologia, problemas y metodos en la obra de piaget Jaime Yáñez Canal1 1  Universidad nacional de colombia, Sede principal. Bogotá Publicado originalmente en revista: Aportes a la psicología. Universidad santo tómas de Aquino. Año 4 No. Facultad de psicología. Bogotá Colombia.

“En el desarrollo de la obra piagetiana podemos aplicar su concepción sobre la ciencia. En su desarrollo intelectual cada nueva formulación amplia el campo de estudio, considera nuevos derroteros del actuar psicológico y evita algunas incoherencias de anteriores formulaciones.”

“Nosotros creemos que es imprescindible explicar los presupuestos teóricos desde los cuales se interroga la realidad, porque en definitiva los instrumentos son teorías en acto. En otras palabras, por más que la necesidad de perfeccionar y rigorizar los instrumentos sea indiscutible, la cuestión central reside en la relación entre la teoría que establece el objeto de investigación y los instrumentos”. (Castorina, Giacobbe, Ricco 1973 pág. 67).

El epígrafe nos permite hacer la presentación de este ensayo, que tiene por objetivo resaltar los puntos teóricos esenciales de la obra de Piaget, su propuesta epistemológica, y su evolución intelectual, los que nos permitirán entender sus variaciones metodológicas en la investigación psicológica. La organización de este ensayo es el siguiente: I. Discusión epistemológica. II. La psicología como propuesta estructuralista. III. Evolución de la teoría de Piaget y de sus variaciones metodológicas.

Discusión Epistemológica. La postura Piagetiana, aparece sobre la discusión actual entre la racionalidad analítica y la nueva filosofía, representada en epistemólogos que incorporan la historia de la ciencia en su reflexión (como Bachelard, Kuhn, Feyerabend, Lakatos, estructuralistas, como P. Suppe,

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

154

Yáñez, C. 155-165

Sneed, Stegmuller). Piaget con su modelo va a contribuir con esta última postura, en el estudio de los mecanismos del desarrollo y con la incorporación de este en las discusiones normativas. Veamos los puntos de debate y desarrollemos a continuación que forma adquieren en Piaget (por el carácter del ensayo no mostraremos las diferencias entre autores, ni las influencias sobre Piaget). Ante las propuestas positivistas que proponían la neutralidad y autonomía de los hechos, y relegaban a la epistemología a asumir un papel regulador y evaluador externo, que habría de concentrarse en evaluar la contradicción lógica (según una lógica que se proponía para evaluar la validez de las deducciones o la axiomatización de las teorías) o empírica, y veían la historia de la ciencia como un problema externo a la epistemología que mostraría solo las variaciones temáticas y metodológicas, la “nueva filosofía”, y con ella Piaget, al incorporar la historia en el análisis epistemológico propone, que los hechos son construcciones racionales; incorpora la discusión epistemológica al interior de la ciencia, en donde la evaluación de las teorías estaría dada no por los requerimientos metodológicos de contrastación, sugeridos por la postura analítica, sino por la contrastación entre teorías de acuerdo a su potencia heurística. Esta nueva filosofía presenta en su interior discusiones sobre como debe entenderse la idea de teoría (uso de modelos matemáticos según Sneed,

155

Nullius in verba Site www.nulliusinverbasite.com Stemuller y Lakatos en contra del concepto de paradigma de Kuhn), sobre la idea de progreso en la ciencia, (si hay rupturas como sostienen Kuhn, Bachelard, y Feyerabend, o hay continuidades según Lakatos) sobre la posibilidad de evaluación racional de las teorías (imposibilidad de evaluación según Kuhn y Feyerabend y la normatividad sugerida según el falsacionismo sofisticado de Lakatos, Sneed y Stegmuller). Sobre este panorama es que se erige la obra de Piaget que propone: 1. La explicación como construcción racional. 2. La historia según rupturas – continuidades. 3. La normatividad según un proceso genético, donde las teorías más fuertes ofrecen una superación de las desventajas de las competidoras y una ampliación del campo de estudio. 4. La consideración de los mecanismos que explican el desarrollo1. Sobre la causalidad Piaget dice que esta dependería ya no de generalizaciones dadas a partir de relaciones perceptibles sino de las operaciones del pensamiento. “En todos los casos la deducción causal equivalente a fusionar la modificación física con la transformación operativa, por subordinación de lo real a lo posible, y a conferir a las generalizaciones de las relaciones legales reales, un carácter de necesidad, o de probabilidad en función de esa subordinación”. (Piaget 1975b pág. 287). Para la diferenciación entre lo posible y lo real Piaget utiliza los conceptos de abstracción y generalización; estos dos instrumentos van a expresarse de varias formas según las características del conocimiento: la abstracción hace 1  Aclaramos que estos puntos sólo se refieren al método de análisis formalizante y psicogenético, no contemplamos al histórico crítico. Este método de análisis epistemológico lo utiliza Piaget para referirse a los análisis críticos sobre la ideología, expuestos en la obra de Ricouer y la escuela de Frankfurt. (Ver Yañez Canal 1987).

Scientia in verba Magazine 2619-2586

referencia al tipo de conceptualización propio de un determinado marco epistémico (término utilizado por Piaget para referirse a paradigma), la generalización, estaría sometida a esta y tendría como tarea el establecimiento de regularidades en lo real. (Piaget 1982d; 1981b). Una primera forma de abstracción seria la empírica (similar a la presente en la racionalidad analítica) en donde el sujeto se refiere a objetos exteriores en los cuales simplemente se limita a comprobar ciertas propiedades y a analizarlas independientemente; la generalización en este tipo de abstracción empírica o refleja seria solamente de naturaleza extensional, es decir solo contemplaría el pasaje del “algunos” al “todos”, (Piaget 1975b; 1978; 1981b). La segunda forma de abstracción Piaget la llama “reflexiva” y se refiere a las acciones y operaciones del sujeto, que hacen de lo real una manifestación de lo posible (Piaget 1982). “Se comprende así la diferencia, entre los dos tipos de generalización: La generalización simplemente formal o por inclusión y la generalización por composición operativa, el primero de estos dos tipos no es explicativo y se limita a ampliar el campo de las leyes enfocadas, porque consiste en un pasaje directo del “algunos” al “todos”, pero a un “todos” cuya totalidad permanece real y abarca solamente al conjunto de los casos observados o efectivamente observables. Por el contrario, la generalización por composición al sobrepasar lo real por medio de la reversibilidad alcanza todo lo posible y atribuye por este solo hecho un carácter de necesidad a las relaciones efectivas, es decir a las leyes dadas”: (Piaget 1975b pág. 285). De esta manera Piaget establece su diferencia con las posturas analíticas que consideran que las teorías deben darse por el establecimiento de generalizaciones, ante las que propone su postura constructivista, que supera y reinterpreta, según él, lo que esta postura

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

156

Scientia in verba subpage /revista-scientia-in-verbapdf/ ofrecía para el análisis epistemológico. La lógica matemática en Piaget, es la garantía de la actividad constructora de la realidad y debe entenderse en función de totalidades cada vez más englobantes y no ya como un simple sistema deductivo, “sin embargo, ya existe otra manera de servirse de la lógica que conduce más rápidamente a una explicación de los hechos observados. Se trata por supuesto, también de apuntar a una descripción de la realidad concreta, pero ahora permaneciendo atento a dos cosas, en primer lugar – y esto no es nuevo – evitar cualquier ambigüedad. En segundo lugar sobre todo, insistir en las relaciones entre los comportamientos de un dominio suficientemente amplio como para constituir una verdadera totalidad. Esto significa, que aquí el instrumento lógico se utiliza para poner de manifiesto estructuras de conjunto y no ya para prever conductas aisladas y locales”. (Blaise Grize 1974 pág. 57). La evaluación de una teoría no esta en su sometimiento a un pretendido “Método científico”, debido a que la falsación de un hecho afecta a las hipótesis secundarias, más no a los principios centrales de un marco epistémico. La decisión racional o normativa, sobre la fuerza o mayor cientificidad de una teoría, esta en la mayor capacidad de anticipación es decir, en la mayor capacidad de contemplar nuevos fenómenos, además de la mayor capacidad para vislumbrar las contradicciones (entre formas y contenidos, entre teorías, entre contenidos al interior de un sistema teórico y entre diferenciaciones e integraciones) de los niveles anteriores en la evolución de la disciplina. Con esto esperamos se tenga en cuenta que la exposición teórica de Piaget, así como su evolución intelectual y metodológica y la discusión con otros modelos, se hará en cuanto a la amplitud que ofrezcan para el análisis de lo humano, tanto en la consideración de

Yáñez, C. 155-165

© Nullius in verba site

nuevos fenómenos como en la superación de las dificultades formuladas por sus competidores o por su misma teorización.

La Psicología como propuesta estructuralista. Para Piaget, la lógica y las matemáticas se convierten en el mejor modelo para contemplar las transformaciones de los actos de conciencia del sujeto y expresar su organización mental, o sus formas de interpretar lo real. “Piaget no ha intentado construir un sistema deductivo, porque él no tenía porque hacerlo. Su lógica ciertamente contiene definiciones precisas, pero no se encuentran en ella ni formas ni reglas explícitas de inferencia, en el sentido ahora clásico del término, sino de realizar una representación precisa de los fenómenos vinculados a las ciencias del hombre. Por otra parte, su lógica no es enteramente formal, en el sentido de que sus expresiones no responden totalmente a los criterios habituales en los cálculos. Estamos ante una lógica en la que la significación de los términos juega un papel comparable al de su forma, en una palabra, ante una lógica de la comprensión”. (Grize, Jean Blaise 1974 pág, 57-58). La estructura operativa a su vez permite captar el proceso con que el sujeto responde a los problemas, independientemente de las variaciones en los contenidos o en los resultados específicos. “En efecto, en física se puede medir un proceso por su resultado, pero por que hay homogeneidad entre ellos, y los resultados de un determinado proceso son constantes. En la vida mental, por el contrario, una misma resultante puede ser obtenida por diferentes medios, y sobre todo una estructura operativa es fuente de un gran número de resultados posibles, que no se pueden deducir de la “perfomance” observada, sino que presuponen el conocimiento del mecanismo operatorio subyacente”.

157

Nullius in verba Site www.nulliusinverbasite.com (Piaget 1976c pág. 192-193). Además de la descripción sincrónica, los modelos lógicos permiten captar como se expresan las rupturas en el desarrollo. Al comparar los estadios en el desarrollo se observa como cada nuevo estadio reorganiza e integra en estructuras más amplias, operaciones que en el nivel anterior se daban separadas (por ejemplo, la inversión por negación y por reciprocidad en el operatorio concreto y su integración en el operatorio formal). Estas diferenciaciones e integraciones de esquemas u operaciones posibilitan a su vez que el sujeto contemple nuevas posibilidades de acción y el que su espacio de percepción sea ampliado. La mayor “potencia” o complejidad de las estructuras estarían determinadas por un proceso progresivo de diferenciaciones entre lo posible y lo real. Es decir en la medida en que las estructuras organizativas se hacen más complejas, el sujeto posee mayores posibilidades para comprender el mundo y para explicar su funcionamiento. Las formas mas complejas, funcionando como estructuras de conjunto, amplían los elementos, sus relaciones y combinaciones, lo que hace que el sujeto disponga de mayores posibilidades para interpretar o actuar sobre el mundo. De esta manera dentro del nuevo universo de interpretación, lo real habrá de estar contenido como una actualización particular de lo posible. En el desarrollo la complejización estructural habrá de entenderse como una progresiva diferenciación de formas y contenidos, en donde la mayor autonomía y complejidad de las formas habrán de garantizar un conocimiento más fiable de los contenidos, o lo real. El desarrollo de las formas de interpretación se expresará en nuevos marcos interpretativos que permiten la incorporación de nuevos fenómenos a observar, a la vez que permite resolver los impases y problemas que presentaban las estructuras o marcos anteriores.

Scientia in verba Magazine 2619-2586

Resumiendo, la teoría de Piaget estudia los cortes o momentos sincrónicos del desarrollo, utilizando modelos lógicomatemáticos para contemplarlos como “estructuras de conjunto” que permiten observar el proceso independientemente del resultado que se logre, además, estos períodos se evalúan según su forma de equilibrio, es decir, según el grado de diferenciación que se posea entre las formas y los contenidos. Expuestos los puntos básicos de la teoría de Piaget, podemos entrar a hablar de los métodos y técnicas de investigación en psicología, que solo serían “teorías de acto” es decir, medios que permitirían contemplar en el razonamiento humano los procesos y las formas coherentes con que se resuelven los problemas independientemente de sus manifestaciones externas o de las diferencias individuales.

Evolución de la teoría de Piaget y de sus variaciones metodológicas. Al contrario de lo que muchos opinan, en Piaget no encontramos un solo método investigativo, sino muchos y muy variados de acuerdo a su preocupación temática y su conceptualización teórica. La obra de Piaget al cabo de más de sesenta años de trabajo, presenta algunas variaciones conceptuales, las que pueden diferenciarse en cuanto a la caracterización del fenómeno mental, su desarrollo y sus relaciones con otros fenómenos. Estas variaciones conceptuales en la obra de Piaget, pueden diferenciarse en cuatro épocas, que serían: A. Primera época. (1920 – 1935) En esta primera época de escritos psicológicos, Piaget presenta una mezcla de teorías o influencias tan dispares, que hacía de sus formulaciones un mosaico tan variable como difícil de ordenar. Autores como Durkheim, Freud, Simon y otros psicólogos y filósofos de la

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

158

Scientia in verba subpage /revista-scientia-in-verbapdf/ época que hablan sobre los conceptos y razonamientos del hombre, influyeron en su teoría. La característica esencial de esta época, es la suma importancia dada al lenguaje, como instrumento social, que influiría sobre el pensamiento “individualista” del ser humano, y sería la principal causa de la socialización. Este desarrollo lo va a categorizar como un proceso que va de un pensamiento egocéntrico a uno socializado, o de un pensamiento prelógico a uno lógico. Para la caracterización de cada par propuesto, ha de retomar tal abanico de términos de diferentes autores y disciplinas que expresarían algo bien distante a una estructura de conjunto, como posteriormente habrá de proponer. Así para la caracterización del pensamiento egocéntrico2 o prelógico3 2  Concepto que inicialmente tomo del psicoanálisis y que lo entendía en términos de procesos narcisisticos o autocentrados del sujeto (Piaget 1977a; 1977b). Posteriormente (1961) reinterpreta este concepto en términos de un proceso en donde el niño no es capaz de establecer fronteras o límites entre su percepción y el mundo, lo que hace que interprete el mundo en función de sus esquemas de acción asociados a situaciones particulares y presentes. Este cambio en el significado del concepto de egocentrismo pudo deberse a la polémica que sostuvo Piaget con Vigotsky en los años 30. La crítica de Vygotsky tiene validez siempre y cuando se considere la primera formulación de Piaget sobre el egocentrismo. Posteriormente (y así le contesta a Vygotsky partiendo de una nueva conceptualización) el egocentrismo era definido en términos de ausencia de limites entre el niño y el mundo. Igualmente incorporó mas tarde el concepto de conciencia como control de la acción, aspecto que también había señalado Vygotsky en su crítica a las primeras formulaciones de Piaget. 3  Este concepto lo retoma de Levy-Bruhl. Para Freud, Frazer, o Morgan, según Piaget, las formas de pensamiento o representación se establecían en términos de oposición que no posibilitaban la comunicación ni la toma de consciencia al funcionar bajo procesos tan dispares. Con Levy-Bruhl las diferentes formas de pensamiento no habrán de verse en términos de una oposición alógico, o no-lógico y lógico sino en términos de pre-lógico y lógico. Este cambio de términos implica la incorporación de una dimensión histórica en la comparación de formas de pensamiento y además posibilita ver la historia en términos de variaciones en las formas de pensamiento y no solo como variaciones de contenidos. El representar el desarrollo desde un período egocéntrico a uno socializado, o de un nivel prelógico a otro lógico le llevara a entender

Yáñez, C. 155-165

© Nullius in verba site

retoma conceptos del psicoanálisis, de la antropología y de algunos psicómetras como Simon, Burt, Claparede. Estos conceptos serían la condensación, desplazamiento, animismo, finalismo, realismo, artificialismo, pensamiento mágico, sincretismo, yuxtaposición, transducción. Igualmente para referirse a los procesos lógicos o socializados se refiere a la abstracción, la generalización, y el manejo de conectivos lógicos. En esta época Piaget consideraba el desarrollo como un proceso desde lo individual a lo social4. A pesar de la concepción Durkheimniana del desarrollo y del papel causal dado al lenguaje como elemento formal en la generación del desarrollo, ya podemos encontrar algunos puntos centrales que habrán de identificar la obra Piagetiana y que habrán de estar presente, en toda su obra. Estos componentes que habrán de determinar todos sus desarrollos posteriores, son la consideración del desarrollo como un proceso hacia la mayor abstracción, hacia la mayor autonomía del sujeto de los eventos inmediatos que enmarcan su actuar cognitivo, y la caracterización de lo cognitivo a partir de formas que referían a modelos lógicos5. este como un proceso de reorganización de las formas de pensamiento. 4  Lo individual con Freud y Durkheim, Piaget lo entendía, como el espacio humano donde predominan los deseos y que determinarían que el pensamiento fuera completamente particular, caótico y asistemático. Lo social de manera consecuente sería lo opuesto, es decir sería el espacio donde operaria lo abstracto y las reglas que permitirían organizar y coordinar las interacciones humanas. En términos psicológicos el paso de un pensamiento egocéntrico a otro socializado se daría por la incorporación de las reglas sociales en el pensamiento del sujeto, y con este el ordenamiento de los procesos cognitivos del sujeto y el control y planeación de sus acciones. (Piaget, 1977a; 1977b; 1975a). 5  A pesar de que los modelos lógicos y/o matemáticas en la obra de Piaget hayan variado permanentemente. Así inicialmente se refería a los procesos cognitivos solo refiriéndose a la capacidad para manejar conectivos lógicos o algunos elementos gramaticales. Posteriormente retoma modelos matemático, como las estructuras madres de los Bourbaki, la lógica de clases, relaciones, proposiciones,

159

Nullius in verba Site www.nulliusinverbasite.com Los dos primeros puntos (la descripción de las formas y la relación con el contenido) que son los más confusos en su descripción y los más variados en esta época, son los que nos permitirán entender las primeras propuestas metodológicas de Piaget. a) Observación pura. Piaget sobre todo en su libro “El lenguaje y el pensamiento en el niño” observa una cantidad considerable de niños, para evaluar sus intervenciones verbales, espontáneas y “medir” estadísticamente su coeficiente de egocentrismo (1977a). b) Técnicas de evaluación psicométrica. En “El juicio y el razonamiento en el niño”, a pesar de que ya se establece el diálogo como técnica (esbozo de método clínico) Piaget utiliza ítems de test como el de Burt, Binet-Simón, Claparede, (citados por Vihn-Bang 1970), tales como el test de los hermanos, definiciones, crítica de frases absurdas, seriaciones verbales, etc. (Piaget 1977b). c) Método clínico. En “La representación del mundo en el niño”, Piaget (1975a), incorpora su método clínico, tal vez por concentrarse en este texto en analizar los contenidos en las explicaciones del sujeto, (la creación de las cosas, la presencia de vida, o de conciencia, las características de los fenómenos subjetivos, etc.). En los análisis de las respuestas de los niños ya se esbozan la formulación de formas organizativas comunes para todos los sujetos. La utilización de las variadas técnicas de recolección de información en esta época teórica de Piaget ya muestran la preocupación por captar “estructuras de conjunto”, a pesar de que en estos primeros trabajos, Piaget no disponía de los herramientas conceptuales para proponer una organización que diera cuenta de manera integrada y abarcadora de todas las operaciones lógicas observadas en el niño. Conceptos tan dispersos se expresaban de manera

la teoría de categorías y morfismos, o la lógica de las identidades y las significaciones).

Scientia in verba Magazine 2619-2586

no integrada, que más parecían una categorización de las tareas o temáticas abordadas en el estudio sobre los niños. Así podía referirse a la condensación, desplazamiento, yuxtaposición, sincretismo, animismo, artificialismo, manejo de conectivos lógicos, generalización, manejo de reglas, conocimiento de las reglas, narración temporal de historias, etc, etc, sin que se propusiera una manera unificada de expresarlas, o al menos de diferenciar níveles de análisis en estas exposiciones. Al proponer el método clínico, Piaget se distancia de los test de evaluación y de la observación pura: sobre los test plantea los siguientes inconvenientes (1975a). – No permite un análisis suficiente de los resultados. – Opera siempre en condiciones idénticas. – Se obtienen resultados brutos, inutilizables para teorizar por insuficiencia de datos sobre el contexto de la prueba. – Altera la orientación espiritual natural del niño, debido a que solo tiene en cuenta las respuestas sin captar sus procesos internos, para dar una solución determinada. – Se descalifican los modos de razonar primitivos, al no poder describirse sus procesos, ya que la equivocación en el resultado no sugiere esta posibilidad. Sobre la observación pura, aunque Piaget en el texto de 1975a. la recupera en la medida en que permite recoger las preguntas espontáneas del niño y su vocabulario para tenerlas en cuenta en el posterior interrogatorio, le atribuye los siguientes inconvenientes: – Hace énfasis en la cantidad, en detrimento de los análisis cualitativos, que permitirían acceder más fielmente a los procesos intelectuales. – Imposibilidad de contemplar los procesos egocéntricos del niño, ya que en la comunicación cotidiana

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

160

Scientia in verba subpage /revista-scientia-in-verbapdf/ esta se mantiene y no nos permite diferenciar lo que corresponde al contexto, al esfuerzo del adulto para mantener la comunicación, o a las estructuras del niño. – Además, agrega la dificultad de diferenciar las creencias espontáneas de las aprendidas por imitación6. Por todas las dificultades, sugiere el método clínico, como la única forma de garantizar el análisis cualitativo de los procesos intelectuales, respetando las actitudes y lenguaje del individuo. Como se ve, la instauración del método clínico en la obra Piagetiana se da paralela a la focalización en el estudio de las formas explicativas del sujeto, ya que es el medio adecuado, según la formulación del autor en esta su primera época teórica, para contemplar los procesos internos con que un sujeto soluciona los problemas, a la vez que permite ver estos como una estructura de conjunto. B. Segunda época. (1935 – 1945) Para algunos (Inhelder 1982) la segunda época de Piaget va desde 1935 hasta 1970, ya que en este período, se concentro en la formación de las estructuras, en la diferenciación de los estadios y en la elaboración de su modelo del desarrollo; pero siguiendo a Vinh-Bang (1970) preferimos subdividirla en dos épocas y ubicar en esta primera el estudio del período sensoriomotriz como preocupación central para Piaget. Esta nueva época se puede caracterizar por: – La perdida de importancia del lenguaje para describir los procesos de pensamiento, debido a que sujetos sordomudos pueden presentar las mismas formas estructurales. (Piaget 1976a, 1977c, 1971). Además la presencia según otros psicólogos, de actos inteligentes en animales o niños antes de su adquisición lingüística (Kohler, Wallon y Vygotsky). 6  Posteriormente esta preocupación por las creencias enseñadas o sugeridas y su rigurosidad técnica se disminuye, por las variaciones en la descripción de las estructuras y por la variación técnica en la forma de interrogatorio.

Yáñez, C. 155-165

© Nullius in verba site

– El cambio en su idea causal: Abandona la idea de causalidad por factores independientes y empieza a desarrollar su explicación en términos estructurales y de autorregulación7. Este cambio conceptual, unido a su recuperación de una biología evolucionista, lo lleva a cuestionar las dicotomías individuosociedad (herencia de positivistas como Comte y Durkheim) y el papel causal del lenguaje o la sociedad en el desarrollo del individuo. En oposición a su primera época propone el desarrollo como un cambio de formas cada vez más diferenciadas, más descentradas, según un proceso teleonómico que van a posibilitar en el individuo una mayor autonomía y que van a permitir entender la novedad del hombre no en la aparición de la vida social, sino en su función simbólica. (Piaget 1967; 1968; 1961). El segundo período intelectual de Piaget lo lleva a estudiar los comportamientos inteligentes preverbales en el niño, sin contar con su método clínico, sino con una metodología que Vinh-Bang (1970) llama “observación crítica”. Debido a que ya no presenta la ingenuidad de su primera época, respecto a la “observación pura” (que sólo generaba datos sueltos y contradictorios), organiza la observación para demostrar en el desarrollo sensoriomotriz, una secuencia que permita entender las raíces biológicas de la inteligencia, a la vez que la novedad de la representación y ubicar los orígenes de la inteligencia conceptual en las acciones directas sobre el medio. C. Tercera época. (1945 – 1970) Esta época en el desarrollo intelectual de Piaget, corresponde a la descripción de los períodos del desarrollo conocidos, tomando como modelo las estructura lógico-matemáticas como lo expusimos en los primeros apartados de este ensayo. A la incorporación de estos modelos, aparte de la discusión epistemológica que influyo en Piaget, se puede agregar

7  Obviamente esta solo adquiere la forma expuesta en el apartado I después de 1970.

161

Nullius in verba Site www.nulliusinverbasite.com la cada vez más elaborada idea de partir de un modelo biológico que le permitiera entender que el conocimiento tiene una historia progresiva de diferenciación entre formas y contenidos, hacia su máxima culminación en estructuras matemáticas en donde se dan combinaciones mentales sin ninguna exigencia de acomodación a contenidos reales. En este período encontramos las obras ya famosas sobre el número, conservación, clasificaciones, seriaciones, tiempo, azar, espacio, y sus grandes síntesis como “Psicología de la inteligencia” y “Biología y conocimiento”. Respecto al método encontramos uno mixto, que combina tanto la situación experimental como la entrevista clínica, este método a veces es llamado “clínico experimental” o “crítico”, debido a que cambia las técnicas de interrogación. Con este método ya no se conversara con el sujeto sino que se le interrogará, rebatiéndole, criticándole o invocando diferentes opiniones, o simplemente se le pedía que exagere o varíe las condiciones experimentales (por ejemplo mayor alargamiento de la salchicha de plastilina) para ver si cambia sus exposiciones o argumenta para mantenerlas. (VinhBang 1970). Esta variación se debe a que ya no se evalúa la presencia o dependencia de los contenidos en las creencias espontáneas del sujeto, sino en los mecanismos lógicos que utilice, que lo liguen a condiciones reales (según las “identidades especiales” que Piaget atribuye a los agrupamientos) o lo libere a la pura combinación mental donde se realicen todas las posibilidades. D. Cuarta época. (1970 – 1981) Esta última época es la más desconocida en la obra de Piaget, tanto por su densidad como por las variaciones conceptuales en sus descripciones psicológicas que asumen más el papel de sugerencias heurísticas para las discusiones epistemológicas y para los análisis procedimentales. Las variaciones teóricas podemos sintetizarlas en dos puntos:

Scientia in verba Magazine 2619-2586

– Preocupación por lo mecanismos del desarrollo. – preocupación por los contenidos y por los modelos lógicos utilizados. Veamos cada uno de estos. – Preocupación por lo mecanismos del desarrollo. Si el período anterior en el que la obra de Piaget era básicamente estructural en este es básicamente genético. Pero ya lo genético no es simplemente la comparación entre estadios o la evaluación en términos de tendencia al cierre, ni la antipiagetiana sugerencia de los factores causales del desarrollo (maduración, experiencia física, social y equilibrio), sino que aquí lo genético se habrá de entender de acuerdo a la incorporación de la autorregulación, como mecanismo cibernético que explicaría el desarrollo según una direccionalidad hacia formas superiores. En este momento Piaget empieza a denominar su teoría como constructivismo dialéctico, al ubicar la causa del desarrollo en las contradicciones entendidas como los conflictos presentes en una estructura, que genera en su mismo movimiento una superación que integra y reorganiza los focos de disturbio; las contradicciones no son lógicas, no son situaciones externas a las que se enfrenta el sujeto, son desequilibrios que explican en una estructura sus posibilidades teleonómicas. (Piaget 1978, 1981b, 1981c). – Preocupación por los contenidos y modelos utilizados. Ante algunas criticas recibidas, Piaget sugiere nuevos caminos para la investigación psicológica y epistemológica, estas criticas son: a) Lo que Piaget consideraba era la excepción, la influencia del contenido, resulta ser la regla. Los adultos no razonan de manera formal, los decálages se presentan ante mínimas variaciones de las situaciones experimentales ideadas por Piaget, e igualmente ante variaciones de los objetos utilizados para evaluar un proceso cognitivo, como por ejemplo los diferentes momentos

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

162

Scientia in verba subpage /revista-scientia-in-verbapdf/ en que se logra la conservación de la sustancia el peso y el volumen. En fin ante el sinnúmero de críticas a que se ve sometido el planteamiento de que sus interpretaciones hacen referencia a estructuras formales, Piaget llega a poner en cuestión el modelo matemático tomado de la propuesta estructuralista de los Bourbaki. b) La misma estructura formal presente en diferentes dominios intelectuales (física, matemáticas, arte, ciencias sociales, etc.) no nos permiten captar las diferencias entre estos. Además de la poca precisión de una estructura que no puede dar cuenta de las diferentes áreas de conocimiento, el esquema de desarrollo estructural no permitiría entender historias individuales como los de un Mozart, o un maestro de ajedrez o alguna otra personalidad reconocida como genial en campos específicos del saber humano. c) La no consideración de las diferencias individuales como problemas psicológicos. d) La no consideración de lo preoperatorio en términos positivos, sino en términos negativos, es decir, aquello que no tiene del operatorio (no maneja conservación, clases, etc.). Ante esto Piaget propone. – El uso de nuevos modelos lógicos (a partir de la teoría de las categorías y de los morfismos y de la lógica intencional), que le permitan eliminar la diferenciación hecha de sus estadios, en el período anterior. Describir el preoperatorio según una lógica de la identidad y las funciones y ver el desarrollo de las correspondencias. Proponer una lógica de la significación que no desconozca las asociaciones significativas que establece el sujeto. – Sobre la presencia permanente de los contenidos y la necesidad de observar la secuencia o la organización especifica de estos, sugiere el análisis de los procedimientos según una secuencia algorítmica.

Yáñez, C. 155-165

© Nullius in verba site

Este último período, en donde Piaget recupero algunos temas apenas enunciados en el pasado y sugirió múltiples como numerosos caminos, a nivel metodológico presenta muy pocas variaciones respecto a su método clínico. En esta época se le da un mayor énfasis al aspecto experimental y observacional para poder abordar el aspecto procedimental, y la toma de conciencia del sujeto. Aspectos que desbordan el aspecto estructural por una mayor preocupación funcional. Este último período de la obra de Piaget, lo que sugiere de una manera más clara es lo que hemos venido presentando en este ensayo, que su obra no es una teoría monolítica, sin variaciones conceptuales, sino más bien un nuevo marco para la discusión epistemológica y psicológica que más que descripciones definitivas nos ofrece es un conjunto de sugerencias heurísticas para un futuro desarrollo. Desarrollo que sólo exige sea evaluado como un marco superador de sus competidoras en la historia de la psicología y epistemología. En el desarrollo de la obra piagetiana podemos aplicar su concepción sobre la ciencia. En su desarrollo intelectual cada nueva formulación amplia el campo de estudio, considera nuevos derroteros del actuar psicológico y evita algunas incoherencias de anteriores formulaciones. Las variaciones metodológicas expresan de manera coherente las nuevas preguntas y formulaciones teóricas de Piaget. Solo queda esperar que el desarrollo de sus formulaciones lleve a nuevas propuestas y al desarrollo de algunas de sus imprecisiones, es lo menos que podemos esperar a su perseverante trabajo.

163

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

ciencias sociales. Alianza Editorial, 1976b. El juicio y el razonamiento en el niño. Ed. Guadalupe, Buenos Aires, 1977b.

Referencias

Epistemología genética y equilibración. Ed. Fundamentos, 1981c. Castorina, Giacobbe, Ricco Explicación y modelos en psicología. Ediciones Nueva visión, Buenos Aires, 1973. Grize, Jean B. Lógica y ciencias humanas, en Jean Piaget y las ciencias sociales. Ediciones Sígueme. Salamanca, 1974. Inhelder, B. Prefacio. En Psicogénesis e historia de la ciencia. Piaget; García, Editorial Siglo XXI, México, 1972.

Possibility and necessity. University Minnesota Press. 1987. Piaget, J y otros Investigaciones sobre las correspondencias. Alianza editorial. Madrid 1982. Piaget, J. y Garcia R. Hacia una lógica de las significaciones. Ed. Gedisa. Barcelona 1989.

Piaget, J. La formación del símbolo en el niño. Fondo de cultura económica, México, 1961. La construcción de lo real en el niño. Ed. Proteo. Buenos Aires, 1968. Nacimiento de la inteligencia en el niño. Ed. Aguilar. Madrid, 1969. Causalidad y operaciones. En las explicaciones causales. García Barral Editores, Barcelona, 1973b. El estructuralismo, Oikos – Lau. Ediciones. Barcelona, 1975a. La representación del mundo en el niño. Ediciones Morata S.A. Madrid, 1975a. Introducción a la epistemología genética. Tomo II. Ed. Paidos, Buenos Aires, 1975b. En lenguaje y el pensamiento del niño. Ed. Guadalupe. Buenos Aires, 1977a. El lenguaje y las operaciones intelectuales. En introducción a la psicolinguística. Editorial Nueva Visión. Buenos Aires, 1977c. La explicación en las ciencias. Ed. Martínez Roca. Barcelona, 1977c. Investigaciones sobre la contradicción. Ed. Siglo XXI, México, 1978. Epistemología genética y equilibración. Edic. Fundamentos. Madrid, 1981a. La toma de conciencia. Ed. Morata, Madrid, 1981b. Psicogénesis e historia de la ciencia. Ed. Siglo XXI, México 1982a. Instroducción. En Piaget y otros. Tendencias de la investigación en las

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

164

Yáñez, C. 155-165

165

S

Jaime Yáñez Canal

“Personalmente considero que gran parte a la entrada en escena del denominado “efecto placebo”, que es el conjunto de efectos sobre la salud que produce un acto médico (o, en general, cualquier acto con intención terapéutica), y que no se deben al efecto específico de dicho acto terapéutico. Por ejemplo, son todos esos efectos positivos que aparecen tras la administración de algún fármaco y que no se deben a su acción farmacodinámica. ”

S

Psicologo, Ph.D. Ha sido docente de la Universidad Javeriana, Externado, Católica, Distrital, La Salle y soy profesor en la Universidad Nacional desde el año 1989. He sido igualmente docente invitado en la Leibnitz Universitätt de Hannover. Autor de varios libros y artículos en cognición y desarrollo humano y moral. Drector del grupo de investigación “Estudios en desarrollo socio-moral”.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

166

167

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Scientia in Verba Mag.3, 168-189 (2019)

Magazine 2619-2586

Homeopatía: entre mitos y verdades. (O cómo vender un litro de agua más caro) Pablo Cesar Díaz Prados1 1  Universidad Nacional de Santiago de estero

¿Se imagina Usted si esto fuera una realidad? Digo, si fuera posible disminuir la maldad de una persona mezclándole con litros de agua. La elección del chiste de twitter del comienzo no es al azar, es más, tiene todo que ver con el tema que nos encuentra en la lectura del presente capítulo. La intención es desandar los caminos de la homeopatía, “rama” de la medicina que pretende curar lo que la medicina tradicional no puede o no sabe. ¿Cómo? Sí, claro, o acaso no sabía usted que hay enfermedades (o patologías, como le gusta al rubro expresar) que la medicina no puede tratar. Lo más lógico es que uno se pregunte como es que existen enfermedades que la medicina no puede curar, pero claro, surge inmediatamente el saber vulgar o cotidiano que afirma que el homeópata es médico, por lo que en definitiva recurriendo a una verdad por autoridad mal entendida nos encontramos ante una primera contradicción, y que al ser medico su practicante, entonces es “medicina” y lógicamente cura. El único

detalle es que la homeopatía se había propuesto curar lo incurable por la medicina… descuide, sobre esto volveremos recurrentemente a lo largo del capítulo. Para entender un poco más sobre esto último, le propongo que viajemos en el tiempo, hacia finales del Siglo XVIII, más precisamente al año 1794, donde conoceremos a Samuel Hahnemann1 , a quien se le atribuye la fundación de esta línea de la medicina. ¿Se anima…? Bien. ¡Esa es la actitud, vamos entonces!

Haciendo un poco de historia Ajustando nuestra máquina del tiempo, llegamos a la antigua Sajonia del Siglo XVIII, a un pueblo chico, pero rico en recursos naturales que la madre tierra brindaba a sus noveles moradores, y más a quienes se aventuraban a planificar un futuro allí. El pueblo se llama Meissen, pequeña ciudad situada en la confluencia 1  Christian Friedrich Samuel Hahnemann (1755–1843), nació en Meissen (ciudad alemana del estado federado de Sajonia), en el seno de una empobrecida familia de clase media.Destacado estudiante, desarrolló un fuerte interés por las ciencias; por lo que cursó estudios de Medicina y Química, graduándose con el título de Médico en 1777, en la Universidad de Leipzig (ciudad alemana en el noroeste del estado de Sajonia).-

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

168

Scientia in verba subpage /revista-scientia-in-verbapdf/ de los ríos Elba y Meissen (de ahí el nombre del pueblo) que adquirió en el Siglo XVII, gran celebridad, debido a una sustancia allí descubierta, en esa época de gran utilidad artística e industrial, la porcelana. Pero este pueblo también era famoso porque por alguna extraña razón al Duque Augusto, El Fuerte (elector de Saxonia), le movilizaba encontrar allí la famosa “piedra filosofal” 2, objeto que nunca encontró claro, pero que ya podía suponer al lugar como cuna propicia para creencias varias. Y si ajustamos más el reloj, nos encontramos en la madrugada del 11 de abril de 1755, fecha acuñada del nacimiento de Christian Friedrich Samuel Hahnemann (aunque las malas lenguas afirman que su nacimiento se dio poco después de la medianoche del 10 de abril, por lo que el propio Hahnemann celebraba su natalicio el 10, y por ende la comunidad homeopática también celebra este día como el nacimiento de su mentor original). Tercero de cuatro hijos, ya de pibe demostraba gran pericia para la argumentación pero por sobre todas las cosas una fuerte inclinación a la lectura, casi voraz, lo que llevo indefectiblemente a cursar (como pudo, porque venía de una familia medio pobre de la época) estudios superiores y lograr el título de Médico Clínico en 1775 en la Universidad de Leipzig, y luego obteniendo un Doctorado Universidad de Erlangen en 1781. Sin embargo, cuentan, entre chismes los vecinos de la zona, que el propio Hahnemann ya esbozaba críticas a la enseñanza de la medicina recibida, hecha sin clínicas, sin hospitales, privada de todo medio de experimentación, y la consideraba reposada sobre opiniones retrógradas y teorías arcaicas. Pero sería una experiencia trágica la que haría que el profesional de la salud abandonase 2  La piedra filosofal es una sustancia mágica legendaria que, según los alquimistas, estaba dotada de propiedades extraordinarias, como capacidad de transmutar los metales vulgares en oro.-

Díaz, P. 168-189

© Nullius in verba site

la práctica clínica tradicional…y es que según se rumorea, la gota que lo hizo desbordar fue la enfermedad de su mejor amigo, de quien oficiaba como médico de cabecera, y cuyo estado le inspiraba sombrío pronóstico. En una de sus últimas visitas al enfermo, le habría prescripto uno o más medicamentos de la escuela clásica, de su confianza; sin embargo, esto no evitaría que en la mañana siguiente su amigo falleciera. Se dice que Hahnemann no resistió el golpe, y con el cadáver de su amigo, fue sepultada la práctica y confianza que aún tenía sobre el valor de la terapéutica clínica tradicional, tirando la toalla.

Homeopatía versus alopatía Resulta curioso, y a la vez no, que una de las primeras acciones de la recientemente nacida Homeopatía (no se preocupe si aun no entiende que es la Homeopatía, que ahorita nomás lo abordamos) sea marcar una brecha de separación con la medicina tradicional (la de escuela). Corría el año 1794; Hahnemmann desertaba a la medicina tradicional en la que se había instruido, y se disponía a crear su propia medicina, a la que llamaría “homeopática”; y necesitaba del efecto del marketing para diferenciarla de la medicina conocida en la época. Colocó el nombre Homeopatía (cuyas interpretaciones etimológicas pueden ser varias, pero la más acertada es la propuesta por el propio medico sajón, que viene del uso de un neologismo de dos palabras griegas; homoios = semejante, y pathos = enfermedad (o estado de ánimo)) a su forma de ejercer terapia médica, e inmediatamente esto devino en la colocación del nombre Alopatía (alos=otro, distinto, y pathos= enfermedad, o estado de ánimo) a la “otra” manera de ejercer la medicina… que es, ni más ni menos que…ejercer la

169

Nullius in verba Site www.nulliusinverbasite.com medicina. ¿Irónico esto último, no? Ahora bien, los términos Alopatía y Homeopatía parecen resultar apropiados cuando se intenta designar el lineamiento de un tratamiento médico, respecto de dos aforismos griegos: - Contraria Contrariis Curantur: Lo contrario se cura con lo contrario. - Similia Similibus Curantur: Lo semejante se cura con lo semejante. Pero esto es ciertamente análogo a pensar que el fuego se apaga con fuego, cuando en realidad lo que debe suceder es que se produzca la ausencia del comburente por excelencia que tenemos en el planeta Tierra, el oxígeno, pues ningún combustible conocido puede encender (entrar en combustión) sin la presencia de un comburente 3. Para tener en claro que es la homeopatía, es necesario saber que fundamentos terapéuticos tiene esta práctica médica. “La Homeopatía es un tratamiento terapéutico (e insistimos en ello) que consiste en darle al enfermo, a dosis muy diluidas y previamente dinamizadas, el remedio que, en dosis ponderables o toxicas, provoca los mismos síntomas que se observan en el transcurso o con ocasión de la enfermedad a tratar”4 .

Empecemos a desmenuzar esta suerte de definición que elegimos, de entra tantas análogas que se pueden encontrar en internet, para poder arribar a algo. Samuel Hahnemann tenía entre manos un novedoso tratamiento terapéutico, pero necesitaba promocionarlo…ahora, ¿como es que iba a poder ir en contra de la medicina de la época sin caer en adjetivos calificativos tales como brujería, alquimia, etc.?

3  Esta es la explicación científica del porque cualquier película de sci-fi comete un error básico al proponer sendas explosiones (léase grandes llamaradas) en pleno espacio interplanetario; lo cual no es posible ante la ausencia de Oxígeno. Igualmente, nunca viaje al espacio exterior de una galaxia muy, muy lejana, por lo que no estoy seguro que en esos lugares, exista algún comburente desconocido que facilite la presencia de fuego en las explosiones.4  Dr. E. A. Maury - Diccionario Familiar de Homeopatía. Editorial Pomaire S.A. (1980).-

Scientia in verba Magazine 2619-2586

Inmediatamente pensó en algunos de sus estudios previos, durante sus años académicos de preparación en medicina, y tomó la decisión (o más bien la interpretación libre) de tomar las enseñanzas de Hipócrates5 , considerado el “primer médico” al rechazar las supersticiones, leyendas y creencias populares que señalaban como causantes de las enfermedades a las fuerzas sobrenaturales o divinas; de quien se dice que su enfoque terapéutico se basaba en el poder curativo de la naturaleza (vis medicatrix naturae); esta doctrina que sostenía que el cuerpo contiene de forma natural el poder intrínseco de sanarse y cuidarse. Recurrir a la figura de Hipócrates, creo, fue una gran movida para hacer rentable la “nueva manera” de hacer medicina, porque esta se asentaba en el primer médico de la historia (aunque pobre, Galeno6 se llevó más laureles de reconocimiento), y de esta manera nadie se iba a oponer a ser tratado por Hahnemmann…claro nadie que no pensara dos veces el discurso en el que se asentaba el tratamiento homeopático. En principio, se le llama tratamiento terapéutico porque quien lo ejecuta es un médico. Si leyó bien, un médico. Ya de por si es complicado (o al menos para mí me lo resulta) pensar en que una persona que dedicó años de su vida para completar una carrera de grado en medicina, con todo lo que implica en su formación científica -puesto que es indudable 5  Hipócrates de Cos (460 a.C. - 370 a.C.) - Médico de la antigua Grecia que ejerció durante el llamado Siglo de Pericles. Considerado una de las figuras más destacadas de la historia de la medicina, y muchos autores se refieren a él como el «padre de la medicina», en reconocimiento a sus importantes y duraderas contribuciones separando la disciplina de la medicina de la religión, creyendo y argumentando que la enfermedad no era un castigo infligido por los dioses, sino la consecuencia de factores ambientales, la dieta y los hábitos de vida.6  Galeno de Pérgamo (130 d.C. – 200 d.C.) - Médico griego, cuyos puntos de vista dominaron la medicina europea a lo largo de más de mil años. Hoy por hoy, la adjetivación de su nombre es atribuido al profesional en medicina.-

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

170

Scientia in verba subpage /revista-scientia-in-verbapdf/ que la medicina es una ciencia- (para mayores detalles remitirse al capítulo 1 del presente libro, “La Ciencia y La Pseudocienica - Mundos En Colisión”, el cual versa sobre las pseudociencias, escrito por Nicolás Pérez), para después de un tiempo tirar todo por la borda y recurrir a esta práctica con tintes barbaros de chantajista. Otro detalle a mencionar, es que cuando Hahnemmann (quien recordemos era médico) tiró la toalla y se dispuso “crear” este tratamiento (1794), la medicina distaba demasiado en su práctica y en su conocimiento, sin mencionar los recursos tecnológicos a disposición, de la práctica que se puede ejercer hoy en día; este detalle no es para nada menor. Rayos, el propio Samuel Hahnemmenn definía a la enfermedad como “un defecto de la salud”, cosa que ya le hizo ganar enemistades académicas por aquellos tiempos7. ¿Qué sugiere esto? Que quizás la práctica homeopática no fuera taaaaaaaaaaaan errada en su comienzo, puesto que era una (quizás) buena competencia con la medicina de la época. Pero resulta indiscutible que con el avance tecnológico al día de hoy, así como con el avance del conocimiento en áreas específicas de la medicina moderna (léase química, biología, bioquímica, etc.), esta práctica ya no puede ser tomada en serio; ni mucho menos puede ser tomado en serio una persona que dedicó al menos 8 años de su vida para adquirir los conocimientos actuales de la medicina moderna, y que luego se dedique a vender agua…en esto, hasta puede ser más honesto el almacenero de la esquina, que vende agua saborizada. Luego, la Homeopatía tiene tres factores o principios (que a su vez parecen adquirir –no sé cómo- status de leyes), que son base para la acción medicinal: 7  La primera definición oficial de salud, fue la enunciada por la Organización Mundial de la Salud, el 22 de Julio de 1946, que la definía como “un estado de completo bienestar físico, mental y social, y no solamente la ausencia de afecciones o enfermedades”.

Díaz, P. 168-189

© Nullius in verba site

a) La Similitud. b) La Individualización. c) La microdosis. La Similitud se refiere a la interpretación libre sobre las teorías hipocráticas que se mencionaron antes. Inclusive un libro especializado en homeopatía afirma que Samuel Hahnemmann tomó frases de escritos originales de William Cullen8 , quien se había ocupado de describir la llamada Ley de Similitud planteada por Hipócrates, la cual expresaba “…la enfermedad es producida por los semejantes, y por los semejantes que se hacen tomar al paciente éste vuelve de la enfermedad a la salud…”, y cita también ”la fiebre es suprimida por lo que la produce y producida por lo que la suprime”9

Ahora, cabria tener en cuenta que el propio Hahnemmann se ocupaba de realizar traducciones al tiempo que se instruía académicamente en medicina… es decir, no se puede obviar que una traducción siempre es contextual, y en esto Hahnemmann utilizó una interpretación conveniente para fundamentar su terapia…y quedó marketineramente muy bien. Sobre esto se puede (¡y no se puede!) decir mucho más; porque un defensor del tratamiento homeopático seguramente podría referirse, en su defensa, al brillante Pasteur 10, quien sugirió en 1880 (apenas unos 6 años después de la puesta en escena de la medicina homeopática) que la vacuna sería más efectiva si se usara 8  William Cullen (1710 - 1790) - Médico y químico escocés, célebre por acuñar la palabra neurosis, término que fue el primero en utilizar en 1769. Se graduó en Medicina en la Universidad de Edimburgo (1734) y se Doctoró en medicina en 1740 en la Universidad de Glasgow.9  Dr. E. A. Maury - Diccionario Familiar de Homeopatía. Editorial Pomaire S.A. (1980).10  Louis Pasteur (1822 - 1895) - Químico francés con descubrimientos de enorme importancia en diversos campos de las ciencias naturales, sobre todo en la química y microbiología. A través de experimentos refutó definitivamente la Teoría de la Generación Espontánea; y desarrolló la Teoría Germinal de las enfermedades infecciosas. Por sus trabajos es considerado el pionero de la microbiología moderna. A él se debe la técnica conocida como pasteurización.-

171

Nullius in verba Site www.nulliusinverbasite.com exactamente el mismo microorganismo patógeno11 causante de la enfermedad y no uno parecido. En esto, justamente, reside la esencia de la vacuna que hoy en día nos colocamos a fin de prevenir muchas de las enfermedades más conocidas en niños y adultos (sarampión, viruela, gripe, etc.), lo que le daría un contexto de verificación por autoridad a la homeopatía, dado que el tratamiento de inoculación del patógeno está probado que es efectivo, lo que “validaría” (diría Hahnemmann) la base de la homeopatía, y por tanto su tratamiento alternativo…el tema era, como debilitarlo al bicho para que el cuadro no empeorara. Para entender mejor esto, volvamos sobre la vacuna; porque si bien es cierto, a Pasteur se le atribuye la creación de la misma, esto no es así. Haciendo historia, se podría decir que (en base a dichos de dichos, o sea, creencias) la inoculación nació en la India o en China, allá por el 200 a.C. Cuenta la historia que en la China antigua, a personas que sufrían cepas leves de viruela se les recogían fragmentos de las pústulas secas; las molían hasta polvo fino para luego introducírselas vía nasal (un asco verdaderamente…pero era la tecnología de la época), esperando que esto causara una suerte de inmunización. Hay registros históricos de que en los 1700 los turcos tenían la costumbre de inocularse con pus de viruela vacuna. Sin embargo, es Edward Jenner12 quien inventa la vacuna antivariólica, en un desesperado intento por combatir un brote de viruela que se dedicó a diezmar la Europa medieval en 1796. En aquella oportunidad, Jenner tomó rastros de “viruela vacuna” (cowpox) de la mano de 11  Literalmente, patógeno (pathos=enfermedad, genein=engendrar) significa “que produce enfermedad”.12  Edward Jenner (1749 – 1823) - Investigador, médico rural y poeta inglés, cuyo descubrimiento de la vacuna antivariólica tuvo trascendencia definitoria para combatir la viruela. También se destacó en la literatura, así como la música y la naturaleza.-

Scientia in verba Magazine 2619-2586

una recolectora de leche que estuvo en contacto con vacas infectadas, puesto que había observado que muchas de estas recolectoras tras haber sufrido de este tipo especial de viruela manifestaban ser inmunes a la infección de la viruela común (humana); y la inoculó en el brazo de un pibe infectado de viruela común, registrando que el niño a poco más de un mes estaba sanito. (¡Que macana que la Oficina de Patentes no hubiera existido aun…se habría hecho millonario!) Pero, empecé afirmando que a Pasteur se le atribuía la creación de la vacuna, entonces veamos porque. Desde 1880, este científico venia estudiando el comportamiento de la bacteria responsable del “cólera aviar” en un grupo de pollos, que andaba asolando por esos tiempos a estos futuros platos de gourmet. Entre chismes, se dice que Pasteur había pedido a su ayudante, antes de salir de vacaciones, que inoculase a un grupo de control de pollos con un cultivo de la bacteria; pero el ayudante se olvidó de hacer esto, y cuando ambos volvieron tras un mes de vacaciones, los pollos estaban sin infectar y el cultivo bacteriológico estaba donde quedó, pero muy debilitado. Ante esto, el ayudante inoculó a los pollos en ese momento, y los animales no murieron. Se observó que desarrollaron algunos síntomas, y una versión light de la enfermedad, pero sobrevivieron. Pasteur, que ya conocía la idea de la vacunación (por Jenner), inteligentemente hizo que estos pollos se expusieran nuevamente al cólera, y nuevamente sobrevivieron; constatando así que habían desarrollado respuesta inmune. Pero el tiro de gracia sobrevendría en su exitoso experimento llevado a cabo en 1885, cuando la madre de un niño llamado Joseph Meister, quien había sido mordido por un perro rabioso, recurrió al químico francés porque conocía un poco de los experimentos que venía desarrollando, para que este le salvara. Pasteur, se arriesgó a probar

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

172

Scientia in verba subpage /revista-scientia-in-verbapdf/ su metodología en un humano (ante las hartantes súplicas de la madre), inoculando una versión debilitada del virus de la rabia en el niño durante unos 10 días, para observar a posterior la gran recuperación que mostró tras el tratamiento. Se había inventado la famosa vacuna contra la rabia. De hecho, Pasteur introduce el término vacuna, y al procedimiento vacunación, que provienen de la palabra latín “vacca”, como homenaje a Jenner. Como se observa, Pasteur no desarrolló la primera vacuna, pero sí la primera vacuna de bacterias artificialmente debilitadas; y a partir de ese momento no hacía falta encontrar bacterias adecuadas para las vacunas, pues las propias bacterias debilitadas de la enfermedad a derrotar servían. Como dato anecdótico, Pasteur recibió dinero en concepto de donaciones para profundizar sus investigaciones, y con este dinero logró fundar el Instituto Pasteur, del que se cuenta que el propio Joseph Meister fue su portero hasta su muerte en 1940, cuando se suicidó antes de permitir la entrada de los nazis a la cripta que contenía los restos de su Pasteur. ¿Corolario? Un defensor de la Homeopatía diría que Pasteur viene a servir de prueba de la (supuesta) veracidad de Samuel Hahnemmann, de curar con lo mismo que provocaba la enfermedad (verdad por autoridad que le dicen, porque nadie duda hoy en día de la vacuna y/o tratamiento contra la rabia); pero no hay que perder de vista que el vivo de Hahnemmann tenía como contemporáneo a Edward Jenner, quien ya postulaba algo similar. ¿Espionaje industrial? La Individualización es algo un tanto más insólito. Se refiere a algo lógico, la elección del remedio homeopático debe adaptarse específicamente al individuo enfermo….digo, ¿esto no resulta medio comercialmente tendencioso? ¿Cómo alguien puede pensar que si un sujeto A

Díaz, P. 168-189

© Nullius in verba site

padece de dolores articulares, y un sujeto B padece de dolores articulares también, ambas prescripciones deban ser distintas relativas a cada sujeto (A o B)? Citando, “en efecto, los síntomas presentados o experimentados por el enfermo le pertenecen exclusivamente, sea cual sea el mal que lo afecta”13 , es decir, cada enfermo según Hahnemmann, es dueño de su propia enfermedad, aunque la sintomatología sea similar a la de otro enfermo. Entonces, ¿cuál es el mecanismo del homeópata? En primera instancia, Samuel Hahnemmann realizó una suerte de catalogación de sintomatologías causadas por distintas enfermedades de la época, que con el tiempo se ha transformado en un documento que se denomina Codex14 , que vendría a ser una suerte de Farmacopea15 . En este Codex está por ejemplo como debería tratarse una picadura de abeja…si, si, leyó bien, este Codex indica un “tratamiento” para paliar la enfermedad producida por la picadura de una abeja, común y corriente…y esto me resulta interesante, pues nunca supe que la picadura de una abeja pudiera ser considerada una enfermedad; y aunque quisiera ir desgranándola ya, aun hay que explicar de qué se trata la microdosis. Volviendo sobre el Codex, el homeópata recurre a esta catalogación a los fines de prescribir -siempre de acuerdo a la sintomatología presentada por el paciente- el adecuado remedio. ¿Cómo se entiende esto? Pues supongamos una consulta homeopática. El Sujeto A entra al consultorio, para ser atendido por el homeópata; acto seguido, el “profesional” (me resulta difícil contextualizar la 13  Dr. E. A. Maury - Diccionario Familiar de Homeopatía. Editorial Pomaire S.A. (1980).14  El Codex vendría a ser una recopilación en formato de libro, de todas las “preparaciones homeopáticas oficiales”, que actualmente forman parte integrante de la Farmacia en sí.15  Se refiere a libros recopilatorios de recetas de productos con propiedades medicinales reales o supuestas, en los que se incluyen elementos de su composición y modo de preparación.-

173

Nullius in verba Site www.nulliusinverbasite.com palabra profesional, por lo que decido encerrarlo entre comillas) realiza un exhaustivo cuestionario acerca de los síntomas que expone el paciente (Sujeto A). Una vez que ha determinado los síntomas, extrae su Codex personal y busca cual es la “enfermedad” (o conjunto de ellas) que se adecua a los síntomas antes recabados, prescribiendo un remedio homeopático (o conjunto si es acorde) y su consecuente tratamiento contra esto. Esta es la metodología que se sigue. ¿En qué se diferencia entonces de la terapéutica clásica? Un médico clínico realiza un diagnóstico rápido de acuerdo a la sintomatología presentada, y a continuación pide la realización de determinados análisis en función de este diagnóstico, a fin de evacuar todo tipo de dudas al respecto de del mismo, y a continuación recién prescribirá la medicación que considere pertinente. Esto, claro, si la patología presentada no resulta muy común, y/o la experiencia del profesional médico no sea la suficiente como para que recete a ojímetro. ¿Queda clara la diferencia? Mientras que el medico convencional recurre a unos análisis para no arriesgar un diagnóstico equivocado; el medico homeopático recurre a un compendio acumulado de síntomas tratados desde los comienzos de esta práctica y arriesga el tratamiento en base a…ojímetro!!! Claro que, a medida que “avanza” el tratamiento, lógicamente cambian algunos síntomas, y por tanto se debe recurrir al homeópata nuevamente para nuevas recetas y sus consecuentes erogaciones monetarias… Veamos el concepto/ley de la microdosis. Esto se refiere a algo que Samuel Hahnemmann convenientemente propuso originalmente cuando presentó su nuevo modo de encarar la medicina. Recordemos que el Principio de Similitud se refería a que en el tratamiento homeopático se utiliza el mismo “mal” que produce la enfermedad que se supone tiene el paciente. Ahora, esto es

Scientia in verba Magazine 2619-2586

medio lógico, si tomamos como ejemplo la picadura de una víbora, cuya situación tiene como cura un suero administrado a modo de vacuna preparada a partir del mismo veneno del ofidio en cuestión; administrado sobre animales para tener los antígenos16 necesarios para paliar el impacto del veneno en cuestión a través de la correspondiente respuesta inmunitaria. Luego, se tiene que comprender la diferencia entre el concepto de inmunidad innata y la inmunidad adquirida, refiriéndose la primera a aquella con la cual nace el individuo, en tanto que la segunda tiene relación con aquella que se logra a través de la vida; y que de acuerdo a la forma en que se obtenga, puede ser natural (cuando el individuo sufre una enfermedad y crea anticuerpos) o artificial (mediante la inmunización por medio de vacunas o sueros). Pero claro…cabría ser muy idiota en tomar exactamente el mismo agente patógeno y suministrarlo a modo de cura. Incluso el propio Hahnemmann no era tan idiota, por lo tomó lo que ya sabía acerca de la historia de la vacunación (explicado unos párrafos antes) y le dio un sentido, nuevamente generoso para el marketing que requería para la venta de su novedoso tratamiento, proponiendo que la presencia de patógeno debía estar reducida a una mínima expresión (un vivo bárbaro que le dicen, pero claro…ya vimos como Jenner y Pasteur proponían lo mismo, pero con experimentaciones de por medio). Por todo esto, la microdosis la definen en la homeopatía como la “preparación con dosis infinitesimales del principio activo”. Y cuando hablamos de dosis infinitesimales, hablamos de cantidades muy extremadamente pequeñas. 16  Se entiende como antígeno a cualquier molécula que puede ser reconocida específicamente por cada uno de los componentes del sistema inmunológico. En un sentido más estricto, el antígeno es cualquier molécula capaz de inducir la producción de anticuerpos específicos y la activación de Linfocitos T, también precisos.-

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

174

Scientia in verba subpage /revista-scientia-in-verbapdf/ Conviene hacer un alto aquí, y explicar en qué consiste la preparación con “dosis infinitesimales”, que en la práctica de la química tradicional esto se entiende lisa y llanamente como “dilución”. En el lenguaje de la química, la dilución se refiere a una idea de “rebajar” la cantidad de soluto presente en una disolución, con el agregado de más disolvente; que en química esto se entiende por cambiar la concentración de dicha disolución17 . Por disolución se entiende a una mezcla homogénea de dos o más componentes. Para que una mezcla sea homogénea, sus componentes deben acusar las mismas propiedades intensivas 18 (de la materia) en toda su extensión; o lo que es lo mismo decir, que los componentes están en la misma fase (estado de la materia). Estos componentes, dos como mínimo, reciben el nombre de soluto y solvente; siendo el soluto es el/los componente/s de la disolución que se encuentra/n en menor proporción; en tanto que el disolvente está en mayor proporción. En el caso que nos atiende, en el preparado (remedio) homeopático también se observan dos claros componentes: a) Parte Activa (es decir, el soluto, y que vendría a representar el principio activo de la droga suministrada), que pueden ser de origen animal, vegetal, mineral, y por si esto no cubriera todo el espectro posible, también puede ser químico y biológico. Los expertos en la Homeopatía llaman a este principio activo cepa homeopática. b) Vehículo (o medio, en otras palabras, el disolvente), que puede tratarse de un alcohol etílico (o etanol, como nos gusta decir a los químicos, y

17  Concentración en química se refiere a como se expresa una cantidad en otra cantidad (soluto y solvente), de una mezcla.18  La materia tiene dos tipos de propiedades, en general, llamadas intensivas -cuando no dependen de la cantidad de muestra analizada (ejemplo: olor, color, etc.)-, y extensivas -cuando si dependen de la cantidad de muestra analizada (ejemplo: peso, volumen, etc.).-

Díaz, P. 168-189

© Nullius in verba site

que puede ser concentrado; o al 96%, 70%, 60%, 30% y hasta 15% )19, agua (en la mayoría de los casos), lactosa, sacarosa20 (azúcar de mesa, es la otra mayoría de los casos), y otros. Habrá notado usted, que entre los disolventes mencionados hay al menos uno que es sólido (la sacarosa), mientras que el resto es o suele ser líquido. Esto dependerá exclusivamente de si la parte activa (o principio activo) es soluble en el disolvente; o no. Luego; si la parte activa no es soluble en el vehículo, la parte activa se prepara en un medio sólido, y el preparado final adopta forma de grageas (pastillitas), que usualmente son de almidón, u otro tipo de polisacarido21 . Si la parte activa es soluble en el vehículo, la preparación se llevará a cabo en un medio líquido (y claro que hay que tener en cuenta que de todos los disolventes a utilizar, el agua es el más económico, así que imagínese que es el más utilizado), luego el preparado final adquiere forma de gotas; esto comercialmente hablando. Expliquemos en que consiste la dilución química, la cual debo decir que es una práctica por demás de incorporada en nuestro quehacer cotidiano. Supongamos que debe preparar un jugo deshidratado (por cuestiones comerciales, no propondremos ninguna marca) de esos que vienen en sobres, y que se suelen verter en una cierta cantidad de agua que viene inclusive especificada en el sobre. Por lo general la etiqueta dice rinde 1 litro, aunque sabemos -por 19  Los porcentajes representan una dilución del etanol concentrado en agua destilada, significando el 96% a 96 partes de etanol en 4 partes de agua, 75% a 75 partes de etanol en 25 partes de agua, etc. 20  La Sacarosa es un disacárido formado por glucosa y fructosa. Su nombre químico es Alfa-D-Glucopiranosil (1→2) - Beta-D-Fructofuranósido; y su fórmula química es C12H22O11. La Lactosa es un disacárido formado por la unión de una molécula de glucosa y otra de galactosa. Su nombre químico es β-D-galactopiranosa – (1→4) - una D-glucopiranosa. Se le conoce como azúcar de leche.21  Los polisacáridos son biomoléculas formadas por la unión de una gran cantidad de monosacáridos (azucares simples), que cumplen funciones diversas, sobre todo de reservas energéticas y estructurales.-

175

Nullius in verba Site www.nulliusinverbasite.com experiencia- que rinde más, ¿no es cierto? Pero vayamos por partes. Abrimos el sobre, vertimos su contenido en la cantidad indicada de agua, y mezclamos; a continuación deberíamos confiar que la cantidad de agua indicada era mas que suficiente, sin embargo, procedemos a probar el gusto a fin de constatar esto ultimo. Claro que dependerá de los gustos personales de cada quien lo prepare, el agregar mas, menos o igual cantidad del agua indicada; en otras palabras, habrá quienes lo prefieran mas o menos fuerte, o que apenas le de gusto al agua. Recordemos el concepto antes propuesto de disolución (mezcla homogénea de dos o más componentes; llamados soluto y disolvente). En rigor, las mezclas pueden Homogéneas o Heterogéneas (también las hay Inhomogéneas, pero es tema demasiado especifico de la química, y no es necesario para el tema que abordamos). Ya dijimos también que para que una mezcla sea homogénea, se debe tener las mismas propiedades intensivas (de la materia) en toda su extensión; lo que significa en lenguaje cotidiano que estén en la misma fase; por tanto, las mezclas heterogéneas se caracterizan por no cumplir esto de tener las mismas propiedades intensivas, luego las mezclas heterogéneas presentan más de una fase (ejemplo: agua y arena; el agua esta liquida y la arena permanece sólida). En este último grupo se encuentran las denominadas suspensiones22 . En la transición entre una mezcla Homogénea y una Heterogénea, se encuentra una frontera que no termina de ser ni una ni otra; estas se llaman coloides 23(o dispersiones) . Para dejar 22  Suspensión - Mezcla heterogénea que se forma con un sólido en polvo y/o pequeñas partículas no solubles (fase dispersa) en un medio líquido (fase dispersante o dispersora). (Ej.: remedios médicos) 23  Coloide - Sistema formado por dos o más fases, una continua o dispersora (normalmente fluida), y otra dispersa en forma de partículas (por lo general sólidas); cuyo tamaño de partícula oscila entre 10-5 y 10-7 mm. Una suspensión coloidal se forma cuando una sustancia es insoluble en el

Scientia in verba Magazine 2619-2586

algo muy en claro, se debe entender que estas denominaciones estarán en función casi exclusivamente del tamaño del soluto presente en una mezcla. Volviendo sobre el ejemplo de la preparación del jugo de mesa, estamos en el caso de una disolución, cuya concentración (cantidad de polvo del jugo en cantidad del agua agregada) variará de acuerdo a la cantidad de líquido presente. La indicación de la cantidad de agua que se debe agregar es para obtener una mezcla (disolución) concentrada del preparado, es decir, que tenga un fuerte sabor al jugo de la fruta que representa. Sin embargo, la situación más probable a suceder es que una vez probado el gusto en primera instancia, se recurra al agregado de más agua a fin de “rebajarle” lo fuerte que se percibe cuando está muy concentrado. Esto que realizamos a menudo y de forma cotidiana en nuestra cocina, es el fundamento de la dilución química. Claro que en la química tradicional se utiliza un procedimiento más riguroso, que consiste en lo siguiente: supongamos que tenemos una muestra concentrada, y una serie de 5 tubos de ensayo (que bien podrían ser vasos también…pero como a los químicos nos gusta jugar con elementos específicos…) a los que numeraremos del 1 en adelante (o sea, T1Tubo 1, T2-Tubo 2,…, T5-Tubo 5). Luego, se toma una cierta cantidad (volumen en caso de que se tratara de un líquido) de muestra, colocándola en el T1 agregando inmediatamente la cantidad de agua tal que complete el volumen general del tubo de ensayo utilizado; por ejemplo, se puede extraer 1 mililitro (mL, milésima parte de un litro) de la muestra y agregarle 9 ml de agua en caso de que el volumen general del tubo de ensayo sea de unos 10 mL apreciables. ¿Vamos bien? Bien, a continuación, para diluir la disolución aún más, se procede a tomar 1 mL del T1, colocarlo en el T2 e inmediatamente medio y sus partículas (o gotas) son muy pequeñas y se dispersan en el medio dispersor.-

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

176

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

agregarle los 9 mL de agua que necesita para tener nuevamente lleno el volumen general del tubo. Si quiere más diluida la cuestión, solo se tiene que tomar 1 mL del T2, colocarlo en el T3 y agregarle los

Luego, reemplazando los valores, se tiene que:

= C1

1(mol / L).1(mL) = ⇒ C1 0,1(mol / L) 10(mL)

gráfico 1. Esquema de muestra

9 mL correspondientes de agua…y así hasta que lleguemos al T5. ¿Se entendió? Ahora bien, si en la muestra original teníamos una mezcla concentrada, supongamos un valor de concentración 1 mol/L24 , se puede realizar un simple cálculo para conocer cuál será la concentración que se tendrá en el T1, y es de acuerdo a la siguiente ecuación:

C 0 .V0 = C1.V1 Luego, C0 representa la concentración original de la muestra (para el ejemplo, igual a 1), V0 la cantidad de muestra que se extrae (para el ejemplo 1 mL), V1 el volumen final del recipiente de nuestra primera dilución (en el ejemplo, 10 mL), y siendo C1 el valor de la concentración que se tendrá y pretende averiguar. Luego, se despeja C1, quedando:

C1 =

C0 .V0 V1

24  Mol/Litro – Unidad de concentración química denominada Molaridad, que expresa la cantidad de moles de soluto presentes en 1 litro de disolución.-

Díaz, P. 168-189

Como se aprecia, la concentración en el tubo T1 ya es un 10% de la concentración original de la muestra tomada. Esto suele representarse 1:10; lo que significa que hay 1 parte de soluto en 10 partes de disolución. Para obtener la segunda dilución, recordemos que tomamos 1 mL de este tubo T1, y lo llevamos al tubo T2 para luego completar con 9 mL de agua el volumen de 10 mL del tubo; en consecuencia tendremos:

C2=

C1.V1 0,1(mol / L).1(mL) = ⇒ C2= 0,01(mol / L) V2 10(mL)

Es fácil observar que para el segundo tubo de ensayo, ya tenemos una centésima de la concentración original de la muestra tomada, y la dilución se expresa 1:100. Luego, podemos calcular la concentración que tendrá cada tubo tras hacer las sucesivas diluciones, teniendo que:

177

Nullius in verba Site www.nulliusinverbasite.com

C=3

C2 .V2 0,01(mol / L).1(mL) = ⇒ C=3 0,001(mol / L) V3 10(mL)

Scientia in verba Magazine 2619-2586

se denomina “dilución decimal”. Una “dilución centesimal” será entonces aquella en la que se ponga 1 parte

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

principio activo) cumple la función de soluto, en tanto que el vehículo es el disolvente; y la denominada microdosis no es otra cosa que un procedimiento de diluciones químicas sucesivas antes descripto. También recordemos que Hahnemmann propone que es el mismo agente patógeno que provoca la afección, el que la curará; pero en “dosis diluidas”;

disolución…aún), y a posterior realizar las diluciones que indica el Codex que maneja la industria homeopática; y listo, tenemos el medicamente homeopático que irá a parar o a la estantería de algún que otro deshonesto farmacéutico, o bien el cajón del escritorio del (no menos deshonesto) médico homeópata. Destaco importante el hecho de que a

C4=

C3.V3 0,001(mol / L).1(mL) = ⇒ C4= 0,0001(mol / L) V4 10(mL)

C=5

C4 .V4 0,0001(mol / L).1(mL) = ⇒ C=5 0,00001(mol / L) V5 10(mL)

Las diluciones en los tubos 3, 4 y 5, serian 1:1.000, 1:10.000 y 1:100.000 respectivamente. Vayamos apuntando bien este concepto, que lo necesitaremos para analizar otras cosas más adelante. Un detalle muy importante en el procedimiento antes explicado, es que si se utiliza 1 parte de sustancia de muestra en 9 partes de agua, la dilución

de sustancia muestra (parte activa, sustancia activa o soluto, como quieran llamarla) en 99 partes de agua (vehículo o disolvente, como quieran llamarla). Por favor, no tome ningún medicamente si ahora mismo le duele un poco la cabeza, son solo algunos números… Esquemática y gráficamente, se vería así: (Ver gráfico 1) Nótese en la curva (Ver gráfico 2) que proponemos, que ya en el tubo T1 baja considerablemente la concentración del soluto de la disolución, lo que revalida lo antes propuesto (que en este tubo apenas encontramos una décima parte de la concentración muestra). Ni hablar de los tubos siguientes. Volviendo a un preparado homeopático, la cepa homeopática (o

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

178

Figura 2.

Gráfico 2. Distribución % sustancia por tubo

Figura 1. CH

por lo que lo que hizo (y hacen quienes se especializan en la preparación de los distintos productos homeopáticos) es tomar el patógeno (o mal que afecta, porque he leído que inclusive curan la ronquera, los temblores…y hasta el vértigo), prepararlo en disolución (sobre estos males mencionados, no entiendo bien como se puede preparar vértigo en

Díaz, P. 168-189

la microdosis, que consiste en pensar que cuanto más veces se ha diluido la cepa homeopática (principio/parte activa, o soluto, como quiera llamarle) más potente este se hace, se le adhiere otro concepto/ procedimiento conjunto no menos importante denominado “dinamización”, y que consiste en ni más ni menos que una “agitación vigorosa” del producto (y ojo,

179

Nullius in verba Site www.nulliusinverbasite.com de una manera, inclinación y velocidad determinadas, sino… ¡no funciona!). Claro que acabamos de verificar que esto es falso desde la química, pero bueno… no prejuzguemos… ¿Quedaron en claro los conceptos de los pilares de la medicina homeopática? Bien, ahora ajústese el cinturón…vienen los verdaderos números… Nótese en la curva que proponemos, que ya en el tubo T1 baja considerablemente la concentración del soluto de la disolución, lo que revalida lo antes propuesto (que en este tubo apenas encontramos una décima parte de la concentración muestra). Ni hablar de los tubos siguientes. Volviendo a un preparado homeopático, la cepa homeopática (o principio activo) cumple la función de soluto, en tanto que el vehículo es el disolvente; y la denominada microdosis no es otra cosa que un procedimiento de diluciones químicas sucesivas antes descripto. También recordemos que Hahnemmann propone que es el mismo agente patógeno que provoca la afección, el que la curará; pero en “dosis diluidas”; por lo que lo que hizo (y hacen quienes se especializan en la preparación de los distintos productos homeopáticos) es tomar el patógeno (o mal que afecta, porque he leído que inclusive curan la ronquera, los temblores…y hasta el vértigo), prepararlo en disolución (sobre estos males mencionados, no entiendo bien como se puede preparar vértigo en disolución…aún), y a posterior realizar las diluciones que indica el Codex que maneja la industria homeopática; y listo, tenemos el medicamente homeopático que irá a parar o a la estantería de algún que otro deshonesto farmacéutico, o bien el cajón del escritorio del (no menos deshonesto) médico homeópata. Destaco importante el hecho de que a la microdosis, que consiste en pensar que cuanto más veces se ha diluido la cepa homeopática (principio/parte activa, o

Scientia in verba Magazine 2619-2586

soluto, como quiera llamarle) más potente este se hace, se le adhiere otro concepto/ procedimiento conjunto no menos importante denominado “dinamización”, y que consiste en ni más ni menos que una “agitación vigorosa” del producto (y ojo, de una manera, inclinación y velocidad determinadas, sino… ¡no funciona!). Claro que acabamos de verificar que esto es falso desde la química, pero bueno… no prejuzguemos… ¿Quedaron en claro los conceptos de los pilares de la medicina homeopática? Bien, ahora ajústese el cinturón…vienen los verdaderos números…

Scientia in verba subpage /revista-scientia-in-verbapdf/ los cálculos que realizamos previamente 0,1 de concentración de agente activo, y tras las 15 diluciones sucesivas, se terminará teniendo 0,00000000000000125 de concentración de agente activo (1:1.000.000.000.000.000), si mis

© Nullius in verba site

15 CH. Lo que haremos a continuación es un par de cálculos simples (como los que realizamos anteriormente), para ver cuán más irrisoria es la cantidad activa de “remedio homeopático” presente en cada pastillita ingerida.

HACIENDO NÚMEROS Retomando el tema de la “dilución a dosis infinitesimales”, que propone esta particular práctica de la medicina; los remedios homeopáticos acusan en su etiqueta un valor numérico acompañado de una denominación específica DH y/o CH (y a veces K cuando se trata de diluciones liquidas); por ejemplo: 15 DH y/o 15 CH. ¿Qué se entiende por esto? El término DH significa “Decimal Hahnemann”; y se refiere al procedimiento que describimos anteriormente para entender el concepto de la dilución decimal; es decir tomar 1 parte del agente activo y diluirlo en 9 partes de vehículo (agua, comúnmente). Con lo cual, si tomamos el ejemplo que propusimos, el de 15 DH, significaría tomar 1 parte de agente activo y diluirlo en 9 partes de vehículo, para luego tomar 1 parte de esta primera disolución y diluirla nuevamente en 9 partes de vehículo, tomando a posterior 1 parte de esta segunda disolución y diluirla en 9 partes de vehículo…y así sucesivamente repetir el procedimiento de extraer 1 parte de la disolución recientemente preparada y diluyéndola en 9 partes de vehículo, 12 veces más. Nótese que en la primera dilución (1 DH), se tiene según

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

180

Gráfico 3. Distribución % sustancia por tubo matemáticas no fallaron. Luego, el término CH (Ver figuras 1 y 2) significa “Centesimal Hahnemann”; y se refiere al procedimiento de dilución en el que se toma 1 parte del agente activo y diluirlo en 99 partes de vehículo (si, si…leyó bien, 99 partes de agua, comúnmente). Ahora, tomemos atención sobre las imágenes antes propuestas, y veremos, por ejemplo, que el frasco (vertical) del medio acusa en su etiqueta que el preparado es Kalium Bichromicum 26 25  Este número también se puede expresar, de forma científica, como 1x10-15. 26  Kalium Bichromicum es un remedio homeopático fabricado a partir del Dicromato de Potasio (K2Cr2O7). Existen reacciones alérgicas en personas que manipulan habitualmente productos con Dicromato de Potasio, como por ejemplo pintura o cemento. Este medicamento homeopático se utiliza para el tratamiento de inflamaciones de la mucosa del estómago, no sólo para tratamiento de

Díaz, P. 168-189

Que sea 15 CH, significa que se tomó 1 parte de Kalium Bichromicum y se le agregó 99 partes de vehículo (agua normalmente; dilución 1:100). De esta mezcla, se tomó 1 parte y se le agregó 99 partes de vehículo (dilución 1:10.000). De esta nueva mezcla, se tomó 1 parte y se le agregó 99 partes de vehículo (ufff…. recién vamos en 3 CH, y ya vamos en una dilución 1:1.000.000)…luego, este procedimiento de sacar de la nueva mezcla 1 parte y agregarle 99 partes fondo sino también a título preventivo; como así también las úlceras gástricas y duodenales, y algunos trastornos digestivos. La dilución del remedio recomendada para tratar sinusitis y rinorreas purulentas, para que cesen las secreciones nasales, deberá corresponder a una dilución de 15 CH. Si el objetivo es, por el contrario, favorecer la secreción, la dilución debe ser de 9 CH (¡en otras palabras, el mismo remedio sirve para provocar un síntoma y para anularlo!).

181

Nullius in verba Site www.nulliusinverbasite.com de vehículo, se tiene que repetir unas 12 veces más para llegar a los 15 CH (dilución 1:1.000.000.000.000.000.000.0 00.000.000.000; uno en un quintillón…si mis matemáticas no me fallaron!!!). ¿Se alcanza a apreciar la fantochada…? ¿Aún con dudas…? Bien, esa es la actitud. Hagamos números entonces… Tubo Nº 1 – 1 CH (1:100)

= C1

1(mol / L).1(mL) = ⇒ C1 0,01(mol / L) 100(mL)

Tubo Nº 2 – 2 CH (1:10.000)

C2=

C1.V1 0,1(mol / L).1(mL) = ⇒ C2= 0,0001(mol / L) V2 100(mL)

Tubo Nº 3 – 3 CH (1:1.000.000)

C=3

C2 .V2 0,001(mol / L).1(mL) = ⇒ C=3 0,000001(mol / L) 100(mL) V3 Tubo Nº 4 – 4 CH (1:100.000.000)

C4=

C3.V3 0,000001(mol / L).1(mL) = ⇒ C4= 0,00000001(mol / L) V4 100(mL)

Así sucesivamente, para los tubos 5 al 15. Por cuestiones de comodidad, calcularemos solo la concentración del Tubo Nº 15 (el último), a fin de observar cuanta concentración de parte activa nos quedó en ese tubo. Como la cantidad de ceros que deberemos escribir es tanta, recurriremos a la denominada notación científica 27: 27  Recurso matemático empleado para simplificar cálculos y representar en forma concisa números muy grandes o muy pequeños, utilizando potencias de diez. Para expresar un número en notación científica identificamos la coma decimal (si la hay) y la desplazamos hacia la izquierda si el número a convertir es mayor que 10; en cambio, si el número es menor que 1 (empieza con cero coma) la desplazamos hacia la derecha tantos lugares como

Scientia in verba Magazine 2619-2586

C14 .V14 1x10−28 (mol / L).1(mL) = ⇒ C15= 1x10−30 (mol / L) C15= V15 100(mL) A esta última dilución se puede expresar como 1:1.000.000.000.000.00 0.000.000.000.000.000 (o bien, 1:1030… quintillón para los amigos). Luego…podríamos graficarlo de la siguiente manera (Ver gráfico 3): Si, si…ya sé que a partir del Tubo Nº 2 parece ser todo igual; pero de alguna forma les tenía que mostrar que es…todo igual, e igual a nada. Ahora, uno se preguntaría, “¿entonces qué hacemos con tanto numero?”. Pues bien, hay un problema, hacer los números no es suficiente, hay otro pequeño gran problema con esto de diluir tanto algo. Y este problema viene de la mano de un número que manejamos con mucha frecuencia los químicos, se llama Número de Avogadro, y vale 6,02 x 1023 (602.000 .000.000.000.000.000.000, o mejor dicho seiscientos dos mil trillones). Contextualizando un poco, Amadeo Avogadro era un científico italiano, bastante feo pero muy astuto; que en sus estudios en el Siglo XIX llegó a establecer que volúmenes iguales de gases distintos, que se encuentren a idénticas condiciones de presión y temperatura (0 ºC y 1 atmosfera; llamadas condiciones normales de presión y temperatura (CNPT, para los químicos)), contenían el mismo número de partículas. Esto, se conoce como Principio de Avogadro. Los estudios de Avogadro partían de un pensamiento de la antigua Grecia que sostenía que la materia era esencialmente indivisible, es decir, se la podía dividir pero hasta cierto punto, dado que había una mínima expresión de la misma que sea necesario para que (en ambos casos) el único dígito que quede a la izquierda de la coma esté entre 1 y 9 y que todos los otros dígitos aparezcan a la derecha de la coma decimal.-

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

182

Scientia in verba subpage /revista-scientia-in-verbapdf/ ya no podría ser dividida en partes aun más pequeñas. Por ejemplo, al agua se la podrá dividir tantas veces como sea posible hasta llegar al mínimo estado que es la molécula misma de agua (H2O), y cuya división implica que el agua deja de ser agua, o sea, pase a ser Hidrogeno (H) y/o Oxigeno (O). De hecho, fue Demócrito 28 quien acuña la palabra átomo (que en griego significa indivisible) para referirse a esta mínima expresión (la más chiquitita) en que podía encontrarse la materia. Claro que esto representaría una falacia más adelante, puesto que el átomo no es indivisible. De todas maneras, esto no representaría problema hasta mucho tiempo después. A la cantidad que de materia que contiene exactamente 6,02 x 1023 partículas elementales (átomos o moléculas), los químicos le pusimos un nombre especifico, mol 29; refiriéndonos de esta manera a una cantidad fija de materia sin importar la naturaleza de la misma; luego, 1 mol de bananas contiene exactamente la misma cantidad de átomos que 1 mol de aire, o 1 mol de acero, o sea, exactamente 6,02 x1023 moléculas cada uno. Una suerte de universalización de la unidad, o una propuesta perezosa para llamar de igual manera a la misma cantidad de materia de todas las sustancias conocidas y posibles de conocer…quien sabe. Volvamos sobre el Número de Avogadro, y su importancia en las cuestiones de la dilución. Conceptualmente, la dilución de una disolución implica un

28  Demócrito de Abdera (460 a.C. - 370 a.C.) - Filósofo griego presocrático con amplios conocimientos de teología, astrología, geometría, etc.29  Mol se entiende como la cantidad de materia que hay en 6,02 x1023 partículas elementales (átomos o moléculas) en 12 gramos de Carbono-12. En otras palabras, y dimensionando el tamaño de un átomo de forma aproximada, si tomamos un tubito de minas (para portaminas) de grafito (variedad alotrópica del Carbono-12), que trae 12 unidades que pesan aproximadamente 1 gramo cada una, se podría afirmar con bastante aproximación que en un tubito común y corriente se tienen 602.200.000.000.000.000.000.000 átomos de Carbono-12, o puesto en términos de notación científica, 6,02 x1023 átomos de Carbono-12.-

Díaz, P. 168-189

© Nullius in verba site

cambio en la cantidad de soluto (cada vez menor, cuanto más se diluye) en la misma cantidad de disolvente; es decir, un cambio en la concentración de la disolución (nuevamente, cada vez menor cuanto más se diluye). El problema se presenta porque el Número de Avogadro representa un límite en la dilución molecular; un punto en el que más allá de él, no quedan más partículas de soluto presentes en toda la masa de disolución… en otras palabras, ya solo queda disolvente (que en la mayoría de los casos homeopáticos es agua). En otras palabras, uno puede realizar diluciones sucesivas, y cada vez irá restando cantidad de soluto o parte activa (que vendría a ser el remedio homeopático en sí mismo), pero a partir de órdenes superiores a 1023 ya se alcanza el límite de Avogadro, y una dilución del orden de 1024 (o superiores), ya no se tendría rastros de soluto presente, por tanto estamos solo en presencia de disolvente…agua lisa y llanamente. Por tanto, las pastillitas, no son otra cosa que almidón, u otro tipo de azúcares. Recordemos que el ultimo cálculo que realizamos, lo hicimos analizando Kalium Bichromicum 15 CH, y habíamos llegado a la conclusión de estábamos en una dilución del orden de 1030, ¿recuerdan? Siendo más precisos, un remedio homeopático 11 CH tiene un orden de dilución de 1022; en tanto que uno 12 CH ya tiene un orden de 1024…sugiero que empecemos a sacar conclusiones… Quiero dejar más en claro el asunto del límite de dilución de Avogadro, solo a los fines de que no quepan más dudas al respecto. Cuando uno recurre al médico (a uno serio, claro), su prescripción es un producto cuyo envase siempre acusa dos cosas: el principio activo y la dosis. Por ejemplo, si la prescripción es “Paracetamol 500”, esto significa que en cada cápsula estamos ingiriendo una dosis de 500 mg de Paracetamol; cuya

183

Scientia in verba

Nullius in verba Site www.nulliusinverbasite.com fórmula es C8H9NO2, y que tiene un peso de 151 g/mol. Luego, pensemos en esto: para ingerir 1 mol de paracetamol, necesitamos ingerir aproximadamente 302 cápsulas del mismo; y esto es fácil de calcular, veamos:

1000mg ______1g 500mg _______ = x→x

(500mg ).(1g ) = 0,5 g (1000mg )

Luego, recordemos que cada mol de Paracetamol pesa 151 g, entonces, se tiene que:

Magazine 2619-2586

una pastillita común y corriente de 500 mg tiene 1,99 x1021 moléculas. ¿Ya lo replanteó? Muy bien, sigamos. Para proseguir con la técnica homeopática, si seguimos disminuyendo la dosis al orden de nanogramos (0,000000001 g), estaríamos quitando unos 9 ceros, con lo que ahora quedamos en el orden de billones (más precisamente 39 billones 900 mil millones). Pero, veamos los números, ellos no mienten:

151g ______ 6, 02 x1023 moléculas 1x10−9 g ____ x

(1x10−9 g ).(6,02 x1023 moléculas) =x = 3,99 x1016 moléculas (151g ) (151g ).(1 pastilla) 151g= ______ x → x = 302 pastillas (0,5 g ) Bueno, con este tipo de dosis, 0,5 g ______1 pastilla

Por lo general no solemos consumir tanto medicamento. Ahora bien, en cada una de las capsulas de Paracetamol 500, de acuerdo a don Avogadro podemos calcular exactamente cuántas moléculas de Paracetamol (o cuanto de agente activo) hay:

151g ______ 6, 02 x1023 moléculas 0,5 g ______ x (151g ).(6,02 x1023 moléculas) x = 1,99 x1021 moléculas (0,5 g )

posiblemente podamos ingerir Plutonio-239 sin temor a demasiadas consecuencias. Otro ejemplo, con el Arsénico (As) se considera inofensivo por debajo de 10 microgramos por metro cúbico de aire (μg/m3), durante 8 horas al día, 40 horas a la semana. El Arsénico tiene una masa atómica de 75 g/mol, con lo que 1 microgramo (10-6 g, o bien la millonésima parte de un gramo) son unos 8.000 billones de átomos, de acuerdo al siguiente cálculo:

75 g ______ 6, 02 x1023 átomos 1x10−6 g ___ x

Si en lugar de 500 mg, ingiriéramos 1 mg (dosis insuficiente para nada) el (1x10−6 g ).(6,02 x1023 átomos) 15 número de moléculas de Paracetamol x 8,03 x 10 átomos = = presente bajaría a 3,98 x1018 (o lo que es (75 g ) lo mismo 3.980.000.000.000.000.000; unos 3,9 trillones de moléculas). Si bien es En otras palabras, con estos cálculos, se cierto el numero parece grande a primera puede deducir que este tipo de compuestos vista, deténgase a pensar en el tamaño de una molécula de Paracetamol; teniendo dependen de la dosis, y que hacen falta en cuanta que acabamos de calcular que bastantes moléculas para causar daños.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

184

Scientia in verba subpage /revista-scientia-in-verbapdf/ Dependiendo del compuesto, se pueden ingerir a lo largo del tiempo (por ejemplo, los metales pesados que se depositan en los tejidos) o tienen que ser de una sola dosis (fuerte), para ser letales, o al menos dañinos. Ahora vamos a ver el otro lado de la moneda, los preparados homeopáticos ya vimos que se suponen funcionan al revés (?), en cantidades infinitesimales. El Arsenicum Album de Boirón 15 CH, se trataría de un compuesto de Oxido de Arsénico (el mismo que antes comentábamos que intoxica, según que dosis); pero diluido y dinamizado (también suelen utilizar la palabra “sucusión”, pero como no se conjugarla… ¡cómo me sale suena feo!) 15 veces. Y ya calculamos antes que tras 15 iteraciones de dilución la concentración baja a un 0,000000000000000000000000 000001% de parte activa presente (si no me he equivocado al contar los ceros); y que a esto lo impregnan en gránulos de Sacarosa y Lactosa. Tomando en cuenta el peso especifico de la Sacarosa y la Glucosa, necesitamos tomar 342 pastillas para llegar a un mol del excipiente (vehículo); y por favor, créanme esto, sino inundaría de cálculos las hojas. Claro que no tenemos que olvidar que compuesto antes mencionado también ha sido remojado en ese famoso vehículo, que conforma la disolución, y luego solidificado para presentarlo en forma comercial de pastillas. Vamos a obviar la presencia (en peso) de la Lactosa y/o la Sacarosa; e imaginemos que el excipiente es agua (H2O, 18 g/mol). Luego, si tomo 1 mol de agua, tengo una probabilidad de 1 en 10³⁰ (uno en un quintillón) de que me toque una molécula del arsénico original (el venenoso). Entonces, si me tomara 10 moles (180 g), la probabilidad ahora sería de 1 en 10²⁹. Si quisiera asegurar una probabilidad de 1 en mil millones, uno necesitaría ingerir 18 gramos unas 10²⁷ veces (1.000.000.000 .000.000.000.000.000.000)…ahora bien, si

Díaz, P. 168-189

© Nullius in verba site

tenemos en cuenta que la masa del planeta Tierra es aproximadamente 6 x10²⁷ g, tendría que ingerir al menos una vez la masa de la Tierra sólo para asegurar una probabilidad de uno entre mil millones (y ojo, que no he contemplado el excipiente, o sea, el agua).

Hecha la ley…hecha la trampa… Una vez demostrado científicamente el fallo de la homeopatía, es decir, órdenes de dilución cercanos a 1023 nomas ya casi carecen de sustancia activa, ni hablar de órdenes mayores a 1023, cabe preguntarse cómo es que hasta el presente no solo aún se sigue prescribiendo y/o manufacturando estos medicamentos, sino que además se han instalado en algunas universidades de algunos países del mundo sendas carreras de grado, y hasta de postgrados, relacionadas con esta particular manera de practicar la medicina. Otra pregunta emergente seria como puede alguien formado en medicina, que ha debido estudiar química general (moderna), química inorgánica y orgánica, química biológica, etc., ejercer la homeopatía cuando sabe en rigor que solo está prescribiendo agua, o azúcar…pero, no saquemos conclusiones apresuradas, sigamos presentando pruebas. El avance de la química en el tiempo, favorecía la refutación de la Homeopatía, sin embargo las condiciones lucrativas de este procedimiento medico no debían permitir esto, puesto que claro, se caía el kiosquito. O sea, había que encontrar la manera de seguir justificando el rentable mercado homeopático; y esto vendría de la mano de Jacques Benveniste 30, 30 Jacques Benveniste (1935 –2004) - Médico, bioquímico e inmunólogo francés co-descubridor el factor de activación plaquetario (Patlelet Activation Factor). Publicó 230 artículos científicos, muchos de ellos en revistas de prestigio. Hacia el final de su vida, se comparaba con Galileo Galilei (humilde que le dicen); y repetía que estaba como candidato para un Premio Nobel. Después de

185

Nullius in verba Site www.nulliusinverbasite.com corredor de carreras devenido en medico a causa de una lesión en la espalda tras un accidente automovilístico. Es así que nos encontramos en junio del año 1988, cuando Benveniste envía a la prestigiosa revista de divulgación científica Nature31 un artículo en el que exponía acerca de experimentos realizados sobre la degranulación de basófilos disparada por anticuerpos IgE (del grupo de la inmunoglobulina E) muy diluidos. En el mencionado artículo, el científico afirmaba que algunos compuestos de tipo patógeno, que eran reconocidos por los anticuerpos, aún eran reconocidos inclusive si estaban disueltos en agua una importante cantidad de veces. Fue el periodismo el que metió la pata en este momento (¡casi parece una constante universal esto!), acuñando el término “memoria del agua” a este fenómeno descripto por Benveniste. Ni lerdos ni perezosos, los homeópatas (que buscaban desesperadamente una manera de salvar la rentabilidad del tratamiento) tomaron inmediatamente a este efecto marketing como columna vertebral de la práctica homeopática, y de esta manera pudieron zafar ante la comunidad científica, y social claro. Dado que no se podía (y quédese tranquilo, aún no se puede, ni se podrá…) justificar que en diluciones de ordenes mayores a 1023 no quedan rastros de soluto (en consecuencia solo se tiene disolvente nada mas), o lo que es lo mismo decir que no quedan rastros de cepa homeopática y solo se está tomando agua si toma gotas (o comiendo almidón o lactosa, en caso de que se esté tomando siete años sin trabajo estable, Benveniste fundó en 1997 la compañía DigiBio para promulgar sus ideas; compañía que estaba financiada por sus simpatizantes y por el mayor fabricante de remedios homeopáticos de Francia. 31  Nature es una de las más antiguas y famosas revistas científicas, publicadas con periodicidad semanal en Reino Unido. Su primer número data del 4 de noviembre de 1869. A diferencia de otras, no está especializada en ningún campo en concreto, publicando artículos en una amplia variedad de temas, aunque su principal área es la biología. Su principal competidor es la revista Science.

Scientia in verba Magazine 2619-2586

pastillas); y considerando que es bastante común preparados de medicamentos homeopáticos 15 CH, 30 CH, 100 CH, inclusive 200 CH (…¡y hasta los hay de 500 CH!), los homeópatas elaboraron la mentira más grande y conveniente de la historia médica: En órdenes de dilución mayores a 1023, cuando ya no queda químicamente rastros de principio activo, la acción terapéutica del medicamento homeopático recurre a esta memoria del agua para su efectividad en el tratamiento.

En otras palabras, esta idea afirma que el agua guarda memoria de las moléculas con las que ha estado en contacto (cuando estas ya no se encuentren disueltas en ella), potenciando inclusive el efecto, tanto mayor cuanto menor sea la concentración de las moléculas inexistentes ya, o sea, cuanto mayor cantidad de diluciones sucesivas se hayan realizado…o sea, de alguna manera el agua parece recordar que estuvo en contacto alguna vez con la cepa homeopática; y recurre a esto para su acción terapéutica. Naturalmente, Jacques salió con los tapones de punta a apoyar (sin querer queriendo) a la teoría homeopática con su publicación, de manera completamente ad-hoc, dándole crédito a la efectividad de la acción de preparados provenientes de muchas diluciones sucesivas, teniendo muy en cuenta que su Laboratorio estaba siendo financiado por fabricantes de medicamentos homeopáticos…no vaya a ser cosa que se muerda la mano de quien lo alimentaba. Nótese también un detalle no menos importante, el desatino de la denominada memoria del agua es relativamente nuevo (1988), por lo que este concepto nunca fue propuesto por el creador de la Homeopatía, Samuel Hahnemann, allá por finales de los 1700, ni por ninguno de sus primeros practicantes, quienes debieron pilotearla a fuerza del consenso popular inicialmente. Por supuesto que esto de la memoria del agua no tiene ni pies ni cabeza, seamos sinceros…¿¡a quien en su sano juicio se le

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

186

Scientia in verba subpage /revista-scientia-in-verbapdf/ ocurriría dotar de una función cognitiva (como lo es la memoria) al agua!? Por supuesto, una revista con el prestigio y la trayectoria de Nature, publicó el articulo a título de que el científico ya había realizado publicaciones anteriormente, pero requirió -a modo de condición de publicación- que fuera probado experimentalmente y ante un equipo de evaluación (con James Randi 32 entre ellos); por lo que los homeópatas, y Benveniste a la cabeza, iban a tratar de demostrar a como dé lugar la existencia de la memoria del agua, y por consiguiente la efectividad del tratamiento homeopático. El experimento recurrió a la técnica de doble ciego33 , y se realizó en Francia el 4 de Julio de 1988. El mismo separaba 2 tipos de probetas, una con agua homeopática (grupo experimental) y otra con agua común (grupo de control), sometiéndolas luego al test realizado por Benveniste de degranulación de basófilos. Tres de los cuatro primeros intentos para replicar el experimento que se supone había realizado Benveniste, salieron favorables para este científico. Pero fue en este momento en que Randi, puesto a propósito por su condición de escéptico total, sugirió que este “éxito” de la experimentación se debía a que el propio Benveniste y su equipo conocían específicamente cuales eran la muestras homeopáticas y cuales las de control, advirtiendo que esto podía influir de manera significativa en los resultados. Por tanto, el equipo de evaluación tomó las muestras homeopáticas y de control, y las cambió de lugar, agregándole encima un código que sólo ellos conocían; el cual fue colocado en un sobre y pegado en el 32  Randall James Hamilton Zwinge (mejor conocido como James Randi) - ilusionista, escritor y escéptico canadiense; figura conocida de los medios en los Estados Unidos por exponer fraudes relacionados con la parapsicología, la homeopatía y otras pseudociencias. Se desempeñó como ilusionista durante casi 50 años por lo que posee gran habilidad para detectar los engaños de personas que alegan tener poderes sobrenaturales. 33  técnica de doble ciego

Díaz, P. 168-189

© Nullius in verba site

techo del laboratorio a la vista de todos, para eliminar cualquier suspicacia de manipulación. De esta forma, solamente el equipo evaluador sabía cuáles eran las muestras de control y cuáles eran las homeopáticas. Como era de esperar, tras un nuevo intento por parte del equipo de Benveniste, e ignorando estos el origen de las muestras, los resultados no mostraron diferencia entre las disoluciones homeopáticas y el grupo de control. Pero claro…la “medicina homeopática” curaba, y por esta razón ni Benveniste, ni su equipo, se retractaron de semejante gansada que utilizaban para sostener el kiosquito homeopático. Hay algo que debe quedar en claro, y es que el agua no tiene memoria de nada…y para esto, vamos a dar fundamentos científicos, claro está. Químicamente, el agua está conformada por moléculas, a su vez formadas por un átomo de Oxígeno y dos átomos de Hidrógeno (H2O). Esta molécula tiene polaridad, es decir, tiene una mayor densidad de carga positiva en algunas partes, y una mayor densidad de carga negativa en otra parte, tal como se observa en la siguiente figura esquemática del agua.

La aparición de estas densidades de carga eléctrica, hace que a temperaturas ambiente un conjunto de moléculas de agua se atraigan débilmente (por interacción electrostática), unión que se conoce como puente hidrogeno, que

187

Nullius in verba Site www.nulliusinverbasite.com son de poca intensidad y se rompen (y reconstruyen) con suma facilidad continuamente, lo que le confiere el carácter fluido que conocemos de esta sustancia, y claro, asegura de paso cañazo que a temperatura ambiente el agua se presente en estado líquido. ¿A que quiero apuntar? Pues, a que la estructura del agua no es estática, por lo tanto difícilmente podrá mantener “memoria” de algo en su dinámica estructura. De hecho, una investigación llevada a cabo por científicos del Departamento de Química y Física de la Universidad de Toronto (Canadá) y del Instituto de Óptica No Lineal y Espectroscopia de Pulso Corto Max Born (Alemania), y curiosamente publicada por la propia revista Nature, en su edición Nº 434 (páginas 199 a 202) de fecha 10 de Marzo de 2005 34, afirma que el agua “pierde la memoria estructural” en 50 femtosegundos (para ser precisos: 0,00000000000005 segundos). Otra vez la burra al trigo…con esto la ciencia volvía a demostrar (ya por segunda vez) el fraude que suponía la práctica homeopática. Resulta interesante recordar las dificultades generales que tuvo la Homeopatía en Francia, en un principio, como práctica médica. Y sobre esto, traigo a colación, la interpretación acerca de un artículo periodístico realizado por Lise Rose Madeleine Wurmser ,35 en el que manifiesta: “¿Cuál debería haber sido nuestro trabajo: ¿Intentar encontrar el medio de demostrar que la Homeopatía 34  Un enlace a la mencionada publicación: http://www. nature.com/nature/journal/v434/n7030/full/nature03383. html 35  Lise Rose Madeleine Wurmser (1909 – 1993) - Farmacéutica, reclutado por uno de los principales Laboratorios Homeopáticos de Francia en 1932. Dictaba conferencias y el desarrollo de la homeopatía en el período de entreguerras. Sus investigaciones en farmacia hizo que se convirtiera en una de las primeras mujeres admitidas dentro de la Academia Nacional de Farmacia Francesa. Los homeópatas deben la inserción de su tratamiento en los estándares de calidad de los medicamentos, gracias al desarrollo de su investigación académica.-

Scientia in verba Magazine 2619-2586

puede defenderse, científicamente hablando, fuera de toda apreciación, sobre su valor terapéutico? Ante la hostilidad y el escepticismo de los medios oficiales, era necesario aportar pruebas experimentales, primeramente, de la realidad de las dosis infinitesimales y de su actividad farmacológica. Posteriormente, intentar justificar experimentalmente el principio de similitud, o mejor dicho, el principio de analogía, (lo que es más exacto), y de indagar, si es posible, el modo de acción de las diluciones. De allí, la sucesión de investigaciones en el tiempo.”; versus un comunicado que enviara al XXVI Congreso de Medicina Homeopática realizado en Mayo de 1967, en el que plantea la cuestión de saber si la homeopatía (basada en la individualización del remedio y el empleo combinado de la dosis infinitesimal) debe permanecer vigente de manera tradicional o si, por el contrario, debe aprovechar los actuales progresos de la ciencia. Pero… ¿Por qué entonces hoy en día se sigue sosteniendo este tipo de tratamiento? Personalmente considero que gran parte a la entrada en escena del denominado “efecto placebo”, que es el conjunto de efectos sobre la salud que produce un acto médico (o, en general, cualquier acto con intención terapéutica), y que no se deben al efecto específico de dicho acto terapéutico. Por ejemplo, son todos esos efectos positivos que aparecen tras la administración de algún fármaco y que no se deben a su acción farmacodinámica. Naturalmente, estamos en presencia de un fenómeno eminentemente psicológico, que en mi opinión es el causante directo de que funcionen los métodos de la medicina “no convencional”, en que los pacientes se curan solo “si creen” en la curación, no porque el método y/o medicamento aplicado sea efectivo contra esa enfermedad.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

188

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Abrimos el presente capitulo con un chiste, y considero apropiado cerrarlo de la misma manera. Se cae el telón de la obra…es momento de sacar sus propias conclusiones.

Díaz, P. 168-189

189

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Páginas recomendadas de divulgación filosófica y científica en Facebook . Nullius in verba site en Facebook Escepticismo científico

S

Pablo Cesar Diaz

Historia y Filosofía de la Pseudociencia

S

Escepticismo en psicología y disciplinas afines Lectura y análisis de las obras de Mario Bunge

Profesor Universitario de Quimica, Universidad Nacional de Santiago de estero Docente superior de Ciencias Naturales. Interesado por la epistemología, la ciencia en general y en especial la química. Coleccionista, guionista y dibujante de comics.

Federación Internacional de Criminología y Criminalística Diálogos - con Facundo Guadagno y Matt Suarez Holze. Ciencias Cognitivas en PDF Conductismo en PDF

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

190

191

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site Scientia in Verba Mag.3, 193-198 (2019)

La filosofía científica y los límites de la ciencia Gustavo Esteban Romero1 1  Facultad de Ciencias Astronomicas y Geofísicas, Universidad Nacional de La Plata, Paseo del Bosque s/n, 1900 La Plata, Argentina

La filosofía científica es filosofía informada por la ciencia, que usa herramientas exactas como la lógica y la matemática, y proporciona a la actividad científica de un marco donde dirimir las cuestiones más generales sobre la naturaleza, el lenguaje que usamos para describirla, y el conocimiento que de ella obtenemos. Muchas teorías de la filosofía científica pueden ser contrastadas y evaluadas utilizando evidencia científica. En este artículo, Gustavo E. Romero caracteriza a la filosofía científica y discute los límites de la ciencia.

“La simplicidad ontológica es sólo un mito conveniente para pensar más allá de los detalles, pero no hay el menor apoyo empírico a esta tesis. La ciencia natural no está vinculada a un principio de simplicidad, contrariamente a lo que suele afirmarse.”

1.1.Función de la filosofía El pensamiento crítico sobre el mundo se inició en las costas jónicas del Asia Menor 600 años antes de Cristo. Allí, en Mileto, Tales formuló la primera cosmovisión desprovista de elementos mitológicos de la que tengamos noticia. Más importante aún fue que su discípulo Anaximandro disintió con su mentor, y presentó una cosmología mejorada: utilizó la crítica racional, y formuló ideas que influyeron el pensamiento occidental por dos milenios y medio. La escuela milesia se desarrolló hasta que las invasiones persas terminaron con el florecimiento de la cultura griega en Asia Menor. La semilla del pensamiento crítico, sin embargo, subsistió y se trasladó a otras ciudades griegas, en Italia y en las islas del Egeo o se desparramó por el continente hasta Abdera. Luego del período pre-

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

192

Romero, G. 193-198

Socrático del pensamiento griego, donde lo esencial fue la interpretación racional del mundo, se pasó a la etapa clásica, en la que la problemática humana y moral se sumó a las inquietudes cosmológicas. La culminación de esta etapa fue la obra de Aristóteles, acaso el pensador más influyente de la historia de Occidente. En el período Helenístico, que se extendió incluso bajo la dominación romana, las diferentes escuelas filosóficas (epicureísmo, estoicismo, escepticismo) trataron de brindar no sólo una interpretación física del mundo, sino también un sistema de prescripciones para poder vivir en él. Los grandes sistemas filosóficos eran presentados como un preámbulo para la ética: la justificación de nuestro comportamiento en la vida. Ya no se aspiraba sólo al conocimiento, sino a la sabiduría. Se aspiraba a saber vivir. Con el derrumbe de Occidente bajo las invasiones bárbaras la visión puramente racional del mundo dio lugar a cosmologías con fuerte influencia oriental, plenas de elementos mitológicos y mágicos. La reintroducción de las obras de Aristóteles en Occidente durante la Baja Edad Media preparó el camino para el nacimiento de la ciencia moderna y el método experimental en los siglos XVIXVII (Lindberg 2008). Hasta el siglo XIX, ciencia y filosofía no estuvieron claramente separadas. Los iniciadores de la ciencia moderna, como Galileo, Newton, y Huygens realizaron investigaciones que hoy serían consideradas “filosóficas”,

193

Nullius in verba Site www.nulliusinverbasite.com mientras que los grandes filósofos racionalistas del Siglo XVII como Leibniz, Spinoza, y Descartes no sólo estaban científicamente informados, sino que hicieron aportes científicos, en particular Leibniz. Es con la reacción romántica al la Ilustración del Siglo XVIII que surge una filosofía de corte idealista que se separa completamente de la ciencia. El más importante representante de esta tendencia es Georg Wilhelm Friedrich Hegel. Hegel introduciría una forma de hacer filosofía que sería el germen de las mayores corrientes anti-racionalistas del Siglo XX y tendría influencia hasta la actualidad a través de corrientes de pensamiento tan variadas como el existencialismo, el postmodernismo con sus muchas variaciones, y el constructivismo social. Esa forma de hacer filosofía, oscura y divorciada de la experiencia, contrastaría enormemente con la filosofía necesaria para hacer ciencia (ver Popper 2013, para una crítica del Hegelianismo y su influencia). En el mismo Siglo XIX surge otra corriente filosófica que tiende a la precisión en el lenguaje, al uso de herramientas formales, que está informada por la ciencia de la época, y que rehúye de la verborrea característica de la expresión hegeliana. La nueva filosofía fue impulsada por científicos con inclinación filosófica o por matemáticos. Entre ellos, quiero mencionar a Gottlob Frege, Ernst Mach, Hermann von Helmholtz, Heinrich Hertz, Charles S. Peirce y Ludwig Boltzmann. Es quizás en este último donde el espíritu de una filosofía científica se manifiesta en forma más pura (ver Boltzmann 1974). Boltzmann entendió que la función de la filosofía en la era científica es resolver los problemas más generales que se plantean en el estudio de la naturaleza, y a partir de sus soluciones proporcionar a la ciencia de un marco y un fundamento que le permitan resolver en forma eficiente problemas específicos. La filosofía, pues, no puede ser una actividad desligada de

Scientia in verba Magazine 2619-2586

la ciencia, sino que debe realimentarse con esta, debe cambiar con esta, y debe servir siempre para proporcionar una mejor comprensión de los problemas científicos. Una filosofía que cumpla esas funciones puede llamarse “filosofía científica”.

1.2.Filosofía científica La visión de Boltzmann de una filosofía científica, esto es, de una filosofía que se ocupe de problemas generales comunes a todas las ciencias, una filosofía que esté informada por la ciencia y sirva a la investigación científica, comenzó a realizarse en el siglo XX por medio de filósofos con fuerte formación en ciencias. Filósofos como Bertrand Russell (matemático y lógico), Moritz Schlick (físico), Hans Reichenbach (físico y lógico), Rudolf Carnap (lógico y semántico), Hans Hahn (matemático), Otto Neurath (sociólogo), W.V. O Quine (lógico), y muchos más en la segunda mitad del siglo. La filosofía científica hoy está representada por una gran cantidad de filósofos profesionales con seria formación científica que tratan problemas relacionados con la física, la biología, las matemáticas, las ciencias sociales, y también temas de carácter general. Quizás los filósofos científicos con obras más ambiciosas en el siglo XXI sean Mario Bunge (ver, por ejemplo, Bunge 1974-1989) y Nicholas Rescher (por ejemplo, Rescher 2001). La filosofía científica se ocupa de problemas concretos, pero generales, como ¿qué es la verdad? ¿qué es una proposición? ¿qué es y cómo se determina el significado de un enunciado? ¿qué es la vaguedad? ¿hay objetos vagos? ¿qué es la información? ¿qué es una ley natural? ¿qué es un evento? ¿qué es el espacio? ¿qué es el tiempo? ¿es el espacio-tiempo una entidad? ¿qué es una teoría? ¿qué diferencia una teoría

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

194

Scientia in verba subpage /revista-scientia-in-verbapdf/ de un modelo? ¿qué es el conocimiento? ¿hay límites a lo que podemos conocer? ¿qué significa entender algo? ¿hay diferentes formas de conocer? ¿qué es un dato? ¿qué es la evidencia y en qué se diferencia de los meros datos? ¿son verdaderas algunas teorías? ¿qué es la ciencia? ¿cómo diferencias la ciencia de las imposturas pseudocientíficas? ¿cuál es la diferencia entre ciencia y técnica? ¿qué son los valores? ¿cómo valoramos? ¿cómo saber si nuestras valoraciones son correctas? ¿qué es un código moral? ¿existe el libre albedrío? ¿hay niveles de existencia? ¿qué es la realidad? ¿pueden pensar las computadoras sofisticadas?…y muchos, muchos otros problemas similares. Nuevos problemas filosóficos aparecen con el avance de la ciencia (por ejemplo, antes de las investigaciones de Albert Einstein y Hermann Minkowski la problemática sobre la naturaleza del espacio-tiempo no existía), y otros desaparecen (los avances de las neurociencias han vuelto los problemas relacionados con sustancias mentales irrelevantes, o peor aún, han mostrado que son pseudo-problemas). La filosofía científica evoluciona con la ciencia, y la ciencia usa conceptos filosóficos. En general, los problemas filosóficos los podemos separar en 5 grandes grupos, o áreas de investigación filosófica (ver Romero 2017 para una discusión detallada). Estas son: La semántica filosófica. Es la investigación de los problemas más generales de los lenguajes que usamos para representar el mundo. La semántica filosófica se ocupa de esclarecer conceptos esenciales para la ciencia como ser los de referencia, denotación, designación, representación, significado, verdad, relevancia y vaguedad. También se ocupa de la interpretación de lenguajes formales y de la estructura de nuestras teorías y modelos. La ontología. Es la rama de la filosofía que investiga la naturaleza de los

Romero, G. 193-198

© Nullius in verba site

existentes y la estructura de la realidad. Por ejemplo, ¿qué significa “existir”? ¿existen los quarks? ¿y los números? ¿hay diferentes conceptos de existencia? ¿hay jerarquías de existentes? ¿hay eventos que no obedecen a leyes? Entre los grandes temas de investigación de la ontología están los conceptos de individuo, objeto, cosa, propiedad, cambio, ley, causalidad, azar, necesidad, propensión, disposición, y nivel ontológico. La epistemología, o teoría del conocimiento. Es la investigación de la naturaleza del conocimiento y cómo lo adquirimos. Incluye la investigación de los problemas filosóficos de las ciencias naturales y formales, y cuestiones comunes a todas ellas, como la naturaleza de las teorías, cómo son evaluadas, reemplazadas, contrastadas, etc. La ética, o teoría del comportamiento moral. La ética investiga los códigos morales, sus justificaciones, y los conceptos que involucran. Una ética científica debe realizar estas investigaciones a la luz de los conocimientos científicos actuales sobre las sociedades, la cultura, y las conductas y necesidades de los individuos. Debe basarse en la antropología, la sociología, y las neurociencias, así como en lenguajes formales, para sugerir códigos morales adecuados a las diferentes sociedades humanas. También debe ocuparse del estudio de los valores que se usan para justificar calificaciones morales (“bueno”, “malo”, y grados de valoraciones intermedios) relativas a ciertos códigos o reglas. La estética. Estudia la experiencia estética, tratando de desentrañar su naturaleza con la ayuda de las neurociencias y las ciencias de la cultura. Entre sus objetivos está clarificar los conceptos de arte, belleza, armonía, y similares. Cada ciencia específica está en condiciones de ayudar a poner a prueba ciertas teorías filosóficas. Por ejemplo, conjeturas acerca de la incidencia

195

Nullius in verba Site www.nulliusinverbasite.com de patrones de simetría visual en la experiencia estética pueden evaluarse por medio de estudios no invasivos de la actividad del cerebro de individuos expuestos a ciertas obras artísticas con patrones definidos, en experimentos con adecuados controles de errores. Las ciencias físicas, y en particular la astrofísica y la cosmología, están en condiciones de ayudar a contrastar muchas ideas filosóficas en el campo de la ontología. Por ejemplo, problemas como: ¿Cuáles son los constituyentes básicos del universo? ¿Es el espaciotiempo una entidad? ¿Por qué si nuestras representaciones de las leyes de la física son invariantes bajo inversión temporal, el universo que observamos sufre cambios y procesos irreversibles? ¿Cuántas dimensiones tiene el mundo? (Romero 2017).

1.3.Los límites del conocimiento ¿Hay límites para el conocimiento de la naturaleza que se puede lograr a través de la ciencia? La ciencia es una actividad sistemática y auto-correctiva destinada a obtener conocimiento verdadero del mundo, y es sin duda el mejor método que tenemos para eso. ¿Hay preguntas más allá de su alcance? ¿Hay problemas sin solución? ¿Está la ciencia aumentando nuestro conocimiento de una manera tal que tiende a una representación final y completa de la naturaleza? Para responder preguntas acerca de la naturaleza mediante la ciencia, primero tenemos que hacer esas preguntas. Pero las preguntas que formulamos siempre tienen presupuestos, se originan en un estado preexistente del conocimiento. El progreso de la ciencia no sólo proporciona respuesta a algunas de estas preguntas, sino que a veces (en realidad bastante a menudo) nos lleva a modificar nuestro conocimiento de fondo de una manera de tal que las viejas preguntas pierden sentido y surgen

Scientia in verba Magazine 2619-2586

otras nuevas, antes inconcebibles. La dinámica de la investigación científica no es acumulativa ni lleva a un aumento lineal del conocimiento. Por el contrario, el conocimiento puede colapsar y volver a expandirse en nuevas direcciones. Conjuntos completos de preguntas, que una vez fueron significativas y parecieron importantes, de repente se disuelven y olvidan. A nadie le importa ahora, por ejemplo, la estructura del flogitos o las propiedades del éter electromagnético. No hay que preguntar, por lo tanto, si la empresa científica puede responder a todas las preguntas acerca de la naturaleza que se pueden formular en un momento dado, ya que muy bien podría ser el caso de que muchas de tales preguntas se deban a investigaciones e indagaciones ilegítimas con respecto a un futuro cuerpo de conocimiento. Nuevas respuestas y soluciones a los nuevos problemas cambian los supuestos para la formulación de preguntas adicionales. Al profundizar en nuestra comprensión del mundo, aparecen nuevos interrogantes no vislumbrados antes. Cada estado sucesivo de conocimiento lleva asociado un nuevo conjunto de preguntas válidas. No hay ninguna razón para pensar que esto es un proceso convergente. Debido a la metodología de autocorrección inherente a la investigación científica, el conocimiento es siempre revocable, conjetural y transitorio. No existe una teoría científica definitiva, en la medida de que el método científico permanezca válido. Sólo podemos aspirar a obtener cada vez mejores representaciones parciales y tentativas de la realidad. La imagen científica del mundo es siempre provisional y conjetural. No hay una “verdad final” a la que nuestras teorías tienden. La razón es simple: somos nosotros los que atribuimos la verdad nuestras declaraciones acerca de la naturaleza. Lo hacemos sobre la base de evidencia, pero podemos equivocarnos. Nos hemos

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

196

Scientia in verba subpage /revista-scientia-in-verbapdf/ equivocado a menudo, y lo seguiremos haciendo. La certeza no se encuentra entre las opciones a la hora de asignar valor de verdad a nuestros enunciados sobre la base de pruebas limitadas. Además de la consideración anterior, quiero remarcar que la expansión del conocimiento científico va en dirección de incrementar su complejidad. Esto se puede ver no sólo en el enorme crecimiento de la literatura científica y la diversificación de las revistas especializadas, sino también en el detalle técnico abrumador de nuevos enfoques, formalismos, y marcos teóricos. La naturaleza no es ciertamente sencilla. La simplicidad ontológica es sólo un mito conveniente para pensar más allá de los detalles, pero no hay el menor apoyo empírico a esta tesis. La ciencia natural no está vinculada a un principio de simplicidad, contrariamente a lo que suele afirmarse. ¿Es posible, dentro de un determinado marco teórico, plantear preguntas que, en principio, son imposibles de ser contestadas? ¿Hay, como los escolásticos los llamaron, insolubilia? ¿Hay preguntas que la ciencia no puede contestar? En el ámbito de la investigación empírica no hay nada que pueda ser legítimamente planteado y no investigado. Por ejemplo, si nos preguntamos acerca de la posición y el impulso simultáneos de un electrón, se está formulando una cuestión ilegítima ya que de acuerdo a la mejor teoría acerca de electrones que poseemos, la mecánica cuántica, estas partículas no tienen simultáneamente estas propiedades. Si nos preguntamos, en cambio, “¿qué hay en el interior de un agujero negro?” estamos planteando una pregunta válida. Aunque el interior de un agujero negro es inaccesible para los experimentos u observaciones realizados desde fuera del horizonte de eventos, las preguntas sobre el interior pueden ser respondidas mediante herramientas teóricas tales como la relatividad general o teorías

Romero, G. 193-198

© Nullius in verba site

de la gravedad cuántica. Si hubiese preguntas cuyas resoluciones están más allá de la ciencia, entonces difícilmente se puede considerar que esas preguntas tratan de cuestiones científicas. A la inversa, las cuestiones científicas son, en principio (aunque no necesariamente en la práctica) resolubles. Algunos científicos, especialmente los físicos de partículas, hablan a veces de “teorías de todo” o “teorías finales”. Parecerían querer decir que esas teorías pueden brindar un marco teórico único a partir del cual todas las preguntas científicas podrían ser en principio contestadas. Personalmente, dudo que tales afirmaciones tengan algún sentido. Si algo hemos aprendido sobre la naturaleza es que hay niveles diferentes de composición y organización, y que cada nivel tiene propiedades emergentes que le son propias. Por lo tanto, incluso si una teoría unificada de todas las interacciones físicas pudiese formularse, esto no implicaría que se pueden obtener respuestas a todas las preguntas científicas: cada nivel tiene sus cuestiones específicas, no reducibles a conceptos de los niveles más básicos. No es posibles responder preguntas biológicas o sociales usando teorías físicas y conceptos de ese nivel ontológico solamente. Por otra parte, una supuesta teoría de “todo”, incluso si es correcta en su formulación de las leyes físicas básicas, no diría nada acerca de las condiciones iniciales y de contorno necesarias para resolver las ecuaciones que expresan dichas leyes. Las teorías finales, para usar una expresión debida a Steven Weinberg, pertenecen al reino de los sueños. Y los sueños, sueños son.

197

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba Magazine 2619-2586

Referencias

Boltzmann, L. (1974). Theoretical Physics and Philosophical Problems: Selected Writings. Edited by B. Mc Guinness. Dordrecht: Reidel. Bunge, M. (1974-1989). Treatise on Basic Philosophy, 8 vol. Dordrecht: Kluwer. Lindberg D. C. (2008). The Beginnings of Western Science: The European Scientific Tradition in Philosophical, Religious, and Institutional Context, Prehistory to A.D. 1450 2nd Edition. Chicago: Chicago University Press. Popper, K. R. (2013). The Open Society and Its Enemies. Princeton: Princeton University Press.

S

Gustavo Esteban Romero

S

Rescher, N. (2001). Nature and Understanding: The Metaphysics and Methods of Science. Oxford: Oxford University Press. Romero, G.E. (2018). Scientific Philosophy. Heidelberg- Berlin- New York: Springer, en preparación.

Profesor Titular de Astrofísica Relativista, UNLP. Investigador Superior, CONICET.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

198

199

Nullius in verba Site www.nulliusinverbasite.com

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Acerca de Nullius in verba site

Nullius in verba site es el nombre de la editorial/autor registrada en el directorio de Editores y Proveedores de material bibliográfico y documental de la Biblioteca Nacional de Colombia. www.nulliusinverbasite.com, y la revista Scientia in verba Magazine ISSN 26192586 (en línea), se trata de un proyecto editorial conjunto y sin ánimo de lucro, dedicado a la divulgación filosófica (enfocado principalmente en la epistemología) y científica (proyectos de investigación y divulgación científica). A través de este proceso para la difusión social del conocimiento, se ha llegado a editar y publicar artículos de varios autores destacados. El objetivo del proyecto ha sido y será, reunir los mejores contenidos afines que sea posible, alojarlos en el repositorio web y ponerlos a disposición del público a través de una interfaz intuitiva, ésta, diseñada exclusivamente para la lectura y la divulgación social de este tipo de contenidos. En este orden de ideas, ofrecer al público, a los académicos o escritores independientes, un espacio adecuado para lograr una difusión más apropiada de sus trabajos, y para la consulta-lectura de los mismo sin ningún costo. Favoreciendo al lector y al autor simultaneamente. No se cobra ninguna tarifa a los autores por distribuir-publicar sus trabajos en estas plataformas, la única condición es que cumplan unos márgenes de calidad mínimos. Hasta el momento (Febrero de 2019), el repositorio digital cuenta con la contribución intelectual de más de 62 autores invitados y más de 200 textos (consultar aquí). Por otro lado, la revista Scientia in verba Magazine ISSN 2619-2586, es un proyecto adscrito de publicación trimestral, que cumple los requisitos formales de copyright para la publicación de los trabajos elegidos, además emplea una licencia Creative Commons. Cada volumen de Scientia in verba también es alojado en redes académicas como Research Gate y Academia.edu, proporcionando una mayor difusión de su contenido entre la comunidad académica que hace parte de estos sitios. Se cuenta con una plataforma con Cpanel alojada en servidores de alta calidad de Godaddy. A ello se suma una amplía estadística (en crecimiento) de lectores tanto para la página web como para la revista.

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

200

Contribuciones voluntarias La publicación de los contenidos, mantenimiento web, edición, trabajo de diseño y administración de las plataformas a través de las cuales se realiza esta labor, se mantienen gracias a un amplio esfuerzo conjunto que requiere tiempo y gasto de recursos varios. Si quisieras donar voluntariamente al proyecto cualquier valor, puedes hacerlo a través de Paypal, a la cuenta: [email protected]. O si se te facilita utilizar Western Union, puedes comunicarte con Sergio Barrera, editor en jefe al +57 3197219866 vía Whatsapp En este enlace podrás consultar más detalles sobre las inversiones que se hacen con esto. ¡Estaríamos muy agradecidos!

201

Scientia in verba subpage /revista-scientia-in-verbapdf/

© Nullius in verba site

Gracias por la lectura

“Nullius addictus iurare in verba magistri, quo me cumque rapit tempestas, deferor hospes.” «no me vi obligado a jurar por las palabras de maestro alguno, me dejo llevar como huésped de paso a donde me arrebata la tempestad.» Ciencia y racionalidad en tiempos de imposturas

Scientia in verba Magazine. 2619-2586 (En línea). Volumen (3). Febrero (2019)

202

203