Epistemologia De La Ciencia Economica

Citation preview

UNIVERSIDAD NACIONAL “PEDRO RUIZ GALLO” Lambayeque FACULTAD DE CIENCIAS HISTÓRICO SOCIALES Y EDUCACIÓN

EPISTEMOLOGÍA DELA CIENCIA ECONÓMICA (Compilación de Material Bibliográfico y Lecturas)

Dr. Bernardo Cojal Loli

Lambayeque, Abril del 2008

PRESENTACION La Epistemología de la Economía es parte de la reflexión más general orientada a caracterizar y precisar el conocimiento científico en las disciplinas que se ocupan del estudio de los hechos, a las que se designa usualmente ciencias fácticas. Uno de los propósitos principales de este estudio es determinar como se justifica o legitima el conocimiento científico en economía. Otro propósito de la asignatura es presentar los debates contemporáneos acerca de los métodos y conceptos más importantes, desde el punto de vista epistemológico, empleados para construir las disciplinas económicas. Para alcanzar estos objetivos suponemos algunas nociones básicas: dato e hipótesis; contrastación de hipótesis, teoría y modelo; leyes y tendencias; explicación, predicción y comprensión; las peculiaridades del conocimiento científico de los hechos sociales; las corrientes epistemológicas contemporáneas. Es decir, los elementos suministrados en un curso básico de Metodología de las Ciencias Sociales. Los contenidos se abordarán desde una doble perspectiva. Al examinar las escuelas metodológicas contemporáneas y su aplicación en economía los haremos según un orden temporal, respetando las sucesivas apariciones de cada una de ellas. Al presentar las discusiones en tomo a ciertos conceptos básicos los ordenaremos por problemas. El examen de las metodologías y de los problemas suponen cierta información y comprensión de los contenidos sustantivos de economía, de otra manera resultaría muy dificultosa su discusión. Resulta ideal, pero no obligatorio, tener conocimientos de Historia del Pensamiento Económico pues se aludirá a economistas clásicos y a los fundadores de la corriente neoclásica e institucionalista. Además, la noción de modelo se indagará desde distintos enfoques y la manera más lógica de atraparlos es ejemplificar y discutir con modelos macroeconómicos. De igual manera, al abordar el papel y las funciones de la matematización -formalización- en economía, es inevitable aludir a nociones estadísticas y econométricas. No requiere una sólida formación matemática ni conocimiento acabado de economía aunque las nociones metodológicas estarán vinculadas y ejemplificadas lo más estrechamente posible con nociones del Ámbito de los fenómenos económicos. No supone correlativas, si bien por lo expresado anteriormente se recomienda haber cursado Historia del Pensamiento Económico, de Microeconomía, Macroeconomía entre otros. Conocer los conceptos y los métodos básicos contemporáneos de la filosofía de las ciencias. Examinar las peculiaridades y las distintas alternativas en la construcción del conocimiento de las ciencias económicas Aplicar las herramientas metodológicas incorporadas al análisis y la crítica de las teorías, modelos, conceptos y técnicas del campo profesional. El texto se orienta a desarrollar la capacidad de reflexión crítica y comparativa de los diferentes enfoques teóricos desarrollados principalmente ene el marco de la economía capitalista. El curso enfocará principalmente en el análisis metodológico, tomando en

cuenta el contexto histórico en que surgieron los distintos enfoques con énfasis en aquellos que mayor incidencia han tenido y los que mayor vigencia presentan en el pensamiento socio económico contemporáneo. Inicialmente se planteará la ubicación de la Economía en relación a la Ciencia para posteriormente establecer las diferencias y correspondencia entre Filosofía de la Ciencia, Epistemología y Metodología. A continuación, los aspectos esenciales de cada una de las escuelas epistemol6gicas contemporáneas. Se tomarán en cuenta las escuelas Clásicas: Popper, Kuhn, y Lakatos. Se considerarán algunas interpretaciones alternativas de Popper que surgieron principalmente en la discusión de problemas económicos, la lógica de la situación y el racionalismo crítico. Por último se analizarán dos corrientes contemporáneas no empiristas muy representativas y con aplicaciones al análisis del pensamiento económico: el retoricismo y la hermeneútica. Se discutirán algunos textos originales de los autores más representativos de ellas. Luego se examinará su utilización en economía y las posibilidades de su aplicación sistémica. Posteriormente se abordaran distintos problemas, examinando posiciones históricas cuando todavía ellas sean tenidas en cuenta contemporáneamente, por ejemplo, la distinción economía normativa-positiva. Se seleccionaron los problemas en relación con su importancia para la elucidación de la naturaleza o peculiaridades de la economía respecto a otras disciplinas, o bien para comprender debates actuales importantes desde el punto de vista metodológico. Los textos pertinentes al área de la epistemología de la economía prácticamente no existen en castellano, por lo que se ha recopilado los materiales que muchos estudiosos de distintos países se han realizado. Debemos mencionar que hemos tomado como base el libro EVOLUCIÓN CIENTÍFICA Y METODOLÓGICA DE LA ECONOMÍA: Escuelas de Pensamiento del Doctor en Economía( Dirección y Administración de Empresas)ROBERTO GÓMEZ LÓPEZ Profesor de la UNED de MALAGA (Universidad Nacional de Educación a Distancia)(España), al texto le hemos adicionado lecturas y otros materiales así como algunos trabajos de investigación de las JORNADAS DE EPISTEMOLOGÍA DE LAS CIENCIAS ECONOMICAS la Facultad de Ciencias Económicas Universidad de Buenos Aires (Argentina) que cada año se realizan.

PRINERA UNIDAD: METODOLOGICOS

FUNDAMENTOS

CIENTIFICOS

Y

1.1 EL PROBLEMA DE LA METODOLOGÍA EN ECONOMÍA Germán Sánchez Pérez1

La metodología que se emplee para abordar los problemas tiene implicaciones profundas sobre los resultados obtenidos. En la economía, el positivismo lógico ha sido el método dominante, condicionando las conclusiones obtenidas y las formulaciones de política económica derivadas de éstas. Existen nuevas metodologías de análisis que han superado al positivismo lógico y han hecho avanzar las ciencias en general. Es necesario que los economistas avancen en sus metodologías de análisis y con ello sus resultados y recomendaciones de política económica.

1.1.1. Introducción La idea de reconocidos autores como PRIGOGINE (1986, 1988, 1994, 1996), WALLERSTEIN (2002, 2002-a, 2003, 2003-a), MORIN (1988, 1993, 1994, 1999, 2001), GUYOT (1998, 2000, 2000-a, 2005), entre otros, que las crisis que afronta el mundo en este milenio ponen en discusión los modos de teorización de la realidad y que exigen nuevos criterios para orientar la acción2 , es totalmente válida para la ciencia económica. En este marco, este breve documento se centra en el problema de la metodología dominante de investigación que han utilizado las principales corrientes o escuelas del pensamiento económico, y busca llamar la atención sobre la necesidad de avanzar sobre nuevos métodos de investigación que puedan proporcionar, como lo apunta la profesora Guyot, instrumentos conceptuales y metodológicos superadores de los paradigmas simplificadores de la ciencia moderna y que pueden abrir nuevas posibilidades de conocimiento teórico-práctico operando una reestructuración epistemológica del campo de la economía que, en mi concepto, son muy necesarios. 1.1.2. La metodología en economía Durante siglos, y hasta el renacimiento, dos ideas condicionaron el entendimiento y actuar humanos: primero, el mundo era invariable e imperturbable, creado por un Dios supremo; y, segundo, la idea ptoloméica de que la tierra era el centro del universo (geocentrismo). Esta manera de ver y entender el mundo empieza a cuestionarse con argumentos ciertos (datos y teorías) con los trabajos de COPÉRNICO, GALILEO, NEWTON, quienes demuestran que la tierra no es el centro del universo (heliocentrismo), y se consolidan con los trabajos de pensadores como LAMARCK, DARWIN, BACON, DESCARTES, LOCKE, SMITH, entre otros. Todos estos trabajos hacen avanzar al conocimiento y cambian de forma dramática la forma de entender el mundo y el actuar humano y, por supuesto, el método de enfrentar los problemas o, en otras palabras, la metodología de la ciencia. La idea dominante era que el mundo físico estaba gobernado por leyes únicas e invariables, el universo funcionaba con un orden perfecto, y que tales leyes podían ser descubiertas con el avance de la ciencia. Esta idea, junto con el avance de la física, las matemáticas y la biología 1

Economista, (Colombia). 2006 Actualmente es Director del Centro de Investigaciones de la Facultad de Estudios Estratégicos y Seguridad de la Universidad Militar Nueva Granada, Investigador del CID y Docente de la UNAL. 2

En esta línea, estos autores plantean discutir sobre la pretendida neutralidad valorativa de la ciencia, la objetividad de las teorías, y el valor de verdad del conocimiento, incorporando la dimensión de las prácticas concretas cuyos protagonistas son los sujetos

condujo a que el determinismo lógico se impusiese como metodología dominante de la ciencia. Es en este contexto que a finales del siglo XVIII y principios del XIX surge y evoluciona la economía como ciencia. SMITH, RICARDO, MALTHUS, MILL, MARX, y demás clásicos se ocupan, con motivaciones diferentes, de escudriñar las leyes que gobiernan al sistema económico capitalista. Se podría argumentar que con metodologías diferentes porque algunos autores como SMITH, RICARDO, MALTHUS se preocuparon por entender los fenómenos que observan a través del análisis racional y deducción lógica y otros como MARX y ENGELS utilizan la dialéctica y el materialismo histórico; sin embargo, todos buscan descubrir las leyes que rigen al universo económico, tal como la física se ocupa de descubrir las leyes físicas que rigen al mundo material. Es decir, la economía, como las ciencias duras, aceptaba, y la ortodoxia aún lo acepta, que la economía es un sistema que, al igual que el universo, estaba regido por leyes y que tendía al equilibrio. Por supuesto, hay diferencias fundamentales en el equilibrio al que tiende el sistema capitalista desde la visión de los clásicos y neoclásicos, y los marxistas. Para los primeros, el equilibrio es perpetuador y de lo que hay que preocuparse es de la producción, la distribución, del crecimiento, del desarrollo y la equidad; para los segundos, el sistema es autodestructivo porque crea su propio sepulturero: al obrero. Para comienzos del siglo XX, un grupo de filósofos y científicos (conocidos como el círculo de Viena) inspirados en los avances de la ciencia en los dos siglos anteriores, sustentados en un armazón lógico - matemático que aseguraba la coherencia interna de las teorías, se propuso transformar la filosofía en ciencia, fundando todas sus proposiciones sobre enunciados verificables y coherentes. Nació así el positivismo lógico como método dominante de la ciencia (MORIN, 1988). La economía, como las demás ciencias, no fue ajena a este método de investigación científica. De hecho, la corriente de pensamiento económico que terminó por imponerse a finales del siglo XIX y principios del XX fue la neoclásica, que efectivamente funda, en sus comienzos, todas sus proposiciones sobre enunciados que deben ser verificables y con coherencia matemática. Desde el punto de vista de la evolución metodológica, en la década de los treinta, POPPER argumentó que las pruebas empíricas no establecían la verdad de una teoría, y que esto se daba sólo a través de la refutación de las mismas; y nunca es posible verificar una teoría porque no es posible llevar a cabo todas las pruebas posibles. En este contexto metodológico conocido como falsacionismo o refutacionismo, el objetivo de la ciencia debería ser el desarrollo de teorías que contengan hipótesis empíricamente verificables, descartando las que se puedan falsear. En 1962, KUHN en su libro de la estructura de las revoluciones científicas clasifica a la metodología aparte del positivismo lógico al introducir el concepto de paradigma (LANDRETH y COLANDER, 1998, 12). En el marco de KUHN, la teoría dominante no es necesariamente la mejor, pero la inercia favorece a los paradigmas dominantes. En la década de los setenta, LAKATOS (1978) llama la atención sobre los programas de investigación científica y reconoce que los procesos para refutar teorías son complejos y que pueden existir de manera simultánea diferentes teorías para enfrentar el mismo problema. FEYERABEND (1975 y 1994) en sus obras contra el método, argumenta que la mejor ciencia no se restringe a ningún método, ya que éste limita la creatividad en la resolución de problemas. Inspirados en FEYERABEND, los enfoques sociológicos y retóricos del método cuestionan el concepto platónico de verdad absoluta; enfatizando, el primero, la parte persuasiva del lenguaje para hacer que una teoría pudiera ser o no aceptada independientemente de su verdad inherente y, el segundo, las restricciones sociales e institucionales que influyen en la aceptación o no de una teoría. Desde la evolución de la teoría económica, el fracaso de los neoclásicos para explicar los fenómenos reales y brindar una salida a la crisis del 30 en el siglo XX no llevó a un cambio de

método, por el contrario, éste se estrechó más, profundizando en formulaciones teóricas no verificables pero sí sustentadas en una fuerte modelación matemática. La explicación y salida a la crisis de los años treinta es brindada por KEYNES en su obra la teoría general en 1936, que enfatiza, en contraposición de los neoclásicos, en la demanda efectiva y la intervención del Estado, pero continúa empeñado en descubrir y describir las leyes invariables que gobiernan al universo económico; no en vano la pretensión de KEYNES fue formular una teoría general. Desde entonces, y hasta la fecha, la mayoría de los trabajos en economía utilizan los postulados metodológicos del positivismo lógico, cayendo así en un conjunto de problematizaciones donde.., no habría ciencia filosófica de la realidad, sino investigaciones filosóficas de las teorías lógicas, de las categorías y procedimientos de las ciencias particulares, de sus instrumentos lógicos y lingüísticos. (GUYOT, 2005, 2). De hecho, los avances de la teoría neoclásica cayeron en la década de los sesenta y setenta en formulaciones teóricas con una alta complejidad matemática pero irrelevante, ya que no lograban responder a los problemas económicos concretos que experimentaban las economías. La aproximación a la realidad3 y la comprobación empírica es retomada en los modelos de crecimiento endógeno a partir de los ochenta, volviendo así a los postulados metodológicos del positivismo lógico4. Los avances recientes y más prometedores dentro de la economía superan algunos de los supuestos fundamentales con que se construyó el edificio teórico neoclásico. Aceptar que el mundo (el sistema) es dinámico, complejo y está interrelacionado; que pueden existir múltiples equilibrios; que los rendimientos pueden ser crecientes; que existen diferencias en las tecnologías que emplean las empresas; que la competencia puede ser imperfecta; junto con el avance de la matemática no lineal5 , han permitido aportes importantes al avance de la economía, como los realizado, por ejemplo, por los schumpeterianos6 y la economía industrial7 , lo que muestra claramente los avances que se pueden alcanzar al superar la metodología que tradicionalmente ha dominado en la economía. 1.1.3. El problema de la metodología dominante Desde el punto de vista epistemológico, MORIN (1998, 23) señala que el sueño del Círculo de Viena de encontrar los fundamentos absolutos del conocimiento se hundió con el descubrimiento de la ausencia de tales fundamentos: .., ni la verificación empírica ni la verificación lógica son suficientes para establecer un fundamento cierto del conocimiento.. De esta forma, el positivismo lógico queda desvirtuado como .el método. de análisis que conduce a la verdad absoluta. Y nos encontramos así en el logro de la modernidad, pues según MORIN (1998, pp. 24 y 25) .el descubrimiento de que no existe ningún fundamento cierto para el conocimiento y que éste contiene sombras, zonas ciegas, agujeros negros.. La superación del positivismo lógico como método de análisis dominante y el reconocimiento, aceptado en la mayoría de las ciencias, de la crisis contemporánea de la ciencia y su 3

En el sentido que, a diferencia de los modelos neoclásicos de crecimiento exógeno, en los modelos de crecimiento endógeno la tasa de crecimiento a largo plazo puede ser positiva sin necesidad de suponer el crecimiento exógeno de alguna de las variables del modelo. 4

Aquí hay que anotar, sin embargo, que dentro de la línea de los modelos de crecimiento endógeno neoclásicos algunos introducen los rendimientos crecientes a través de las externalidades o capital humano (ver, por ejemplo, ROMER (1986), LUCAS (1988), REBELO (1991), BARRO (1991)), y otros utilizan la competencia imperfecta para permitir que la investigación y el desarrollo (I&D) genere progreso tecnológico de manera endógena (ver, por ejemplo, ROMER (1987, 1990), GROSSMAN y HELPMAN (1991)). 5 Como por ejemplo, la teoría de juegos dinámicos, economía de redes, entre otras. 6 Buenos ejemplos de estos son Nelson, Winter, Metcalfe, Ahgion, Howitt, entre otros. 7 Un buen ejemplo son los trabajos de J. TIROLE.

metodología no parece haber sido percibida por la mayoría de los científicos de la ciencia económica. La mayoría de la producción en todas sus vertientes tanto neoclásica, keynesiana, marxista. parecen haberse quedado en el positivismo lógico: fundar todas sus proposiciones sobre enunciados verificables y con una gran coherencia matemática. El no reconocer, consciente o inconcientemente, por un gran número de economistas, que la metodología con que abordamos los problemas tiene implicaciones profundas sobre los resultados que se obtienen y que esta dinámica ha adquirido diferentes interpretaciones en el tiempo, ha limitado el avance de la economía y sus consecuentes aportes al progreso de la humanidad. Es urgente, entonces, tomar conciencia sobre el tema, siguiendo a MORIN (1988): (i) la necesidad de reconocer la crisis de la ciencia en general, y de la economía en particular, y de su método, que nos ha llevado ha organizar de manera errada nuestro saber en sistemas de ideas (teorías, ideologías), incapaz de reconocer la complejidad de lo real; (ii) hay una nueva ignorancia ligada al desarrollo mismo de la ciencia; (iii) hay una nueva ceguera ligada al uso degradado de la razón; y, (iv) las amenazas más graves que enfrenta la humanidad están ligadas al progreso ciego e incontrolado del conocimiento, por ejemplo en armas termonucleares, manipulaciones de todo orden, desarreglos ecológicos, etc. 1.1.4. Conclusiones La forma o la metodología de investigación con que enfrentamos o abordamos los problemas tienen implicaciones profundas sobre los resultados que se obtienen. A su vez, la metodología para abordar los problemas es dinámica y ha adquirido diferentes interpretaciones en el tiempo; interpretaciones que han obedecido a características particulares del momento histórico y evolución del conocimiento mismo. En este contexto, la metodología de investigación que se emplee crea un problemática fundamental a la que no existe ciencia alguna que haya escapado y vaya a escapar. En economía este es un problema central que no ha recibido, en mi concepto, la atención suficiente. Las principales corrientes del pensamiento económico continúan utilizando metodologías de investigación que ya han sido superadas o revaluadas; sin embargo, las recomendaciones de política económica derivado de las escuelas dominantes en el mundo continúan aplicándose sin que se discuta la metodología empleada por dichas escuelas y sus consecuentes implicaciones. Los economistas debemos ser conscientes de los problemas de emplear una u otra metodología de investigación, debemos conocer y abrir nuestras mentes a las nuevas opciones metodológicas si queremos hacer avanzar la ciencia económica y contribuir con el bienestar de la humanidad, debemos entonces reconocer la complejidad del mundo, de la ciencia, del avance del conocimiento, y que somos creadores de conocimiento pero al mismo tiempo victimas de éste.

1.2 PROCESO DEL CONOCIMIENTO: RELACIÓN ENTRE EL SUJETO Y EL OBJETO Gabriel Gutierrez Pantoja – México (2005) En el decurso histórico del ser humano, las condiciones de su existencia le han llevado a buscar la forma más adecuada de explicarse el medio que lo rodea, sean las manifestaciones de la naturaleza en general o del fenómeno social en particular, y en cada una de esas reflexiones se encuentra siempre con la limitante de tener que conformarse con entender una parte del complejo universo en el que se encuentra inmerso. No obstante, el universo es uno, y los distintos elementos que lo componen están interrelacionados entre sí, pero para un ser humano cuya capacidad sensitiva se reduce a la experiencia de sus vivencias y al conocimiento adquirido mediante la relación con otros seres humanos, el captar en conjunto toda esa complejidad le resulta imposible, por tanto cada individuo, y cada grupo social, busca el método adecuado que le permita comprender el medio que le rodea y el cual constituye su objeto de conocimiento. Así, en un proceso acumulativo de experiencias, reflexiones, propuestas y resultados o conclusiones, la sociedad ha logrado conjuntar principios sistemáticos que permiten entender la naturaleza mineral, vegetal y animal, cada una con sus características que las diferencian, pero asimismo con los puntos de enlace que crean una realidad integrada, y además ha logrado cimentar formas adecuadas de razonamiento para su autoentendimiento. En suma, los momentos reflexivos de distintos sujetos, en el devenir histórico, han creado las bases metodológicas que le permiten al ser humano entender su medio ambiente y entenderse como sujeto individual y social; bases metodológicas que históricamente deben exponerse, repetirse, adecuarse y volverse a reproducir ya que mediante ellas, los sujetos de las distintas épocas, encuentran la respuesta a su ignorancia y a su deseo de superarla. Por tanto, la metodología no es una receta cuya mezcla de ingredientes nos dé un resultado previsto, sino que es la forma en que cada sujeto entiende la compleja realidad en la que la unión de todos los elementos tienen que separarse de acuerdo a nuestro interés para conocer cada uno de ellos y nuestras posibilidades de reunir esa diversidad. Por consiguiente, sólo se puede entender la metodología si se entiende la forma en que históricamente se ha conocido, razonado, reflexionado y enseñado ese proceso para ilustrar cómo en cada sitio geográfico y bajo determinadas condiciones, los sujetos exponen la forma de entender la realidad que los circunda. Ello nos indica que en cada tiempo y en cada espacio las opciones metodológicas son distintas como lo son las condiciones en las que se desarrolla cada individuo y cada grupo social. Debido a ello podemos ver que hay diversas coincidencias entre los planteamientos metodológicos para entender la realidad, pero ello no establece que se deba tener un modelo unívoco para el conocimiento. El conocimiento es la forma por la que el ser humano adecua las condiciones para vivir de manera consecuente con el medio que le rodea. A través del conocimiento el ser humano logra entender, convivir y, en algunas ocasiones, dominar a la naturaleza. Es el conocimiento el que, en la mayor parte de los casos, da respuesta a las interrogantes que le planteaban una serie de fenómenos al ser humano, que en distintos momentos rebasaron su capacidad comprensiva. Si para los primeros habitantes del planeta el sol, la lluvia, el fuego, eran objetos inexplicables, para el habitante del agonizante siglo XX y del venidero siglo XXI, existen aún muchas incógnitas: cómo curar el cáncer, cómo canalizar adecuadamente la agresividad humana, y cómo conquistar el universo.

Esas incógnitas, al igual que las que se planteaba el hombre primitivo podrán ser resueltas en la medida que el ser humano aproveche los conocimientos adquiridos y extienda su interés por canalizar sus experiencias a la solución de sus limitantes actuales. Por tanto, el conocimiento es básico en la existencia de la humanidad y su aprovechamiento depende, en gran medida, de la superación de las etapas históricas del mismo. Ahora, si el conocimiento ha sido una de las partes importantes de la actividad humana, cabría preguntarse ¿cómo podemos conceptualizar al conocimiento? De manera aproximativa podemos decir que el conocimiento es un proceso, inicialmente individual y secuencialmente social que inicia genéricamente desde el nacimiento biológico de los humanos y concluye con su fenecimiento. Como se mencionó anteriormente, siempre es necesario retornar a lo ya expuesto, para que por medio de este breve y sistemático retorno se sustenten los avances deseados; por ello, haremos una sintética exposición de las principales ideas acerca de cómo se debe conocer, o dicho en otras palabras, en qué consiste, de acuerdo con las propuestas de algunos pensadores, el proceso del conocimiento. Pero así como el conocimiento es la base para la reflexión, el conocimiento ha sido también objeto de reflexión para poder explicar sus orígenes, su esencia, su función y sus posibilidades; y esa reflexión lleva a proponer teorías sobre el conocimiento. Mucho se habla de la teoría del conocimiento, y tal expresión es tan vaga para los legos que su utilización se oye interesante pero que en realidad no dice nada. La pregunta que inicialmente surgiría es: ¿existe una sola forma de conocer?, y por tanto, ¿qué es el conocimiento?; ¿hay una sola explicación sobre la forma de conocer?; ¿que es la teoría del conocimiento? A estas preguntas se ha dado una multiplicidad de respuestas a través de la historia, pero todas ellas se pueden reducir a una propuesta sintética. El conocimiento es una habilidad preponderantemente humana en la que se relaciona un sujeto que conoce con un objeto por conocer. En cuanto a las formas y elementos que nos permiten conocer, de manera inicial podemos enunciar que: son los sentidos del ser humano, cada uno por su medio y relacionados en algunas ocasiones con el instinto y de manera indisoluble con la razón, los que perciben las características de los objetos de conocimiento. Esta idea tan simple encierra una gran cantidad de interpretaciones que nos trasladan del conocimiento, como expresión de una habilidad humana, al proceso de conocimiento como una conjugación de funciones, experiencias, capacidades, intenciones e intereses de los seres humanos. TEORÍA DEL CONOCIMIENTO Las formas de conocer trascienden el límite específico de la relación entre el sujeto y el objeto, y nos llevan al terreno de la reflexión filosófica en la que se buscan las respuestas al proceso, cuyos resultados permiten construir enunciados explicativos de cómo lograr el conocimiento o dicho de otra manera la proposición teórica sobre el proceso de conocimiento, lo que se conoce como "teoría del conocimiento". La teoría del conocimiento es el resultado de las investigaciones acerca de la relación que existe entre el sujeto y el objeto, es el estudio sobre la posibilidad, elorigen y la esencia del conocimiento, es la identificación de los elementos interactuantes en el proceso del conocimiento. Es el entendimiento del desarrollo histórico del pensamiento. Existen varias propuestas de cómo lograr el conocimiento derivadas de lo dicho. Ante ellas se propuso el concepto de teoría del conocimiento, en el cual se pudieran conjugar las distintas opciones y corrientes que se han propuesto. La primera aparición del concepto se encuentra en el siglo pasado, y es Ernst Reinhold quien habla en 1832 de Theorie der Erkenntnis (teoría del conocimiento). Posteriormente, en 1862, el

historiador de la filosofía Eduard Zeller utiliza la misma expresión para ilustrar los distintos procesos del conocimiento a través de las ideas de los filósofos que tratan el tema.8 Si bien, el término se ha hecho de uso común en los cursos de habla hispana, su utilización no ha sido universalmente aceptada pues, salvo en alemán que se expresa comúnmente Erkenntnistheorie cuyo significado literal es "teoría del conocimiento", en inglés se utiliza la forma común Epistemology, concepto cuya raíz griega significa tratado de la ciencia (episteme = ciencia; logos = tratado). Este concepto fue introducido por J. F. Ferrier en 1854 en su texto Institutes of metaphisics. Wolfiano Baumgarten introdujo al idioma alemán la palabra gnoselogie, que proviene de las raíces griegas tratado del conocimiento (gnosis = conocimiento; logos = tratado, doctrina); pero su éxito fue limitado en ese idioma. No obstante recibió una aceptación más amplia en francés, donde se utiliza como sinónimo de teoría del conocimiento. En el idioma español se encuentra el uso de los tres términos sin distinción alguna, se utiliza tanto teoría del conocimiento como gnoseología y epistemología. En gran medida, la utilización de cada uno depende del idioma del que se traduce algún texto que contenga el concepto, o de las referencias filosóficas que se usen para elaborar textos en español sobre ese tema. Esta serie de connotaciones semánticas diversas, con que se designa a una misma actividad la cual pretende: el saber, qué es, cómo se produce y cuál es la posibilidad de lograr esa producción del conocimiento, se exponen con la intención de que cuando se encuentre algunos de estos conceptos en algún escrito se conozca su origen y significado inicial, y se evite la confusión derivada de su uso indistinto. En nuestro texto utilizaremos como concepto básico el de teoría del conocimiento. Independientemente del concepto que se utilice en diversos escritos y del sentido que se le quiera dar a cada uno de ellos, es comúnmente aceptado que el objetivo de la teoría del conocimiento es hacer una exposición de los problemas que suscitan la relación entre un sujeto y un objeto, en la acción cognitiva o de conocimiento para el primero, ya sea de manera consciente o no. PROBLEMAS PARA EL ESTUDIO DEL CONOCIMIENTO Orígenes del conocimiento Veamos cuáles son los problemas que se han planteado sobre el origen del conocimiento, que es uno de los puntos de la teoría del conocimiento que se ha prestado a una gran controversia entre diversos pensadores, y de la que se han derivado múltiples corrientes; a saber: el racionalismo, el empirismo, el intelectualismo y el apriorismo. Racionalismo. En esta perspectiva se sostiene que el conocimiento tiene su origen en el pensamiento, fuente verdadera y base fundamental del conocimiento humano. Si hay pensamiento, esto se debe a la existencia de objetos que promueven el conocimiento, pero éstos son sólo un medio, por tanto, el conocimiento real es originado por el pensamiento, y lo real es cuando una cosa se acepta tal como es y no de otra manera; si se acepta ese principio, los juicios cubren su necesidad lógica y su validez es universal. El pensamiento es el origen del conocimiento, pero el pensamiento es una acción del sujeto que le viene del exterior por medio de la iluminación divina; por ello, en resumen el pensamiento es la gracia que da la divinidad para que el ser humano, por medio de los sentidos y la razón, pueda conocer. Esta es la postura del racionalismo. Empirismo. La corriente empirista sostiene que la única causa que da origen al conocimiento es la experiencia, entendida como la relación que tiene el individuo con lo que le rodea, pues el pensamiento es inicialmente una hoja en blanco, desprovista de todo conocimiento, sobre la cual 8

Cfr. KROPP, Gerhard, Teoría del conocimiento, t.1, UTEHA, México, 1961.

escribe la experiencia. El empirismo se va forjando en hechos concretos que promueven un proceso formado por la experiencia externa (la sensación) y la experiencia interna (la reflexión). La percepción sensorial de los objetos inicia el proceso de conocimiento y la reflexión sobre lo captado es lo que lo consolida. Intelectualismo. Esta corriente parte del principio de que la razón y la experiencia son fuente del conocimiento en forma conjunta, pero su entendimiento es todo un proceso en el que primeramente se reciben imágenes sensibles de las cosas concretas, la razón activa, como entendimiento, separa lo esencial del complejo percibido. El entendimiento potencial recibe del razonamiento activo lo esencial y sobre ello formula sus juicios. Con ellos se forman los conceptos básicos, de los cuales se parte para hacer una serie de operaciones en el entendimiento potencial que sirven para formular los conceptos más generales con los que se pondrá la base para la formulación de las leyes lógicas del pensamiento. Apriorismo. En ella se sostiene que tanto la razón como la experiencia son las que promueven el origen del conocimiento, por lo que se puede encontrar una relación entre el racionalismo y el empirismo. Su punto de partida consiste en que siempre hay un a priori cuyos elementos son independientes de la experiencia, pero son inherentes a la razón, por lo que en la razón se encuentra la base del conocimiento aún antes que en la experiencia. El apriorismo se diferencia del intelectualismo en la medida que establece la división entre razón y experiencia en un sentido radicalmente opuesto, inverso; es decir, no se requiere que haya una experiencia, una relación sensorial con un objeto, para que se origine el conocimiento, éste puede derivarse de la actividad pura de la razón. Esas diversas proposiciones que pretenden explicar el origen del conocimiento tiene cada una su fundamento en las reflexiones de una multiplicidad de pensadores, como veremos más adelante, lo que nos indica que éstas son solamente algunas referencias que nos ayudan a identificar las opciones para entender el origen del conocimiento de conformidad con la posición que tengamos frente al proceso. Posibilidad del conocimiento Veamos ahora algunas de las ideas sobre la posibilidad del conocimiento. Acerca de ello han surgido diversas propuestas que indican cuál es la forma en que se presenta el conocimiento, en un momento en el cual aún no hay interacción entre las partes integrantes del proceso, es decir, entre el sujeto y el objeto. Una de las propuestas es la del dogmatismo (dogma, doctrina fija), que parte de la idea de que existe en los sujetos, una capacidad absoluta por conocer, por tanto todos los objetos pueden ser conocidos. La capacidad del conocimiento descansa en la razón humana, ya que los objetos pasan al sujeto directamente sin que haya mediación de ningún tipo. Entonces, el conocimiento es inmediatamente posible. Otra propuesta es la del escepticismo, que se opone a la propuesta dogmática, ya que afirma que es imposible que el sujeto aprenda el objeto de conocimiento, pues lo que piensa del objeto difícilmente es reflejo de lo que percibe de dicho objeto, y ante ello debe evitarse cualquier tipo de juicio que dé una visión falsa de ese objeto. Por tanto, exige la justificación de la capacidad cognoscitiva del sujeto; es decir, que el sujeto afirme su conocimiento con una verificación del mismo. Hay también una tercera posición, la cual es conocida como criticismo. Esta corriente admite la confianza en la razón humana, pero no en forma indiscriminada y absoluta como el dogmatismo, sino que examina cada una de las aseveraciones de la razón para así determinar si es posible que se logre el conocimiento; el proceder de la propuesta indica que siempre se actúe de una manera reflexiva y crítica ante el conocimiento.9

9

HESSEN, Johan, Teoría del conocimiento, Editores Mexicanos Unidos, México, 1981.

De estas tres alternativas, el escepticismo es la que históricamente ha tenido una variedad de adeptos más amplia, de entre quienes han hecho diversas interpretaciones de las posibilidades del conocimiento. Inicialmente se identifica un escepticismo antiguo en el que la lógica del razonamiento hace que se dude absolutamente de lo que se cree conocido, y ante la incertidumbre de la posibilidad del conocimiento se recomienda mantenerse en silencio. Esta aseveración sostiene la imposibilidad de todo conocimiento y, por tanto, se le ha calificado como escepticismo lógico. Otra forma de escepticismo es conocida como escepticismo medio o escepticismo académico, el cual afirma que se puede tener un conocimiento, pero no un conocimiento exacto de lo que se nos presenta, pues nuestros juicios pueden no tener una concordancia con la realidad. Debido a eso, no se puede afirmar que una proposición es verdadera, pero sí que puede ser verdadera, que existe probabilidad de certeza, aunque no la certeza absoluta. A esta forma de escepticismo se le conoce como escepticismo metafísico o positivismo. En el positivismo se afirma que el conocimiento debe sujetarse sólo a lo que se percibe positivamente, a los hechos inmediatos que se adquieren por la experiencia, y la experiencia supone que lo probable se aproxima a lo verdadero. Existe también un escepticismo de los valores tanto morales o éticos como religiosos. El escepticismo de los valores morales niega que se puede conocer la moralidad o la moral, ya que estas son actitudes subjetivas que se diluyen en la sociedad. El escepticismo de los valores religiosos determina la imposibilidad de conocer lo absoluto, lo superior al ser humano, y por ello, el humano es imperfecto, y en su imperfección está limitado su conocimiento de lo religioso. Otra forma del escepticismo es el relativismo subjetivo que conjunta dos concepciones sobre el conocimiento; al subjetivismo y al relativismo. Ambas sostienen que sí existe la verdad, pero su validez es limitada, pues no hay verdad que sea universalmente válida. El subjetivismo considera que la verdad del conocimiento se encuentra en el sujeto que conoce y juzga, por lo que el conocimiento carece de validez objetiva. El relativismo sostiene que todo es relativo, y por ello la posibilidad de conocimiento también es relativa. La diferencia entre ambas radica en que mientras para la primera el sujeto es el que determina el conocimiento, para la segunda, son factores del medio ambiente los que limitan al sujeto en su posibilidad de conocer. Finalmente, otras de las tendencias principales del escepticismo son el pragmatismo y el ficcionalismo. El pragmatismo niega la posibilidad del conocimiento por la concordancia entre el sujeto y el objeto, ya que sostiene que el ser humano no es un ser dedicado a la especulación y al pensamiento, sino que es un ser eminentemente volitivo y práctico, por tanto, aplica su conocimiento al servicio de su voluntad y de la acción derivada de ella. El ficcionalismo tiene una relación con el pragmatismo en la medida que asume el conocimiento como instrumento para el dominio de la realidad, pero como la ficción es una suposición conscientemente falsa, el conocimiento no es posible ya que la realidad se construye como una ficción en la mente del sujeto. Sobre la posibilidad del conocimiento, podemos resumir las corrientes en el esquema del Cuadro 1.1. Estas han sido las propuestas clásicas que se han difundido sobre el origen y la posibilidad del conocimiento, las cuales han tenido y tienen un valor y una relevancia para distintas características y momentos de conocimiento de los seres humanos, por lo que es necesario identificar si éstos coinciden, y de que manera, con nuestra forma de conocer. Finalmente la esencia del conocimiento se ha convertido en el centro de interminables discusiones. La esencia del conocimiento es un tema que promueve la polémica, que incita a la toma de partido, que alienta nuevas propuestas y sugiere la forma de sustentar cosmovisiones sobre los procesos cognoscitivos. Las discusiones sobre la esencia del conocimiento han tenido una bifurcación radical en direcciones que en algunos momentos aparecen como irreductibles: las propuestas subjetivistas y las objetivistas, que también se identifican como idealismo y

materialismo. Ambas posiciones han logrado crear toda una fundamentación filosófica que orienta las formas de pensamiento, reflexión, posición política y acción social. CUADRO N° 1.1 Posibilidades del conocimiento

Lógico: no puede conocer Dogmatismo: capacidad absoluta de conocer

Escepticismo: negación de la adquisición del conocimiento

Metafísico ó positivista: el conocimiento es limitado Ético o moral: lo moral es incognoscible

De valores

Religioso: lo absoluto es incognoscible

Relativismo y subjetivismo: el conocimiento es relativo y subjetivo, por tanto incompleto. Criticismo: se logra el conocimiento si se sigue un procedimiento reflexivo y crítico

Pragmatismo y ficcionalismo: el conocimiento es práctico por tanto limitado.

1.3 LA PRODUCCIÓN DE LOS CONCEPTOS CIENTÍFICOS Diaz, esther La producción de los conceptos científicos – buenos aires – Ed. - 1994 – pág. 13 y subsiguientes

Biblos

La constitución de la razon En un maravilloso lugar del mundo. hace veintisiete siglos. hubo un grupo de hombres que inventaron el pensamiento racional. Fue el momento fundacional de la ciencia de Occidente. Los griegos. a partir del siglo VI a. C., comenzaron a explicar la realidad de manera racional. No siempre fue así. Antes sus explicaciones eran míticas. Las fuerzas de la naturaleza estaban divinizadas. Pero esas fuerzas dejaron de pertenecer a lo sagrado. La razón naciente. el todos griego. podía dar cuenta de la realidad. Es decir, podía conocerla. Desde entonces. un discurso será considerado conocimiento si responde. fundamentalmente. a los siguientes parámetros : • Las proposiciones no deben ser contradictorias entre sí. Tienen que acordar con los principios lógicos. • Las afirmaciones deben derivarse lógicamente de proposiciones consistentes. o deben estar avaladas por la experiencia. • Los enunciados deben referirse a entes empíricos o teóricos, no a entes ficticios. Entes empíricos son aquellos que se captan por medio de los sentidos, tales como una piedra, una gota de agua, un terrón de azúcar. Entes teóricos son los que no se pueden percibir. al menos por el momento, pero que sirven como principios explicativos o que se infieren de un sistema de conocimiento. Por ejemplo el flogisto, los quarks, los agujeros negros. Los entes ficticios son objetos de la imaginación y no se articulan en ninguna teoría explicativa con contenido empírico. En este nivel se encuentran los fantasmas, los ángeles y los centauros. Las precisiones anteriores resultan tan «lógicas» que cuesta creer que alguna vez no se tuvieran en cuenta para determinar el conocimiento. Sin embargo el pensamiento mítico no las tenía en cuenta. Admitía la posibilidad de las contradicciones. Creía honestamente no sólo que los dioses existen. sino también que pueden adquirir distintas identidades. Consideraba que la naturaleza emite mensajes que las pitonisas pueden descifrar. y que las almas de los muertos no sepultados deambulan sin encontrar descanso. Además, para una cultura mítica, las afirmaciones no necesariamente deben derivarse lógicamente de otras proposiciones o de la experiencia. Prueba de ello es que se podía llegar a considerar algo verdadero porque lo aseveraba un mago o un poeta. No se exigía corroboración con la experiencia. ni derivaciones que nosotros llamamos «lógicas». El ser humano vivió muchos siglos sin pensamiento racional. También vivió muchos siglos sin ciencia. Pero las explicaciones filosóficas y científicas. es decir racionales. resultaron tan eficientes, que se terminó creyendo que la razón había existido siempre. Se olvidó así que, en realidad, el acaecer del logos es un acontecimiento histórico. La razón, tal como la entendía el griego clásico, se autoproclamó universal, y pretendió conocer lo trascendente. Platón, por ejemplo, afirmaba que las ideas -que residen en un mundo propioson más reales que las cosas de este mundo sensible. Pero esta razón. que se consideraba tan eficaz, como para conocer la esencia de las cosas. tenía una actitud de respeto hacia la naturaleza, hacia la Phycis. La naturaleza vibra con ritmo propio. Posee una temporalidad que no conviene alterar. La physis, entonces, debe ser contemplada. admirada, incluso conocida. pero no violada.

Otra característica de la razón griega es su plenitud. La razón forma parte del cosmos, y se armoniza con los valores éticos. El sabio, además de conocer las cosas de este mundo, debe ser bueno. Mejor dicho, el sabio es justo por definición. Sólo es malo el ignorante. Si alguien es sabio, necesariamente es justo, inevitablemente es bueno. Posee, por lo tanto, un alma bella y valora, asimismo, la belleza de los cuerpos. Lo bello es propio de la estética, pero se hace extensivo a la noción de sabiduría. La belleza es armonía y nada puede ser más armónico que un alma que ama la verdad. y que reside en un cuerpo que se esfuerza por lograr el equilibrio de las formas. En consecuencia. sabio. bueno y bello son conceptos que se corresponden. Dichos conceptos coinciden en la búsqueda de la verdad. La Edad Media, por su parte, también produjo una razón propia. La razón medieval siguió manteniendo -como en la antigüedad- la capacidad de no emitir juicios contradictorios en sí mismos. Accedió también a cierto tipo de investigación empírica. No. por cierto. al estilo de lo que. más adelante. será la investigación científica. Pero buscaba respuestas en la naturaleza. Analizaba lo animado y lo inanimado. En su vertiente puramente teórica, la razón medieval producía ejercicios lógicos. Los aplicaba a los textos de los pocos autores paganos permitidos. Y se nutría fundamentalmente de las Sagradas Escrituras. La razón de los siglos medios también asimilaba justicia y verdad. Si alguien se pretendía sabio sin cumplir con la ética vigente. podía pasarlo realmente mal. Además. los conceptos de justicia y de bien seguían asociados al de armonía, esto es. al de belleza. Aunque en este caso se valoraba sólo la belleza del alma, no la del cuerpo. La razón medieval también podía captar la esencia de las cosas. Pero solamente de aquellas reveladas por la palabra divina. Se trataba de una razón vasalla. Estaba subordinada a la fe. Existen verdades de fe que la razón no entiende. En consecuencia. la fe es superior a la razón. La razón, que en la Grecia clásica había nacido soberana. pasó en el medioevo a ser ayuda de cámara de la fe. Un conocimiento determinado. -al que se había llegado de manera racional, se aceptaba si no se oponía a una verdad de fe. Galileo debió enfrentar a sus adversarios teóricos. Ellos decían que la teoría heliocéntrica era falsa porque contradecía lo que dice la Biblia. Galileo ya era moderno: algunos de sus contemporáneos permanecían medievales. En la modernidad. nuevas relaciones de poder y nuevas formas de vínculos humanos abrieron la posibilidad de un saber diferente. El saber moderno difiere del medieval. Se articula otro tipo de razón. Primero había sido el logos griego, integrador. Luego fue la razón medieval. sierva de la fe. Finalmente se constituye la ratio moderna como razón científico-técnica. Esta nueva razón sólo admite verdades claras y distintas. Las verdades ya no son dogmas que hay que aceptar, son evidencias que se deben buscar. Para acceder a dichas verdades se necesita método, no fe. El método, con total conciencia de serlo, es un invento moderno. Esta razón, acotada a lo que -en poco tiempo más- será el conocimiento científico, se divorcia de la ética y de la estética. El científico no necesita hacerse planteos morales respecto de¡ conocimiento puro. es decir, de la investigación básica. Por lo demás. lo estético, al igual que la fe, son temas que no le conciernen en tanto científico. En la conformación griega, la razón había respetado la naturaleza. En su acaecer medieval. respetaba la fe. En su versión moderna, es la razón la que debe ser respetada. La razón científica se constituye así en razón absoluta. Pasa a ser fuente y paradigma del conocimiento en general. No sólo del científico. Se pretende que el modelo de razón por excelencia sea la razón científica.

De este modo. puede verse como no sólo el conocimiento de los fenómenos naturales se organiza de acuerdo a la razón científica, sino también la política. la sociedad y la economía. Todo debe ser pensado a partir de un paradigma racional que se maneja con cierta noción de orden y de eficiencia. La sociedad ya no se legitimará por los valores éticos tradicionales. sino por una racionalidad que se pretende progresiva. En poco tiempo. las nociones de orden y progreso tomaron el lugar que antaño habían ocupado los valores morales, políticos y religiosos. No porque desaparecieran dichos valores, sino porque deberán replegarse en sí mismos. El accionar social se legitima por la eficiencia y la productividad. La modernidad se despide de los dioses. Separa tajantemente conocimiento y moral. Para conocer no es indispensable ser justo. El conocimiento objetivo no tiene nada que ver con la ética: vale por sí mismo. El primer paso para recomponer la noción de razón fue separarla del cosmos. Desde la modernidad. la razón reside solamente en el hombre. Luego, en tanto produce conocimiento científico. se la separó de la ética y de la estética. No porque no se necesite la razón para determinar lo moral. Ni porque se pueda excluir lo racional del goce estético. Sino porque la razón científica es objetiva. Podemos no ponernos de acuerdo sobre la belleza de una obra de arte. También podemos disentir sobre la justicia de una acción. Pero los modernos creían que no se pueden discutir las verdades físicas y matemáticas. El segundo paso para la conformación de esta razón soberana fue dotarla de instrumentalidad. Esta nueva razón científica. por un lado conoce y por otro domina. A partir de ello, el conocimiento racional se tomará instrumental. El conocimiento científico moderno se constituye en herramienta, en instrumento para manipular lo que conoce. Sólo si conozco las leyes de la naturaleza puedo dominarla. Puedo obligarla a que me obedezca. También puedo dominar ciertos aspectos humanos. Pues el hombre, por un lado, forma parte de la naturaleza y, por otro, forma parte de una cultura que también es estudiada por la ciencia. La ciencia se aplica a la realidad. se transforma en tecnología. De este modo se construirán artefactos que le arrancan sus secretos a la naturaleza, se inventarán remedios poderosos para casi todas las enfermedades, se aumentará ostensiblemente el bienestar. También se construirán armas mortíferas, se producirán desequilibrios ecológicos. se marginará gente que no responde a los cánones considerados «normales» científicamente. He aquí la grandeza y la limitación de cualquier empresa humana. También de la tecnocientífica. Resumiendo, entonces, se puede decir -a grandes rasgos- que la razón occidental ha respondido a tres configuraciones diferentes: • Desde el siglo VI a. C. hasta el siglo V de nuestra era, razón como logos. Responde a los principios lógicos, es universal y. si se cumplen los requisitos necesarios, puede llegara captar esencias. Respeta la naturaleza. • Desde el siglo V al XVI, razón dependiente de la fe. Siguen vigentes las características generales de la razón griega. pero en relación con la revelación divina. la razón se subordina al dogma religioso. • Desde el siglo XVI, razón como ratio. El conocimiento se separa de la fe, de la moral y de la estética. La razón sigue siendo necesaria. universal y no contradictoria. pero deviene instrumental. Todo debe subordinarse a ella, incluso la naturaleza. Ciencia y Ciencias La palabra «ciencia» reviste varios sentidos. Pero hay dos que son fundamentales. Uno de ellos es genérico. Se refiere al conocimiento que una época considera sólido. fundamentado y

avalado por instituciones. En este sentido se puede hablar de ciencia antigua y medieval. También con este significado se te decía «ciencia» a la filosofía, aunque la filosofía no es una ciencia. Otro sentido de la palabra «ciencia» refiere a un conocimiento específico y acotado que ha surgido en Occidente a partir de la modernidad. Desde este punto de vista. la ciencia existe desde el siglo XVI. El modelo científico por excelencia, en un primer momento, fue el fisicomatemático. Para fin del siglo XVIII otras disciplinas. como la química y la biología, lograron su propio espacio científico. Surgieron asimismo las ciencias sociales. Actualmente solemos clasificar las ciencias en formales y tácticas. Una de las características de las ciencias formales es que sus proposiciones no otorgan información acerca de la realidad. Son analíticas. Esto quiere decir que su valor de verdad se determina por el simple análisis de los componentes de sus proposiciones. Dicho valor es lógicamente necesario (forzoso, obligatorio). También es formal. sin contenido. La matemáticas la lógica son ciencias formales. No remiten a ninguna realidad empírica. Ciencias fácticas son aquellas cuyas proposiciones informan sobre la realidad. Se refieren a hechos. Son sintéticas. Esto quiere decir que otorgan una información sobre algo que reside más allá de ellas mismas. En consecuencia. para determinar su valor de verdad se debe acudir a la experiencia. Estas proposiciones son contingentes (lo contrario de necesarias) y revisten contenido. Es decir, significado. Las ciencias fácticas. teniendo en cuenta su objeto de estudio. se pueden agrupar en naturales y sociales. El objeto de estudio de las ciencias naturales es lo dado, los fen¿>menos naturales. El objeto de estudio de las ciencias sociales es el hombre individual o en su relación con la sociedad. La física. la química y la biología pertenecen a las ciencias naturales. La sociología. la psicología y la antropología son algunas de las sociales. Las ciencias formales comenzaron a constituirse en la antigüedad. En esa época se originó también una ciencia social: la historia. Son las únicas excepciones. Por lo demás. se puede afirmar que las ciencias, en sentido estricto. surgen en la modernidad. Obviamente. con anterioridad a la modernidad, ha habido prácticas que luego devinieron ciencia. Pero no eran ciencias. No es lo mismo la práctica del derecho. cuya historia se remonta al origen de las sociedades, que las ciencias jurídicas que tematizan el derecho. No es lo mismo la práctica de la alquimia, que se preocupa por los elementos naturales, que la química. que estudia científicamente esos mismos elementos. Ambos ejemplos. en tanto ciencia. se consolidan recién a fin del siglo XVIII.

El en sí y la irrupción histórica de los conceptos científicos En vista de la irrupción histórica de las ciencias podemos afirmar que los conceptos científicos también son históricos. Hasta el siglo pasado se creía que no era así. Se creía, por ejemplo, que la ley de la gravedad, tal como la había formulado Newton, representaba una verdad necesaria en sí misma. Kant, al final de la Crítica de la razón pura, dice que ha fundamentado teóricamente un conocimiento definitivo. Intentó fundamentar desde la filosofía el conocimiento de la ciencia fisico-matemática. En el siglo XVIII, se estimaba que la lógica y la geometría eran conocimientos concluyentes. No obstante, hoy proliferan distintos tipos de lógicas. Además. las geometrías no euclidianas han dado jaque a algunos conceptos fundamentales de las ciencias formales.

Pero marcar el carácter histórico -y por lo tanto cambiante- de los conceptos científicos, no implica negar su eficacia y su racionalidad. Los conceptos científicos «en sí mismos» constituyen conocimiento sólido. Pero ese «en sí» no es independiente del proceso histórico. Se ensambla en dicho proceso. Surge de él. Se impone una aclaración. 'Concepto', en sentido estricto. es el significado de un término. Se puede decir también que es su definición. Por ejemplo. se puede definir 'aula' como «un recinto en el que se realizan actividades educativas». En tanto término, el concepto se puede expresar con una o con más palabras. en nuestro ejemplo podría ser 'aula' o 'sala de clase'. El concepto es la universalización de un término. Las notas esenciales. que lo determinan como tal, valen para todos los individuos que son referentes de esa misma estructura significativa. Denomino 'aula' a un aula en particular. Además, podría denominar a cada una de las aulas que existieron, que existen y que existirán. Esto significa que el concepto tiene alcance universal. El concepto, en sentido estricto. es siempre un término. Puede expresarse con una o más palabras, pongamos por caso: París o la capital de Francia: banda musical. orquesta. o conjunto instrumental: televisor o aparato de televisión. Ahora bien. cuando en este texto digo 'concepto científico'. estoy utilizando la palabra 'concepto' en sentido amplio. No me refiero solamente a términos científicos, como pueden serlo 'átomo'. 'gen' o 'lucha de clases'. sino también a hipótesis. leyes y teorías. A ello hay que agregarle que considero concepto científico también el marco teórico que posibilita los métodos, así como las predicciones y las explicaciones de la ciencia. Son conceptos científicos. asimismo. los supuestos teóricos subyacentes que sustentan cualquier proposición científica. desde la más humilde a la más espectacular. Se puede decir entonces que 'concepto científico', en sentido amplio, refiere a cualquier elaboración teórica de la ciencia. Puede remitir solamente a entidades teóricas o puede ser la condición de posibilidad teórica para producir tecnología. También son conceptos teóricos las instancias establecidas con fines instrumentales. tanto para validar teorías como para desarrollarlas. Denomino igualmente .conceptos científicos' a los supuestos no explicitados (obvios o inconscientes). Dichos supuestos pertenecen a las reglas de formación de los discursos considerados verdaderos. Algunos ejemplos de conceptos científicos: enunciados. hipótesis. leyes, teorías. formalizaciones. métodos de validación. requisitos para utilizar técnicas. indicaciones para producir tecnología. Comprenden, además, los conceptos en sentido estricto tales como .energía', 'inconsciente'. 'radiactividad'. y los a priori del lenguaje. La epistemología de la conciencia Consideraremos, de manera esquemática. algunas pautas que intervienen en la conformación de los conceptos científicos. Las hipótesis científicas son proposiciones que intentan explicar hechos. Deben ser lógicamente sólidas y formar parte -preferiblemente- de un sistema deductivo. En dicho sistema puede haber proposiciones de distintos niveles. En el nivel uno se encuentran los enunciados singulares. Éstos remiten a hechos singulares: por ejemplo: -este libro está en reposo». En el nivel dos se producen generalizaciones empíricas que. si bien tienden a ser universales. pueden ser puestas a prueba mediante corroboraciones experimentales, por ejemplo: «los cuerpos no modifican por sí mismos su estado de reposo". Finalmente. en el nivel tres. se hace referencia a entidades teóricas no contrastabas. pero que actúan como principios explicativos. Proposiciones que, en un momento determinado de la historia. son de nivel tres, pueden pasar al segundo nivel en otro momento histórico. Cuando

Galileo enunció la ley de la aceleración de los cuerpos. el vacío era una entidad teórica. Más tarde se logró producir vacío. Por lo tanto, las proposiciones que se referían al comportamiento de los cuerpos en el vacío pasaron a ser generalizaciones empíricas. De ellas se pueden deducir consecuencias observacionales y someterlas a contrastación. Estos son los tres niveles de proposiciones aceptados por la epistemología tradicional. Esta está en una situación similar a la psicología anterior a Freud. Es decir. está en el nivel de la representación. de la conciencia. Considera que únicamente lo consciente puede ser analizado. Acepta la existencia de un nivel previo inconsciente en la producción científica. Pero no sabe qué hacer con ese nivel. Entonces, lo omite. Lo relega al contexto de descubrimiento. Oscura residencia originaria de las teorías. Dicho contexto no se puede someter a validaciones. Estas validaciones sólo se producen en el contexto de justificación. No coincido con esa posición. Considero.. por una parte, que ese nivel de supuestos no explicitados es fundamental para una comprensión medianamente adecuada de la ciencia. Y, por otra parte. que no es posible separar realmente contexto de descubrimiento de contexto de justificación. Ahora bien. si se acepta separarlos con fines de análisis, hay que admitir que en el nivel de descubrimiento se producen las condiciones de posibilidad de los conceptos científicos. Ese nivel puede otorgar algunas claves para enigmas inquietantes de la historia de la ciencia. En el sustrato de la aceptación o rechazo de una teoría hay mucho más que una decisión de la comunidad científica. Ahí reside todo el peso de las verdades que producen los sectores más poderosos del entramado social, no sólo de esa comunidad de expertos. Es en ese nivel inconsciente de la ciencia donde se comienza a expresar la voluntad estratégica de un dispositivo social. En El mercader de Venecia de Shakespeare, el juez acepta que el acreedor corte (extraiga) una libra de carne del cuerpo vivo de su deudor. Pero pone una condición: que no derrame una sola gota de sangre. El contrato dice que podrá cobrarse con carne. no menciona la sangre. Algo similar ocurre con la separación «descubrimiento-justificación». Es imposible hacer esa escisión sin perder mucha sustancia cultura¡ preciosa para la comprensión de la problemática científica. Propongo un ejemplo. Demócrito y Aristóteles fueron contemporáneos (460-370 a.C.. el primero, 384-322 a.C., el segundo). Demócrito, siguiendo la teoría de su maestro Leucipo, sostenía que la realidad está compuesta por elementos últimos indivisibles, los átomos. La teoría atómica luego fue sostenida por Epicuro, y más tarde por Lucrecio. Dicha teoría sostiene que en el comienzo fue el caos. Sólo existen el vacío y los átomos. Éstos caen ininterrumpidamente en el vacío. De pronto se produce un choque y una gran conflagración. Se establece así el orden vigente. Orden que en cualquier momento puede desestructurarse. Se trata de una teoría en la cual las individualidades y el desorden son posibles. La teoría de Aristóteles, en cambio, es un dechado de orden. Los elementos simples que componen la realidad son la tierra. el agua, el aire y el fuego. A partir de ellos se va formando la escala completa de la naturaleza. El orden ascendente culmina en un motor inmóvil que es la perfección misma. Como todos amamos la perfección. todos cumplimos su mandato. Se trata de una teoría donde no se destacan las individualidades, sino la obediencia a un orden superior. Si consideráramos ambas teorías desde el punto de vista de la ciencia actual. concluiríamos que la teoría atómica es más consistente que la aristotélica. ¿Por qué entonces la primera fue rechazada y la segunda reinó durante siglos? Tal vez la respuesta provenga de las estrategias de poder. La democracia griega declinaba. Sabido es que la tarea de gobernar se torna fácil si todos responden a un ideal o mandato común. En cambio. dicha tarea se torna muy ardua si existen atomizaciones. Por lo demás, la idea de individualidades o individualismo (que se desprende de las teorías atómicas) resultaría realmente chocante en sociedades que privilegiaban lo comunitario. A esto habría que agregarle

un detalle histórico: Aristóteles pertenecía a la corte del hombre más poderoso del momento, Alejandro Magno. En la baja Edad Media. las teorías aristotélicas cobraron nuevo impulso. Baste como ejemplo recordar que santo Tomás intentó fundamentar el cristianismo desde la filosofía de Aristóteles. La idea de un valor único y todopoderoso seguía vigente. También la idea de comunidad. Ahora se trata de la comunidad de los santos. Poco lugar había para átomos enloquecidos cuyas trayectorias son azarosas. es decir. sin ley. Recién en épocas de mayor tolerancia se le pudo hacer lugar a las indeterminaciones atómicas. La interpretación precedente de ninguna manera pretende que consideraciones de este tipo estén totalmente conscientes entre quienes aprueban o rechazan teorías. ni entre quienes están en lo más espeso del poder. ni entre los científicos. ni en la sociedad. No obstante. la historia demuestra que, a veces. existe cierta conciencia. Pero. en general. tales consideraciones forman parte. justamente, de los supuestos de una cultura. Este es el nivel que la epistemología de la conciencia ignora. La validación de las teorías Los métodos para validar las teorías también han variado a través del tiempo. En la antigüedad las teorías se validaban preferentemente con argumentos racionales. Cuando se quería demostrar la solvencia de una teoría se buscaban conceptos más abarcadores que ella misma. Se estimaba que si el concepto abarcador era bueno. el concepto abarcado también lo sería. Se proponían también principios simples indemostrables. a partir de los cuales se derivaba lógicamente la teoría. Todo ocurría en el nivel teórico, aun cuando se tratara de la realidad empírica. Se conocía la experiencia, pero no el experimento. Por lo demás. el verdadero conocimiento no provenía de lo empírico. sino de lo intelectual. Durante el medioevo, para validar teorías se argumentaba deductivamente. Se apelaba también a la autoridad de pensadores ampliamente reconocidos. No se desechaban tampoco los principios simples y, menos aún. las ¡aplicaciones lógicas. Pero el recurso por excelencia era citar muchos e importantes autores. Un argumento era tanto más poderoso cuanto más erudito fuera. También se citaban las Sagradas Escrituras. La regla de oro para la validación de una teoría era someterla a la tautológica rutina del silogismo. El saber medieval asimismo apelaba a la experiencia. Pero teoría y empiria circulaban por caminos que difícilmente se encontraban. La ciencia moderna utiliza, obviamente, otros métodos de validación. primordialmente el experimento. Esto es una anticipación teórica que establece el comportamiento de los fenómenos. Mejor dicho, las relaciones invariantes entre fenómenos. Una corriente epistemológica. en boga a principio de siglo. pretendía que el método de la ciencia es el inductivo. Se parte de experiencias singulares. Se acumulan hechos similares. Si no hay excepciones, se emiten hipótesis generales. Otras corrientes epistemológicas más recientes. pero ya cuestionadas, consideran que el único método de la ciencia es el hipotético deductivo. Se formulan hipótesis generales. Se deducen consecuencias observacionales. Se contrastan con los hechos. Las posiciones epistemológicas mencionadas tratan de simplificar las cosas replegándose en cuestiones metodológicas. Desde otras posturas de reflexión sobre la ciencia, actualmente se afirma por un lado que no existen métodos de validación preestablecidos en ciencia y, por otro, que la ciencia se valida a sí misma a partir de la eficacia de sus resultados.

En realidad. la ciencia siempre se validó a sí misma a partir de sus resultados. Estos pueden ponerse a prueba siguiendo distintos métodos. Pero en la implementación de los métodos intervienen también los supuestos teóricos y el poder subyacentes a toda empresa humana. Intervienen. obviamente. factores psicológicos, sociales. académicos. económicos. ideológicos y políticos. Los conceptos científicos pueden haber surgido de un sueño. de una búsqueda consciente. o de una iluminación momentánea. Pueden haberse producido para solucionar problemas concretos o por simple amor al saber. Pueden sostenerse porque les conviene a los poderes establecidos. Pueden incluso socavar poderes. Pero los conceptos científicos no valen independientemente de esas posibilidades, sino que valen además de ellas. Como un plus. Valen por sí mismos siempre y cuando no se los despoje de las condiciones que los hicieron posibles. No se trata de aislarlos (tipo contexto de descubrimiento). Se trata de sopesarlos en su racionalidad -o eficacia científica- sin despojarlos de su producción histórica. A esta capacidad de valer por sí mismo es a lo que he llamado el en sí de los conceptos científicos. Los conceptos científicos no son locas alucinaciones. Tienen relación efectiva con la realidad que pretenden explicar y modificar. No ganan determinadas teorías únicamente por cuestiones de estrategia. El conocimiento científico es solvente en sí mismo. Es realmente eficaz. Es sólido. El valor intrínseco de los conceptos científicos en general- es positivo. Pero es indiscutible que surge de una estrategia cultura] insoslayable. Consideremos un ejemplo. la afirmación de que la Luna es un satélite de la Tierra es una proposición sólida en sí misma. Los conceptos científicos que produce tal afirmación han sido avalados siguiendo las pautas requeridas por la seriedad de¡ conocimiento científico. Pero que algo produzca efectos de verdad, o incluso sea verdadero en un momento determinado de la historia. no quiere decir que alcanzó ese estatus por el sólo peso de una verdad atemporal. que valiera más allá de los valores humanos. La verdad es un proceso histórico. Hay un intrincado dispositivo discursivo y de poder del que surgen o en el que mueren las teorías. En el Egipto antiguo la Luna era una diosa. Si otros son los supuestos. otros son los resultados. Una conclusión obvia es que en una sociedad científica no hay lugar para las diosas. Comunidad Científica Un eslabón clave entre la racionalidad de la ciencia y los juegos estratégicos económicosociales es la comunidad científica. Esta comunidad también es solvente por sí misma, es decir «en sí». Pero está compuesta por seres de los que nadie puede asegurar nada, en tanto son seres humanos. Ni siquiera ellos mismos. suponiendo que sólo los movilice el amor al saber. Y frecuentemente es así, pero no existen garantías sobre qué es el mejor saber. ¿Por qué algunas teorías que en otras épocas fueron rechazadas como disparatadas en nuestro siglo se reivindican? No será. por cierto, por nuestra «amplitud de criterio». puesto que nuestra época es tan dura como cualquier otra para rechazar teorías que repugnan al dispositivo social, en el cual está inmersa la comunidad científica. Con fines de análisis se puede considerar la producción de los conceptos científicos en sí mismos. Esto es. su enunciación y su validación. su racionalidad científica. Además. con fines de análisis también se puede considerar la relación de los conceptos científicos con la época y la sociedad en que acaecen. Esto es. la relación con los poderes. y la disposición para aceptar determinados conocimientos en detrimento de otros. Ahora bien, sólo con fines de análisis. Porque pretender que el conocimiento científico vale, únicamente por sí mismo, independientemente de su inserción social, sería un reduccionismo ingenuo o interesado. Por otra parte. afirmar que la única validación de¡ saber es el poder también sería reduccionista. El poder «soporta- los conceptos. Interviene en su conformación mediante los dispositivos discursivos y no discursivos. Pero son conceptos que se avienen con las expectativas de una

cultura. No sólo de una facción de poder. A veces. incluso, se producen conceptos que conmueven dispositivos. Los absolutos no existen. En cuanto al papel de la comunidad científica, ella forma parte de los dispositivos de poder. No obstante. sus miembros aisladamente. muchas veces, son víctimas de esos mismos dispositivos. La tecnociencia es un saber serio que produce efectos. Como toda empresa humana se entreteje en la sociedad. Forma parte de estrategias. No se la puede pensar exenta de valores. Sin lugar a dudas tiene valor cognoscitivo. Tiene también valor instrumental. Tal como se ha desarrollado está fuertemente instalada en nuestro diario transcurrir. Una fuerza inquietante de comienzo y de fin moviliza el entramado de los conceptos científicos. Comienzo y fin en el que acaece y se consume nuestra propia existencia. CUESTIONARIO: 1. 2. 3.

4. 5.

Cuándo nace la razón, cuáles son los elementos constitutivos Diferencia el pensamiento mítico del racional. Coloque en un cuadro sinóptico elementos caracterizadores de la razón según el griego clásico.de la Edad Media, Modernidad y en ella caracterizar ciencia tecnología. ¿ Cómo se define la ciencia y cómo se la divide? Qué son conceptos científicos?

1.4 LA CLASIFICACION DE LAS CIENCIAS Y SU RELACIÓN CON LA TECNOLOGÍA” Eduardo Laso Díaz, Esther La ciencia y el imaginario social – Buenos Aires – Ed. Biblos – 1998 - Pág. 29 y subsiguientes.

SABER, CONOCIMIENTO Y CIENCIA Se entiende por conocimiento al conjunto de enunciados que denotan o describen objetos. Dichos enunciados, o proposiciones, son llamados denotativos. Quedan excluidos del conocimiento cualquier otro tipo de enunciados, como por ejemplo los valorativos, estéticos o directivos. El conocimiento es un conjunto de proposiciones como “Juan corre”, “los metales se dilatan con el calor", "mañana lloverá" o 'Cervantes escribió el Quijote”, que son susceptibles de ser declaradas verdaderas o falsas. La ciencia constituye un subconjunto del conjunto de todos los conocimientos, vale decir que no todo conocimiento es científico. 0, si se quiere, no todo enunciado denotativo es un enunciado científico. Si bien el conocimiento científico está hecho de enunciados que informan algo acerca de objetos o sucesos, éstos tienen que presentar además dos condiciones esenciales: 1. Los objetos a los que se refieren tienen que ser accesibles de modo recurrente, directa o indirectamente, en condiciones de observación explícitas. Por ejemplo: "Dios existe" es un enunciado denotativo, pero se. refiere a un objeto inaccesible a la observación, por lo tanto no es una proposición de la ciencia: en cambio sí lo son "las ballenas son mamíferos" o 'el agua se congela a cero grado de temperatura" porque son proposiciones que denotan objetos que se pueden conocer mediante observaciones repetibles por cualquier investigador, y por lo tanto pueden validarse en la experiencia. 2. Se tiene que poder decidir si las proposiciones pertenecen o no al lenguaje considerado pertinente por los científicos. Cada disciplina científica define la forma en que deben ser construidas sus proposiciones para que se consideren parte de ella, a la vez que excluye las que

no reúnen esos requisitos. Las matemáticas, por ejemplo, definen un determinado tipo de símbolos y operaciones con las cuales construir sus enunciados. Dichas reglas permiten determinar, entre otras cosas, que la proposición "2 + 5 = 7" forma parte de su discurso, pero no la proposición "E = m . c2", anunciado que responde a las regias del discurso de la física. Estas reglas están sujetas a cambios históricos.10 Se define al saber como un conjunto de enunciados más abarcador que el de los enunciados denotativos, sean éstos del conocimiento en general o de la ciencia en particular. El saber comprende, entre otras cosas, criterios de belleza, de eficiencia o de justicia, que trascienden el problema de la verdad o falsedad de las proposiciones. Alcanza cuestiones tales como sabervivir, saber-hacer, saber-decidir, tal como son definidos en una cultura determinada. El saber hace a cada uno capaz de emitir buenos enunciados (denotativos, prescriptivos, valorativos o de cualquier otro tipo), entendiendo por "buenos" aquellos conformes a los criterios de verdad, justicia, belleza o eficiencia admitidos en el medio en el que vive el que “sabe”. Esto supone una formación amplia de competencias que permita a los sujetos buenas actuaciones con respecto a conocer, decidir, valorar, transformar en el seno de su sociedad. La cultura de un pueblo constituye así una especie de consenso que posibilita circunscribir saberes y diferenciar al que sabe del que no. SABER COTIDIANO Y SABER CIENTÍFICO Se puede diferenciar el saber que se produce y transmite a través de las costumbres de una cultura (saber cotidiano o consuetudinario) del saber llamado científico. El saber, en su estado consuetudinario, se presenta en forma de relatos, tales como cuentos, mitos o fábulas. Estas formas narrativas admiten los diferentes tipos de enunciados antes mencionados, y a través de su transmisión oral enseñan al oyente las competencias propias de la cultura de pertenencia. Los avatares de los personajes de estos relatos ofrecen modelos positivos y negativos de identificación a los sujetos que los escuchan, y otorgan legitimidad a las instituciones en las que se producen, definiendo así los criterios de competencia de la sociedad donde se narran. Estos criterios permiten a su vez valorar las actuaciones que los individuos realizan en esa sociedad. En este modo de transmitir el saber no hay necesidad de procedimientos especiales para dar legitimidad a esos relatos, pues al ser ellos parte de la cultura misma y sus tradiciones se encuentran por eso mismo ya legitimados, y no tienen entonces necesidad de recurrir a argumentos o pruebas acerca de lo que dicen. Son los relatos mismos los que determinan los criterios de competencia, ilustran la aplicación y definen lo que se tiene derecho a decir y a hacer en la cultura de la que forman parte. El saber científico, a diferencia del narrativo, se compone de enunciados denotativos, excluyendo los otros tipos de enunciados, y el criterio de aceptabilidad de sus proposiciones se basa en su valor de verdad. La ciencia busca confirmaciones de su saber, es decir, busca procedimientos argumentativos con los que demostrar sus enunciados, para lo cual establece corroboraciones que prueben sus proposiciones como verdaderas. Desde la perspectiva del saber científico, el saber cotidiano basado en relatos conforma un tipo de discurso propio de una mentalidad más primitiva, mezcla de principio de autoridad, prejuicios e ideología, que no está sometido a argumentaciones y pruebas. 10

Así, mientras que en la Edad Media los enunciados teológicos formaban parte del discurso considerado científico, a partir de la modernidad se los excluye, al cambiar la concepción misma de la ciencia.

En la ciencia se supone que el referente de la proposición científica es expresado en ella de manera conforme a lo que el referente mismo es. Esto lleva al problema de probar la verdad de lo que afirman dichas proposiciones. La solución científica a esta cuestión puede tomar la vía de la verificación (está permitido pensar que la realidad es como dicen las proposiciones científicas, en la medida en que dichas proposiciones puedan demostrarse a través de hechos de la experiencia que las confirmen) o de la falsación (se pueden descartar las proposiciones si son contradictorias con el referente). La práctica científica requiere comunicación entre los investigadores para poder desplegar un espacio de debate que aumente las posibilidades de contrastación y permita establecer acuerdos en cuanto a teorías, métodos, técnicas y hechos establecidos. Por eso el científico tiene que pronunciar enunciados verificables respecto de referentes que sean accesibles a otros científicos, para que éstos a su vez puedan verificarlos. Así, quien enuncia una proposición científica debe ser capaz de proporcionar pruebas de lo que dice, y de refutar todo enunciado contrario respecto del mismo referente. De la misma manera, el sujeto a quien se dirige esa proposición tiene que poder dar válidamente su acuerdo o rechazo al enunciado del que se ocupa. Para ello, ese sujeto tiene que poseer conocimientos y competencias especiales que le posibiliten entrar en el debate. Esto implica que tiene que ser otro científico. Tanto la verdad del enunciado científico como la competencia del que lo enuncia están sometidas al asentimiento de una colectividad de iguales: la comunidad científica. Para formar parte de dicha comunidad, sus miembros deben poseer conocimientos y capacidades comunes que les posibiliten debatir y fijar consensos acerca de lo que se acepta o no como válido en el dominio del saber científico. La consecuencia de esto es que el saber científico no puede ser un componente inmediato y compartido por la sociedad (como es el caso del saber basado en relatos), sino que exige una enseñanza especializada que garantice la formación de nuevos científicos. De esta manera, la investigación científica se convierte en profesión y da lugar a instituciones formadas por grupos de pares: los "expertos". La base del planteo de la comunidad científica es el supuesto de que si bien el consenso entre científicos no garantiza la verdad de las proposiciones, sin embargo la verdad de una proposición no podría dejar de suscitar consenso. Los acuerdos entre los científicos definen entonces las teorías y métodos considerados aceptables en determinado momento para la práctica de la ciencia. Estos acuerdos no son rígidos y son puestos en cuestión a medida que la investigación científica encuentra nuevos problemas. El saber científico posee la característica de presentarse como una combinación de memoria y proyecto: cada científico tiene conocimiento de las proposiciones científicas precedentes, y sólo ofrece una proposición nueva si difiere de las anteriores y representa un progreso posible para el conocimiento. Otra de sus características fundamentales es que sus enunciados nunca están a salvo de refutaciones. El saber acumulado puede eventualmente ser desechado al confrontarse con nuevos hechos o pruebas que demuestran su falsedad. De ahí que la ciencia revise constantemente sus supuestos, y los cambie. Es, en ese sentido, un saber crítico. LA CIENCIA. EL ARTE Y LA RELIGIÓN La ciencia se funda en una forma de pensar analítico-racional, entendiendo por tal una manera de pensar que se basa en los principios lógicos de identidad y no contradicción, que establece sus verdades por demostraciones y verificaciones, y que utiliza símbolos precisos y unívocos. Tal forma de pensar no está dada naturalmente desde el origen del hombre. Es el resultado de procesos de transformaciones políticas, económicas y sociales que se remiten al territorio de la

antigua Grecia entre el siglo vil y el siglo VI a.C. Estos cambios dieron lugar a prácticas sociales que posibilitaron el surgimiento de un modo de pensar argumentativo y racional.11 Lógicas del pensar. No todas las formas de pensamiento se valen de los principios de la lógica analítica. Existen formas de pensar que se valen de otros principios. Así, el pensamiento mágico de las culturas salvajes se funda en principios de semejanza y de contigüidad en el espacio y el tiempo. Ejemplo del primer principio es el vudú, que se apoya en la semejanza entre una persona y un muñeco, y ejemplo del segundo es la magia que se realiza con algún objeto que haya estado en contacto con la persona a quien se quiere afectar. Las clasificaciones en estas culturas también responden a los principios del pensamiento mágico: por ejemplo, ordenan las cosas por semejanza de color, o por compartir un mismo espacio físico.12 Las leyes del pensamiento inconsciente descubiertas por el psicoanálisis son similares a las de la poesía, la literatura y los mitos. Se apoyan en juegos de sustituciones entre las representaciones -basadas en semejanzas, analogías o sonoridades-, en las que las palabras pueden adquirir pluralidad de sentidos. Estas formas de pensar se sustentan en la tendencia de las representaciones del sujeto a conectarse espontáneamente en asociaciones por semejanzas, contigüidades y analogías accidentales; tendencia que ya el empirismo inglés había descubierto. El pensamiento científico-racional le impone a esta tendencia una disciplina, exigiendo un rigor lógico de identidades y diferencias. Ciencia y religión. Las relaciones entre la ciencia y la religión fueron históricamente conflictivas por razones ideológicas y políticas. Ambas dan lugar a dos tipos de discurso muy diferentes. Si la ciencia constituye una búsqueda de leyes que den explicación de las relaciones entre fenómenos (para algunos autores esto sería una búsqueda de la verdad), la religión no busca la verdad, pues se presenta como ya poseyéndola. Pero mientras que la ciencia en dicha búsqueda produce un saber del que plantea evidencias para fundamentarlo como verdadero, la religión no puede aportar evidencias empíricas de la verdad que dice poseer, por lo que necesita de la fe de sus fieles. Ciencia y arte. Tanto la ciencia como el arte suponen creatividad e inventiva. Pero mientras la primera parte de una ley científica desde la cual interpreta los hechos singulares como casos que se subsumen en la ley, o como casos que son una anomalía de la ley, el arte parte del caso singular (la obra artística), sin una ley con la cual confrontarse o que lo avale. Y, desde ese caso singular, busca la legalidad que pueda corresponderle a dicho caso. En ese sentido, la obra artística introduce una novedad incalculable, una perspectiva no prevista en el seno de la cultura. Piénsese por ejemplo en la pintura renacentista, en el impresionismo o en el cubismo, que introdujeron nuevas formas de ver y pensar el mundo. La actividad artística es un juego libre de la razón con la imaginación sensible, un juego que rompe con el universo de las convenciones legales consensuadas por el grupo social, y que tiene por resultado la apertura de vías nuevas de conocimiento y de acción, pero sin definir conceptos o principios científicos. El arte se remonta así a un orden de posibilidades, que implica un acto inventiva, al mismo tiempo que recrea y reinterpreta las convenciones de la cultura. 11

Acerca del surgimiento del pensamiento racional a partir de las prácticas sociales desplegadas en la polis griega a partir del siglo VII a.C., véase el artículo -Pensamiento mítico y pensamiento racional", en E. Díaz (comp.), La producción de los conceptos científicos. Buenos Aires. 1993. 12 Claude Lévi-Strauss (1908-) comenta en su libro El pensamiento salvaje que, por ejemplo, la tribu de los osagos reparte a los seres y a las cosas en tres categorías, asociadas respectivamente al cielo (sol, estrella, grulla. cuerpos celestes, noche), al agua (mejillón, tortuga, peces, niebla), y a la tierra firme (oso, puma, ciervo, puerco espín).

El acto inventiva también está en juego en la ciencia, pero en ella queda inmediatamente encubierto bajo la creencia de que las teorías propuestas por el científico son leyes de la realidad que el hombre no crea, sino que descubre. La obra de arte es un objeto singular y sensible, que tiene la capacidad de ser recreada e interpretada por multitud de juicios particulares de todos aquellos que disfrutan de ella. De ahí su carácter abierto a significados múltiples (a diferencia de los enunciados científicos, que aspiran a un solo sentido). Estos juicios particulares van develando, a lo largo del tiempo, la universalidad latente de la obra, que por eso se eleva desde su singularidad de objeto a tener un valor universal, que es convalidado por el asentimiento gozoso de los espectadores (véase el cuadro de página 35). CIENCIA PURA, CIENCIA APLICADA Y TECNOLOGÍA Se llama cientificismo a una concepción acerca de la ciencia que en nuestra sociedad es dominante. Esta concepción se caracteriza por restringir la idea de lo que es científico a un solo tipo de teoría y práctica de la ciencia, basada en el modelo de la física moderna: establecimiento de leyes universales, normalización de los fenómenos, experimentación y predicción. El cientificismo idealiza el modelo científico ignorando sus límites, y exige que toda investigación que pretenda ser científica se adapte a dichos parámetros. La concepción cientificista distingue tajantemente la búsqueda de conocimientos científicos del ámbito de sus aplicaciones. Por ejemplo, Mario Bunge (1919-) -destacado representante del pensamiento cientificista- en su libro Ciencia y desarrollo diferencia ciencia pura, ciencia aplicada y tecnología según esos criterios. Llama ciencia pura o básica a aquellas investigaciones científicas en las que sólo se busca obtener conocimiento de un determinado sector de la realidad, sin otro interés que el de enriquecer el bagaje del saber de la cultura. Califica como "pura" este tipo de investigación, en la medida en que no tiene otra finalidad que la búsqueda del conocimiento por el conocimiento mismo, excluyendo intereses prácticos. ARTE Se mueve en el mundo que nos rodea. Crea un ámbito de posibilidad verosímil, como un espacio aparte de la facticidad por donde discurre la ficción o se realiza la síntesis de formas (cuadro, estatua, etc.). Dicho espacio es símbolo del propio mundo. Recrea, por símbolos o ideas, el mundo, develando lo que en él subyace, lo esencial a él. Sabe que sus obras son ilusorias, pero a través de ellas dice la verdad. Carácter ilusionista: sus productos son ficciones que no se toman por la realidad misma.

CIENCIA Se mueve en el mundo que nos rodea. Crea un ámbito de ideas interconexas como un espacio aparte de la facticidad, por donde discurren las teorías científicas. Dicho espacio es una vuelta explicativa respecto del propio mundo. Explica, por conceptos hipótesis, el mundo.

RELIGIÓN Toma el mundo como símbolo o alegoría de "otro mundo". Desdobla este mundo en otro en el cual las producciones del discurso religioso (dioses, almas) consideradas reales, tengan cabida. Afirma un orden supramundano que es considerado más real que este mundo. e Crea una demarcación entre lo sagrado y lo profano, siendo lo sagrado lo real y verdadero.

Sabe que sus teorizaciones son conjeturas, pero a través de ellas aspira a decir la verdad. Carácter crítico: cuestiona sus propios enunciados, los pone recurrentemente a prueba.

Ignora el carácter abstracto de sus objetivaciones, y afirma decir la verdad. Carácter dogmático: sus enunciados son juzgados verdaderos sin más.

También califica estas investigaciones de "básicas" por constituir la base teórica de conocimientos sobre la que se apoya la ciencia aplicada o la tecnología. Ejemplo de esto serían el virólogo que estudia las propiedades comunes de todos los tipos de virus, o el físico que estudia la interacción entre la luz y los electrones, sin importarles ningún tipo de aplicación posible ni querer modificar la realidad. Para Bunge, la ciencia pura es libre de elegir sus problemas y métodos y de decidir los planes de investigación o cambiarlos. No se planificaría de antemano, en tanto sólo se rige por la búsqueda de explicaciones y el hallazgo de descubrimientos, para lo cual no es posible anticiparse con algún objetivo teórico o práctico prefijado que limitaría o perturbaría dichas investigaciones. Ciencia aplicada es el nombre dado a las investigaciones teóricas o experimentales que aplican los conocimientos de la ciencia básica a problemas prácticos (por ejemplo, el virólogo que estudia los virus en tanto éstos causan enfermedades humanas o el físico que estudia la luz en tanto ésta produce ciertos colores). Tanto la ciencia básica como la aplicada se proponen descubrir leyes a fin de comprender la realidad. En ambas se plantean problemas cognoscitivos, y sus productos son "conocimientos". Pero la ciencia aplicada, en lugar de ocuparse de problemas generales, utiliza los conocimientos de la ciencia básica en vista a posibles aplicaciones prácticas, aun cuando no emprenda ninguna investigación técnica. La ciencia aplicada estudia problemas de posible interés social y por eso se la puede planificar, pero entonces ya no es libre de elegir sus problemas de investigación, puesto que éstos surgirían de las necesidades y demandas de la sociedad. Por ejemplo, los problemas asociados a la salud, al bienestar económico. al control social o al mejoramiento de la productividad de un país. Bunge llama tecnología al uso de las teorías científicas para su adaptación a determinados fines, a la producción de artefactos útiles. Para la tecnología, el conocimiento científico es un medio para modificar la realidad. Desde el punto de vista técnico, la ciencia como búsqueda de saber no constituye un fin en sí mismo. La tecnología se propone resolver problemas prácticos y controlar sectores de la realidad con ayuda de conocimientos de todo tipo. No busca producir conocimientos -aunque a veces lo haga sin proponérselo- sino artefactos o planes de acción, entre otras posibilidades. Ejemplo de lo primero son las computadoras, las bombas H, las vacunas, las naves espaciales y la televisión; y ejemplos de lo segundo son las técnicas de enseñanza, las pautas para sanear una economía y las estrategias psicoterapéuticas. Actualmente, técnica y tecnología se utilizan como sinónimos. Otro factor importante en este proceso es la industria, cuya finalidad es obtener ganancias produciendo determinados artefactos. La industria, entre otras utilidades, aporta capitales para la financiación de la ciencia, condicionando su desarrollo. Ciencia pura

Industria

Ciencia aplicada

Tecnología

Estas distinciones llevan a Bunge a sostener que la ciencia básica no está atravesada por intereses prácticos ni por una ideología particular. y que su único fin es la búsqueda de la verdad. De donde concluye que la ciencia pura no tiene responsabilidades éticas respecto de las consecuencias que resultan de las aplicaciones de lo que descubre o produce como saber. Cabe en este punto la pregunta de si tal concepción no es en sí misma ideológica. Desde que en el siglo XVII Francis Bacon (1561-1626) enunció la nueva consigna que regiría la ciencia moderna: “El saber es poder", ésta se propuso como ideal la producción de conocimientos para aplicaciones y obras. La alianza así consolidada entre saber, poder y economía se ha ido estrechando desde entonces. Sus más significativos resultados han sido el maquinismo, la revolución industrial, el capitalismo, la era atómica y la nueva revolución

tecnológica. Si la ciencia en la antigüedad se proponía como objetivo principal conocer la naturaleza, dicha intención fue cambiando en la modernidad hacia la voluntad de dominarla o, dicho de otra manera, de conocerla para dominarla, y actualmente se trata directamente de sustituirla (por ejemplo, creación científica de vida, elaboración artificial de sustancias naturales y no naturales, etc.). Y si antes el saber científico tenía como ideal la búsqueda de la verdad, actualmente, a partir de la alianza con el capital, la ciencia se integra en la lógica capitalista de maximizar ganancias al menor costo. En dicha lógica, la ciencia deviene una fuerza de producción más, un momento en la circulación del capital. De suerte que es el deseo de enriquecimiento y poder, más que el de saber, el que hoy impone a la ciencia y a la técnica el imperativo de mejorar sus actuaciones y la realización de productos. Contrastar las teorías científicas para establecer su verdad o falsedad ya no es en sí mismo un objetivo, sino un medio, un 'control de calidad" de las teorías con vistas a asegurar mejores instrumentos teóricos que permitan obtener mayor dominio sobre las cosas. Se supone que una teoría, si pasa las pruebas de confirmación empírica, es mejor para poder predecir, controlar y aplicar. Pero si en un primer momento la búsqueda de verificaciones formaba parte de la argumentación destinada a obtener la aprobación de los destinatarios del saber científico (legitimación legal-racional), actualmente es reemplazada por una legitimación tecnocrática que desestima las creencias de la sociedad y la ética. Privilegia la eficiencia y desecha la ineficiencia. Este criterio constituye una legitimación de hecho que influye sobre el criterio de verdad. Al mismo tiempo, se abandonan las razones humanitarias para darle un sentido al desarrollo de la ciencia, en favor del incremento del poder económico y político. El capitalismo invierte en investigaciones y sostiene la actividad científica a cambio de la obtención de ventajas económicas. Dicha inversión se hace de dos maneras. Una es directa, financiando los departamentos de investigación de las empresas, en las que los imperativos de rendimiento y recomercialización orientan los estudios hacia aplicaciones lucrativas. La otra es indirecta, creando fundaciones de investigación privadas, estatales o mixtas, que dan créditos a laboratorios, universidades o grupos de investigadores. De estas fundaciones no se espera un provecho económico inmediato. Se plantea el principio de que a veces es necesario financiar investigaciones que dan pérdidas de fondos durante algún tiempo, para aumentar las oportunidades de obtener alguna innovación rentable. Es a esto último a lo que Bunge llama "ciencia pura". Sin admitir lo obvio: que dicha ciencia está incluida en una lógica económica que la abarca y a la que en última instancia termina sirviendo. Si en el siglo XVII la consigna de la nueva ciencia era "el saber es poder", en nuestra época es el poder el que determina lo que se considera saber y le presta o no legitimación. El conocimiento no sólo provee hoy en día dominio sobre las cosas, sino que además ya no se considera conocimiento si no está al servicio de ese dominio. La lógica de maximizar ganancias e incrementar poder orienta las financiaciones de aquellas investigaciones que lleven a dicho fin, soslayando aquellas otras que puedan perturbar o denunciar dicha lógica. Con lo cual el poder termina produciendo y transmitiendo el tipo de saber que lo convalida. CLASIFICACIÓN DE LAS CIENCIAS La manera clásica de clasificar y delimitar las ciencias ha sido tomar como criterios el tipo de objeto que las disciplinas recortan para su estudio, y el método empleado para abordar dicho objeto. Se supone que tiene que haber una adecuación entre las características del sector de la realidad a estudiar y el método empleado para obtener un conocimiento de dicho objeto. Será la concepción teórica previa que se tenga del objeto la que determine la forma que se considere más adecuada para su estudio. El método no está desligado de la teoría que se tenga acerca del objeto de estudio. Importa asimismo el tipo de proposiciones que utiliza cada ciencia (véase el cuadro de página 39).

Las ciencias tácticas se dividen en naturales y sociales. Las ciencias naturales (física, química, biología, y sus derivadas) toman por objeto de estudio entes de materialidad física, donde la naturaleza es un referente mudo y constante, con respecto al cual los científicos intercambian enunciados denotativos. Sus objetos están sujetos a leyes y establecen relaciones deterministas o azarosas, pero en cualquier caso tales relaciones carecen de motivos o fines. Las ciencias sociales (sociología, psicología, derecho, antropología y todas las que se ocupan del hombre en relación con la sociedad) toman por objeto de estudio entes de materialidad simbólica (lenguaje, leyes, arte, decisiones, etc.), así como el imaginario social e individual vinculados con dichos entes (formas de pensar, de sentir, de creer, de actuar). Éstos son productos hechos por el hombre, pero al mismo tiempo lo transforman, constituyéndolo en un sujeto social. El orden de la cultura que el hombre construye se diferencia del orden de la naturaleza, creando un nuevo hábitat que arranca al individuo de su estado animal lo convierte en un sujeto, en un ser social, ordenado ahora por leyes consensuadas, convenciones, costumbres y creencias. Esta materialidad simbólica no está sujeta a las leyes físicas de la materia, sino a las del lenguaje, del deseo, del poder. En estas ciencias el referente es el hombre en tanto ser social (y sus productos culturales), el cual presenta un comportamiento estratégico e intencional en donde están presentes motivos. deseos, valores y fines. Actualmente existe un replanteamiento de estas delimitaciones clásicas de los diferentes campos científicos, al establecerse fructíferas interrelaciones entre ciencias aparentemente alejadas, abriendo así nuevos campos del conocimiento. Tal es el caso de la bioquímica, la sociobiología. la bioética y otras. Las fronteras entre las ciencias tienden a ser cada vez menos tajantes. en favor de una concepción interdisciplinaria. Asistimos al desarrollo de investigaciones en donde los conocimientos dejan de estar encasillados en las fronteras rígidas de cada disciplina, para formar una red en donde los límites se desplazan y posibilitan nuevos conocimientos.

LEGITIMACIÓN POR MEDIO DEL ÉXITO Jürgen Habermas El progreso científico y el progreso técnico han quedado asociados y se alimentan mutuamente. Con la investigación industrial a gran escala la ciencia, la técnica y la revaloración del capital confluyen en un único sistema.

Como variable independiente

aparece entonces un progreso cuasi autónomo de la ciencia y de la técnica, del que de hecho depende otra variable más importante del sistema, es decir, el progreso económico. El resultado es una perspectiva en la que la evolución del sistema social parece estar determinada por la lógica del progreso científico y técnico. Y cuando esta apariencia se ha impuesto con eficacia, sirve como legitimación (de decisiones y de conductas). (Ciencia y técnica como ideología,

Objeto

Ciencias formales Entes formales que sólo tienen existencia ideal (números, figuras geométricas, conexiones lógicas). No son entidades captadas por la experiencia sensible sino por la mente humana, la cual va descubriendo sus relaciones y propiedades.

Ciencias fácticas Entes materiales (hechos, objetos, procesos) que poseen existencia independiente de la mente humana y que son directa o indirectamente captables a través de la experiencia.

Enunciados o proposiciones Ejemplos

Verdad

Método de puesta a prueba de los enunciados

Construye sus propios objetos de estudio: inventa entesformales y va descubriendo las relaciones y propiedades que se deducen entre ellos. Dichos entes y sus relaciones, al ser formales, pueden establecer correspondencias con los hechos de la realidad cuando son interpretados. Formales: son relaciones entre signos vacíos de contenido empírico. Son tautológicos: su valor de verdad se extrae de¡ simple análisis de su forma gramatical (proposiciones analíticas).

13

Demostración lógica: se muestra cómo un enunciado se deduce de otros por inferencias lógicas. Los postulados, definiciones y regias de inferencia son necesarias y suficientes para la puesta a prueba de sus enunciados. Coherencia del enunciado dado con el sistema de ideas admitido previamente. Un enunciado es coherente cuando lo que afirma no entra en contradicción con otras proposiciones admitidas dentro de un sistema de ideas, y se infiere de ellas. Es una verdad relativa al sistema de proposiciones admitido previamente. Así, una proposición que es válida en un sistema, puede no serlo en otro.14 La demostración es completa y final. Matemáticas y lógica.

Elabora conceptos teóricos con los que explica los fenómenos. Formaliza la experiencia mediante la interpretación de sistemas formales de la matemática y la lógica.13

Denotativos: que se refieran a sucesos y procesos fácticos. Emplean símbolos interpretados, es decir, que remiten a un contenido empírico o a una realidad extralingüística. Su valor de verdad necesita ser confrontado con la experiencia (proposiciones sintéticas). Confirmación o refutación: a través de observaciones y experimentos. Se contrastan los enunciados con los hechos para determinar si dichos enunciados son verdaderos o falsos. Coherencia + verificación en la experiencia. La verificación de la hipótesis es incompleta y temporaria. Nunca se está seguro de la verdad de la hipótesis, puesto que futuras observaciones pueden refutarla.

Ciencias naturales y sociales.

Si se considera, por ejemplo. el axioma de cierta teoría formal no interpretada: (x) (Px è Qx) , tal

enunciado puede recibir una ¡limitada cantidad de interpretaciones posibles, al dársele a P y Q diferentes significados. Si consideramos que P designa

metales

y Q designa

conductores de electricidad',

obtenemos una interpretación física de dicha proposición: "Para todos los elementos x, si x es un metal. entonces x es un conductor de electricidad'.

Esta proposición requiere su contrastación con la

experiencia. 14

Por ejemplo en el sistema de números binarios formado sólo por 0 y 1, no es válida una proposición

como "1 + 1 = 2 . Sí lo es en cambio en el sistema de números naturales.

1.5 GNOSEOLOGÍA Y LA HISTORIA DE LA CIENCIA La gnoseología cubre la otra parte del proceso de conocimiento, y decimos la otra parte, en un sentido didáctico, pues las consideraciones sobre el ente y la actividad intelectiva del ser humano forman la totalidad del proceso de conocimiento, pero con la gnoseología centraremos nuestro interés particularmente, en la actitud que asume el ser humano ante el conocimiento de la naturaleza, de la sociedad y de sí mismo. En un intento de definición se dice que: La gnoseología tiene como objeto el estudio del conocimiento en sus aspectos más generales y esenciales. Las condiciones, verdad y falsedad del conocimiento, cuentan entre los aspectos a que se hace referencia. El desarrollo mismo del conocimiento, considerado éste como un proceso, cuenta igualmente entre aquellos aspectos... la gnoseología es el estudio de una relación, puesto que el conocimiento es, en última instancia, una relación; la relación que existe entre el sujeto (individual o colectivo) que conoce y el objeto conocido. La manera como se enfoque el problema de los orígenes, condiciones, desarrollo y esencia de esa relación determina las diferentes teorías gnoseológicas que han aparecido en la historia de la filosofía, que es por ello, en gran parte, la historia de la gnoseología. 15 La gnoseología entendida como la "relación entre el sujeto cognoscente y el objeto de conocimiento", no puede ser entendible sino dentro de los matices que presenta en su devenir histórico. Para el estudio de la gnoseología en Occidente, el desarrollo de las bases del proceso del conocimiento debe ser buscado en las escuelas del pensamiento de la Grecia clásica en donde florecen las distintas propuestas que sintetizan las diversas reflexiones, y además en los distintos momentos de la historia del pensamiento filosófico que rescatan, actualizan y conjugan los aspectos básicos de las ideas sobre el conocimiento. Si bien en necesario tener un conocimiento amplio de las propuestas filosóficas sobre el desarrollo de la gnoseología, aquí solamente expondremos las propuestas fundamentales de las distintas escuelas o corrientes de pensamiento que nos ilustren las diferencias existentes entre las mismas.

1.5.1 Gnoseología en Grecia Una de las primeras escuelas que floreció por el año 600 aC fue la llamada escuela jónica, a cuyos integrantes se les identifica también con el nombre de hilozoistas, concepto de raíces griegas que significan: hyle, materia, zoé, vida. Los hilozoistas consideran que el universo está constituido por materia animada. En sus cosmogonías y teogonias hablan del mundo en el que perciben cambios constantes. En sus reflexiones se percibe el interés por marginar paulatinamente las explicaciones sobre la naturaleza y el ser humano de tipo mitológico. Una de las preguntas que se hacen es ¿cuál es la sustancia originaria de todas las cosas existentes? Las respuestas son varias, y cada una corresponde a la percepción que tienen cada uno de los integrantes de la escuela. Tales de Mileto, quien es el principal precursor, sostuvo que el principio material de las cosas se encuentra en el agua, pero la vida, la animación proviene de un ser todopoderoso, teosófico, de un Dios que es quien da la mente y el espíritu. El principio del conocimiento de las cosas se encuentra, por tanto, en la iluminación divina que permite se perciban los cambios en las cosas, las cuales se dan por condensación y rarefacción de la materia esencial que la conforma. El agua

15

SOLER, Ricaurte, Materialismo e idealismo: una alternativa, Ediciones de la Revista Tareas, Panamá, 1979, pp. 12-13.

como materia esencial sufre esos cambios por la inteligencia divina, la inteligencia de Dios, la cual además de transformar la materia nos permite conocerla.16 Anaximandro, discípulo de Tales, indica que hay una sustancia o principio infinito del que surgen todas las cosas. Este es el proceso continuo en el que los contrarios se encuentran en una constante determinación o separación. Si se quiere explicar el mundo, el conocimiento lleva a identificar que existe un sistema continuo de unión y separación de las cosas en ciclos vitales, esto se encuentra tanto en el universo como en la sociedad. El universo tiene la conformación armónica de la misma manera que ésta se encuentra en la polis. Partiendo de esa idea encontramos una isonomía entre la organización social de ese tiempo y la forma en que se entiende el universo. Para Anaximandro, la legalidad del universo se entiende sobre el modelo de la ley moral y jurídica de la sociedad, por lo que el conocimiento del universo se basa en el conocimiento de la sociedad, la cual se encuentra en un proceso continuo de unión y separación.17 Por otra parte, Anaxímenes sostenía la idea de que la base de toda la materia nace del aire y regresa a él. El proceso se desarrolla en una transformación constante que se da entre la dilatación y la condensación, en esos estados se puede entender la diferencia entre los sólidos y los fluidos. El movimiento continuo en que se encuentra el aire promueve que se generen los fenómenos de la naturaleza y el alma humana misma. Por tanto, el conocimiento debe centrar su atención en el aire y entender su movimiento. 18 Anaxágoras tiene una relación marginal con la escuela jónica, ya que su vinculación era la amistad con Anaxímenes, aunque su concepción varía de la de su amigo y coincide más con Anaximandro. Anaxágoras sostiene que el mundo es obra de una sabiduría infinita, el cual ha sido conformado básicamente por materia y espíritu. La primera es toda naturaleza existente, todo lo físico, y el segundo es el ordenador de la materia, pero dicho orden lo da una sabiduría divina.19 En la diferenciación que hace sobre el ser y el pensamiento, Anaxágoras afirma que el pensamiento permite tomar consciencia de uno mismo, de afirmar que yo soy yo, pero eso evidente se distingue como algo que hay en mí diferenciado y permanece en su unidad absoluta. Todo lo que yo pienso es mi pensamiento, y al ejercerlo logro la consciencia de mí. El pensamiento se mueve siempre en función de algo, y si se quiere encontrar el principio del movimiento, se debe buscar en la naturaleza inmanente del objeto mismo cuya autonomía está en el alma, pero esta alma actúa por impulso de la esencia pensante, que se encuentra en el exterior del individuo mismo. Ejemplificando la idea de Anaxágoras, Hegel dice: Así, por ejemplo, en la idea de que Dios, por su sabiduría, gobierna el universo con arreglo a fines, el fin se establece para sí en una esencia representativa, sabia. Pero lo general el fin consiste en que, siendo una determinación fija para sí, que domina la existencia, el fin sea lo verdadero, el alma de una cosa. Lo bueno encuentra su contenido en el fin mismo, de tal modo que, actuando con este contenido y después de manifestarse al exterior, no brote ningún otro contenido sino el que ya existía con anterioridad.20 La escuela jónica se caracteriza por exponer la génesis de las cosas en el agua y el aire, elementos que se encuentran en movimiento constante, los cuales son ordenados finalmente por una sabiduría divina. El conocimiento de estos postulados básicos permite que se identifique el objeto, su esencia y su motilidad* como una propuesta gnoseológica sistematizada. 16

Cfr. HEGEL, J. G. F., Lecciones sobre filosofía de la historia, t. I, Fondo de Cultura Económica, México, pp. 165-170. 17 Ibídem, p. 171. 18 Ibídem, p. 174. 19 Ibídem, p. 297. 20 Ibídem, p. 307

* Facultad que tiene la materia viva de moverse ante ciertos estímulos..

Otra corriente de pensamiento de gran relevancia es la llamada escuela itálica fundada por Pitágoras y la liga pitagórica. Se denomina escuela itálica en virtud de que Pitágoras se estableció en el sur de la península donde habían formado colonias algunos griegos de distintas poblaciones que emigraron ahí por distintos motivos. Para Pitágoras, la esencia permanente del mundo puede encontrarse en los principios matemáticos y especialmente en los números. Esto se debe a que las ideas del sistema numérico tienen en sí un orden que permite descubrir el orden de las cosas. Por ejemplo, si se quiere explicar el proceso de formación del mundo, lo cual puede hacerse por medio del carácter simbólico de las expresiones numéricas siguiendo un orden acumulativo, en el que se entienda que la gran mónada produce el número binario, después se forma el ternario y así sucesivamente, continuando por una serie de unidades y números, hasta llegar al conjunto de unidades que forman el universo. Las unidades representativas permiten establecer el proceso de configuración de los objetos, pero no sólo esto, también permite que se identifique lo no tangible, lo abstracto, por ejemplo el alma. Para los pitagóricos el alma está dividida en dos partes, una superior que es la razón y otra inferior que son las pasiones. La primera debe gobernar a las segundas y cuando se logre entre ambas un equilibrio se podrá obtener la virtud. En síntesis, la propuesta fundamental de la escuela pitagórica se reduce a que el número es la esencia de todas las cosas ya que ocupa un lugar intermedio entre la percepción sensible y las ideas, el número sirve de medida para indicar las determinaciones del objeto en las que la igualdad se toma como principio de la unidad, y la desigualdad como el principio de la dualidad. El número se distingue de lo sensible ya que la percepción es instantánea y la representación numérica eterna e inmutable, y se diferencia de las ideas debido a la variedad de objetos representados que encierra el número, ya que es susceptible de reproducirse y la idea es en sí misma una unidad. Por tanto, el número no es en sí un concepto inmediato, sino un principio ordenador del pensamiento que representa la materialidad como mediación de lo sensible. Para Pitágoras el objetivo era inculcar a sus discípulos la educación de la inteligencia y en ese proceso formar una moral del hombre práctico. Ante la costumbre de llamar sabio a los educadores, la escuela pitagórica aseveró que ahí no se consideraba la posesión de la sabiduría, sino que simplemente se tenga amor por ella por lo cual en lugar de llamárseles sabios debería identifícáseles como filósofos, quienes aspiran a obtener la sabiduría y no la ostentan.21 La escuela itálica propone como principio gnoseológico, el ordenamiento del pensar para lograr la representación de los objetos exteriores, representación que se hace por medio de símbolos los cuales sintetizan y acumulan desde los más simples hasta los más complejos objetos de la realidad natural. Podemos entender que la aportación fundamental de la escuela itálica es el uso de imágenes representacionales simbólicas de los objetos en unidades acumulables. La escuela eleática constituye otro de los pilares fundamentales en las propuestas de los filósofos griegos para la adquisición del conocimiento. Así como en el caso de la jónica, la eleática toma su nombre de la ciudad en donde se desarrolla la actividad de los filósofos, quienes se dividen en dos grandes ramas: la panteísta y la atomística. La rama panteísta, cuya nominación parte de las raíces pan, unión, totalidad, y Theos, Dios, que dan la idea de una unión con Dios, considera que hay una identidad directa entre Dios y la naturaleza constituyendo un todo indisoluble. Entre los principales exponentes está Jenófanes de Colfón (570-480 aC) quien se pronuncia en contra de la idea antropomórfica de Dios y sugiere que para entenderlo se parta de la unidad como fundamento de la integración del ente natural y Dios, y afirma que: El verdadero Dios no

21

lbídem, pp. 200-206.

se asemeja a los hombres ni por su cuerpo ni por su intelecto, se haya fundido en el todo y gobierna todas las cosas con la fuerza de su mente.22 Asimismo, rechaza la idea de politeísmo y afirma que solamente hay un ser eterno, inmutable, inmortal, origen y ser de todas las cosas, que se manifiesta en todas las formas corpóreas o no. La propuesta panteísta de Jenófanes atribuye al ser todopoderoso las capacidades dadas al humano pero quien "lo ve todo, lo piensa todo y lo oye todo" 23 es el ente teosófico, por tanto, el conocimiento que logra el hombre se debe a Dios. Parménides, quien es discípulo de Jenófanes admite también la unidad del mundo como una totalidad, pero a diferencia de su maestro, atribuye al ser humano la capacidad de conocer por sí mismo, pero este conocimiento, como acción perceptiva del ser humano, es idéntico al objeto conocido, identidad que se transmite como un reflejo del objeto que es, por lo que el objeto como ser inamovible. Para Parménides el objeto es lo que es y lo que es no puede no ser, puesto que si no es no puede ser. El principio de identidad tiene un razonamiento lógico que no admite cuestionamiento ni mutación, por lo que el conocimiento se deriva de la capacidad sensorial, pero la verdad sólo la da la razón. Bajo ese principio, a este filósofo se le considera como impulsor del escepticismo ya que la percepción de los objetos debe ser considerada como ilusión de la mente, y conocidos los objetos de esta manera, debe de dudarse de los mismos en forma permanente, lo que nos llevaría a caer en la duda universal. Para superar este proceso debe considerarse que los sentidos se ocupan de lo contingente, y por tanto engañan, para evitar el engaño debemos usar la razón que se ocupa de lo necesario. Así el testimonio de los sentidos quedará en duda hasta que no sufra el examen de la razón. Si se sigue esa línea de ideas sobre la identidad e inmutabilidad de los objetos que conocemos, y además admitimos la unidad del mundo, ese razonamiento sólo puede llevarnos a entender que en la base de todo está Dios, ya que El es inmutable, infinito, es en suma la esencia suprema sin ninguna determinación. 24 Finalmente, Zenón de Elea es considerado como el polemista de la escuela ya que se opone, con la utilización de su método llamado dialéctico, a cualquier postulado que se exponga sobre cualquier tema. Por principio, acepta sólo como hipótesis las aseveraciones del adversario, no como una afirmación confirmada, para derivar de ahí consecuencias lógicamente absurdas que lo lleven a confundir a quien pretende imponer sus ideas. En el mismo sentido que lo hace Parménides, Zenón pondera el valor de la razón y niega la legitimidad del testimonio de los sentidos. Pero en sentido inverso, considera que las cosas son finitas y mutables y siempre se les debe atribuir cualidades opuestas como semejanza y diferencia, movimiento y estabilidad, unidad y pluralidad. El reconocimiento de cualidades opuestas, sienta las bases para la concepción dialéctica la cual, en rigor, comienza con su propuesta. La admisión de la existencia de un objeto que se percibe, sólo podrá validarse cuando se le oponga una percepción distinta del mismo ya que las percepciones pueden ser sometidas a un juicio adecuado de la razón. Con la razón como fundamento básico, se tiene un punto de partida para entender que cuando una determinación es negada, y esta negación es a su vez una determinación, se deben de tomar en cuenta ambas determinaciones ya que en la negación absoluta no debe negarse sólo una; es decir, la razón debe entender que un objeto puede ser y no ser, tener para alguien algunas características y para otro no, que es falso y verdadero al mismo tiempo y que ambas consideraciones deben aceptarse.

22

LARROYO, Francisco, "La metafísica griega hasta Aristóteles", Metafísica, Porrúa, México, 1969, p. XIX. 23 XIRAU, Ramón, Introducción a la historia de la filosofía, 6a. ed., UNAM, México, 1977, p. 24. 24 Cfr. HEGEL, op. cit., pp. 225-236.

La propuesta de Zenón persigue el reconocimiento del movimiento en el proceso de conocimiento para lograr de esa manera, una aprehensión más adecuada de las cosas.25 La rama atomística de la escuela eleática. Esta rama toma su nombre de la palabra griega átomos que significa indivisible, el atomismo propone una teoría acerca de la estructura discontinua en la que se encuentra la materia. Dicha escuela fue fundada por Leucipo, quien sostiene que la formación del universo puede ser explicada por la multiplicidad infinita de átomos que existen, los cuales se combinan entre sí, elementos corpóreos cuyo tamaño es infinitamentepequeño y cada uno tiene una figura diferente. Dichos átomos forman los distintos objetos, los que adquieren su característica debido a la procedencia de los átomos. El alma humana es un conjunto de átomos de fuego, los cuales le confieren la capacidad perceptible que se transmite a través de los sentidos. Las impresiones que capta el alma son resultado de las emanaciones de los cuerpos que conforman los distintos átomos por su movimiento en el vacío. La diferencia que se percibe de los distintos objetos es eminentemente cuantitativa, ya que todo átomo, sin excepción tiene en su corporeidad una identidad cualitativa. Leucipo considera que para explicar las diferencias en las cosas, como son el aroma, el calor, la temperatura, el sabor, etc., se debe tener en cuenta que la conformación de las almas por átomos distintos, crea representaciones subjetivas diferenciadas por lo que la percepción de esos elementos dependen de cada subjetividad. Otro de los representantes de esa escuela es Demócrito, para quien la idea del atomismo no se da simplemente, como una reducción a la multiplicidad infinita de los átomos, sino que los átomos conforman la materia y ésta adquiere una identidad particular. Coincidentemente con Leucipo, Demócrito considera que la realidad consta de átomos en movimiento, cuyo desplazamiento continuo promueve la transformación de la acumulación cuantitativa a una determinación cualitativa, y la tarea de la ciencia (entendida como conocimiento), consiste en explicar esa mudanza. Desde esa perspectiva se afirma que: Demócrito entró a estudiar también la relación de la consciencia y a explicar, entre otras cosas, el origen de las percepciones, siendo en él en quien comienza la concepción de que se suceden y turnan, por decirlo así, las superficies de las cosas que se derraman en los ojos y en los oídos, etcétera. Por lo que podemos apreciar, Demócrito llega a proclamar de un modo más concreto la diferencia que existe entre los momentos del ser en sí y del ser para otro.26 El filósofo lleva esta idea con rigor sistemático al ámbito de la comprobación empírica, de la verificación del objeto en sí, puesto que para el atomismo se considera como mera apariencia la vida psíquica así como sus valores, esto es, cualquier objeto que se capta con los sentidos no es real, sino que es un objeto pensado, por lo que, se requiere identificar la sustentación atomística que lo configura, la materia de la cual está compuesto. De esa forma se eleva a la materia, al nivel de realidad verdadera y propia y se rebaja a la actividad espiritual al nivel de realidad derivada, que depende de la materia. El materialismo de Demócrito tiene dos postulados esenciales; el primero enuncia que la acción de los átomos se genera por el choque provocado entre unos y otros, el segundo sugiere que la acción no provoca cambios en los átomos, pues conservan su estructura idéntica a pesar de las interacciones realizadas. Con ello, la propuesta gnoseológica se reduce a la explicación del movimiento de átomos ígneos (el alma) como materia y átomos que producen los objetos materiales. Al margen de las reflexiones colectivas que permitían, ya sea por su ubicación geográfica o por lo homotemático de las concepciones que promovían, el reconocimiento de escuelas, encontramos a filósofos con una tendencia autónoma de profunda reflexión, Heráclito es uno de 25 26

Cfr. Ibídem, p. 242. Ibídem, p. 287.

ellos. Su principio es la dialéctica misma. En su idea no existe estabilidad en las cosas particulares ni en el universo. "Todo fluye, nada permanece ni persiste nunca lo mismo.",27 por tanto, "El ser y el no ser es uno y lo mismo, todo es y no es." 28 Si se intenta entender la realidad, la naturaleza, sólo se logra encontrando la verdad, la cual está en la unidad de lo contrapuesto, o visto de otra forma, en la contraposición del ser y no ser, o en palabras de Heráclito: Juntad el todo y lo que no es el todo [el cual se convierte en parte, y la parte tiende a convertirse en el todo], lo coherente y lo incoherente, lo armónico y lo disonante, veréis que del todo sale lo uno y de lo uno el todo.29 Partiendo de esas propuestas, para Heráclito no hay otra divinidad, otro elemento invariable que la transformación continua, incesante, el movimiento, el acontecer, el devenir, el movimiento constante. Así como para la escuela jónica, los fundamentos esenciales de la naturaleza están en el aire y el agua, para Heráclito, esa esencia es el fuego, ya que ésta conforma su alma y sustancia, en la medida que su acción es movimiento, es mudanza de unas cosas, en otras es el metamorfoseador de todos los cuerpos. En síntesis, si se quiere entender el universo se debe tomar en cuenta, como principio básico, la dialéctica. Ante las propuestas interpretativas del origen y esencia del mundo, se proponían distintos elementos como la base fundamental, surge una sinopsis que adopta el pluralismo como eje de la explicación. Empédocles de Agrigento expone la idea de que el mundo se compone por tierra, agua, aire y fuego. Son cuatro los elementos esenciales que siempre permanecen y no se crean ni se transforman, sino que se unen o separan. Lo único que se crea son las cosas, los objetos resultantes de la mezcla de esos elementos. Dichos elementos los identifica Empédocles como reales que unen y se desintegran como la relación con dos elementos ideales que son el amor y el odio, los que a su vez causan el bien y el mal, respectivamente. El amor da unidad a los elementos reales, el odio los separa. Éste es un movimiento infinito que ha persistido durante siglos, ya que nunca existe unión sin separación, ni separación sin unión; por lo que identidad y no identidad jamás se separan. En ese sentido, el proceso de movimiento es mecánico y secuencial, hay una relación directa entre la causa y el fin.30 Hasta aquí se ha descrito, grosso modo los enunciados gnoseológicos de la filosofía presocrática, en la que el entendimiento de la realidad se hace por medio de explicaciones teosóficas o cosmológicas. La reflexión filosófica sobre la naturaleza de la escuela jónica y de Heráclito, ponen en cuestión la relación entre la sustancia y sus aspectos fenoménicos, la relación entre lo individual y lo múltiple, entre el reposo y el movimiento y la solución la encuentran en la misma naturaleza o en la sabiduría divina. La escuela itálica por medio de la esquematización, y la eleática que vincula el planteamiento cosmológico con la capacidad del sujeto para el conocimiento, proponen formalmente el uso de la razón autónoma en la que el saber verdadero y el simple opinar se diferencian. El saber objetivo (verdadero) logra una posición preponderante sobre el subjetivo (la opinión) que gnoseológicamente ayuda a entender el universo de manera integral. Las propuestas para entender el proceso de conocimiento varían con la posición adoptada por los sofistas, en la que la gnoseología centra su atención en la discusión sobre la relación sujetoobjeto. Los sofistas ponen en duda el que la sustancia fundamental, esto es, el ser, sea cognoscible, y se cuestiona también la validez universal del saber verdadero. Los sofistas fueron los primeros filósofos que señalaron el papel de las diferencias individuales en la vinculación del sujeto con la realidad y las condiciones perceptuales en las que se logra. El 27

Ibídem, p. 262 Loc. cit. 29 Ibídem, p. 263 30 Cfr. Ibídem, pp. 290-294. 28

impulsor de la posición de los sofistas fue Protágoras. En su tesis sobre el conocimiento afirma que: El hombre es la medida de todas las cosas, de las que son en cuanto son y de las que no son en cuanto no son. 31 Esto significa que el criterio para conocer la verdad varía de conformidad con el tiempo y el lugar en el que se encuentre el ser humano, es decir, conforme al criterio de tiempo, lo que pareció ser antes verdadero, hoy puede ser falso, y lo que parece tener ciertas características desde una perspectiva varía desde otra. Eso se debe a la situación variable de la psicología humana. Por ello, en la medida que el hombre, como sujeto, se convierte en el parámetro de todas las cosas, el objeto no significa nada por sí mismo si no es para el conocimiento. La consciencia es lo que produce el contenido, por tanto, sólo el saber subjetivo puede desempeñar una actividad esencial. A Protágoras, por las propuestas realizadas, se le ha considerado como promotor del relativismo. El ejemplo que confirma su concepción de la relatividad, es la afirmación de que: La materia es puro fluir, nada fijo y determinado en sí, sino que puede ser todo; es algo que varía según las distintas edades y los demás estados de sueño, vigilia, etcétera. 32 Otro de los principales sofistas fue Gorgias, quien lleva al extremo la subjetividad de Protágoras con su doctrina a la que se le denominaba nihilista, expresión cuya raíz etimológica significa nada. La propuesta parte de tres fundamentos: 1 El ser que no tiene variabilidad, que no se transforma, que es inmutable no puede existir; 2 En caso de que existiera, no podría conocerse, y 3 Pero aun suponiendo que existiera y pudiera conocerlo, no sería posible comunicar lo conocido. La fundamentación que hace Gorgias sobre los postulados son los siguientes: Si algo es, por tanto sí es, es lo que es o lo que no es, o lo que es y lo que no es, por ello la unidad de esas tres propuestas lo único que indican es que no son y por tanto no existen.33 Sobre la imposibilidad del conocimiento Gorgias afirma: La relación entre lo que se trata de representar y la representación es un pensamiento... Pero, aunque sea, es de un modo incognoscible e impensable, pues lo representado, no es el ente. 34 Si lo que se representa es precisamente lo representado, la imagen, el conocimiento que se obtiene no es el objeto, sino la representación del objeto, por tanto no podría conocerse. Finalmente sobre la imposibilidad de comunicación, afirma que: Aunque pudiésemos representarnos lo que es no podríamos decirlo y comunicarlo. Las cosas son visibles, audibles, etc., es decir, se hallan sujetas a las percepciones en general. Lo visible se comprende viéndolo, lo audible, escuchándolo, y no a la inversa; no es posible, por consiguiente, señalar lo uno por medio de lo otro. Las palabras mediante las cuales podríamos expresar lo que es no son del ente; lo que se comunica no es, por tanto, el ente, sino solamente aquellas palabras.35 En su tiempo, los sofistas mantienen el interés público por la erudición y profundidad reflexiva con la que abordan los distintos temas. Poseen la consciencia de que su forma de razonamiento es compleja, pero además de que todo puede ser probado, consciencia atribuible a la gran cultura que poseían. En el Gorgias de Platón, puede encontrarse una expresión muy ilustrativa

31

LARROYO, Francisco, op. cit., p. XXVI. HEGEL, op. cit., t. II, p. 32. 33 Cfr. Loc. cit. 34 Ibídem, p. 38. 35 Ibídem, p. 39.

32

sobre el particular cuando dice: El arte de los sofistas es un bien mayor que todas las artes, puede convencer al pueblo, al senado, a los jueces de cuanto quiera.36 A estas actitudes asumidas por los sofistas, se enfrenta una posición que guarda la estrategia verbal de la duda a las afirmaciones, de la ironía, de la criticar y de la modestia intelectual. Nos estamos refiriendo a la posición adoptada por Sócrates quien, a diferencia de los sofistas que pugnaban por el razonamiento en términos generales, y la habilidad de la elocuencia —la cual se debe cultivar como un arte para la transmisión de los razonamientos—, consideraba que el pensamiento se realiza por medio de un algo fijo que el espíritu va descubriendo constantemente dentro de sí mismo. El principio de Sócrates se basa esencialmente en que el ser humano descubra a partir de sí mismo, desde la realización de cada uno de sus actos, hasta el fin último del universo, a lo cual debe llegar por sí mismo con un solo objetivo, la verdad. En ese sentido, el pensamiento verdadero se fundamenta en la premisa de que no es la subjetividad la que prevalece, sino la objetividad. Para Sócrates, el razonamiento verdadero es el conocimiento recto y adecuado de las cosas, por lo que esa actitud le permitirá vivir moralmente, y una vivencia moral lo lleva en búsqueda de lo bueno, ya que quien conoce el bien, lo lleva a la práctica, el mal reposa en la ignorancia, puesto que para ostentar una virtud, se requiere el saber, éste debe difundirse. La difusión del saber no puede ser impuesta desde afuera, sino extraída, de la misma reflexión individual para lo cual debe ser utilizada la mayéutica, por lo que Sócrates afirma como centro de su pensamiento la inscripción del oráculo de Delfos conócete a ti mismo. El acto del conocimiento debe ser llevado a la consolidación de la ciencia, entendiendo por ésta el conocimiento claro y preciso con validez en cualquier tiempo y espacio. Para ello, debe ser eliminada cualquier opinión que emane específicamente de nuestros sentidos o de nuestra imaginación. De esta manera tendremos un autoconocimiento objetivo y por ende un conocimiento objetivo de lo exterior a nosotros, ya que siempre que se exponga una teoría, ésta debe ser demostrada y no sólo expuesta con gran erudición. En síntesis, para Sócrates el sujeto debe conocerse para lograr el conocimiento de los demás, cuando logre esto, deberá cuestionar las afirmaciones de los demás para descubrir por medio del diálogo (dialéctica) las premisas falsas que utiliza y llegar al conocimiento objetivo, a la ciencia, cuyo valor debe ser incuestionable y universal, lo que a su vez, lleva al descubrimiento de la verdad. Conociéndose lo verdadero se puede hacer la diferencia entre lo bueno y lo malo, con lo cual siempre se elegirá y practicará lo bueno como una virtud. Al final, tendremos conceptos adecuados sobre la moral y un método para adquirir y promover el conocimiento verdadero. Esto sólo se podrá lograr cuando se parta de una modestia intelectual, cuyo principio es afirmar la ignorancia en el saber, aseverar que no se sabe nada para enseñar a los demás a que se den cuenta que no saben nada y que realmente empiecen a aprender.37 Hasta Sócrates, las reflexiones filosóficas han tomado una gran cantidad de vertientes que en lo fundamental llegan a confluir en Platón. Platón es una de las bases esenciales de la filosofía contemporánea de occidente. A diferencia de Sócrates quien concebía el pensamiento como voluntad misma del ser para autoconocerse y conocer, Platón amplía su principio para comprender la totalidad del proceso de conocimiento. Inicialmente, afirma la relatividad del conocimiento sensible, pues quienes tratan de apoyarse en las sensaciones e imágenes para afirmar que en ellas existe el conocimiento, carecerán de la verdad pues los sentidos no pueden dar una base sólida para el conocimiento del mundo. Se ha hecho célebre el ejemplo que expone Platón sobre los hombres de la caverna, que nos ilustra sobre los alcances del conocimiento, en relación con la percepción sensorial que se tiene: Imagínate una habitación subterránea al modo de una caverna, que tenga la entrada vuelta hacia 36 37

Ibídem, p. 25. Cfr. LARROYO, Francisco, op. cit., pp. XXVII-XXVIII y XIRAU, Ramón, op. cit, pp. 39-41.

la luz y larga como toda ella, y en esta caverna hombres encadenados desde la infancia, de suerte que tienen que permanecer en el mismo lugar a causa de las cadenas que les sujetan las piernas y el cuello, pudiendo solamente ver los objetos que tienen delante. Detrás de ellos, a lo largo y en alto, brilla un fuego. Hay un camino encarpado entre este fuego y los cautivos. Supón a lo largo de este camino un muro... Figúrate hombres que pasan a lo largo de este muro llevando objetos de toda clase, figuras de hombres y animales, de madera y de piedra, que sobresalen del muro; como es natural, estos hombres a veces hablan entre sí y a veces callan... Los presos sólo podrían ver las sombras que se producen enfrente de ellos, en el fondo de la caverna y las tomarían por las cosas mismas. Por el eco, oirían lo que los portadores hablan entre sí y estarían convencidos de oír hablar a estas sombras. Pues bien, si se dejase en libertad a alguno de ellos que pudiera volver la espalda y mirar las cosas mismas, puedes estar seguro de que creería que lo que ahora ve son sueños vanos y aquellas sombras que antes veía lo verdadero... Y si se le sacara de la caverna quedaría segado por la luz del sol y, deslumbrado con tanta claridad, no podría ver las cosas que llamamos reales y odiaría a quien le hubiese arrastrado hacia la luz, como se odia a quien nos ha arrebatado la verdad, deparándonos en cambio sólo dolor y pena.38 El ejemplo es ilustrativo para entender que el ser humano adquiere el conocimiento por medio de sus sensaciones, y lo que los sentidos provocan es una mera opinión subjetiva eindividual, que Platón identifica como Doxa. Por tanto, para el fundamento de la ciencia, se debe permitir la generación de un conocimiento que se asiente en la razón, episteme. De esta manera, lo real está en la razón, ya que el mundo corpóreo y sus hechos cambiantes son percepciones que conforman una realidad inmaterial. Esa realidad está constituida por ideas, las cuales pueden ser transmitidas por medio de conceptos, que forman parte de una realidad diferenciada. Para Platón una es la realidad de las cosas y otra la de las ideas, cada una es una realidad aparte y éstas se relacionan en el proceso de conocimiento realizado por el ser humano, en el cual existen dos momentos; uno, el de la mera opinión que: no es otra cosa que la facultad de juzgar lo aparente, es decir, la facultad de percibir las cosas tal como éstas parecen ser según los sentidos. Y segundo, a ella se opone la verdadera ciencia que tiene por objeto conocer lo que existe tal como existe.39 Y de acuerdo con Platón: La ciencia no reside en las sensaciones sino en el razonamiento sobre las sensaciones, puesto que según parece, sólo por el razonamiento se puede descubrir la ciencia y la verdad, y es imposible conseguirlo por otro rumbo. 40 En conclusión de lo que acabamos de exponer, la ciencia, como razonamiento, permite conocer las particularidades, pero estas particularidades son múltiples, por lo cual se debe contar con una ciencia de lo general. Para Platón, la ciencia de lo general es la filosofía y sólo en ella se puede encontrar lo esencial, lo general, la idea, lo bueno, lo verdadero. Si la filosofía nos muestra esa multiplicidad, esa generalidad, puede exponerse una teoría de las ideas en la que lo verdadero no es lo que existe para nuestros sentidos, sino el razonamiento, el mundo intelectual, eso es "...lo verdadero, lo digno de ser conocido, lo eterno, lo divino en y para sí." 41 Este mundo de las ideas, de la razón, del intelecto, es incorpóreo y, como ya se dijo, sólo puede ser transmisible por medio de conceptos. Esos conceptos no surgen de la realidad empírica, sino del intelecto que es objeto de la ciencia de lo general. El conocimiento general no proviene, por tanto, de los sentidos, sino que se encuentra en el recuerdo (anamnesis). La percepción sensible es únicamente un medio para que el alma recuerde algo que ya había existido con anterioridad 38

Cfr. PLATÓN, La República, UNAM, 1983, pp. 236-239. XIRAU, Ramón, op. cit., p. 48. 40 Ibídem, p. 47. 41 HEGEL, op. cit., p. 160.

39

en ella, que ya estaba en su presencia, un conocimiento supratemporal y válido racionalmente que se adquirió sobre la simplicidad de lo sensible inmediato. El alma es ajena al cuerpo, eterna e inmaterial, y por ser inmaterial se vincula en ese mundo con las ideas, las que contempla como formas puras de la realidad antes de habitar en el cuerpo. En la actividad terrestre de la vida cotidiana, unida al cuerpo, el alma olvida lo ya conocido, lo que se pone de relieve en el momento que la percepción promueve el recuerdo. El conocimiento es para Platón la relación entre alma e idea, en la que la idea no cambia ni puede aceptar ninguna variación y esto se revivifica por medio de los sentidos. Por tanto, la posibilidad de que la consciencia pueda ser creadora y capaz de generar los diferentes contenidos de los objetos percibidos queda eliminada de antemano. El movimiento de conceptos en la esfera de la ideas forma la base para la dialéctica de Platón. En esa dialéctica los conceptos puros expuestos en su movimiento son la esencia absoluta, y lo absoluto se emplea como la unidad de los diversos conceptos simples, los cuales se reducen en conceptos complejos que forman un organismo articulado. Opuesto a la realidad exterior al sujeto, su idea es la más real de todo, ya que determina lo general o el pensamiento como el verdadero frente a lo sensible, por ende, para este filósofo "...lo ideal es, en rigor, lo único real." 42

En resumen podemos decir que las propuestas gnoseologías de Platón conducen a: la búsqueda de la razón más allá de las sombras de lo sensible, la búsqueda de la unidad más allá de la pluralidad de todas las apariencias que nos rodean, la búsqueda del ser más allá de los engaños de devenir.43 La base de toda su propuesta reside en la idea sustancial en la que lo general reside en la razón. El otro pensador que impulsa la filosofía contemporánea es Aristóteles discípulo de Platón, quien llevó adelante, desarrolló y transformó el pensamiento dejado por su maestro. A diferencia de Platón, Aristóteles se sitúa en la relación que hay directamente entre el objeto del conocimiento y el sujeto cognoscente. El objeto externo logra ser aprehendido en una relación empírica con el razonamiento común. Por tanto, todo objeto es digno de conocimiento, todos los aspectos del saber le interesan al espíritu y deben ser estudiados a fondo y en detalle. Si bien los objetos empíricos son infinitos y variados, su conocimiento debe ser abordado por la filosofía especulativa, lo que permite que el más profundo concepto brote de ellos. Para Aristóteles "todos los hombres tienden por naturaleza al conocer," 44 pero el conocimiento se logra sólo si las ideas son claras y definidas. Eso se puede hacer si se estipula una clasificación de los conceptos que los defina y ubique. Por ejemplo, un concepto que posea una extensión amplia podrá identificarse como género, en cambio un concepto más restringido se puede denominar especie con lo que, "mamífero" podrá ser género de la especie "felino", y felino será género de la especie gato. Los conceptos pueden ser graduados de los más generales a los más particulares, con su clasificación se podrá conocer ordenadamente la forma caótica en que se presentan los objetos para el conocimiento empírico del sujeto. En esa relación, Aristóteles refuta la existencia de un mundo independiente conformado por las ideas, y no sólo se limita a la aseveración de la existencia de seres concretos, sino que expone argumentos que pretenden demostrar la inutilidad de la hipótesis platónica para la explicación del mundo, y con ello pretende reafirmar sus propuestas empíricas.

42 43

Ibídem, p. 178.

XIRAU, op. cit, p. 52. 44 Ibídem, p. 67. [Cfr. ARISTÓTELES, Metafísica, Colección "Sepan Cuantos", núm. 120, Porrúa, México, 1969, p. 5.]

En la argumentación aristotélica se sostiene que: De acuerdo con la hipótesis de Platón tenemos en este mundo del devenir una multiplicidad de hombres cuya existencia se explica, en el más allá, por una sola idea o esencia de los hombres en general. Ahora bien para poder comparar dos objetos (los hombres y su idea), es necesario que entre ellos exista alguna semejanza. Así el hombre concreto y el hombre ideal presuponen la existencia de una idea (la de una relación entre los dos) y esta idea, a su vez presupondría una semejanza entre ella y la idea correspondiente. Así ad infinitum. Entre estos hombres concretos que se pasean por una calle imaginaria de Atenas y su esencia, debería existir una variedad de relaciones y de ideas de estas relaciones.45 Y como sustento de esas reflexiones se afirma: ...Si hay un mundo de ideas o esencia, este mundo debe explicar todos los elementos de nuestro mundo. Así habría ideas para lo hermoso, lo bueno, lo justo; pero habría también ideas para lo feo, lo malo y lo injusto. De ser totalmente congruente, Platón debería aceptar la existencia de ideas para cosas negativas, lo cual va contra la perfección misma que Platón encontraba en su mundo ideal; de no ser así, de explicar tan sólo las partes positivas del mundo, es claro que Platón no explica las cosas en su totalidad y se limita a discernir y encontrar una ausencia tan sólo para aquellas que considera positivas. En suma: el mundo platónico de las ideas es ineficaz y, en realidad, inexistente, porque, o bien explica el mundo en su totalidad y deja entonces de ser perfecto o sigue siendo un mundo perfecto, pero explica tan sólo la mitad de la realidad.46 Aristóteles, en su perspectiva gnoseológica tiene dos inquietudes: explicarse el cómo del universo y el porqué de las cosas y de los hombres, ambas inquietudes pueden ser entendidas únicamente si se conoce la sustancia, por lo que el filósofo no se ocupa de los elementos variables y contingentes del ser, sino de los constantes y comunes a todos los individuos. En el razonamiento tipológico de Aristóteles, lo constante en el ser humano es la inteligencia, la razón, el hecho de vivir en sociedad, la comunicación, etc. Los elementos variables son la configuración física de los individuos en la que la variación es la estatura, el color, la nariz, el cabello, etc. Lo primero es la sustancia, y lo segundo lo accidental. A una de las formas de identificación de la sustancia, Aristóteles la califica como "sustancia sensible perecedera", la cual se refiere a las cosas individuales y cambiables. Los objetos así contemplados tienen un principio, un desarrollo y un fin, en todos se manifiesta el cambio continuo que es el llegar a ser y dejar de ser. El cambio no proviene exclusivamente de la existencia de los contrarios, sino se debe tomar en cuenta: primero, que el cambio sólo puede existir entre seres de la misma especie; segundo, que el cambio no sólo existe entre los contrarios, sino también entre los intermedios.47 Partiendo de la idea de que el cambio significa generación y desarrollo, los objetos de una especie serán creados y desarrollados por su misma especie, entendido así, el cambio es el proceso que va de la potencia al acto entre los polos antagónicos, o dos o más intermedios que se encuentran entre esos contrarios. El movimiento, el cambio, tiene como impulsor una causa que le dará la condición de la posibilidad de ser, o de realizarse. La causa tiene cuatro razones, cuatro momentos para que la cosa llegue a ser; tomando como ejemplo la construcción de objetos concretos; el de la primera causa, es el momento material, en el que se requieren los insumos necesarios; el segundo, el de la causa eficiente, que está constituido por la fuerza transformadora; el tercero, el de la causa formal, cuya base es la esencia o utilidad del objeto transformado; y el de la cuarta o causa final, es el objeto constituido. 45

Ibídem, p. 69 Ibídem, p. 70. 47 lbídem, p. 72. 46

Un caso concreto que nos sirva de ilustración, podría ser el siguiente: si pensamos en un ejemplo sobre la construcción de un objeto específico, los momentos casuales seguirían la siguiente secuencia. Supongamos que el objeto es una mesa, en el momento material, la causa sería la madera, los clavos, el pegamento y la herramienta de trabajo; la segunda causa o momento sería la causa eficiente, esto es, el trabajo del ser humano para transformar los insumos en mesa; el tercer momento es la determinación de la utilidad del objeto a construir, y la causa final es la existencia de la mesa como un nuevo ente. De esta manera, en el proceso de cambio se están enunciando varias causas que lo promueven, así, en nuestro ejemplo, para la transformación de la mesa se requieren los insumos, el trabajo y la utilidad, pero cada uno de esos elementos también surgen de una causa, por lo que se requiere identificar qué los produjo desde sus orígenes. La sustancia es la causa que promueve el cambio, y siempre podemos encontrar distintas sustancias que son promotoras del movimiento, por lo que para activar cualquier motor siempre se necesita quien lo active, y esto nos llevaría siempre a la búsqueda de la sustancia originaria. Para Aristóteles, el origen se encuentra en un Dios en eterno movimiento, ordenador del mundo e impulsor de los cambios. Ese Dios es pensamiento en sí; pensamiento que es pensamiento del pensamiento.48 El ente teosófico impulsa a los seres vivos, los cuales poseen un alma, entendida ésta como la potencia de la vida. El alma es el elemento motriz común para dar movimiento a los animales. La diferencia del alma para el humano y el animal no racional, reside en el intelecto, que se puede dividir en activo y pasivo. El intelecto activo es reflexivo, el intelecto pasivo es únicamente la percepción. Todos los animales perciben, sólo el ser humano reflexiona. La gnoseología aristotélica desprende el conocimiento de la relación sujetoobjeto en la que lo empírico es fundamental para pasar de la especulación sensible al conocimiento empírico consumado, a lo empírico pensante.49 La máxima aristotélica de que La duda es el principio de la sabiduría, se basa en la razón y en la vinculación de ésta con el mundo exterior. En resumen, para Aristóteles el conocimiento se realiza por la misma capacidad humana de razonar, pero ese razonamiento debe ser reflexivo para definir y clasificar los objetos en su individualidad y conjunción y, además, para verificar empíricamente que lo que se percibe por los sentidos existe en la realidad. Finalmente, en nuestra exposición sobre los planteamientos gnoseológicos de la filosofía griega consideramos las propuestas de Epicuro, quien pone en cuestión el empirismo de Aristóteles. Para Epicuro todas las ideas del ser humano proceden de las sensaciones, pero éstas se generan de las imágenes o ídolos que despiden los cuerpos sensibles. La idea de cuerpo sensible se identifica en Epicuro de tal manera que se entiende una vitalidad innata en el objeto. En palabras del filósofo se expone que: De la superficie de las cosas arranca un constante fluir que la sensación no percibe... y ocurre así porque, por razón del cumplimiento opuesto, la cosa misma retiene firmemente durante largo tiempo esta misma ordenación y disposición de los átomos; y el movimiento de estas superficies que se desprende es extraordinariamente rápido en el aire, ya que no es necesario que lo desprendido tenga alguna profundidad... Semejante representación no contradice a las sensaciones, siempre que nos fijemos en como producen las imágenes sus efectos, que es provocando una simpatía de las cosas exteriores con nosotros. De ellas parten, por tanto, emanaciones como imágenes que vienen a grabarse en nosotros y que hacen que veamos las formas y los colores de las cosas.50 48

Cfr. Ibídem, p. 78 Cfr. HEGEL, op. cit., p. 252. 50 lbídem, p. 384. 49

Si partimos de esa premisa, las sensaciones no son contradictorias si se les considera como una secuencia de percepciones diferenciadas en la que cada una tiene la certeza del objeto que la estimula, por ejemplo, el color de una pared puede ser blanca ante la claridad del día, y las sensaciones captan su blancura. Al ponerse el sol, la brillantez que se percibía adquiere una opacidad que también es percibida como tal por las sensaciones. Por tanto, el error no se encuentra en las sensaciones, sino en los juicios que mi pensamiento hace de la percepción sensorial. En ese sentido, la percepción recibe una imagen, de ésta, el pensamiento crea un juicio para dar identidad a la imagen, y del juicio se desprende un concepto. Si se conceptualiza la imagen percibida de la pared blanca con brillantez, ésta será incompatible con la imagen de la pared blanca con opacidad y a la inversa. Por tanto, si se quiere entender el objeto, es necesario que se acepte la percepción sensible y se neutralice el concepto que trastorna lo sensible. Como Aristóteles, Epicuro considera que el conocimiento verdadero parte de la experiencia, pero a diferencia de él, considera que el empirismo no es base inmutable para la identificación del objeto, sino que éste cambia de acuerdo con el momento y las circunstancias de su percepción. A la propuesta gnoseológica de Epicuro se le llama canónica, que significa un conjunto de cánones en los que se exponen los criterios de la verdad. Su propuesta del criterio de la verdad tiene tres momentos que son en sí fases o grados del conocimiento. La primera fase proviene del exterior, esto es, de las sensaciones que se generan del desprendimiento de las imágenes del objeto. El segundo se manifiesta en el interior del sujeto como representación, lo cual es el reconocimiento de lo sensible que se corrobora con la identificación de la imagen. El tercero es la unidad de los dos anteriores que en sí se convierte en la opinión o juicio que nos permite vincular la coincidencia entre la sensación y la representación.51 La exposición hecha sobre las propuestas gnoseológicas de los distintos pensadores de la Grecia antigua, no nos permite más que la apreciación estrecha, sintética, limitada, de lo que nos heredó un periodo de brillante reflexión filosófica. La arbitraria mutilación que hemos hecho en esa riqueza, se debe a que nuestro objetivo consiste en describir sólo las consideraciones referentes a la relación entre el ser cognoscente y la cosa, cognoscible, cuestión que incitó a esos filósofos a realizar profundas reflexiones que nos legaron los principios para la configuración de un devenir gnoseológico. Como se puede percibir, esas reflexiones sobre el conocimiento formulan el valor que el saber representa en sí mismo, y la factibilidad de que ese saber se constituya con la imagen específica del objeto. La variabilidad en las diversas propuestas surge de la explicación del mecanismo que sigue el proceso a través del cual, el objeto se transforma en el contenido del saber, así como de la explicación de la naturaleza del objeto y de la esencia que permite la realización del saber. En las propuestas sobre el proceso cognoscitivo encontramos posiciones que van desde la vitalidad de las cosas, de las cuales se desprenden partículas que estimulan los órganos de percepción sensorial, pasando por la unión de la relación de la imagen y los sentidos, hasta la configuración de un mundo independiente de las ideas que existen al margen del mismo ser humano. En la filosofía antigua de los griegos se enlaza la unidad del conocimiento y del objeto, pero el sujeto cognoscente no cuenta con una capacidad autónoma per se, ya que es el alma, la sustancia, la esencia o el espíritu, los que con un impulso teosófíco permiten la realización de la sabiduría. Se pensaba que el objeto verdadero sólo podría darse al sujeto cognoscente, y que la creatividad que pudiese tener el sujeto es simple opinión. Esa concepción se encuentra tanto en Heráclito, cuyo principio es la existencia de una sustancia para todas las cosas, como en 51

Cfr. Ibídem, pp. 379.

Demócrito y Platón quienes interpretan la actividad espiritual como condición necesaria para la percepción inmediata y la apropiación adecuada de la imagen del objeto mismo. Y el espíritu no es inherente al ser humano, sino una gracia concedida del exterior. De Dios. La gnoseología antigua forma una base para el desarrollo posterior de la filosofía en occidente que permite la realización de cosmovisiones en momentos y contextos diferenciados por las particularidades de su tiempo. Heller afirma que el filósofo es: siempre hijo de su tiempo, y por consiguiente portador de las exigencias, juicios y prejuicios de su periodo histórico, aun cuando se revele enérgicamente contra su saber de opiniones, contra sus prejuicios.52 Esto se puede constatar con el paso de la filosofía griega a la filosofía escolástica. .

1.5.2 LOS DOS PARADIGMAS ( Fritjof Capra, “El Punto Crucial)

1.4.2.1 La máquina newtoniana del mundo Las teorías esenciales de la visión del mundo y el sistema de valores que están en la base de nuestra cultura y que hoy tenemos que reexaminar atentamente se formularon en los siglos XVI y XVII. Entre 1500 y 1700 se produjo un cambio radical en la mentalidad de las personas y en la idea que éstas tenían acerca de las cosas. La nueva mentalidad y la nueva percepción del mundo dieron a nuestra civilización occidental los rasgos que caracterizan la era moderna y se convirtieron en las bases del paradigma que ha dominado nuestra cultura durante los últimos trescientos años y que ahora está a punto de cambiar. Antes del 1500, en Europa —y en la mayoría de las demás civilizaciones— predominaba una visión orgánica del mundo. Las personas vivían en pequeñas comunidades solidarias y sentían la naturaleza en términos de relaciones orgánicas cuyos rasgos característicos eran la interdependencia de los fenómenos materiales y espirituales y la subordinación de las necesidades individuales a las comunitarias. La estructura científica de esta visión orgánica del mundo se basaba en dos fuentes históricas de importancia reconocida: Aristóteles y la Biblia. En el siglo XIII santo Tomás de Aquino conjugó la doctrina aristotélica de la naturaleza con la ética y la teología del Cristianismo, estableciendo una estructura conceptual que no fue cuestionada nunca durante la Edad Media. La naturaleza de la ciencia medieval era muy diferente a la de la ciencia contemporánea. La primera se basaba al mismo tiempo en la razón y en la fe y su meta principal era comprender el significado y la importancia de las cosas, no predecirlas o controlarlas. En la Edad Media, los científicos que investigaban el objetivo primario de los distintos fenómenos naturales daban la máxima importancia a todo lo relacionado con Dios, con el alma humana y con la ética. En los siglos XVI y XVII los conceptos medievales sufrieron un cambio radical. La visión del universo como algo orgánico, vivo y espiritual fue reemplazada por la concepción de un mundo similar a una máquina; la máquina del mundo se volvió la metáfora dominante de la era moderna. Esta evolución fue el resultado de varios cambios revolucionarios en el campo de la física y de la astronomía que culminaron en las teorías de Copérnico, Galileo y Newton. La ciencia del siglo XVII se basaba en un nuevo método de investigación, defendido enérgicamente por Francis Bacon, que incluía dos teorías: la descripción matemática de la naturaleza y el método analítico de razonamiento concebido por el genio cartesiano. Los historiadores dieron a este periodo el nombre de la era de la Revolución Científica en reconocimiento al importante papel desempeñado por la ciencia en la realización de estos cambios trascendentales. La Revolución Científica comienza con Nicolas Copérnico. Sus teorías invalidaron la visión geocéntrica expuesta por Tolomeo y descrita en la Biblia; dicha visión había sido el dogma 52

HELLER, Agnes, Por una filosofía radical, El Viejo Topo, Barcelona, s. d., p. 19.

aceptado durante más de mil años. A partir de este momento, el mundo ya no fue considerado el centro del universo sino un planeta más que gira en torno a una estrella menor situada al borde de la galaxia; como consecuencia de ello; el hombre fue despojado de la orgullosa convicción de creerse la figura central de la creación divina. Copérnico era plenamente consciente de que la publicación de sus ideas ofendería de forma profunda la conciencia religiosa de su época y por ello no quiso exponerlas hasta 1543, año de su muerte, e incluso entonces presentó su visión heliocéntrica como una mera hipótesis pragmática. La herencia de Copérnico fue recogida por Johannes Kepler. Este científico y místico trató de encontrar la armonía de las esferas mediante un estudio minucioso de las tablas astronómicas y logró formular sus famosas leyes empíricas sobre el movimiento planetario, que confirmaron ulteriormente el sistema ideado por Copérnico. Pero el verdadero cambio en la esfera científica no se produjo hasta que Galileo Galilei, ya famoso por su descubrimiento de las leyes que rigen la caída de los cuerpos, no comenzó a interesarse por la astronomía. Apuntando en dirección al cielo el recién inventado telescopio y aplicando su extraordinario don de observación a los fenómenos celestes, Galileo logró poner en duda la antigua cosmología y afirmar la validez científica de la hipótesis concebida por Copérnico. La parte desempeñada por Galileo en la Revolución Científica va más allá de sus éxitos en el campo de la astronomía, si bien éstos fueron los más célebres a causa del enfrentamiento que tuvo con la Iglesia. Galileo fue el primero en utilizar la experimentación científica junto con un lenguaje matemático para formular las leyes naturales que descubrió y por ello se lo considera el padre de la ciencia moderna. «La filosofía —afirmaba— está escrita en el gran libro que se abre ante nosotros, pero para entenderlo tenemos que aprender el lenguaje y descifrar los caracteres con los que está escrito. El lenguaje es la matemática y los caracteres son los triángulos, los círculos y las demás figuras geométricas»1. Estas dos facetas de la obra de Galileo —el enfoque empírico y la descripción matemática de la naturaleza— supusieron un gran adelanto para su época y se convirtieron en las características dominantes de la ciencia del siglo XVII. Hasta el día de hoy se las utiliza como criterio para cualquier teoría científica. Según Galileo, para que fuese posible describir la naturaleza matemáticamente, los científicos tenían que limitarse al estudio de las propiedades esenciales de los cuerpos materiales —formas, números y movimiento— que pudiesen ser medidas o contadas. Las restantes propiedades —el color, el sonido, el sabor o el olor— eran consideradas simplemente una proyección mental subjetiva que debía ser excluida del dominio de la ciencia2. La estrategia de Galileo —dirigir el interés del científico a las propiedades cuantificables de la materia— ha tenido gran éxito en la ciencia moderna pero, por otro lado, también le ha infligido graves pérdidas, como nos recuerda el psiquiatra R.D. Laing: «Desaparece la vista, el oído, el sabor, el tacto y el olfato y junto con ellos se van también la estética y el sentido ético, los valores, la calidad y la forma, esto es, todos los sentimientos, los motivos, el alma, la conciencia y el espíritu. Las experiencias de esta índole han sido desterradas del reino del discurso científico»3. Según Laing, la obsesión de los científicos por las medidas y cantidades ha sido el factor determinante de los cambios ocurridos durante los últimos cuatrocientos años. Mientras, en Italia Galileo ideaba sus ingeniosos experimentos, en Inglaterra Francis Bacon exponía sus teorías sobre el método empírico. Bacon fue el primero en formular una teoría clara del procedimiento inductivo que consiste en extraer una conclusión de carácter general a partir de un experimento y luego confirmarla con otros experimentos. Bacon defendió sus planteamientos enérgicamente y llegó a tener una gran influencia en el pensamiento de su época; se enfrentó con audacia a las escuelas filosóficas tradicionales y desarrolló una verdadera pasión por la experimentación científica. El «espíritu baconiano» modificó profundamente los objetivos y la naturaleza de la investigación científica. Desde la antigüedad, la ciencia había tenido como meta el conocimiento, la comprensión del orden natural y la vida en armonía con este orden. El hombre

buscaba el conocimiento científico «para gloria de Dios» o, en la civilización china, «para seguir el orden natural» y «confluir en la corriente del Tao»4. Todos estos objetivos eran yin, o integradores; hoy diríamos que los científicos de aquella época tenían una postura básica ecológica. Pero en el siglo XVII esta actitud se transformó en su polo opuesto, pasando del yin al yang, de la integración a la autoafirmación. Con Bacon la ciencia comenzó a tener como fin un tipo de conocimiento que permitiera dominar y controlar la naturaleza conocimientos que hoy se emplean junto con la tecnología para lograr objetivos que son profundamente antiecológicos. Los términos que Bacon utilizaba para defender su nuevo método empírico no sólo eran apasionados sino que, a menudo, se podían tachar de atroces. En su opinión, la naturaleza tenía que ser «acosada en sus vagabundeos», «sometida y obligada a servir», «esclavizada»; había que «reprimirla con la fuerza» y la meta de un científico era «torturarla hasta arrancarle sus secretos»5. Es probable que muchas de estas imágenes le fueran inspiradas por los procesos de brujería que se celebraban con frecuencia en su época. Como fiscal del Tribunal Supremo durante el reinado de Jaime I, Bacon estaba muy familiarizado con estos juicios y, por consiguiente, no es raro que utilizara las metáforas escuchadas en la sala de tribunales para sus escritos científicos. De hecho, la comparación de la naturaleza con una hembra a la que se había de torturar con artilugios mecánicos para arrancarle sus secretos sugiere claramente que la tortura a mujeres era una práctica muy difundida en los procesos por brujería a comienzos del siglo XVI6. Por consiguiente, la obra de Bacon es un ejemplo significativo de la influencia que la mentalidad patriarcal tuvo en el desarrollo del pensamiento científico. El antiguo concepto de la tierra/madre se transformó radicalmente en la obra de Bacon y desapareció por completo cuando la Revolución Científica reemplazó la visión orgánica del mundo con la metáfora del mundo/máquina. Este cambio, que llegaría a tener una importancia abrumadora en la evolución ulterior de la civilización occidental, fue iniciado y completado por dos grandes figuras del siglo XVII: René Descartes e Isaac Newton. A Descartes se lo suele considerar el fundador de la filosofía moderna. Brillante matemático, sus ideas filosóficas fueron afectadas por la nueva física y la astronomía. Descartes rechazó los conceptos tradicionales y se propuso crear un sistema de pensamiento totalmente nuevo. Según Bertrand Russell: «Esto no había ocurrido desde Aristóteles y es una señal de la seguridad que el hombre de nuestro tiempo tiene en sí mismo; esta confianza es un resultado del progreso científico. La novedad de los conceptos que (Descartes) plantea en su obra no se halla en ningún otro filósofo eminente del pasado, salvo en Platón»7. A la edad de veintitrés años Descartes tuvo la visión reveladora que iba a determinar toda su vida8. Después de meditar durante varias horas y examinar sistemáticamente toda la sabiduría que había acumulado, le sobrevino una ráfaga de inspiración y comprendió «las bases de una maravillosa ciencia» en la que se fusionarían todos los conocimientos. En una carta que escribe a un amigo para explicarle su ambiciosa meta, Descartes parece haber tenido un presagio de esta intuición: «Y para no ocultarte nada sobre la naturaleza de mi obra, te diré que me gustaría dar al público... una ciencia completamente nueva que resolviese en términos generales todos los problemas de cantidad, sean éstos continuos o discontinuos»9. En su visión, Descartes concibió la manera de llevar a cabo su plan. Vio un método que le permitiría construir toda una ciencia de la naturaleza de la que podía estar totalmente seguro; una ciencia que, como la matemática se apoyaría en ciertos principios básicos evidentes. Descartes quedó pasmado ante esta revelación. Sintió que acababa de hacer el descubrimiento más importante de su vida y no le cupo la menor duda de que la visión fuese una suerte de inspiración divina. A la noche siguiente tuvo un sueño extraordinario durante el cual la visión se le presentó en forma simbólica y esto contribuyó a reforzar la convicción de su origen divino. Entonces Descartes se persuadió de que Dios le había encomendado una misión y se propuso establecer una nueva filosofía científica.

En virtud de esta visión, Descartes quedó firmemente convencido de la certeza de los conocimientos científicos y se decía a sí mismo, que su vocación era distinguir la verdad del error en todos los campos del estudio. «Toda la ciencia —escribió— es sabiduría cierta evidente. Rechazamos todos los conocimientos que sólo son probables y establecemos que no debe darse asentimiento sino a los que son perfectamente conocidos y de los que no cabe dudar»10. La fe en la certeza absoluta de la ciencia está en el origen mismo de la filosofía cartesiana y de la visión del mundo que deriva de ella, sin embargo fue aquí, desde el principio, donde Descartes se equivocó. En el siglo XX la física nos ha demostrado con la fuerza de sus argumentos, que no existe una certeza científica absoluta y que todos nuestros conceptos y nuestras teorías son limitados y aproximativos. La filosofía cartesiana de la certeza científica absoluta es aún muy popular y se refleja en el cientifismo que caracteriza a nuestra civilización occidental. Muchos de nuestros contemporáneos, científicos y no científicos, están convencidos de que éste es el único método válido para entender el universo. El método del pensamiento cartesiano y su visión de la naturaleza han influido en todas las ramas de la ciencia moderna y pueden seguir utilizándose siempre y cuando se admitan sus limitaciones. Aceptar la visión de Descartes como la verdad absoluta y su método como una manera válida de lograr el conocimiento ha sido una de las principales causas de nuestro desequilibrio cultural. La certidumbre cartesiana es matemática en esencia. Descartes creía que la clave del universo se hallaba en su estructura matemática y, para él, ciencia era sinónimo de matemáticas. Por esta razón escribió, con respecto a las propiedades de los objetos físicos: «Sólo admito como verdadero lo que haya sido deducido —con la claridad de un ejemplo matemático— de unas nociones comunes acerca de las cuales no quepa la menor duda. Como todos los fenómenos de la naturaleza pueden explicarse de esta manera, creo que no tenemos necesidad de admitir otros principios de la física y tampoco hemos de desearlos»11. Como Galileo, Descartes pensaba que la matemática es el lenguaje de la naturaleza —«ese gran libro que se abre ante nosotros»— y su deseo de describir el mundo en términos matemáticos lo llevó a realizar su más famoso descubrimiento. Aplicando las relaciones numéricas a figuras geométricas, logró establecer una correlación entre el álgebra y la geometría y con ello creó una nueva rama de las matemáticas, que hoy se conoce como geometría analítica. Dicha ciencia incluyó la representación de curvas mediante ecuaciones algebraicas cuyas soluciones Descartes estudió de manera sistemática. El nuevo método le permitió aplicar un análisis matemático más general al estudio de los cuerpos en movimiento de acuerdo con su grandioso proyecto de establecer una relación matemática exacta en todos los fenómenos físicos. Con ello podía decir orgullosamente: «Toda mi física no es más que geometría»12. Descartes fue un genio de las matemáticas y esto se refleja en su filosofía. A fin de realizar su proyecto de crear una ciencia natural completa y exacta, desarrolló un nuevo método de razonamiento y lo expuso en su famosísimo libro Discurso del método. Aunque este texto es hoy uno de los grandes clásicos de la filosofía, no fue concebido como tal, sino más bien como una introducción a la ciencia. El método cartesiano tenía como meta llegar a la verdad científica, como claramente se ve en el título completo del libro: «Discurso del método para guiar correctamente el razonamiento y encontrar la verdad en las ciencias» La clave del método cartesiano se halla en la duda radical. Descartes pone en duda todo aquello de que sea posible dudar —toda la sabiduría tradicional, las impresiones de los sentidos y hasta el hecho de tener un cuerpo— hasta llegar a un punto sobre el cual no cabe albergar ninguna duda: su existencia como sujeto pensante. De ahí su famosa afirmación: «Cogito ergo sum» («Pienso, luego existo»). De este principio deduce que la esencia de la naturaleza humana se halla en el pensamiento y que todo aquello que sea percibido con gran claridad y distinción es absolutamente cierto. A este concepto tan claro y distinto —«un concepto de la mente pura y

atenta»13—, Descartes lo llama «intuición» y afirma que «el hombre, para llegar a un conocimiento absolutamente cierto de la verdad, sólo puede guiarse por la intuición evidente y la deducción necesaria»14. El conocimiento cierto, por consiguiente, sólo se obtiene mediante la intuición y la duda, los dos instrumentos utilizados por Descartes en una tentativa de reconstruir el edificio de la sabiduría sobre cimientos más firmes. El método cartesiano es analítico, esto es, consiste en dividir los pensamientos y problemas en cuantas partes sea posible y luego disponerlos según un orden lógico. El método de razonamiento analítico quizá sea la principal contribución de Descartes a la ciencia. El racionalismo se ha convertido en una característica esencial del, pensamiento científico moderno y ha demostrado su utilidad en el desarrollo de teorías científicas y en la realización de proyectos tecnológicos extremadamente complejos. Gracias al método cartesiano, la NASA logró poner a un hombre en la luna. Por otro lado, la excesiva importancia dada al racionalismo es una de las causas que caracterizan tanto a nuestras ideas generales como a nuestras disciplinas académicas, además de propiciar la postura reduccionista —la convicción de que hay que reducir los fenómenos complejos a sus partes constitutivas para lograr entenderlos— tan difundida en el mundo de hoy. El Cogito —nombre que hoy se da al método cartesiano— hizo que para él la razón fuese más cierta que la materia y le hizo llegar a la conclusión de que ambas cosas eran entes separados y básicamente distintos. Por consiguiente, afirmó que «el concepto de cuerpo no incluye nada que pertenezca a la mente y el de mente, nada que pertenezca al cuerpo»15. La distinción que Descartes hizo entre la mente y el cuerpo ha calado hondo en la civilización occidental. Nos ha enseñado a pensar en nosotros mismos como egos aislados «dentro» de nuestro cuerpo; nos ha hecho conceder más valor al trabajo intelectual que al manual; a las grandes industrias les ha permitido vender al público —especialmente al público femenino— productos que le darían el «cuerpo ideal»; a los médicos les ha impedido considerar las dimensiones psicológicas de las enfermedades y a los psicoanalistas ocuparse del cuerpo de sus pacientes. En las ciencias humanas, la distinción cartesiana ha provocado una infinita confusión sobre la relación que existe entre la mente y el cerebro; en física, ha hecho que los fundadores de la mecánica cuántica se enfrenten a enormes obstáculos en sus observaciones de los fenómenos atómicos. Según Heisenberg, que luchó contra este problema durante muchos años: «En los últimos tres siglos esta división ha ido penetrando profundamente en la mente humana, y pasará mucho tiempo antes de que pueda ser reemplazada con una postura verdaderamente diferente ante el problema de la realidad»16. Descartes basaba toda su visión de la naturaleza en esta división fundamental existente entre dos campos independientes y separados: el del pensamiento o res cogitans, la «substancia pensante», y el de la materia o res extensa, la «substancia extensa». Tanto la mente como la materia eran obra de Dios; Él representaba el punto de referencia de ambas cosas al ser el origen del orden natural exacto y de la luz de la razón que permitía al ser humano reconocer este orden. Para Descartes, Dios era un elemento esencial de su discurso filosófico, pero los científicos que desarrollaron sus teorías según la distinción cartesiana entre la mente y la materia omitieron cualquier referencia explícita a la presencia divina: las humanidades se concentraron en la res cogitans y las ciencias naturales en la res extensa. Según Descartes el universo material era una máquina y sólo una máquina. En la materia no había ni vida, ni metas, ni espiritualidad. La naturaleza funcionaba de acuerdo con unas leyes mecánicas, y todas las cosas del mundo material podían explicarse en términos de la disposición y del movimiento de sus partes. Esta imagen mecanicista de la naturaleza fue el paradigma que dominó la ciencia después de Descartes, marcando la pauta de las investigaciones científicas y sugiriendo la formulación de todas las teorías sobre los fenómenos naturales, hasta que la física del siglo XX efectuó un cambio radical. Toda la elaboración de la ciencia mecanicista que tuvo lugar entre el siglo XVII y el siglo XIX —incluida la grandiosa síntesis newtoniana— fue sólo una evolución de la idea cartesiana. Descartes dio una estructura general al pensamiento

científico con su visión de la naturaleza como una máquina perfecta regida por leyes matemáticas exactas. El cambio drástico en la imagen de la naturaleza —de organismo a máquina— afectó profundamente la actitud de las personas hacia su entorno natural. La visión orgánica del mundo durante la Edad Media había sugerido un sistema de valores propicios a un comportamiento ecológico. En palabras de Carolyn Merchant: La imagen de organismo vivo y de madre que se le daba a la tierra fue utilizada como obstáculo cultural para limitar las acciones de los seres humanos. No es nada fácil matar a la propia madre, hurgar en sus entrañas en búsqueda de oro o mutilar su cuerpo... Mientras se pensó en la tierra como algo vivo y sensible, podía considerarse como falta de ética del comportamiento humano el llevar a cabo actos destructivos en contra de ella17. Estos límites culturales desaparecieron con la mecanización de la ciencia. La concepción mecanicista del universo ideada por Descartes proporcionó la autorización «científica» para la manipulación y la explotación de los recursos naturales que se ha convertido en una constante de la cultura occidental. De hecho, Descartes compartía la opinión de Bacon en cuanto a que la meta de la ciencia era dominar y controlar la naturaleza y afirmaba que podía utilizarse el conocimiento científico para «convertirnos en los amos y dueños de la naturaleza»18. En su tentativa de crear una ciencia natural completa, Descartes incluyó a los organismos vivos dentro de su visión mecanicista de la materia. Las plantas y los animales se consideraban simples máquinas; los seres humanos estaban habitados por un alma racional que se conectaba con el cuerpo mediante la glándula pineal, situada en el centro del cerebro. En cuanto al cuerpo humano, era imposible diferenciarlo de un animal/máquina. Descartes explicó detalladamente la manera de reducir los movimientos y las funciones biológicas del cuerpo a simples operaciones mecánicas, a fin de demostrar que los organismos vivos eran meros autómatas. La imagen del autómata denota la influencia que en él —como hombre de su tiempo, el barroco siglo XVI— ejercieron aquellas maquinarias ingeniosas, «casi vivas», que deleitaban al público por la magia de sus movimientos aparentemente espontáneos. Como muchas personas de su generación, Descartes estaba fascinado por esos autómatas y llegó incluso a construir varios. Inevitablemente, estableció una comparación entre sus creaciones y el funcionamiento de los organismos vivos: «Vemos que los relojes, las fuentes artificiales, los molinos y otras máquinas semejantes, a pesar de haber sido creadas por el hombre, tienen la facultad de moverse por sí mismas de diferentes maneras... No reconozco ninguna diferencia entre las máquinas de los artesanos y los diferentes cuerpos creados por la naturaleza»19. En la época de Descartes la relojería había alcanzado un alto nivel de perfeccionamiento y, por consiguiente, el reloj era un modelo privilegiado para otras máquinas automáticas. Descartes comparaba a los animales a «un reloj... hecho... de ruedas y muelles» y extendió la comparación al cuerpo humano: «Veo el cuerpo humano como una máquina... En mi opinión... un enfermo y un reloj mal hecho pueden compararse con mi idea de un hombre sano y un reloj bien hecho»"20 La visión cartesiana de los organismos vivos tuvo una influencia decisiva en la evolución de las ciencias humanas. Describir minuciosamente los mecanismos que constituyen los organismos vivos ha sido la tarea principal de todos los biólogos, los sociólogos y los psicólogos en los últimos trescientos años. El enfoque cartesiano ha tenido mucho éxito —especialmente en el campo de la biología—pero también ha limitado los posibles caminos de la investigación científica. El problema está en que los científicos, alentados por el éxito obtenido tratando a los organismos vivos como máquinas, tienden a creer que estos organismos son sólo máquinas. Las consecuencias negativas de esta falacia reduccionista se han vuelto clarísimas en la medicina; los médicos, suscritos a la imagen cartesiana del cuerpo humano como un mecanismo de relojería, no pueden entender muchas de las principales enfermedades presentes en el mundo de hoy.

Ésta, pues, es la «maravillosa ciencia» de Descartes. Utilizando un método de pensamiento analítico creado por él, trató de explicar con precisión todos los fenómenos naturales por un sistema único de principios mecánicos. De este modo pensaba lograr una ciencia a exacta cuyos conceptos fueran de una certeza matemática absoluta. Por supuesto, Descartes no logró llevar a cabo su ambicioso proyecto y él mismo reconoció que no había podido llevar a término su filosofía científica. A pesar de ello, el método de razonamiento y el esquema general de la teoría sobre los fenómenos naturales han determinado el pensamiento científico de Occidente durante tres siglos. Hoy, a pesar de que se comienzan a vislumbrar las severas limitaciones de la visión cartesiana del mundo, el método de enfocar los problemas intelectuales y la claridad de razonamiento de Descartes siguen vigentes. Recuerdo que un día, después de pronunciar una conferencia sobre física moderna en el que había recalcado la importancia de las limitaciones del enfoque mecanicista en la cuántica y la necesidad de superar esta visión en otros campos, una mujer, francesa me felicitó por mi «lucidez cartesiana». Por ello Montesquieu escribía en el siglo XVIII: «Descartes enseñó a los que vinieron después de él cómo descubrir sus propios errores»21. Descartes dio una estructura conceptual a la ciencia del siglo XVII, pero su idea de una máquina del mundo regida por leyes matemáticas siguió siendo sólo una visión ilusoria durante toda su vida. Lo único que pudo hacer fue trazar las líneas generales de su teoría sobre lo fenómenos naturales. El hombre que realizó el sueño cartesiano completó la Revolución Científica fue Isaac Newton. Nacido en Inglaterra en 1642, año de la muerte de Galileo, Newton desarrolla toda una fórmula matemática del concepto mecanicista de la naturaleza y con ella sintetizó magníficamente las obras de Copérnico y de Kepler, y también las de Bacon, Galileo y Descartes. La física newtoniana, logro supremo de la ciencia del siglo XVII, estableció una teoría matemática del mundo que se convirtió en la base del pensamiento científico hasta mediados del siglo XX. Newton tenía una comprensión de las matemáticas muy superior a la de cualquiera de sus contemporáneos. Inventó el cálculo diferencial, un método totalmente nuevo para describir el movimiento de los cuerpos sólidos que iba mucho más allá de las técnicas matemáticas de Galileo y de Descartes. Este tremendo logro intelectual fue elogiado por Einstein con estas palabras: «Quizá este sea el mayor avance en el campo intelectual que un solo individuo haya tenido el privilegio de hacer»22 Kepler había deducido las leyes empíricas del movimiento planetario mediante el estudio de las tablas astronómicas, y Galileo había realizado ingeniosos experimentos para descubrir las leyes de la caída de los cuerpos. Newton aunó los descubrimientos de sus predecesores, formulando las leyes generales del movimiento que rigen todos los objetos del sistema solar, desde las piedras hasta los planetas. Según la leyenda, Newton tuvo la revelación decisiva de su ciencia un día que, sentado bajo un árbol, vio caer una manzana. Le sobrevino una ráfaga de inspiración y comprendió que la manzana estaba siendo atraída hacia la tierra por la misma fuerza que atraía los planetas hacia el sol; de esta manera encontró la clave de su genial síntesis. Después utilizó su nuevo método matemático para formular las leyes exactas del movimiento para todos los cuerpos en los que influyen la fuerza de gravedad. La importancia de estas leyes se basa en su aplicación universal. Por el hecho de ser válidas para todo el sistema solar parecían confirmar la visión cartesiana de la naturaleza. El universo newtoniano era, en efecto, un enorme sistema mecánico regido por leyes matemáticas exactas. En su libro Principios Matemáticos de la Filosofía Natural, Newton expuso su teoría con gran lujo de detalles. Los Principia (diminutivo del título original latino de la obra) comprenden un vasto sistema de definiciones, proposiciones y pruebas, que los científicos admitieron como la correcta descripción de la naturaleza durante más de doscientos arios. También contienen un

comentario explícito del método experimental newtoniano, que su autor veía como un procedimiento sistemático en el cual la descripción matemática se basa en una evaluación crítica de las pruebas experimentales realizada en cada una de sus etapas. Todo lo que no se pueda deducir de los fenómenos ha de llamarse hipótesis; y las hipótesis, sean metafísicas o físicas, sean de calidades ocultas o mecánicas, no tienen cabida en la filosofía experimental. En esta filosofía las proposiciones particulares se deducen de los fenómenos y después se universalizan por inducción23. Anteriormente a Newton existían dos tendencias opuestas en la ciencia del siglo XVII: el método empírico e inductivo propuesto por Bacon y el método racional y deductivo representado por Descartes. En sus Principia, Newton expuso la manera justa de combinar ambos métodos, haciendo hincapié en el hecho de que era imposible llegar a una teoría cierta mediante experimentos desprovistos de una interpretación sistemática ni por medio de unos principios básicos confirmados por la experimentación. Superando a Bacon en la experimentación sistemática y a Descartes en el análisis matemático Newton combinó las dos tendencias en una sola y desarrolló la metodología que ha sido la base de las ciencias naturales desde entonces. La personalidad de Newton era mucho más compleja de lo que sus escritos científicos pueden sugerir. No sólo fue un excelente científico y un brillante matemático sino que también, en varias etapas de su vida, destacó como abogado, historiador y teólogo; también se interesó profundamente por las ciencias ocultas y la sabiduría esotérica. El mundo era, para él, un acertijo y pensaba que la clave para entenderlo podría hallarse no sólo por medio de la experimentación científica sino también en las revelaciones crípticas de la tradición esotérica. Igual que Descartes, Newton se creía capaz de desentrañar todos los secretos del universo y aplicó su genio con igual intensidad al estudio de las ciencias naturales y de las ciencias esotéricas. Mientras componía sus Principia en el Trinity College de Cambridge logró acumular, paralelamente, un sinfín de apuntes sobre alquimia, textos apocalípticos, teorías teológicas poco ortodoxas y temas relacionados con las ciencias ocultas. La mayoría de estos escritos esotéricos nunca fueron publicados, pero lo que sabemos de ellos de muestra que Newton, el gran genio de la Revolución Científica, fue también «el último mago de la historia» 24. El escenario en donde ocurrían todos los fenómenos físicos del universo newtoniano era el espacio tridimensional de la geometría clásica euclidiana. Éste era un espacio absoluto, un recipiente vacío independiente de los fenómenos físicos que ocurrían en su interior. En palabras de Newton: «El espacio absoluto por naturaleza sin relación a nada externo, permanece siempre igual a sí mismo e inmóvil»25. Todos los cambios que se efectuaban en el mundo físico se describían en términos de una dimensión separada y el tiempo —que también es absoluto— no guardaba relación alguna con el mundo material, fluyendo uniformemente desde el pasado hasta el futuro, pasando por el presente. «El tiempo absoluto, verdadero y matemático —escribía Newton—, de suyo y por su propia naturaleza, fluye uniformemente sin relación con nada externo»26. Las partículas de materia son los elementos del mundo newtoniano que se mueven dentro de ese espacio absoluto y en este tiempo absoluto. Toda la materia estaba formada por estos objetos pequeños, sólidos e indestructibles. La teoría de Newton era corpuscular y se diferenciaba del atomismo actual en que los átomos, según Newton, estaban todos hechos de la misma materia. En su opinión, la materia era homogénea y la diferencia entre los tipos de materia era el resultado de la agrupación más o menos densa de los átomos y no de los diferentes pesos o densidades de éstos. Los componentes básicos de la materia podían tener diferentes tamaños pero estaban hechos del mismo «material», y la masa de un objeto dependía de la cantidad total de sustancia material contenida en él. El movimiento de las partículas era engendrado por la fuerza de gravedad, la cual —en opinión de Newton— actuaba instantáneamente a distancia. Las partículas de materia y las fuerzas

existentes entre ellas eran por naturaleza básicamente diferentes y la constitución interna de las partículas era independiente de su interrelación. Newton creía que tanto las partículas como la fuerza de gravedad eran de origen divino y, por consiguiente, no estaban sujetas a un análisis más profundo. En su Óptica, Newton expuso claramente la imagen que él tenía de la creación del mundo material. Me parece probable que Dios, en el comienzo, creó partículas de materia, sólidas, macizas, duras, impenetrables y móviles, de diversos tamaños y formas, con diferentes propiedades y en distintas proporciones al espacio, como mejor conviniese al objetivo para el que las formó. Y creo que, al ser cuerpos sólidos, estas partículas primitivas son incomparablemente más duras que cualquier cuerpo poroso formado de varias de ellas; su dureza es tal que nunca se desgastan ni se rompen en pedazos; y ninguna fuerza corriente puede dividir lo que Dios unió en los albores de la creación27. En la mecánica newtoniana todos los fenómenos físicos se reducen al movimiento de partículas de materia provocado por su atracción mutua, esto es, por la fuerza de gravedad. Los efectos de esta fuerza en una partícula o en cualquier objeto material están descritos matemáticamente en las ecuaciones newtonianas de movimiento, que forman la base de la mecánica clásica. El movimiento de los objetos materiales, —según se pensaba—estaba sujeto a estas normas fijas; ellas causaban todos los cambios que se observaban en el mundo físico. En opinión de Newton, Dios, al comienzo, había creado las partículas de materia, las fuerzas entre ellas, y las leyes básicas que rigen el movimiento; fue así como todo el universo fue puesto en marcha y desde entonces ha continuado funcionando de esta manera, como una máquina, gobernada por leyes inmutables. Así, el concepto mecanicista de la naturaleza tiene una estrecha relación con el determinismo riguroso, con la gigantesca máquina del cosmos que es completamente causal y determinada. Todos los fenómenos tenían una causa y un efecto determinado, y se podía predecir con absoluta certeza —en principio— el futuro de cualquier parte del sistema si se sabía con todo detalle el estado en el que se hallaba en un momento determinado. Esta imagen de un mundo mecánico perfecto suponía la existencia de un creador externo, un dios monárquico que gobernaba el mundo desde las alturas y le imponía su ley divina. Los fenómenos físicos en sí no eran considerados divinos en ningún sentido y, cuando el desarrollo de la ciencia hizo cada vez más difícil creer en aquel dios, lo divino desapareció por completo de la visión científica del mundo, dejando el vacío espiritual que se ha vuelto una característica de nuestra época. La base filosófica de esta secularización de la naturaleza se halla en la distinción entre espíritu y materia realizada por Descartes. A consecuencia de esta idea, el mundo comenzó a ser considerado un sistema mecánico que podía describirse objetivamente sin tomar en cuenta al observador humano, y esta descripción objetiva de la naturaleza se tornó el ideal de todas las ciencias. En los siglos XVIII y XIX la mecánica fue puesta en práctica y cosechó grandes éxitos. Con la teoría newtoniana se podía explicar el movimiento de los planetas, de las lunas y de los cometas hasta los detalles más ínfimos; también se podían interpretar mediante el crecimiento de las mareas y varios otros fenómenos relacionados con la gravedad. El sistema matemático de Newton no tardó en establecerse como la teoría correcta de la realidad y despertó un enorme entusiasmo entre los científicos y también entre el público. La imagen de la perfecta máquina del mundo ideada por Descartes fue considerada un hecho comprobado y Newton se convirtió en su símbolo. Sir Isaac Newton, durante los últimos veinte años de su vida, fue el hombre más famoso de su época, el gran sacerdote y anciano sabio de la Revolución Científica, que reinaba en el Londres del siglo XVIII. Las anécdotas de este periodo de la vida de Newton nos suenan conocidas pues son parecidas a los recuerdos y las fotografías de Albert Einstein, científico que desempeñó un papel similar al de Newton en nuestro siglo.

Alentados por el gran éxito de la mecánica newtoniana en la astronomía, los físicos la aplicaron al movimiento continuo de los cuerpos líquidos y a las vibraciones de los cuerpos elásticos, y funcionó una vez más. Por último, hasta la teoría del calor pudo ser reducida a la visión mecanicista, al descubrirse que el calor era la energía generada por un complicado movimiento y roce de los átomos y las moléculas. Asimismo, muchos fenómenos térmicos como la evaporación de los líquidos o la temperatura y presión de los gases, podían entenderse perfectamente desde un punto de vista puramente mecánico. Después de realizar un estudio sobre el comportamiento físico de los gases, John Dalton pudo formular su famosa hipótesis atómica, que probablemente fue el paso más importante dado por la química en toda su historia. Dalton tenía una imaginación gráfica y trató de explicar las propiedades de las mezclas de gases con la ayuda de elaborados dibujos de modelos atómicos geométricos y mecánicos. Dalton suponía que todos los elementos químicos están compuestos de átomos y que los átomos de un elemento determinado son parecidos, diferenciándose de los de otros elementos en la masa, el tamaño y en las propiedades. Utilizando esta hipótesis, los químicos del siglo XIX desarrollaron con precisión una teoría atómica de la química y de esta manera abrieron el camino para la unificación conceptual de la física y la química, que ocurrió en el siglo XX. De esa forma la mecánica newtoniana se difundió mucho más allá de la descripción de cuerpos macroscópicos. El comportamiento de los cuerpos sólidos, de los líquidos y de los gases —incluidos los fenómenos del calor y del sonido— pudo ser explicado con éxito en términos del movimiento de las partículas elementales de materia. Para los científicos de los siglos XVIII y XIX, el tremendo éxito del modelo mecanicista corroboraba la teoría según la cual el universo era verdaderamente un enorme sistema mecánico que funcionaba de acuerdo con las leyes de movimiento newtonianas y la mecánica de Newton era la teoría fundamental de los fenómenos naturales. Si bien en el siglo XIX el estudio de las propiedades de los átomos fue llevado a cabo por químicos y no por físicos, la física clásica se basaba en la idea newtoniana del átomo, que lo concebía como bloques sólidos de materia. Indudablemente, esta imagen contribuyó a crear la reputación de la física como «ciencia dura» y al desarrollo de la «tecnología dura» basada en ella. El éxito estrepitoso de la física newtoniana y la doctrina cartesiana sobre la certeza del conocimiento científico fueron las causas directas del excesivo énfasis que nuestra cultura pone en la ciencia dura y en la tecnología dura. Hasta mediados del siglo XX no se comenzó a ver claramente que la idea de la ciencia dura era parte del paradigma cartesiano-newtoniano, paradigma que sería superado. En el siglo XVII, con la visión mecanicista del mundo firmemente arraigada en la sociedad, la física se convirtió naturalmente en la base de todas las ciencias. Si el mundo es verdaderamente una máquina, la mejor manera de descubrir cómo funciona es por medio de la mecánica newtoniana. Por esta razón, una consecuencia inevitable de la visión cartesiana del mundo fue el hecho de que las ciencias del siglo XVIII y XIX siguieran la línea de la física newtoniana. De hecho, Descartes se dio cuenta perfectamente de la importancia básica de la física en su visión del mundo: «Toda la filosofía —escribió— es como un árbol. Sus raíces son la metafísica; su tronco, física; y sus ramas, todas las demás ciencias»28. Descartes mismo había trazado el esquema de un enfoque mecanicista de la física, la astronomía, la biología, la psicología y la medicina. Los pensadores del siglo XVIII fueron mucho más lejos aplicando los principios de la mecánica newtoniana a las ciencias de la naturaleza y de la sociedad humana. Las ciencias sociales recién creadas despertaron gran entusiasmo y muchos de sus defensores llegaron a afirmar que habían descubierto una «física social». La teoría del universo newtoniana y la filosofía racionalista se difundieron con tal rapidez entre la clase media del siglo XVIII que toda esta época se conoce por el nombre de «El Siglo de las Luces». La figura dominante de este desarrollo fue el filósofo John Locke, cuyas obras principales fueron publicadas a finales del XVII. La obra de Locke —en la que se acusan

profundas influencias cartesianas y newtonianas— tuvo un impacto decisivo en el pensamiento del siglo XVIII. Siguiendo la línea de la física newtoniana, Locke desarrolló una visión atomista de la sociedad, describiéndola en términos de su componente básico, esto es, el ser humano. De la misma manera en que los físicos reducían las propiedades de los gases al movimiento de sus átomos o moléculas, Locke trató de reducir los modelos que observaba en la sociedad al comportamiento de los individuos que la forman. Por esta razón comenzó a estudiar primero la naturaleza del ser humano y luego trató de aplicar los principios de la naturaleza humana a los problemas económicos y Políticos. Su análisis de la naturaleza humana se basaba en el de uno de sus predecesores, Thomas Hobbes, según el cual todo el conocimiento resultaba de la percepción de los sentidos. Locke adoptó esta doctrina y, en una metáfora famosa, comparó la mente de un recién nacido a una tabula rasa, una pizarra en blanco sobre la cual se imprimiría el conocimiento una vez que fuese adquirido por medio de la experiencia sensible. Esta imagen llegaría a influir profundamente en dos de las principales escuelas de la psicología clásica —el conductismo (behaviorism) y el psicoanálisis—, además de calar hondo en la filosofía política. Según Locke, todos los seres humanos —«todos los hombres», en sus palabras— son iguales al nacer y su evolución depende enteramente de su entorno. Las acciones de los seres humanos, a juicio de Locke, siempre eran motivadas por lo que creían ser sus propios intereses. Cuando Locke aplicó su teoría sobre la naturaleza humana a los fenómenos sociales estaba convencido de la existencia de leyes naturales que regían la sociedad humana similar a las que gobiernan el universo físico. Como los átomos de un gas establecen un estado de equilibrio, también los individuos se instalan en una sociedad «en estado natural». Por consiguiente, la función de un gobierno no era la de imponer sus leyes a las personas, sino más bien la de descubrir y poner en vigor las leyes naturales que existían antes de que el gobierno se formara. Entre estas leyes naturales Locke incluía la libertad y la igualdad de todos los individuos y también el derecho de éstos a la propiedad que representaba el fruto de su trabajo. Las ideas de Locke se volvieron la base del sistema de valores de Siglo de las Luces y sus efectos se manifestaron en el desarrollo del pensamiento político y económico moderno. Los ideales del individualismo, el derecho a la propiedad, el mercado libre y el gobierno representativo, que se remontan a la doctrina de Locke, contribuyeron de manera significativa al pensamiento de Thomas Jefferson y se reflejan en la declaración de independencia y en la constitución de los Estados Unidos. Durante el siglo XIX los científicos siguieron elaborando el modelo mecanicista del universo en todos los campos: física, química, biología, psicología y ciencias sociales. Como consecuencia de ello, la máquina newtoniana del mundo se tornó una estructura mucho más compleja y sutil. Al mismo tiempo, nuevos descubrimientos y nuevos modos de pensar sacaron a la luz las limitaciones del modelo newtoniano y prepararon el terreno para las revoluciones científicas del siglo XX. Uno de estos desarrollos ocurridos en el siglo XIX fue el descubrimiento y la investigación de ciertos fenómenos eléctricos y magnéticos que suponían un nuevo tipo de fuerza y que no podían ser descritos adecuadamente por el modelo mecanicista. Este descubrimiento fue llevado a cabo por Michael Faraday, uno de los más brillantes investigadores en la historia de la ciencia, y fue completado por el gran teórico Clerk Maxwell. Faraday y Maxwell no se limitaron a estudiar los efectos de las fuerzas eléctricas y magnéticas, sin que convirtieran estas fuerzas en el principal objetivo de su investigación. Reemplazando el concepto de fuerza por el concepto mucho más sutil de campo de fuerzas, fueron los primeros en llegar más allá de la física newtoniana29 demostrando que los campos teman su propia realidad y que podían ser estudiados sin hacer referencia a los cuerpos materiales. Esta teoría, llamada electrodinámica, culminó en el descubrimiento de que la luz era un campo electromagnético que alterna a gran velocidad y que viaja por el espacio en forma de ondas.

A pesar de estos cambios trascendentales, la mecánica newtoniana mantenía su posición de base de toda la física. El mismo Maxwell trató de explicar sus resultados en términos mecánicos, interpretando los campos como estados mecánicos de tensión dentro de un espacio muy ligero, el éter, que lo envolvía todo, y las ondas electromagnéticas como ondas elásticas de este éter. Pese a ello, utilizó varias interpretaciones mecánicas de su teoría al mismo tiempo y parece que no se interesó seriamente por ninguna de ellas, pues su intuición le decía que los campos —y no los modelos mecánicos— eran las entidades fundamentales de su teoría. Y hubo de ser Einstein, en nuestro siglo, quien reconociese este hecho, cuando declaró que el éter no existía y que los campos electromagnéticos por su propio derecho eran entidades físicas que podían viajar a través del espacio vacío y no podían ser explicadas mecánicamente. En la medida en que el electromagnetismo destronó a la mecánica newtoniana como teoría de mayor validez sobre los fenómenos naturales, surgió una nueva corriente de pensamiento que iba más allá de la imagen del mundo/máquina newtoniana y que llegaría a dominar no sólo las ideas del siglo XIX, sino también todo el pensamiento científico posterior: la evolución, es decir, la idea de cambio, crecimiento y desarrollo. La noción de evolución había surgido por primera vez en geología. Después de estudiar minuciosamente los depósitos de fósiles, los científicos llegaron a la idea de que el actual estado del mundo era el resultado de un desarrollo continuo causado por la actividad de las fuerzas naturales a lo largo de inmensos períodos de tiempo. La teoría del sistema solar propuesta por Immanuel Kant y por Pierre Laplace se basaba en un pensamiento evolutivo o desarrollista; la evolución era un punto crucial de las teorías políticas de Hegel y de Engels; a lo largo del XIX, tanto los poetas como los filósofos se interesaron profundamente en el problema evolutivo. Estas ideas crearon el ambiente intelectual necesario para que se produjera precisa y la más trascendental formulación del pensamiento evolutivo: la teoría biológica de la evolución de las especies. Desde la antigüedad, los filósofos habían acariciado la idea de «una gran cadena del ser» en la naturaleza. Esta cadena, sin embargo, se concebía como una jerarquía estática, que comenzaba con Dios y seguía descendiendo a los ángeles, los seres humanos y los animales, terminando en las formas inferiores de vida. El número de las especies era fijo; no había cambiado desde el día de la Creación. En palabras de Linneo, el gran botánico y clasificador: «Reconocemos tantas especies como salieron en pares de las manos del Creador»30. Esta visión de las especies biológicas concordaba perfectamente con la doctrina judeo-cristiana y se acomodaba muy bien al mundo newtoniano. El cambio decisivo se debe a Jean Baptiste Lamarck. Este cambio, ocurrido a comienzos del siglo XIX, fue tan radical que Gregory Bateson, una de las mentes más profundas y abiertas de nuestro siglo, lo comparó a la revolución producida por las ideas de Copérnico: Lamarck, quizá el más grande biólogo de la historia, dio la vuelta a la escalera de la explicación. Fue él quien dijo que todo había comenzado con los infusorios y que después de varias transformaciones se había llegado al ser humano. La revolución que sus teorías causaron en la taxonomía es una de las proezas más asombrosas de la historia. Fue el equivalente, en biología, a la revolución causada por las teorías de Copérnico en astronomía31. Lamarck fue el primero que propuso una teoría coherente de la evolución, según la cual todos los seres vivientes habían evolucionado de ciertas formas de vida anteriores, mucho más simples, debido a la presión del entorno. A pesar de que los detalles de la teoría de Lamarck fueron superados posteriormente, su obra tiene el valor de haber sido un primer paso en el camino correcto. Unas décadas después, Charles Darwin presentó una enorme cantidad de pruebas evidentes a favor de la evolución biológica, confirmando sin lugar a dudas este fenómeno ante los ojos de la

ciencia. También propuso una explicación basada en los conceptos de la variación casual —hoy conocida como mutación al azar— y la selección natural, que llegaría a ser la piedra fundamental de la doctrina moderna de la evolución. En su monumental obra Sobre el origen de las especies, Darwin realizó una síntesis de las ideas de sus predecesores y sentó las bases de todos los conceptos biológicos posteriores. Este libro tuvo para las ciencias humanas una importancia similar a la que tuvieron los Principia de Newton para la física y la astronomía doscientos años antes. El descubrimiento de la evolución biológica obligó a los científicos a abandonar el concepto cartesiano de la máquina del mundo que había surgido perfectamente completo de las manos de su Creador. En su lugar, el universo hubo de ser concebido como un sistema en evolución y en permanente movimiento, en el cual las estructuras complejas se habían desarrollado de las formas más simples. Mientras este concepto nuevo se perfeccionaba en la biología, se comenzaron a vislumbrar en la física ideas similares. A pesar de ello, mientras que en biología la evolución significaba un movimiento hacia un orden y una complejidad superior, en física se trataba exactamente de lo contrario, esto es, de un movimiento hacia un desorden creciente. Aplicando la mecánica newtoniana al estudio de los fenómenos térmicos, lo cual suponía el tratar los líquidos y los gases como sistemas mecánicos complicados, los físicos llegaron a la fórmula de la termodinámica, la «ciencia de la complejidad». El primero de los éxitos obtenidos por esta nueva ciencia fue el descubrimiento de una de las leyes más fundamentales de la física: la ley de la conservación de la energía. Esta ley especifica que toda la energía envuelta en un proceso se conserva siempre; su forma puede cambiar de la manera más complicada, pero nada de la energía se pierde. Descubierta por los físicos a través del estudio de las locomotoras de vapor y de otras máquinas que generan calor, se la considera también la primera ley de la termodinámica. A ella le sigue la segunda ley de la termodinámica: la ley de la dispersión de la energía. Mientras la energía total envuelta en un proceso permanece constante, la cantidad de energía útil se reduce y se dispersa, convirtiéndose en calor, fricción, etcétera. La segunda ley fue formulada por Sadi Carnot en términos de la tecnología de motores térmicos, pero pronto se descubrió que tenía una significación mucho más extensa, introduciendo en la física la idea del proceso irreversible, de una «flecha del tiempo». En conformidad con la segunda ley, hay una tendencia cierta en los fenómenos físicos. La energía mecánica se dispersa en calor y no se la puede recuperar totalmente; cuando se mezcla agua caliente con agua fría el resultado será agua tibia y los dos líquidos no podrán nunca ser separados. De igual manera, cuando se mezclan una bolsa de arena blanca y una de arena negra, el resultado será arena gris, y cuanto más se sacuda la mezcla, más uniforme será el color; nunca veremos que los dos tipos de arena se separen espontáneamente. El punto en común de estos procesos es que todos proceden en la misma dirección —del orden al desorden. Y aquí se halla la fórmula más general de la segunda ley de la termodinámica: cualquier sistema físico aislado tomará espontáneamente el camino del desorden cada vez mayor. A mediados de siglo pasado, Rudolf Clausius introdujo una nueva medida de cantidad a la que dio el nombre de «entropía», con la que se expresa matemáticamente esta dirección evolutiva de los sistemas físicos. El término es una combinación de la palabra «energía» y la palabra griega «tropos» (transformación o evolución). Por consiguiente, la entropía es la cantidad que mide el grado de evolución de un sistema físico. De acuerdo con la segunda ley, la entropía de un sistema físico aislado seguirá aumentando y —puesto que esta evolución va acompañada de un desorden creciente— la entropía puede considerarse también una medida de desorden. La fórmula del concepto de entropía y la segunda ley de la termodinámica fueron uno de los descubrimientos más importantes de la física en el siglo XIX. El aumento de entropía en un sistema físico, que marca la dirección del tiempo, no podía explicarse con las leyes de la

mecánica newtoniana y permaneció envuelto en el misterio hasta que Ludwig Boltzmann introdujo otra idea —la del concepto de probabilidad— que ayudó a esclarecer la situación. Gracias a la teoría de la probabilidad se podía describir el comportamiento de un sistema mecánico complejo en términos de leyes estadísticas, y la termodinámica podía adquirir una sólida base newtoniana que se conoce como mecánica estadística. Boltzmann demostró que la segunda ley de la termodinámica es una ley estadística. El hecho de que ciertos procesos no ocurran —por ejemplo, la conversión espontánea de energía térmica en energía mecánica— no significa que estos procesos sean imposibles sino que son extremadamente raros. En los sistemas microscópicos que constan solamente de pocas moléculas, la segunda ley es quebrantada con regularidad, pero en los sistemas macroscópicos, formados por una gran cantidad de moléculas, (cada centímetro cúbico de aire contiene aproximadamente 10 trillones de moléculas) la probabilidad de que toda la entropía del sistema aumente se vuelve casi una certeza. Por consiguiente, la entropía —o desorden— de cualquier sistema aislado compuesto de una gran cantidad de moléculas seguirá aumentando hasta que, eventualmente, el sistema llegue a un estado de entropía máxima o «muerte térmica» en el cual cesa toda actividad: toda la materia está entonces repartida uniformemente y tiene la misma temperatura. Según la física clásica, todo el universo está dirigiéndose hacia un estado de entropía máxima; está yendo hacia abajo y eventualmente se detendrá. Esta lúgubre imagen de la evolución cósmica se opone a la idea evolutiva de los biólogos, para quienes el universo evoluciona del caos al orden, hacia estados cada vez más complejos. La aparición del concepto de la evolución en la física sacó también a relucir otra limitación de la teoría newtoniana. El concepto mecanicista del universo que concibe a éste como un sistema de pequeñas bolas de billar que se mueven al azar es demasiado simple para aplicarlo a la evolución de la vida. A finales del siglo XIX la mecánica newtoniana había perdido su papel como la teoría fundamental de los fenómenos naturales. La electrodinámica de Maxwell y la teoría de la evolución de Darwin suponían una serie de conceptos que iban mucho más allá del modelo newtoniano y revelaban que el universo era mucho más complejo de lo que Descartes y Newton habían creído. A pesar de todo, las ideas básicas de la física newtoniana, si bien insuficientes para explicar todos los fenómenos naturales, siguieron considerándose correctas. En las primeras tres décadas de nuestro siglo la situación cambió radicalmente. Dos desarrollos de la física, que culminaron en la teoría de la relatividad y en la cuántica, echaron por tierra los principales conceptos de la visión cartesiana y de la mecánica newtoniana. La noción de espacio y tiempo absolutos, las partículas sólidas elementales, la sustancia de materia fundamental, la naturaleza estrictamente causal de los fenómenos físicos y la descripción objetiva de la naturaleza eran conceptos inaplicables en los nuevos campos en los que la física comenzó a adentrarse.

1.5.3 La influencia del pensamiento cartesiano-newtoniano 1.5.3.1 La visión mecanicista de la vida En el siglo XX, mientras se formulaban los conceptos de la nueva física, la visión mecanicista cartesiana y los principios newtonianos seguían manteniendo su influencia en el pensamiento científico de Occidente. Aún hoy muchos científicos siguen aferrándose al, paradigma mecanicista, a pesar de que los mismos físicos ya han logrado superarlo. Sin embargo, la nueva concepción del universo surgida de la física moderna no significa que la física newtoniana esté equivocada o que la teoría de la relatividad y la cuántica sean correctas. La ciencia moderna se ha percatado de que todas las teorías científicas son meras aproximaciones a la verdadera naturaleza de la realidad y ha descubierto que cada teoría es

válida para una descripción, satisfactoria dé la naturaleza y se ve obligada a encontrar nuevas teorías para reemplazar la antigua o, más bien, ampliarla, mejorando la aproximación. Así pues, los científicos construyen teorías limitadas y aproximativas, llamadas «modelos», cada vez más exactas, pero incapaces de suministrar una descripción completa y definitiva de los fenómenos naturales. Louis Pasteur lo describió magníficamente con esta frase: “La ciencia avanza a través de respuestas vacilantes hacia una serie de preguntas cada vez más sutiles que van penetrando gradualmente en la esencia de los fenómenos naturales”1. La pregunta, entonces, será: ¿Hasta qué punto el modelo newtoniano puede servir de base para las distintas ciencias y dónde se hallan los límites de la visión cartesiana en esos campos? Los físicos tuvieron que abandonar el paradigma mecanicista al llegar al nivel microscópico (física atómica y subatómica) y macroscópico (astrofísica y cosmología). En otros campos existen diversos tipos de limitaciones, que no están necesariamente ligadas a la magnitud de los fenómenos que hay que describir. Lo que nos interesa no es tanto la aplicación de la física newtoniana a otros fenómenos, sino la aplicación de la visión mecanicista en la que se basa la teoría de Newton. Cada ciencia tendrá que encontrar las limitaciones que esta visión del mundo tiene en su contexto. Para los biólogos, la estructura conceptual dominante sigue siendo la visión cartesiana que concibe los organismos vivientes como máquinas constituidas de diferentes partes. A pesar de que la biología cartesiana, simple y mecanicista, no podía llegar muy lejos y que hubo de ser modificada considerablemente durante los trescientos años que siguieron a su formulación, la idea de que todos los aspectos de un organismo podían entenderse reduciéndolos a sus constituyentes más pequeños y estudiando los mecanismos de interacción de éstos sigue hallándose en la base misma de la mayoría de los conceptos biológicos actuales. Este pasaje, tomado de un libro de texto actual sobre biología moderna, ilustra claramente el credo reduccionista: «Una prueba de fuego que permite saber si en verdad hemos entendido un objeto es la capacidad de reconstruirlo a partir de sus partes constitutivas. A la larga, los biólogos moleculares tratarán de someter sus ideas sobre la estructura y la función celular a esta suerte de prueba, en una tentativa por sintetizar una célula2. El enfoque reduccionista ha cosechado grandes éxitos en el campo de la biología, culminando con el descubrimiento de la naturaleza química de los genes y de las unidades básicas de la herencia y desentrañando el código genético. Por otra parte, también ha tenido una serie de graves limitaciones. Según el eminente biólogo Paul Weiss: Podemos afirmar definitivamente... basándonos en investigaciones estrictamente empíricas, que por el mero hecho de reunir una vez más, sea en la realidad o en nuestra imaginación, las partes del universo que hemos disecado en nuestro análisis anterior, no lograremos explicar completamente ni siquiera el comportamiento del sistema viviente más elemental3. Esto resulta muy difícil de admitir para la mayoría de los biólogos contemporáneos. Entusiasmados por los triunfos del método reduccionista, especialmente los avances recientes en el campo de la ingeniería genética, los biólogos tienden a creer que es el único enfoque válido y han organizado sus investigaciones de acuerdo con él. Los estudiantes no tienen ningún incentivo para desarrollar conceptos integradores y los centros de investigación utilizan sus fondos casi exclusivamente para resolver problemas formulados dentro de la estructura cartesiana. Se piensa que no vale la pena investigar científicamente cualquier fenómeno que no pueda explicarse en términos reduccionistas. Por consiguiente, los biólogos han ideado unas técnicas muy curiosas para tratar los organismos vivientes. Como ha hecho notar el distinguido biólogo y ecólogo René Dubos, los biólogos suelen sentirse más tranquilos cuando el organismo que están estudiando ya no vive4. No es fácil determinar las limitaciones exactas del enfoque cartesiano en el estudio de los organismos vivientes. La mayoría de los biólogos, al ser fervientes reduccionistas, ni siquiera

están interesados en discutir el problema. Ha requerido mucho tiempo y considerable esfuerzo por mi parte el descubrir dónde se derrumba el modelo cartesiano5. Los problemas que los biólogos actuales no pueden resolver, aparentemente debido a su enfoque parcial y fragmentario, parecen estar relacionados con el funcionamiento de los sistemas vivientes como unidades y con las interacciones que éstos tienen con el entorno. Por ejemplo, la actividad integradora del sistema nervioso sigue siendo un profundo misterio. A pesar de que los neurocientíficos han podido esclarecer muchos aspectos del funcionamiento del cerebro, aún no han logrado entender la interacción de las neuronas* —cómo se integran en el funcionamiento de todo el sistema. De hecho, casi nunca se formula una pregunta de este tipo. Los biólogos se ocupan en disecar el cuerpo humano hasta reducirlo a sus componentes más diminutos y, por consiguiente, han reunido una cantidad impresionante de conocimientos sobre los mecanismos celulares y moleculares del cuerpo, pero todavía no saben cómo respiramos, cómo regulamos la temperatura de nuestro cuerpo o por qué dirigimos nuestra atención a un objeto y no a otro. Los biólogos conocen algunos de los circuitos nerviosos, pero aún les queda por entender la mayoría de las acciones integradoras. Lo mismo puede decirse de la curación de heridas, de la naturaleza y vías del dolor, que siguen estando en gran medida envueltas en misterio. Un caso extremo de actividad integradora que ha fascinado a los científicos de todas las épocas, pero que, hasta hoy, sigue siendo prácticamente inexplicable es el fenómeno de la embriogenia —el proceso que conduce a la formación y desarrollo de un embrión— que abarca una serie ordenada de procesos, a través de los cuales las células se especializan formando los diferentes órganos y tejidos del cuerpo adulto. La interacción de cada célula con su entorno es un; punto crucial de estos procesos y el fenómeno es un resultado de la actividad coordinadora e integradora de todo el organismo —un proceso demasiado complejo para prestarse a un análisis reduccionista. Por este motivo, la embriogenia se considera un tema de investigación biológica muy interesante pero en el que se obtienen escasos resultados. Se puede comprender perfectamente la razón por la cual los biólogos no se preocupan de las limitaciones del enfoque reduccionista. El método cartesiano ha contribuido al espectacular progreso realizado en varios campos y sigue produciendo asombrosos resultados. Los problemas para los que este enfoque resulta inadecuado suele pasar inadvertidos, cuando no son directamente evitados, aunque por ello se alteren gravemente las dimensiones del campo en su conjunto. ¿Cómo, entonces, se podrá modificar la situación? A mi parecer el cambio vendrá a través de la medicina. Las funciones de un organismo que no se prestan a una descripción reduccionista — todas aquellas que representan las actividades integradoras del organismo y sus interacciones con el entorno— son precisamente las que determinan la salud del organismo. La medicina occidental ha adoptado el sistema reduccionista de la biología moderna, adhiriéndose a la distinción cartesiana y sin tener en cuenta toda la persona del paciente; por consiguiente, los médicos modernos se ven incapacitados para entender, y también para curar, muchas de las principales enfermedades de hoy. Poco a poco, estos médicos han comenzado a plantearse que muchos de los problemas con los que se enfrenta nuestro sistema sanitario tienen su origen en el modelo reduccionista del organismo humano sobre el que se apoya dicho sistema. Este hecho lo reconocen no sólo los médicos sino también —incluso más— los enfermeros y otros técnicos sanitarios, y también gran parte del público. Actualmente, la sociedad ejerce una presión considerable en los médicos para que superen la parcial estructura mecanicista de la medicina contemporánea y desarrollen un criterio más amplio y holístico de la salud. Ir más allá del modelo cartesiano significaría una revolución importante en las ciencias médicas y, puesto que la investigación actual en el campo de la medicina está estrechamente vinculada *

Las neuronas son las células nerviosas que reciben y transmiten los impulsos nerviosos.

—tanto en sus conceptos como en su organización— a la investigación biológica, esta revolución necesariamente hará mella en el futuro desarrollo de la biología. A fin de ver a donde podrá llevarnos este desarrollo, resultaría útil revisar la evolución del modelo cartesiano en la historia de la biología. Tal perspectiva histórica demostrará también que la relación entre la biología y la medicina, no es nueva, sino que se remonta a la antigüedad y que ha sido un factor de importancia a lo largo de la historia6 . Los dos médicos más destacados de la antigua Grecia —Hipócrates y Galeno— contribuyeron de manera decisiva a los conocimientos biológicos de la antigüedad y, durante la Edad Media, se les siguió considerando la máxima autoridad en el campo de la biología y en el de la medicina. En la época medieval, los árabes se convirtieron en depositarios de la ciencia occidental y dominaron todas sus disciplinas; los mayores adelantos en el campo de la biología los realizaron médicos árabes, entre ellos Razes, Avicena y Averroes, que eran además destacados filósofos. Los alquimistas árabes de aquella época, cuya ciencia estaba vinculada por tradición a la medicina, fueron los primeros en tratar de analizar químicamente la materia viva y, por este motivo, se les considera precursores de los bioquímicos modernos. El estrecho nexo entre biología y medicina siguió existiendo a lo largo del Renacimiento hasta la era moderna, cuando varios científicos que poseían ciertos conocimientos de medicina realizaron, una y otra vez, adelantos decisivos en el campo de las ciencias biológicas. Linneo, el gran taxonomista del siglo XVIII, no sólo fue un destacado botánico y zoólogo sino también un médico de talla; de hecho, la botánica se desarrolló a partir del estudio de plantas con poderes curativos. Pasteur, pese a no ser médico, sentó las bases de la microbiología, ciencia que revolucionaría la medicina. Claude Bernard, creador de la fisiología moderna, era médico; Matthias Schleiden y Theodor Schwann, descubridores de la teoría celular, tenían título de medicina; también Rudolf Virchow, que formuló la teoría celular en su forma actual, era doctor en medicina. Lamarck tuvo cierta experiencia médica y Darwin realizó estudios en este campo, aunque con poco éxito. Estos son algunos ejemplos de la interacción que siempre han existido entre la biología y la medicina y que duran todavía; en la actualidad, un alto porcentaje de los fondos destinados a la investigación biológica provienen de instituciones médicas. Por consiguiente, es muy probable que la medicina y la biología vuelvan a coincidir cuando los investigadores médicos se den cuenta de la necesidad de ir más allá del paradigma cartesiano a fin de comprender mejor los problemas de la salud y de la enfermedad. Desde el siglo XVIII el modelo cartesiano ha tenido muchos fracasos y muchos triunfos en el campo de la biología. Descartes ideó una imagen inflexible de los organismos vivos, concibiéndolos como sistemas mecánicos y, en consecuencia, estableció un esquema conceptual rígido que fue utilizado en todas las investigaciones que realizaron desde entonces en el campo de la fisiología. Por otra parte, el filósofo francés dedicó poco tiempo a la observación y a los experimentos fisiológicos y dejó que sus seguidores elaboraran los detalles de su visión mecanicista de la vida. El primer triunfo en esta dirección fue obra de Giovanni Borelli, un discípulo de Galileo, que logró explicar ciertos aspectos básicos de la acción muscular en términos mecanicistas. Pero el gran adelanto de la fisiología del siglo XVIII no llegó hasta que William Harvey no aplicó el criterio mecanicista a los fenómenos de la circulación sanguínea, resolviendo el más fundamental y el más difícil de los problemas fisiológicos desde los tiempos más remotos. Su tratado Sobre el Movimiento del Corazón, da una lúcida descripción de todo lo que se podía saber sobre el sistema sanguíneo en términos de anatomía y de hidráulica sin la ayuda de un microscopio. Este tratado representa el punto culminante de la fisiología mecanicista y como tal fue elogiado con gran entusiasmo por el mismo Descartes. Inspirados en el éxito de Harvey, los fisiólogos de su tiempo trataron de aplicar el método mecanicista a la descripción de otras funciones orgánicas, como la digestión y el metabolismo, pero todas sus tentativas resultaron amargos fracasos. Los fenómenos que los fisiólogos intentaban explicar —a menudo con la ayuda de grotescas analogías— comportaban una serie de procesos químicos y eléctricos desconocidos en aquella época y que no podían describirse en

términos mecánicos. Si bien en el siglo XVII no hubo grandes progresos en el campo de la química, sí existió una escuela de pensamiento arraigada en la tradición alquimista, que intentó explicar el funcionamiento de los organismos vivientes en términos de procesos químicos. El creador de esta teoría fue Paracelso de Hohenheim, un pionero de la medicina del siglo XVI y sanador de gran éxito, medio mago, medio científico, y, en conjunto, una de las figuras más extraordinarias en la historia de la medicina y de la biología. Paracelso, que practicaba la medicina como arte y cano ciencia oculta basada en conceptos alquimistas, creía que la vida era un proceso químico y que la enfermedad era el resultado de una falta de equilibrio en la química del cuerpo. Una visión tal de la enfermedad era demasiado revolucionaria para la ciencia de su época y hubo de esperar varios siglos para encontrar una aceptación general. En el siglo XVII la fisiología se hallaba dividida en dos campos contrarios. De un lado estaban los seguidores de Paracelso, que se llamaban a sí mismos «iatroquímicos»* y que creían que las funciones fisiológicas podían explicarse en términos químicos. De otro lado estaban los «iatromecanicistas», partidarios del enfoque cartesiano, que sostenían que los principios mecánicos eran la base de todas las funciones fisiológicas. Los mecanicistas, por supuesto, eran mayoría y siguieron construyendo elaborados modelos mecánicos, a veces notoriamente falsos, pero conformes al paradigma que dominaba el pensamiento científico del siglo XVII. La situación cambió radicalmente en el siglo XVIII, cuando se efectuaron una serie de importantes descubrimientos en el campo de la química, entre ellos el descubrimiento del oxígeno y la formula de la teoría moderna de la combustión de Antoine Lavoisier. El «padre de la química moderna» logró demostrar también que la respiración es una forma especial de oxidación y, con ello, confirmó la importancia de los procesos químicos en el funcionamiento de lo organismos vivientes. A finales del siglo XVIII la fisiología adquirió una nueva dimensión cuando Luigi Galvani demostró que la transmisión de los impulsos nerviosos estaba relacionada con una corriente eléctrica. Este descubrimiento llevó a Alessandro Volta al estudio de la electricidad y, por consiguiente, se convirtió en la fuente de dos nuevas ciencias: la neurofisiología y la electrodinámica. Todos estos desarrollos elevaron la fisiología a un nuevo nivel de complejidad. Se abandonaron los modelos mecánicos simplistas de la descripción de los organismos vivientes, pero la esencia de la idea cartesiana sobrevivió. Los animales seguían considerándose máquinas sujetas a una serie de fenómenos químicos y eléctricos y, por tanto, más complicadas que un mecanismo de relojería. Así pues, biología dejó de ser cartesiana en el sentido de la imagen estricta mente mecánica que Descartes daba de los organismos viviente pero siguió siéndolo en un sentido más amplio, a saber, en su tentativa de reducir todos los aspectos de un organismo a las interacciones físicas y químicas de sus componentes más pequeños. Al propio tiempo, la fisiología estrictamente mecanicista halló su expresión más elaborada y contundente en el polémico tratado de La Mettrie El Hombre Máquina, cuya fama perduró mucho más allá del siglo XVIII. La Mettrie refutaba el dualismo mente/cuerpo cartesiano negando que los humanos fuesen esencialmente diferentes de los animales y comparaba el organismo del hombre —y su mente— a un complejo mecanismo de relojería: ¿Se necesita algo más... para probar que el Hombre no es más que un animal, o un ensamblaje de muelles imbricados de modo tal que resulta imposible determinar en qué punto del círculo humano comienza la naturaleza?... Efectivamente, no me equivoco: el cuerpo humano es un reloj, pero un reloj inmenso, construido con tanta habilidad e ingenio, que si la rueda cuya función es marcar los segundos, se detiene, la rueda que indica los minutos sigue girando y continúa su curso7. El extremo materialismo de La Mettrie generó muchas polémicas y controversias, algunas de las cuales perduraron hasta el siglo XX. En su juventud, el biólogo Joseph Needham escribió un *

Del griego iatros («médico»).

ensayo en defensa de La Mettrie, que fue publicado en 1928 con el mismo título de la obra del biólogo francés: El Hombre, una Máquina8. Needham dijo claramente que, para él —al menos en aquella época— la ciencia tenía que identificarse con el enfoque mecanicista cartesiano. «El mecanicismo y el materialismo —escribió— son las bases del pensamiento científico»9. En esta ciencia incluía explícitamente el estudio de los fenómenos mentales: «No admito de ninguna manera la opinión según la cual es imposible someter los fenómenos de la mente a una descripción físico-química. Todo lo que podremos llegar a saber de ellos será a través de una visión mecanicista»10. Hacia el final de su ensayo, Needham resume su postura ante el enfoque cartesiano-científico de la naturaleza humana con una frase lapidaria: «En ciencia, el hombre es una máquina; y, si no lo fuese, no sería nada»11 Con todo, después de un tiempo, Needham abandonó el campo de la biología y se convirtió en uno de los principales estudiosos de la ciencia china y, como tal, en ardiente defensor del enfoque orgánico que es la base de la filosofía china. Sería una tontería negar categóricamente la afirmación de Needham cuando dice que, algún día, los científicos podrán describir todos los fenómenos biológicos desde el punto de vista de las leyes físicas y químicas o, como diríamos hoy, desde el punto de vista de la biofísica y de la bioquímica. Ahora bien: esto no significa que estas leyes se apoyarán en una visión mecanicista de los organismos vivientes; tal afirmación significaría limitar la ciencia a la ciencia newtoniana. Para entender la esencia de los sistemas vivientes, los científicos —sea en la biofísica o en la bioquímica, o en cualquier otra disciplina que trate del estudio de la vida— tendrán que refutar la creencia reduccionista según la cual los organismos vivientes se pueden describir como máquinas, desde el punto de vista de sus propiedades y del comportamiento de sus elementos constituyentes. En la actualidad, esto resultaría más fácil de hacer que en los años veinte, ya que los científicos han tenido que abandonar el enfoque reduccionista incluso en el estudio de la materia inorgánica. En la historia del modelo cartesiano en las ciencias biológicas, fue en el siglo XIX cuando hubo nuevos e impresionantes desarrollos a causa de los extraordinarios adelantos que en aquella época se realizaron en el campo de la biología. El más importante de ellos, sin lugar a dudas, fue la comprobación de la teoría de la evolución, si bien es cierto que en este siglo se realizaron otros descubrimientos significativos, entre ellos la formulación de la teoría celular, los comienzos de la embriología moderna, la creación de la microbiología y el descubrimiento de las leyes de la herencia. La biología se hallaba entonces firmemente apoyada en la física y en la química, y los científicos centraron sus esfuerzos en buscar explicaciones físico-químicas de la vida. Una de las generalizaciones más convincentes en la historia de la biología fue la comprobación de que los animales y las plantas están formados de células. Este descubrimiento marcó un hito decisivo en la comprensión, por parte de los biólogos, de la estructura, la herencia, la fertilización, el desarrollo y la diferenciación del cuerpo, la evolución y muchas otras características de la vida. El término «célula» fue acuñado por Robert Hooke en el siglo XVII para describir las diminutas estructuras que había observado a través del recién inventado microscopio, pero el desarrollo de una teoría celular exacta fue un proceso lento y gradual en el que trabajaron un gran número de investigadores y que culminó en el siglo XIX, cuando los biólogos creyeron que habían encontrado definitivamente las unidades primordiales de la vida. Esta idea dio un nuevo significado al paradigma cartesiano. A partir de entonces, todas las funciones de un organismo tenían que entenderse desde el punto de vista de sus células. En vez de reflejar la organización de un organismo en conjunto, las funciones biológicas se consideraban como resultados de las interacciones entre los bloques constituyentes de las células. Entender la estructura y el funcionamiento de las células supone un problema que se ha hecho característico de toda la biología moderna. La organización de una célula suele compararse a la

de una fábrica: primero, las distintas partes se manufacturan en diferentes sitios, luego se almacenan en instalaciones intermedias y, por último, se transportan a talleres de montaje donde se convierten en productos terminados que son utilizados por la misma célula o bien exportados a otras células. La citología ha hecho grandes adelantos en lo que respecta a la comprensión de la estructura y las funciones de muchas subunidades de la célula, pero sigue ignorando en gran medida las actividades coordinadoras que integran estas operaciones en el funcionamiento de toda la célula. La complejidad del problema aumenta considerablemente debido a que el equipo y la maquinaria de una célula, a diferencia de los de una fábrica construida por el hombre, no son instalaciones fijas, sino que periódicamente se ensamblan y reconstruyen de acuerdo con ciertos modelos específicos y en armonía con la dinámica global del funcionamiento de esta célula. Los biólogos han llegado a la conclusión de que las células son organismos por derecho propio, y cada día son más conscientes de que las actividades integradoras de esos sistemas vivientes —especialmente el equilibrio de sus ciclos metabólicos—son incomprensibles desde un esquema reduccionista. La invención del microscopio a comienzos de siglo XVII había abierto una nueva dimensión en el campo de la biología, pero el instrumento no fue utilizado en todas sus posibilidades hasta el siglo XIX, cuando finalmente se solucionaron varios problemas técnicos del antiguo sistema de lentes. El nuevo microscopio perfeccionado engendró un nuevo campo de investigación —la microbiología— que reveló la riqueza y la complejidad insospechada de los organismos vivientes de dimensiones microscópicas. La investigación en este campo estuvo dominada por Louis Pasteur, cuyas penetrantes ideas y claras fórmulas tuvieron un impacto duradero en la química, la biología y la medicina de su época. Utilizando ingeniosas técnicas experimentales, Pasteur logró explicar un problema que los biólogos habían discutido a lo largo del siglo XVIII: el problema del origen de la vida. Desde la antigüedad había existido la creencia generalizada de que la vida, al menos a un nivel inferior, podía surgir espontáneamente de la materia no viva. En los siglos XVII y XVIII se puso en tela de juicio esta idea, conocida por el nombre de «generación espontánea», pero el problema no fue resuelto hasta que Pasteur no hubo demostrado de manera concluyente, con una serie de experimentos claramente diseñados y rigurosos, que los microorganismos que se desarrollaban en una serie de condiciones favorables provenían de otros microorganismos. Fue Pasteur quien trajo a la luz la inmensa variedad del mundo orgánico a nivel microscópico. En particular, logró determinar la función de las bacterias en ciertos procesos químicos, por ejemplo en la fermentación, y con ello contribuyó a sentar las bases de una nueva ciencia: la bioquímica. Después de veinte años realizando investigaciones sobre las bacterias, Pasteur se dedicó al estudio de las enfermedades de los animales y realizó otro significativo adelanto, al demostrar la correlación definitiva que existe entre los gérmenes y la enfermedad. A pesar de que este descubrimiento tuvo un tremendo impacto en el desarrollo de la medicina, muchas personas siguen teniendo una idea equivocada sobre la correlación de las bacterias y la enfermedad. La «teoría de los gérmenes» de Pasteur y su papel en la patología, interpretados de manera simplista, hizo que los investigadores biomédicos tendiesen a considerar las bacterias como la única causa de la enfermedad. Por consiguiente, la identificación de las bacterias y el objeto ilusorio de diseñar «balas mágicas» —medicinas que destruirían ciertas bacterias específicas sin dañar el resto del organismo se volvió una obsesión para los investigadores. El enfoque reduccionista de las enfermedades eclipsó una teoría alternativa forjada unos años antes por Claude Bernard, médico a quien se suele considerar el fundador de la fisiología moderna. Si bien es cierto que Bernard, partidario del paradigma de su tiempo, veía los organismos vivientes como «una máquina que necesariamente funciona en virtud de las propiedades físico-químicas de sus elementos constituyentes»12 , su visión de las funciones fisiológicas era mucho más sutil que la de sus contemporáneos. Bernard daba mucha importancia a la estrecha e íntima relación del organismo con su entorno, y fue el primero en reconocer la existencia de un milieu intérieur, un medio interno en el cual vivían los órganos y

los tejidos del organismo. Bernard señaló que en un organismo sano, el milieu intérieur permanece esencialmente constante, aun cuando el entorno exterior fluctúe considerablemente. Este descubrimiento lo llevó a formular su famosa frase: «La constancia del entorno interno es una condición esencial para la existencia de una vida independiente13. Las teorías de Claude Bernard, que ponían el equilibrio interno como condición para la salud, no pudieron contrarrestar la rápida aceptación del enfoque reduccionista de la enfermedad por parte de médicos y biólogos. La importancia de estas teorías no fue redescubierta hasta el siglo XX, cuando los investigadores se percataron de la crucial función cumplida por el entorno en los fenómenos biológicos. Hoy, el concepto de la constancia del entorno interno enunciado por Bernard ha sido elaborado y ha llevado a la importante noción de la homeostasis, término acuñado por el neurólogo Walter Cannon para describir la tendencia de un organismo viviente a mantener un estado de equilibrio interno14 . La aportación más significativa de la biología a la historia de las ideas en el siglo XIX fue la teoría de la evolución. Esta teoría obligó a los científicos a refutar la imagen newtoniana del mundo/máquina que surgió perfectamente construido de manos de su creador, y a reemplazarla por el concepto de un sistema en continua evolución y cambio. Con todo, los biólogos no modificaron el paradigma reduccionista, sino que, por el contrario, centraron sus investigaciones en lograr la adaptación de la teoría darwiniana a la estructura cartesiana. Tuvieron mucho éxito explicando muchos de los mecanismos físicos y químicos de la herencia, pero no lograron comprender la naturaleza esencial del desarrollo y de la evolución15. La primera teoría de la evolución la formuló Jean Baptiste Lamarck, científico autodidacta que inventó la palabra «biología» y que comenzó a estudiar las especies animales a la edad de cincuenta años. Lamarck observó que los animales cambiaban con la influencia del medio, y creía que estos cambios podían transferirlos a su descendencia. La transmisión de las características adquiridas era, en su opinión, el principal mecanismo de la evolución. Aunque posteriormente se descubrió que Lamarck estaba equivocado con respecto a esto16, su identificación de los fenómenos de la evolución —la aparición de nuevas estructuras biológicas en la historia de las especies—fue una idea revolucionaria que afectó profundamente a todo el pensamiento científico subsiguiente. Lamarck influyó profundamente en Charles Darwin, que comenzó su carrera científica como geólogo y empezó a interesarse en biología en el curso de una expedición a las islas Galápagos, donde tuvo la posibilidad de observar la gran riqueza y variedad de la fauna isleña. Estas observaciones le animaron a especular sobre los efectos del aislamiento geográfico en la formación de las especies y, posiblemente, a formular su teoría de la evolución. Otras influencias significativas en el pensamiento darwiniano fueron las ideas sobre la evolución del geólogo Charles Lyell y el concepto de lucha competitiva por la supervivencia del economista Thomas Malthus. De estas observaciones y estudios emergieron los conceptos gemelos en los que Darwin basó su teoría: el concepto de la variación casual que más tarde se llamó mutación aleatoria, y la idea de la selección natural a través de la «supervivencia del más preparado». Darwin publicó su teoría de la evolución en 1859 en una monumental obra titulada Sobre el Origen de las Especies y la completo doce años después con La Descendencia del Hombre, en la cual el concepto de transformación evolutiva de una especie en otra se extiende a los seres humanos. En esta obra, Darwin demostró que su ideas sobre los caracteres humanos estaban fuertemente matizada por los prejuicios patriarcales de su época, pese a la naturaleza revolucionaria de sus teorías. En su opinión, el hombre típico es fuerte, valiente e inteligente, mientras la mujer era un ser pasivo, de cuerpo débil y de cerebro deficiente. «El hombre — escribió— es más valiente, más belicoso y más enérgico que la mujer. Además de ser más ingenioso que ella»17.

Pese a que los conceptos darwinianos de la variación discontinua y de la selección natural se convertirían en las claves de la teoría evolucionista moderna, en poco tiempo se tomó evidente que la variaciones casuales, tal y como fueron concebidas por Darwin nunca podrían explicar la aparición de nuevos caracteres en la evolución de las especies. Las opiniones que los científicos del siglo tenían sobre la herencia se basaban en la suposición de que los caracteres biológicos de un individuo representaban una «mezcla» de los de sus padres, quienes contribuían en partes más o menos iguale a la mezcla. Esto significa que el hijo de un padre con una variación causal útil heredaba sólo el 50 por ciento del nuevo carácter y sólo podía transmitir el 25 por ciento de éste a la nueva generación. Así pues, el nuevo carácter iría desapareciendo y sería casi imposible que se estableciese a través de la selección natural. El mismo Darwin reconoció que éste era un grave fallo de su teoría para el cual no tenía solución. Es irónico que la solución al problema de Darwin fuese descubierta por Gregor Mendel sólo pocos años después de la publicación de la teoría darwiniana, y que permaneciese en el olvido hasta principios de este siglo, cuando la obra de Mendel fue redescubierta por los científicos. Realizando minuciosos experimentos con guisantes, Mendel dedujo la existencia de «unidades hereditarias» —que más tarde serían llamadas genes— que no participaban en el proceso reproductivo y que, por tanto, no se diluían, sino que eran transmitidas de generación en generación sin cambiar su identidad. Con este descubrimiento se podía admitir que las mutaciones aleatorias no desaparecerían en un plazo de pocas generaciones sino que se conservarían, y serían eliminadas o reforzadas por la selección natural. El descubrimiento de Mendel no sólo desempeñó un papel decisivo en la implantación de la teoría darwiniana sino que también abrió todo un nuevo campo de investigación: el estudio de la herencia a través de la investigación de la naturaleza física y química de los genes. A principios de siglo William Bateson, ardiente defensor y divulgador de la obra mendeliana, dio el nombre de «genética» a este nuevo campo e introdujo muchos de los términos utilizados actualmente por los geneticistas, además de bautizar a su hijo menor con el nombre de Gregorio, en honor de Mendel. En el siglo XX, la genética se convirtió en la rama más activa de la investigación biológica y proporcionó un firme refuerzo al enfoque cartesiano de los organismos vivientes. Muy pronto resultó evidente que el material genético se encontraba en los cromosomas, esos cuerpos filiformes presentes en el núcleo de todas las células. Poco después se descubrió que los genes ocupaban posiciones específicas dentro de los cromosomas; con mayor exactitud, estaban dispuestos en hilera a lo largo de los cromosomas. En virtud de estos descubrimientos, los geneticistas creyeron que finalmente habían localizado los «átomos genéticos» y se pusieron a explicar los caracteres biológicos de los organismos vivientes desde el punto de vista de sus unidades elementales —los genes— con cada gen correspondiendo a su carácter hereditario definido. Sin embargo, poco después nuevos descubrimientos demostraron que un solo gen puede afectar a una gran variedad de caracteres y que, por el contrario, muchos genes separados pueden combinarse para producir un solo carácter. No cabe ninguna duda de que el estudio de la actividad integradora y de la cooperación entre los genes tiene una importancia primordial, pero también en este caso, el esquema cartesiano ha sido un obstáculo para ocuparse de cuestiones. Cuando los científicos reducen una unidad íntegra a sus componentes elementales —sean estos genes, células o partículas elementales— y tratan de explicar todos los fenómenos desde el punto de vista de estos elementos, pierden la capacidad de comprender las actividades integradoras de todo el sistema. Otra idea errónea del enfoque reduccionista es la creencia de que la estructura genética es lo único que determina los caracteres de un organismo. Este «determinismo genético» es una consecuencia directa de la concepción según la cual los organismos vivientes son máquinas controladas por cadenas lineales de causa y efecto. Esta idea no tiene en cuenta el hecho de que los organismos son sistemas compuestos de muchos niveles: los genes están engarzados en los cromosomas que, a su vez, funcionan dentro de los núcleos celulares, y las células están

incorporadas a los tejidos, y así sucesivamente. Todos estos niveles comprenden una serie de interacciones que influyen en el desarrollo del organismo y tienen como resultado un sinfín de variaciones del cariotipo genético. Argumentos similares a los anteriores rigen también para la evolución de una especie. Los conceptos darwinianos de la variación casual y de la selección natural son sólo dos aspectos de un complejo; fenómeno que resulta mucho más comprensible dentro de una teoría holística que afecta el conjunto de los sistemas18. Una estructura tal es mucho más útil que la postura dogmática de la llamada teoría neo-newtoniana, que tuvo su más ferviente defensor en el geneticista y premio Nobel Jacques Monod: La casualidad es la única fuente de toda innovación, de toda creación en la biosfera. La casualidad pura, absolutamente libre pero ciega, en la raíz misma del estupendo edificio de la evolución: este concepto central de la biología moderna ya no es una hipótesis concebible entre otras. Hoy es la sola y única hipótesis concebible, la única que cuadra con los hechos observados y comprobados. Y no hay nada que justifique la suposición —o la esperanza— de que nuestra posición al respecto sea revisada en un futuro19. En los últimos años la falacia del determinismo genético ha engendrado una teoría muy discutida llamada sociobiología, según la cual todo el comportamiento social está predeterminado por la estructura genética20 . Muchos críticos han hecho notar que este enfoque no sólo carece de fundamento científico, sino que también resulta muy peligroso, pues fomenta justificaciones pseudocientíficas racistas y machistas al interpretar las diferencias del comportamiento humano como algo programado genéticamente y que no se puede cambiar21. Durante la primera mitad del siglo XX la genética logró explicar muchos aspectos de la herencia, pero la exacta naturaleza química y física de su concepto central —el gen— seguía envuelta en el misterio. La complicada química de los cromosomas no fue aprehendida hasta los años cincuenta y sesenta, un siglo después de Darwin y de Mendel. Mientras tanto, la nueva ciencia de la bioquímica iba avanzando gradualmente, estableciendo entre los biólogos la creencia de que todas las propiedades y funciones de los organismos vivientes, a la larga, serían explicados en términos químicos y físicos. Esta opinión fue expuesta claramente por Jacques Loeb en La Concepción Mecanicista de la Vida, obra que ejerció una gran influencia en el pensamiento biológico de su época. «Los organismos vivientes son máquinas químicas —afirmaba Loeb22— que tienen la peculiaridad de conservarse y de reproducirse.» Explicar el funcionamiento de estas máquinas exclusivamente desde el punto de vista de sus componentes básicos era para Loeb —y para todos los reduccionistas— la esencia del enfoque científico: «El objeto final de las ciencias físicas es imaginar todos los fenómenos desde el punto de vista de su agrupación y del desplazamiento de sus partículas primordiales y, al no haber discontinuidad entre la materia que constituye el mundo vivo y la que forma el mundo no vivo, la meta de la biología puede expresarse, de la misma manera»23. Una consecuencia trágica de esta visión de los organismos vivientes como máquinas ha sido el uso excesivo de la vivisección* en la investigación biomédica y del comportamiento24 . El mismo Descartes defendía la visección, creyendo que los animales sometidos a ella no sufrían y que sus gritos no significaban nada más que el crujido de una rueda. En la actualidad, la inhumana práctica de la tortura sistemática de animales sigue existiendo en las ciencias biológicas. *

*

*

*

La vivisección, en el sentido más amplio, incluye todos los experimentos practicados en animales, en los que puede, o no, haber disección, y especialmente los que se consideran dolorosos para el sujeto.

En el siglo XX ha habido un cambio significativo en la investigación biomédica que podría muy bien ser la última etapa del enfoque reduccionista de los fenómenos vitales, llevándolo a su mayor triunfo y, al mismo tiempo, a su fin. Mientras que, en el siglo XIX, las células eran consideradas como los componentes básicos de los organismos vivientes, a mediados del siglo XX los geneticistas comenzaron a centrar su atención en las moléculas y se pusieron a explorar., la estructura molecular de los genes. Las investigaciones culminaron en el descubrimiento de la estructura física del ADN —la base molecular de los cromosomas— que fue uno de los mayores triunfos de la ciencia del siglo XX. Los progresos de la biología molecular han llevado a los biólogos a creer que todas las funciones biológicas pueden explicarse desde el punto de vista de las estructuras y mecanismos moleculares, y esto ha tergiversado considerablemente la investigación en las ciencias de la naturaleza. En sentido general, el término «biología molecular» se refiere al estudio de cualquier fenómeno biológico desde el punto de vista de sus estructuras moleculares y de las interacciones que este fenómeno entraña. Más específicamente, ha llegado a significar el estudio de unas moléculas biológicas muy grandes llamadas macromoléculas. Durante la primera mitad del siglo XX se hizo evidente que los constituyentes esenciales de todas las células vivas —las proteínas y los ácidos nucleicos— eran estructuras muy complejas, similares a cadenas, que contenían miles de átomos. Investigar las propiedades químicas y la exacta forma tridimensional de estas grandes moléculas encadenadas se volvió la tarea principal de la biología molecular25. El primer gran logro en el campo de la genética molecular fue el descubrimiento de ciertos catalizadores llamados enzimas, contenidos en las células, que podían provocar determinadas reacciones químicas. Durante la primera mitad del siglo, los bioquímicos lograron determinar la mayoría de las reacciones químicas que ocurren en las células y descubrieron que las reacciones más importantes son esencialmente las mismas en todos los organismos vivientes. Cada una de ellas depende de la presencia de una enzima en particular, y por ello el estudio de las enzimas tiene una importancia primordial. En los años cuarenta los geneticistas se apuntaron otro triunfo al descubrir que la función principal de los genes era controlar la síntesis de las enzimas. Gracias a este descubrimiento se comenzaron a perfilar los amplios límites del proceso hereditario: los genes determinan los caracteres hereditarios dirigiendo la síntesis de las enzimas y éstas, a su vez promueven las reacciones químicas cine corresponden a estos caracteres. Si bien estos descubrimientos representaron un gran adelanto en la comprensión de la genética, la naturaleza del gen siguió siendo una incógnita. Los geneticistas desconocían la estructura química de los genes y eran incapaces de explicar cómo lograban éstos llevar a cabo sus funciones esenciales: la síntesis de las enzimas, la fiel reproducción de sí mismos en el proceso de la división celular y los bruscos y permanentes cambios llamados mutaciones. En cuanto a las enzimas, se sabía que eran proteínas, pero se ignoraba su estructura química precisa y, por consiguiente, se desconocía el proceso a través del cual promovían las reacciones químicas. Esta situación cambió drásticamente en las dos décadas siguientes, en las que se realiza el mayor adelanto de la genética moderna, al que se suele llamar la ruptura del código genético: el descubrimiento de la estructura química exacta de los genes y las enzimas, de los mecanismos moleculares de la síntesis proteínica, y de los mecanismos de reproducción y mutación de los genes26. Este avance revolucionario supuso una tremenda lucha y una feroz competencia entre los biólogos, pero a la vez fomentó la colaboración entre un grupo de destacados científicos, cuyos principales protagonistas fueron Francis Crick, James Watson, Maurice Wilkins, Rosalind Franklin, Linus Pauling, Salvador Luria y Max Delbrück. Un elemento de primordial importancia para la ruptura del código genético fue el hecho de que varios físicos de aquella época comenzaron a interesarse por la biología. Max Delbrück, Francis

Crick y Maurice Wilkins, entre otros, habían realizado estudios de física antes de unirse a los bioquímicos y los geneticistas para estudiar las leyes de la herencia. Estos científicos trajeron consigo un nuevo rigor, una nueva perspectiva y nuevos métodos que transformaron completamente la investigación. Los físicos habían comenzado a interesarse por la biología en los años treinta, cuando Niels Bóhr especuló sobre la importancia del principio de incertidumbre y del concepto de la complementariedad en la investigación biológica27. Las teorías de Bóhr fueron elaboradas nuevamente por Delbrück, cuyas ideas sobre la naturaleza física de los genes llevaron a Edwin Schródinger a escribir un pequeño libro titulado ¿Qué es la vida? Este opúsculo influyó profundamente en el pensamiento biológico de los años cuarenta y fue la razón principal por la que varios científicos dejaron la física y se volvieron a la genética. El atractivo de la obra de Schródinger reside en el tratamiento claro y convincente que el autor da al gen, concibiéndolo como una substancia física y concreta y no como una unidad abstracta y proponiendo varias hipótesis definitivas sobre su estructura molecular, que estimularon a los científicos a cambiar su visión de la genética. Schródinger fue el primero en sugerir que el gen podía verse como un portador de información cuya estructura física correspondía a una sucesión de elementos en un código hereditario. Su entusiasmo convenció a los físicos, a los bioquímicos y a los geneticistas de la apertura de una nueva frontera científica y de la inminencia de grandes descubrimientos. A partir de entonces estos científicos comenzaron a referirse a sí mismos como «biólogos moleculares». La estructura básica de las moléculas biológicas fue descubierta a comienzos de los años cincuenta gracias a la confluencia de tres eficaces métodos de observación: el análisis químico, la microscopia de electrones y la cristalografía de rayos X*. El primer descubrimiento importante —la determinación de la estructura de la molécula proteínica— fue obra de Linus Pauling. Se sabía que las proteínas eran moléculas coloidales que consistían en una secuencia de diferentes compuestos químicos, llamados aminoácidos, unidos por los extremos. Pauling demostró que el elemento principal de la estructura proteínica está enroscado en una hélice que gira hacia la derecha o hacia la izquierda, y que el resto de la estructura está determinada por la secuencia lineal exacta de los aminoácidos a lo largo de este camino helicoidal. Estudios realizados posteriormente sobre la molécula proteínica demostraron cómo la estructura específica de las enzimas les permite unir las moléculas cuyas reacciones químicas promueven. El gran éxito de Pauling inspiró a James Watson y a Francis Crick para centrar sus esfuerzos en determinar la estructura del ADN, ácido nucleico que para entonces ya había sido reconocido como el material genético de los cromosomas. Después de dos años de trabajos extenuantes, de muchos falsos comienzos y de grandes desengaños, Watson y Crick fueron premiados con el éxito. Utilizando los datos obtenidos por Rosalind Frank y Maurice Wilkins, lograron determinar la arquitectura exacta del ADN, llamada también estructura Watson Crick. Se trata de una doble hélice formada por dos cadenas entrelazadas cuyas estructuras se complementan. Los compuestos químicos situados en hilera a lo largo de estas cadenas son unas estructuras complejas llamadas nucleótidos, de las cuales existen cuatro clases diferentes. Tuvo que pasar otra década para que se pudiese comprender el mecanismo básico a través del cual del ADN cumple sus dos funciones fundamentales: la autorrepetición y la síntesis proteínica. Nuevas investigaciones, dirigidas por Watson y Crick, revelaron explícitamente la manera en que la información genética se codifica en los cromosomas. Para decirlo en términos extremadamente simples, los cromosomas están compuestos de moléculas ADN que muestran *

La cristalografía de rayos X, inventada en 1912 por Lawrence Bragg, es el método utilizado para determinar la disposición ordenada a los átomos en las estructuras moleculares —originalmente denominadas cristales— a través de un análisis de la refrangibilidad de los rayos X en estas estructuras.

la estructura Watson-Crick. Un gen es la longitud de una doble hélice ADN que determina la estructura de una enzima específica. La síntesis de esta enzima es el resultado de un complicado proceso de dos etapas que requiere la presencia del ARN, el segundo ácido ribonucleico. Los elementos del código genético son los cuatro nucleótidos cuya secuencia aperiódica a lo largo de la cadena contiene la información genética. La secuencia lineal de nucleótidos en el gen determina la secuencia lineal de los aminoácidos en la enzima correspondiente. En el proceso de la división de los cromosomas, las dos cadenas de la doble hélice se separan y cada una de ellas sirve de plantilla para la formación de una nueva cadena complementaria. La mutación genética viene causada por un error casual en este proceso de duplicación, cuando un nucleótido es reemplazado por otro, lo que tiene como resultado un cambio permanente en la información que este gen transporta. Estos, pues, son los elementos básicos de lo que ha sido acogido como el mayor descubrimiento en el campo de la biología desde la teoría de la evolución darwiniana. Llegando a niveles aún más microscópicos en su exploración de los fenómenos de la vida, los biólogos descubrieron que los caracteres de todos los organismos vivientes —desde las bacterias hasta los seres humanos— están codificados en sus cromosomas en la misma substancia química y utilizados en la misma escritura codificada. Después de dos décadas de exhaustivas investigaciones, se han logrado descifrar los detalles precisos de este código. Los biólogos han descubierto un alfabeto verdaderamente universal para el lenguaje de la vida. El éxito espectacular obtenido por la biología molecular en el campo de la genética llevó a los científicos a aplicar sus métodos a todos los campos de la biología, en una tentativa de resolver los problemas reduciéndolos a su nivel molecular. Así pues, la mayoría de los biólogos se tornaron ardientes reduccionistas, centrando su atención en el nivel molecular. En la actualidad, la biología molecular—originalmente una rama casi insignificante de las ciencias biológicas— se ha convertido en un modo de pensamiento general y exclusivista y ha tenido como resultado una grave tergiversación en la investigación biológica. Los fondos se destinan a encontrar soluciones básicas y asuntos de moda, mientras se hace caso omiso de importantes problemas teóricos que no se prestan al enfoque reduccionistas. Sidney Brenner, uno de los principales investigadores en este campo, ha señalado que «nadie publica teorías en biología, salvo pocas excepciones. En cambio, descubren la estructura de otra proteína»28. Hacia 1970 surgieron una serie de problemas que no podían explicarse a partir de la visión reduccionista de la biología molecular. Los científicos comprendían perfectamente la estructura del ADN y los mecanismos moleculares de la herencia de los organismos unicelulares simples, pero desconocían todo lo referente a los organismos multicelulares. Por consiguiente, los biólogos tuvieron que enfrentarse con los problemas del desarrollo y de la diferenciación celular que la ruptura del código genético había eclipsado. En las primeras etapas del desarrollo de los organismos multicelulares, el número de sus células pasa de una a dos, a cuatro, a ocho, a dieciséis, y así sucesivamente. Puesto que se considera que la información genética es idéntica en cada célula, ¿cómo es posible que cada célula tenga una especialización diferente, y que se conviertan en células musculares, sanguíneas, óseas, nerviosas y así sucesivamente? Este problema fundamental del desarrollo, del que existen numerosas variaciones en el campo de la biología, demuestra claramente las limitaciones del enfoque reduccionista. Los biólogos modernos conocen la estructura exacta de algunos genes, pero saben muy poco sobre la manera en que estos genes se comunican y cooperan en el desarrollo de un organismo —cómo son sus interacciones, cómo se agrupan, cuándo comienzan y cuándo dejan de funcionar y en qué orden lo hacen. En la actualidad, los biólogos entienden perfectamente el alfabeto del código genético pero desconocen casi por completo su sintaxis. No cabe ninguna duda de que sólo un pequeño porcentaje del ADN —menos del 5 por ciento— se utiliza para especificar las proteínas; pero todo el resto muy bien podría utilizarse para ciertas actividades integradoras que los biólogos ignoran y que seguirán desconociendo si persisten en su empeño de adherirse a modelos reduccionistas.

El otro campo en el que resultan evidentes las limitaciones del enfoque reduccionista es el campo de la neurobiología. El sistema nervioso central es un sistema holístico por excelencia cuyas actividades integradoras no pueden entenderse reduciéndolas a mecanismos moleculares. Al propio tiempo, las células nerviosas son las más grandes, y, por tanto, las más fáciles de estudiar. Por consiguiente, es probable que los neurocientíficos sean los primeros que propongan modelos holísticos del funcionamiento del cerebro para explicar fenómenos como la percepción, la memoria y el dolor, que no pueden entenderse dentro de la actual estructura reduccionista. Veremos que ya se han realizado algunas tentativas en este sentido que prometen abrir interesantes y nuevas perspectivas. Para ir más allá del actual enfoque reduccionista, los biólogos tendrán que reconocer que; como dice Paul Weiss, «en un sistema vivo no hay ningún fenómeno, que no sea molecular, pero tampoco existe ningún fenómeno que sea únicamente molecular»29. Para este fin se necesita una estructural: conceptual mucho más amplia que la utilizada por la biología moderna. Los espectaculares adelantos en este campo no han ampliado las bases de su filosofía: el paradigma cartesiano sigue dominando las ciencias de la naturaleza. Aquí cabe realizar una comparación entre la biología y la física. En el estudio de las leyes de la herencia, el período anterior a 1941 se suele llamar el de la «genética clásica», diferenciándolo de la genética moderna» de las décadas siguientes. Es posible que estos términos deriven de una analogía con la transición de la física clásica, la física moderna ocurrida a finales del siglo pasado30. Así como átomo era una unidad indivisible de una estructura desconocida, la física clásica, también lo era el gen en la genética clásica. Pero esta analogía se derrumba en un aspecto significativo. La exploración del átomo ha obligado a los físicos a corregir radicalmente sus conceptos básicos sobre la naturaleza de la realidad física. El resultado de esta revisión ha sido una teoría dinámica coherente —la mecánica cuántica— que va más allá de los principales conceptos de la ciencia cartesiano-newtoniana. En cambio, en biología, la exploración del ge no ha servido para transformar los conceptos básicos de los biólogos y tampoco ha resultado en una teoría dinámica universal. No existe una estructura que unifique los conceptos, permitiendo a los biólogos sobreponerse a la fragmentación de su ciencia mediante una evaluación de la importancia relativa de los problemas de la investigación y el reconocimiento de la manera en que éstos se relacionan. El único esquema que utilizan para esta evaluación sigue siendo el cartesiano, según el cual los organismos vivientes son máquinas físicas y bioquímicas explicables desde el punto de vista de sus mecanismos moleculares. No obstante, varios importantes biólogos actuales creen que la biología molecular está llegando al final de su utilidad. Francis Crick, que dominó el campo desde sus comienzos, reconoce las graves limitaciones del enfoque molecular para entender los fenómenos biológicos elementales: Por una parte, se podrían considerar todas las obras sobre genética y biología molecular de los últimos sesenta años como un largo intervalo... Ahora que el programa ha sido perfeccionado hemos dado toda la vuelta, y nos enfrentamos nuevamente con los mismos problemas... que habíamos dejado atrás sin solucionar. ¿Cómo se regenera un organismo herido y cómo llega a tener exactamente la misma estructura que antes? ¿Cómo puede un óvulo formar un organismo?31. Para resolver estos problemas se necesita un nuevo paradigma, una nueva dimensión conceptual que vaya más allá del enfoque cartesiano. Es probable que la visión de sistemas se convierta en la base conceptual de esta nueva biología, como parece insinuar Sidney Brenner en unas recientes especulaciones sobre el futuro de su ciencia: Creo que durante los próximos veinticinco años los biólogos tendrán que aprender otro idioma... Aún no sé cómo se llama ese idioma; de hecho, nadie lo sabe. Pero lo que se trata de hacer, en mi opinión, es solucionar el problema elemental de la teoría de los sistemas elaborados... Y es aquí donde surge un grave problema de niveles: quizá sea un error creer que toda

la lógica se halla a nivel molecular. Tal vez tengamos que ir más allá de los simples mecanismos de relojería32.

SEGUNDA UNIDAD: CORRIENTES EPISTEMOLOGICAS

2.1 EL POSITIVISMO, FUNDAMENTOS, CRÍTICA. EL MÉTODO INDUCTIVO, DEDUCTIVO Y EL POSITIVISMO LÓGICO 2.1.1 EL POSITIVISMO Consiste en no admitir como validos científicamente otros conocimientos, sino los que proceden de la experiencia, rechazando, por tanto, toda noción a priori y todo concepto universal y absoluto. El hecho es la única realidad científica, y la experiencia y la inducción, los métodos exclusivos de la ciencia. Por su lado negativo, el positivismo es negación de todo ideal, de los principios absolutos y necesarios de la razón, es decir, de la metafísica. El positivismo es una mutilación de la inteligencia humana, que hace posible, no sólo, la metafísica, sino la ciencia misma. Esta, sin los principios ideales, queda reducida a una nomenclatura de hechos, y la ciencia es una colección de experiencias, sino la idea general, la ley que interpreta la experiencia y la traspasa. Considerado como sistema religioso, el positivismo es el culto de la humanidad como ser total y simple o singular. Evolución. El término positivismo fue utilizado por primera vez por el filósofo y matemático francés del siglo XIX Auguste Comte, pero algunos de los conceptos positivistas se remontan al filósofo británico David Hume, al filósofo francés Saint-Simon, y al filósofo alemán Immanuel Kant. Comte eligió la palabra positivismo sobre la base de que señalaba la realidad y tendencia constructiva que él reclamó para el aspecto teórico de la doctrina. En general, se interesó por la reorganización de la vida social para el bien de la humanidad a través del conocimiento científico, y por esta vía, del control de las fuerzas naturales. Los dos componentes principales del positivismo, la filosofía y el Gobierno (o programa de conducta individual y social), fueron más tarde unificados por Comte en un todo bajo la concepción de una religión, en la cual la humanidad era el objeto de culto. Numerosos discípulos de Comte rechazaron, no obstante, aceptar este desarrollo religioso de su pensamiento, porque parecía contradecir la filosofía positivista original. Muchas de las doctrinas de Comte fueron más tarde adaptadas y desarrolladas por los filósofos sociales británicos John Stuart Mill y Herbert Spencer así como por el filósofo y físico austriaco Ernst Mach. Comte, Augusto (1798-1857). Filósofo positivista francés, y uno de los pioneros de la sociología. Nació en Montpellier el 19 de enero de 1798. Desde muy temprana edad rechazó el catolicismo tradicional y también las doctrinas monárquicas. Logró ingresar en la Escuela Politécnica de París desde 1814 hasta 1816, pero fue expulsado por haber participado en una revuelta estudiantil. Durante algunos años fue secretario particular del teórico socialista Claude Henri de Rouvroy, conde de SaintSimon, cuya influencia quedaría reflejada en algunas de sus obras. Los últimos años del pensador francés quedaron marcados por la alienación mental, las crisis de locura en las que se sumía durante prolongados intervalos de tiempo. Murió en París el 5 de septiembre de 1857. Para dar una respuesta a la revolución científica, política e industrial de su tiempo, Comte ofrecía una reorganización intelectual, moral y política del orden social. Adoptar una actitud científica era la clave, así lo pensaba, de cualquier reconstrucción. Afirmaba que del estudio empírico del proceso histórico, en especial de la progresión de diversas ciencias interrelacionadas, se desprendía una ley que denominó de los tres estadios y que rige el desarrollo de la humanidad. Analizó estos estadios en su voluminosa obra Curso de filosofía positiva (6 vols., 1830-1842). Dada la naturaleza de la mente humana, decía, cada una de las ciencias o ramas del saber debe pasar por "tres estadios teoréticos diferentes: el teológico o estadio ficticio; el metafísico o estadio abstracto; y por último, el científico o positivo". En el

estadio teológico los acontecimientos se explican de un modo muy elemental apelando a la voluntad de los dioses o de un dios. En el estadio metafísico los fenómenos se explican invocando categorías filosóficas abstractas. El último estadio de esta evolución, el científico o positivo, se empeña en explicar todos los hechos mediante la aclaración material de las causas. Toda la atención debe centrarse en averiguar cómo se producen los fenómenos con la intención de llegar a generalizaciones sujetas a su vez a verificaciones observacionales y comprobables. La obra de Comte es considerada como la expresión clásica de la actitud positivista, es decir, la actitud de quien afirma que tan sólo las ciencias empíricas son la adecuada fuente de conocimiento. Cada uno de estos estadios, afirmaba Comte, tiene su correlato en determinadas actitudes políticas. El estadio teológico tiene su reflejo en esas nociones que hablan del Derecho divino de los reyes. El estadio metafísico incluye algunos conceptos tales como el contrato social, la igualdad de las personas o la soberanía popular. El estadio positivo se caracteriza por el análisis científico o "sociológico" (término acuñado por Comte) de la organización política. Bastante crítico con los procedimientos democráticos, Comte anhelaba una sociedad estable gobernada por una minoría de doctos que empleara métodos de la ciencia para resolver los problemas humanos y para imponer las nuevas condiciones sociales. Aunque rechazaba la creencia en un ser transcendente, reconocía Comte el valor de la religión, pues contribuía a la estabilidad social. En su obra Sistema de Política Positiva (1851-1854; 1875-1877), propone una religión de la humanidad que estimulara una benéfica conducta social. La mayor relevancia de Comte, sin embargo, se deriva de su influencia en el desarrollo del positivismo. La Ley de los tres Estados. Según Comte, los conocimientos pasan por tres estados teóricos distintos, tanto en el individuo como en la especie humana. La ley de los tres estados, fundamento de la filosofía positiva, es, a la vez, una teoría del conocimiento y una filosofía de la historia. Estos tres estados se llaman: • Teológico. • Metafísico. • Positivo. • Estado Teológico: Es ficticio, provisional y preparatorio. En él, la mente busca las causas y los principios de las cosas, lo más profundo, lejano e inasequible. Hay en él tres fases distintas: • Fetichismo: en que se personifican las cosas y se les atribuye un poder mágico o divino. • Politeísmo: en que la animación es retirada de las cosas materiales para trasladarla a una serie de divinidades, cada una de las cuales presenta un grupo de poderes: las aguas, los ríos, los bosques, etc. • Monoteísmo: la fase superior, en que todos esos poderes divinos quedan reunidos y concentrados en uno llamado Dios. En este estado, predomina la imaginación, y corresponde a la infancia de la humanidad. Es también, la disposición primaria de la mente, en la que se vuelve a caer en todas las épocas, y solo una lenta evolución puede hacer que el espíritu humano de aparte de esta concepción para pasar a otra. El papel histórico del estado teológico es irremplazable. • Estado Metafísico:

El estado abstracto, es esencialmente crítico, y de transición, Es una etapa intermedia entre el estado teológico y el positivo. En el se siguen buscando los conocimientos absolutos. La metafísica intenta explicar la naturaleza de los seres, su esencia, sus causas. Pero para ello no recurren a agentes sobrenaturales, sino a entidades abstractas que le confieren su nombre de ontología. Las ideas de principio, causa, sustancia, esencia, designan algo distinto de las cosas,

si bien inherente a ellas, más próximo a ellas; la mente que se lanzaba tras lo lejano, se va acercando paso a paso a las cosas, y así como en el estado anterior que los poderes se resumían en el concepto de Dios, aquí es la naturaleza, la gran entidad general que lo sustituye; pero esta unidad es más débil, tanto mental como socialmente, y el carácter del estado metafísico, es sobre todo crítico y negativo, de preparación del paso al estado positivo; una especie de crisis de pubertad en el espíritu humano, antes de llegar a la adultes. • Estado Positivo:

Es real, es definitivo. En él la imaginación queda subordinada a la observación. La mente humana se atiene a las cosas. El positivismo busca sólo hechos y sus leyes. No causas ni principios de las esencias o sustancias. Todo esto es inaccesible. El positivismo se atiene a lo positivo, a lo que está puesto o dado: es la filosofía del dato. La mente, en un largo retroceso, se detiene a al fin ante las cosas. Renuncia a lo que es vano intentar conocer, y busca sólo las leyes de los fenómenos. • El carácter social del espíritu positivo.

El espíritu positivo tiene que fundar un orden social. La constitución de un saber positivo es la condición de que haya un autoridad social suficiente, y esto refuerza el carácter histórico del positivismo. Comte, fundador de la Sociología, intenta llevar al estado positivo el estudio de la Humanidad colectiva, es decir, convertirlo en ciencia positiva. En la sociedad rige también, y principalmente, la ley de los tres estados, y hay otras tantas etapas, de las cuales, en una domina lo militar. Comte valora altamente el papel de organización que corresponde a la iglesia católica; en la época metafísica, corresponde la influencia social a los legistas; es la época de la irrupción de las clases medias, el paso de la sociedad militar a la sociedad económica; es un período de transición, crítico y disolvente; el protestantismo contribuye a esta disolución. Por último, al estado positivo corresponde la época industrial, regida por los intereses económicos, y en ella se ha de restablecer el orden social, y este ha de fundarse en un poder mental y social. • El positivismo y la filosofía.

Es aparentemente, una reflexión sobre la ciencia. Después de agotadas éstas, no queda un objeto independiente para la filosofía, sino ellas mismas; la filosofía se convierte en teoría de la ciencia. Así, la ciencia positiva adquiere unidad y conciencia de sí propia. Pero la filosofía, claro es, desaparece; y esto es lo que ocurre con el movimiento positivo del siglo XIX, que tiene muy poco que ver con la filosofía. Pero en Comte mismo no es así. Aparte de lo que cree hacer hay lo que efectivamente hace. Y hemos visto que: 1.Es una filosofía de la historia (la ley de los tres estados). 2.Una teoría metafísica de la realidad, entendida con caracteres tan originales y tan nuevos como el ser social, histórica y relativa. 3.Una disciplina filosófica entera, la ciencia de la sociedad; hasta el punto de que la sociología, en manos de los sociólogos posteriores, no ha llegado nunca a la profundidad de visión que alcanzó en su fundador. Este es, en definitiva, el aspecto más verdadero e interesante del positivismo, el que hace que sea realmente, a despecho de todas las apariencias y aun de todos los positivistas, filosofía. • El sentido del positivismo.

Esta ciencia positiva es una disciplina de modestia; y esta es su virtud. El saber positivo se atiene humildemente a las cosas; se queda ante ellas, sin intervenir, sin saltar por encima para lanzarse a falaces juegos de ideas; ya no pide causas, sino sólo leyes. Y gracias a esta austeridad logra esas leyes; y las posee con precisión y con certeza. Una y otra vez vuelve Comte, del modo más explícito, al problema de la historia, y la reclama como dominio propio de la filosofía positiva. En esta relación se da el carácter histórico de esta filosofía, que puede explicar el pasado entero. 2.1.2 EL MÉTODO INDUCTIVO Esta metodología se asocia originariamente a los trabajos de Francis Bacon a comienzos del siglo XVII. En términos muy generales, consiste en establecer enunciados universales ciertos a partir de la experiencia, esto es, ascender lógicamente a través del conocimiento científico, desde la observación de los fenómenos o hechos de la realidad a la ley universal que los contiene. Resumiendo las palabras de Mill (1973, las investigaciones científicas comenzarían con la observación de los hechos, de forma libre y carente de prejuicios. Con posterioridad -y mediante inferencia- se formulan leyes universales sobre los hechos y por inducción se obtendrían afirmaciones aún más generales que reciben el nombre de teorías. Según este método, se admite que cada conjunto de hechos de la misma naturaleza está regido por una Ley Universal. El objetivo científico es enunciar esa Ley Universal partiendo de la observación de los hechos. Atendiendo a su contenido, los que postulan este método de investigación distinguen varios tipos de enunciados: ? Particulares, si se refieren a un hecho concreto. ? Universales, los derivados del proceso de investigación y probados empíricamente. ? Observacionales, se refieren a un hecho evidente. Haciendo hincapié en el carácter empirísta de esta metodología, la secuencia seguida en este proceso de investigación puede resumirse en los siguientes puntos (Wolfe, 1924, pág. 450): 1. Debe llevarse a cabo una etapa de observación y registro de los hechos. 2. A continuación se procederá al análisis de lo observado, estableciéndose como consecuencia definiciones claras de cada uno de los conceptos analizados. 3. Con posterioridad, se realizará la clasificación de los elementos anteriores. 4. La última etapa de este método está dedicada a la formulación de proposiciones científicas o enunciados universales, inferidos del proceso de investigación que se ha llevado a cabo. Según estos empiristas clásicos, se han de considerar teorías científicas las formadas por conjuntos de enunciados probados empíricamente y que, o bien describen hechos firmes, o bien son generalizaciones inductivas de aquellos. La teoría no es aceptada hasta que no haya sido probada. De este modo, vemos en estos empiristas un rechazo frontal hacia toda especulación teórica sobre campos del conocimiento en los que no se pueda realizar una contrastación empírica. Este enfoque inductivo de ciencia empezó a derrumbarse gradualmente en la segunda mitad del siglo XIX bajo la influencia de los escritos de Match, Poincare y Duhem, a principios de nuestro siglo empezó a tomar una visión prácticamente opuesta en los trabajos del Círculo de Viena. Algunos autores contemporáneos han criticado duramente esta metodología (Hempel, 1966, pp. 11-12; Medawar, 1969, pág.40) argumentando una serie de cuestiones que ponen en duda su eficacia, como la imposibilidad de recopilar todos los hechos relacionados con el fenómeno en el que estamos interesados o el hecho de que la experimentación sea sólo utilizada como un simple procedimiento para generar información.

Por otro lado, el denominado “problema de la inducción” es un tema que presenta determinadas implicaciones incluso para aquellos que no suscriben la metodología inductivista. La cuestión se plantea ante la duda de si la evidencia inductiva puede ser utilizada para predecir futuros acontecimiento, en consecuencia, el problema de la inducción surge a partir de nuestra incapacidad para proporcionar elementos racionales que puedan ser utilizadas para explicar algo más allá de la evidencia disponible (Pheby, 1988, pág. 7) EL INDUCTIVISMO EN ECONOMÍA Si nos situamos bajo el punto de vista de aquellos autores que son considerados como precursores de la economía, durante el mercantilismo se da un enfoque metodológico de tipo empírico-realista53. No se proponen leyes que expliquen el comportamiento económico y posteriormente lo controlen, sino sugerencias y normas de conducta sistemáticas. La economía se reducía a una lista de fórmulas prácticas para el uso de los gobernantes en defensa de los intereses nacionales, sin embargo, en opinión de Pheby (1988, pág. 10) el trabajo de W. Petty constituye una aportación interesante y , en cierto modo, en una línea inductiva en el sentido marcado por Bacon. Dejando a un lado la aportación de los precursores de la economía, que no adoptan un enfoque metodológico claro, para Pheby (1988, pág. 10), la primer contribución importante en la línea inductivista corresponde a R.R.Jones a comienzos del siglo XIX. Jones no estaba conforme con la tendencia abstracta y deductiva que dominaba la economía por esa época. Su deseo era que la economía estuviera basada mucho más en los hechos. La posición de Jones será más tarde compartida por la Escuela Histórica Alemana. El auge del historicismo tiene lugar en Alemania en la segunda mitad del siglo XIX como reacción al grado de abstracción de los economistas clásicos, aunque ya en la primera mitad del mismo siglo habían comenzado a oírse quejas sobre el método de la economía política clásica. Los principales exponentes de la Escuela Historicista fueron, entre otros, Roscher, Hildebrand, Schmöller, Knies, List, etc.. Aunque pertenecientes incluso a diferentes generaciones, y mantuvieran sus propias diferencias en cuanto a temática y método, compartieron el número suficiente de posiciones metodológicas para posibilitar una descripción y valoración generales en su forma de abordar los problemas. 2.1.3 EL MÉTODO DEDUCTIVO Antes de iniciar unas breves pinceladas obre este método, es interesante resaltar una distinción importante entre deductivismo y deducción, lo mismo que podría establecerse entre inductivismo e inducción. La deducción, tanto si es axiomática como matemática, puede emplearse de manera que facilite el análisis estadísitco y el contraste. Sin embargo, el deductivismo implica que la estadística y el conocimiento empírico es tan transitorio que no vale la pena y que un primer análisis deductivo puede proporcionar una mejor comprensión de un determinado fenómeno (Pheby, 1988, pág. 14). Las primeras consideraciones del método deductivo podrían remontarse a los trabajos de Descartes a comienzos del siglo XVII, en su afán de encontrar un método que proporcionara un 53

Quizás, por su denominación, el mercantilismo da la impresión de tratarse de un movimiento metodológico, pero en realidad no fue así, a este respecto nos comenta Katouzian (1982, pág. 26): Se trata de un término confuso, especialmente porque da la falsa impresión de que sus ideas se habían desarrollado como un cuerpo coherente y sistemático de pensamiento económico . La fisiocracia convive con el mercantilismo en los últimos

mejor conocimiento de las diferentes esferas de actividad. Por consiguiente, los objetivos de Bacon y Descartes eran similares, sin embargo, la forma de conseguirlos era diametralmente opuesta. Descartes utilizaba la deducción y las matemáticas como punto referencial, mientras que Bacon le prestaba muy poca atención a estos instrumentos. Centrándonos en el deductivismo, se trata de un procedimiento que consiste en desarrollar una teoría empezando por formular sus puntos de partida o hipótesis básicas y deduciendo luego sus consecuencia con la ayuda de las subyacentes teorías formales. Sus partidarios señalan que toda explicación verdaderamente científica tendrá la misma estructura lógica, estará basada en una ley universal, junto a ésta, aparecen una serie de condicionantes iniciales o premisas, de las cuales se deducen las afirmaciones sobre el fenómeno que se quiere explicar. El argumento deductivo se contrapone al método inductivo, en el sentido de que se sigue un procedimiento de razonamiento inverso. En el método deductivo, se suele decir que se pasa de lo general a lo particular, de forma que partiendo de unos enunciados de carácter universal y utilizando instrumentos científicos, se infieren enunciados particulares, pudiendo ser axiomático-deductivo, cuando las premisas de partida están constituidas por axiomas, es decir, proposiciones no demostrables, o hipotéticos-deductivo, si las premisas de partida son hipótesis contrastables. Las leyes universales vendrán dadas por proposiciones del tipo “en todos los casos en los que se da el fenómeno A, se da también el fenómeno B. Estas leyes tendrán un carácter determinista cuando se refieran a fenómenos >”B” individuales y carácter estocástico cuando hagan mención a clases de fenómenos “B” que se den con una cierta probabilidad. La actuación seguida por el investigador sería la siguiente: 1. Planteamiento del conjunto axiomático de partida. El criterio que debe seguirse en esta etapa debe ser el de la sencillez. Los supuestos deben incorporar sólo las características más importantes de los fenómenos, debiendo ser eliminadas las irrelevantes. Debe existir coherencia entre los postulados, sin que haya contradicción entre unos y otros. 2. Proceso de deducción lógica, partiendo siempre de los postulados iniciales, es decir, de la etapa anterior. 3. Enunciado de leyes de carácter general, a los que se llegará partiendo del conjunto axiomático y a través del proceso de deducción. Del procedimiento lógico se infiere que las explicaciones y predicciones siguen las mismas reglas de deducción, la única diferencia está en que la explicación se produce una vez que ha ocurrido el suceso, mientras que la predicción tienen un carácter apriorístico. Para citar una causa determinada como explicación de un fenómeno concreto, hemos de someterlo a una ley universal. En el caso de la predicción, partimos de una ley universal y de un conjunto de premisas deduciendo de ellos proposiciones acerca del fenómeno desconocido. La idea de la existencia de un paralelismo entre la naturaleza de las explicaciones y de las predicciones ha sido denominada “tesis de la simetría”. Este concepto ha suscitado numerosas críticas. Se argumenta que la predicción no tiene por qué implicar explicación, e incluso que la explicación no tiene por qué implicar predicción alguna. Esta conclusión nos parece razonable, en cuanto que para predecir el valor futuro de una variable basándonos en sus valores históricos no es necesario explicar la naturaleza de la misma, basta con aplicar los métodos estadísticos apropiados. Igualmente, para explicar la naturaleza de la variable no es necesario extrapolar valores futuros. A estos efectos comenta Blaug (1985, pág. 22):

“Mientras para la predicción es suficiente con que exista correlación entre dos variables, par la explicación es necesario saber acerca de la naturaleza de las variables y de algo que determine cuál es la variable causa y cuál la variable efecto”. Por último, finalizaremos la descripción del método deductivo afirmando que, dada la dificultad para contrastar empíricamente las hipótesis básicas, se da cada vez un mayor grado de abstracción de las teorías construidas a partir de este procedimiento, lo que conlleva la construcción de modelos como representación simplificada de la realidad, con el consiguiente riesgo de separación entre modelo y realidad. Sin embargo, es preciso señalar, como apunta Pheby (1988, pág. 14), que existe una clara separación entre deductivismo y los procedimientos de deducción que habitualmente se emplean en economía. La deducción, sea axiomática o matemática, puede ser empleada para facilitar los análisis estadísticos y test de hipótesis, en cambio el deductivismo postula que el conocimiento estadístico y empírico es transitorio, un primer análisis deductivo puede proporcionar mejor comprensión de los fenómenos. DEDUCTIVISMO EN ECONOMÍA Comenzando, al igual que hicimos en el epígrafe anterior, con algunos de los considerados como precursores de la economía, el método de los fisiócratas, con F. Quesnay como su principal representante, aunque se encuentra entre lo inductivo y lo deductivo, parece inclinar más la balanza hacia esta segunda línea. Partieron de hechos reales y concebían sus leyes apoyándose en abstracciones a partir de la observación, pero no descartaban la utilización, del razonamiento deductivo en muchos de sus argumentos: “Sus autores se fundaron, esencialmente, en los hechos que ofrece a todos la observación general, pero intentaron aprehender conceptualmente la naturaleza de conjunto del proceso económico, sin considerar necesario reunir sistemáticamente los hechos particulares” (Schumpeter, 1967 pág. 58). Sin embargo, este conjunto de ideas desarrolladas, tanto por unos como por otros, no constituye un sistema de pensamiento, pues como expone Katouzian (1982, pág. 28): “Las ideas estaban allí, pero faltaba el sistema. Las hipótesis existían, pero se carecía de paradigma, los elementos habían sido desarrollados, pero la matriz disciplinar era inexistente”. Dejando de nuevo a un lado estos precursores de la economía, es a los economistas “clásicos” a los que habitualmente se califica con la etiqueta de deductivistas. Como iniciadores, o principales representantes de la Escuela Clásica, designamos a los economistas ingleses durante el periodo que va desde la publicación de “La riqueza de las Naciones” de A. Smith (1776), momento considerado de inicio de la economía como disciplina científica, a los “Principios de Economía Política”, de Mill (1848). Cuatro nombres destacan en ese periodo: Adam Smith, David Ricardo, Thomas Malthus y John Stuart Mill. Lo esencial del método de los clásicos viene recogido en las siguientes palabras de Schumpeter: “El conjunto de problemas que se presentan inmediatamente a ellos, era más importante y más difícil de asimilar, intelectualmente, que el descubrimiento de los hechos, más allá de los que la existencia acumula para nosotros. Sus esfuerzos fueron de naturaleza analítica, y es lo que se designa en general y de forma muy lamentable por medio de los términos: deductivo, abstracto, a priori. Pusieron de relieve los factores que les parecían importantes, procurando representar cómo ocurrirían las cosas si no interviniera ningún otro factor. Redujeron estos factores a algunas nociones fundamentales simples que la experiencia ponía a su alcance. Los aislaron y procedieron por abstracción” ( Schumpeter, 1967, pág. 100). Por tanto, aunque resulte imposible hablar de un método común para ello, en todos se da la característica del predominio del método deductivo, aunque sin una mención expresa al mismo, como señala Blaug (1985, pág. 76): “No vieron la necesidad de expresar los principios metodológicos explícitamente, considerándolos quizás tan obvios que no necesitaban defensa alguna”.

Smith y Malthus no descartaron el método inductivo, de esta forma, cada vez que se discutieron problemas individuales utilizaron, sin más, los datos disponibles. Los diferentes objetivos perseguidos por cada autor explican lo que pudiera parecer una diferencia de método, sin embargo, lo único que ocurría es que no eran muy explícitos con el método empleado: “No tenían ideas muy claras acerca de los límites que se imponen al método analítico” ( Schumpeter, 1967, pág.100). La teoría de la población de Malthus fue el primer paso decisivo en lo que podría llamarse establecimiento de un método económico puro, introduciendo incluso algunas relaciones causales de tipo cuantitativo: “Malthus presentó lo que ahora llamaríamos un modelo abstracto totalmente independiente y que desafiaba la refutación empírica. Incluso consideró las relaciones cuantitativas exactas, esto es, afirmó que mientras la oferta de alimentos crecía en progresión aritmética, la oblación crecía en progresión geométrica” (Katouzian, 1982, pág. 41), Ricardo es el principal analista teórico entre los clásicos, utiliza casi exclusivamente el método deductivo, niega por tanto que los hechos puedan hablar por sí mismo, se preocupa por el enunciado de leyes de carácter general, y no le inquietaba el problema de la contrastación empírica de sus teorías con el mundo de los hechos reales. Para Katouxian, la contribución de Ricardo al método económico puede considerarse la más importante de todos los clásicos, e incluso la califica de revolucionaria. Mill denomina ciencia de la Economía Política a un cuerpo de análisis deductivo basado en premisas psicológicas supuestos y que abstrae todos los aspectos no económicos de la conducta humana. Se ocupó no sólo de problemas económicos, sino también de temas de filosofía de la ciencia, se puede decir que es un innovador en la metodología de la ciencia económica utilizada por los clásicos. Su método combina el método “a posteriori” con el “a priori”, el primero o inductivo, se usaría par descubrir que leyes obraban en cada caso, el segundo o deductivo, para combinar estas leyes y obtener el resultado. Blaug (1985, pág. 81.) resume de la siguiente forma el método de Mill: “Debido a la imposibilidad de realizar experimentos controlados en los temas que implican acciones humanas, el método mixto inductivo-deductivo “a priori” es la única forma legítima de investigación en el campo de las ciencias morales. Y el método específicamente inductivo “a posteriori” entra en escena, no como medio de descubrir la verdad, sino de verificarla”. Antes de finalizar nuestra revisión histórica sobre el método de los clásicos vamos a realizar una breve referencia a dos aportaciones que se mueven en la misma línea. Nos referimos a Senior y Caines. A Senior se le debe la primera formulación. De la distinción entre ciencia pura, estrictamente positiva, y arte impuro e inherentemente normativo de la Economía. Cairnes parte de la conocida proposición de que la Economía Política es una ciencia hipotético-deductiva. Sus conclusiones se corresponderán con los hechos en ausencia de causas perturbadoras. Las conclusiones no deben ser consideradas como verdades positivas, sino hipotéticas. Se apoya en al afirmación de Senior de que la Economía Política no debe ser considerada como una ciencia hipotética sino basada en hechos reales, indudables de la naturaleza humana y del mundo. La diferencia metodológica entre Mill y Cairnes es mínima. Blaug la resume de la siguiente forma: “Si entre Mill y Cairnes observamos alguna diferencia es que Cairnes se muestra más estridente y dogmático al negar que las teorías económicas puedan ser refutadas por simple comparación de sus implicaciones con los hechos” (Blaug, 1985, pág. 97).

En el último cuarto del siglo XIX el deductivismo en economía tomaría un rumbo diferente con el desarrollo de la teoría de la utilidad marginal, el análisis del equilibrio general y la introducción del cálculo diferencial y otras técnicas matemáticas en economía. Después de la publicación de “El Capital” de Marx, tres autores , Stanley Jevons, Karl Menger y Leon Walras trasladaron la base de la teoría del valor desde el trabajo objetivo a la utilidad subjetiva, añadiendo la aplicación del análisis marginal a la teoría económica54. Lo que podría llamarse “revolución marginalista” (Katouzian, 1982, pág. 31) combina la teoría subjetiva del valor con el uso de símbolos matemáticos, construyendo de esta forma un nuevo marco teórico con el objetivo de resolver las cuestiones económica fundamentales. Los elementos comunes del marginalismo necesarios para entender el fenómeno y sus característicos son los siguientes (Ahijado, 1990, pág. 59):

1. Énfasis en agentes individuales, consumidores y empresas, frente a las clases sociales. 2. Desplazamiento de la atención a un tipo de bienes limitados, los escasos. Lo que llevaría a insistir en un tipo de premisas distintas. El núcleo del análisis marginalista lo forman las siguientes magnitudes dadas: preferencias, tecnología y dotaciones de recursos. 3. Planteamiento del problema económico como un problema de asignación de recursos escasos, de características estáticas. Una vez vistos los pilares básicos sobre los que se asienta la doctrina marginalista analizaremos su metodología. Estos economistas se mantiene firmes en el enfoque deductivo, “a priori”, y aunque realizaran algunas alabanzas a la utilidad del conocimiento histórico, en la práctica no modificaron su forma de proceder: “Menger dio algunos pasos hacia la escuela histórica, haciendo algunas concesiones referentes al ámbito de aplicación de las generalizaciones y ala utilidad del conocimiento histórico. Pero en la práctico no hubo ninguna concesión y, además, una vez que se cerró el debate principal, la actitud neoclásica cristalizó en un conjunto de criterios metodológicos increíblemente ortodoxos, inflexibles y autocomplacientes” (Katouzian, 1982, pág. 58).

54

73 Es interesante destacar que aunque Walras fue el primer economista matemático por excelencia, la aparición y difusión de la economía matemática como un enfoque diferenciado del análisis matemático no tendrá lugar hasta el final de la Segunda Guerra Mundial, en Inglaterra y Norteamérica, la influencia de Marshall y Clark, aunque no de carácter antimatemático, no favorecieron demasiado la construcción de modelos matemáticos. Marshall y Keynes eran ambos buenos matemáticos pero no lo demostraron, al menos en sus obras cumbres: Los detractores de la utilización de este instrumento suelen argumentar que la realidad es demasiado compleja para reducirla a formulismo matemáticos, sin embargo, pensamos que se trata de un importante medio, de un apoyo, de un lenguaje con la finalidad de representar y simplificar los procesos de abstracción que conllevan las teorías económicas, en palabras de Lipsey: Las Matemáticas no constituyen ni conllevan el hacedor no el destructor de la buena teoría económica. Son, simplemente, un medio de expresión compacto y precio y un instrumento eficaz para obtener implicaciones a partir de los supuestos (Lipsey, 1985, pág. 28), Katouzian (1982,pág. 203) hace una interesante valoración de la inclusión de las matemáticas en el análisis económico que se resume en los siguientes puntos: a) el uso de cualquier técnica, incluida la matemática, con cualquier propósito científico, incluida la economía, es legítimo cuando ayuda al análisis, exposición y precisión., b) la matemática es una de tales técnicas, o un medio par la exposición, No es en sí misma superior a cualquier otra, no añada nada por si misma al contenido de la teoría y no confiere ningún honor especial a quien la usa, c) las formulaciones matemáticas de las teorías ayudan en ocasiones a lograr una claridad y economía expresiva que son deseables..

Para profundizar en su método, tendremos en cuenta que, aunque sus puntos esenciales son similares, los marginalistas se dividirían en varios grupos distintos según la forma de enfocar los problemas: 1. La Escuela “neoclásica” de Cambridge, cuyos principales representantes son Alfred Marshall y Stanley Jevons. Se emplea un enfoque parcial junto a un reconocimiento implícito de la gran multitud de problemas que conlleva este tipo de análisis. 2. La escuela “matemática” de Lausanne, cuyos principales representantes son Walras y Pareto. Se enfatiza el principio de equilibrio general, con gran uso de las matemáticas y algo menos del análisis económico. 3. La Escuela “psicológica” Austriaca, cuyos principales exponentes fueron Karl Menger y Bohm-Bawek. Su objeto de estudio es el individuo y , en especial, el consumidor. En otros ámbitos geográficos, un importante representante de la corriente marginalista fue Wicksell en Suecia. Esfuerzos sintetizadores de las influencias austroalemana se inglesas se dan en los economistas neoclásicos americanos, cuya principal figura fue J.B. Clark. Para Marshall, el objeto de la economía es el de facilitar un conjunto de instrumentos válidos par la aplicación en la resolución de un problema concreto. El método en Marshall es fundamentalmente deductivo y su contribución básica a la Teoría Económica tiene como fundamento su preocupación por los problemas prácticos y ordinarios de la vida: “Marshall planteaba el problema de que deseaba no sólo construir modelos abstractos y mecanicistas, sino también no perder de vista al mismo tiempo la realidad” (Katouzian, 1982, pág. 48). La Escuela “psicológica” recibiría este nombre por la importancia que se le concede al individuo en las motivaciones de naturaleza económica. Desde este punto de vista tendría cabida el procedimiento experimental, pero sólo sobre la base de contrastación de teorías elaboradas con grados de abstracción muy elevados. La Escuela matemática tiene sus antecedentes en Cournot, fundador de la economía matemática basada en que las formas superiores del análisis matemático pueden ser aplicadas fácilmente a una serie de proposiciones económicas: “El análisis matemático es, sin más, el instrumento que se impone” (Schumpeter, 1967, pág. 178). A Cournot le sucedería Walras y este último encontraría otro sucesor en Pareto, quién según Schumpeter (1967, pág. 178): “Superó a todos sus predecesores en puntos esenciales (Escuela de Lausanne)”. El método psicológico y el método matemático podría considerarse, aunque con los matices particulares expresados anteriormente, como un frente único que se fundamenta en los tres pilares siguientes: 1. Un precepto metodológico, la ciencia debe tender a la generalización, lo que supone aceptar un principio económico según el cual todo sujeto tiende a organizar el comportamiento de tal modo que obtenga la máxima satisfacción personal, siendo el sujeto del que se ocupa el economista el “homo economicus”, una abstracción de la realidad. 2. Los principios elaborados por la teoría económica neoclásica aparecen dotados de una validez universal por medio de leyes de carácter general. 3. El razonamiento económico va más allá de los problemas representados por Smith y Stuart mill y centrados en la organización y la riqueza. La llegada del siglo XX va a suponer el resurgir de los debates en torno a las cuestiones epistemológicas en la economía, sin embargo, la aplicación de las nuevas metodologías

científicas, método popperiano por ejemplo, a nuestra disciplina no se produciría hasta unas décadas después. Sin duda, resulta difícil señalar los instantes exactos en los que se producen las innovaciones y controversias en el campo de la metodología económica. La obra de Robbins “Essay on the Nature and Significance of Economic Science”, publicada en 1932 constituye el inicio de una controversia en torno al método. Para Robbins las proposiciones de la teoría económica, como las de toda teoría científica, son deducciones a partir de una serie de postulados y no se necesitan experimentos controlados par establecer su validez, pues basta enunciarlos par que sean reconocidos como obvios. Si aceptamos como válida esta idea, para Robbins (1951) la Economía presentaría una ventaja con respecto a la Física: “En Economía los componentes básicos de nuestras generalizaciones fundamentales nos resultan conocidos por comprensión inmediata, mientras que en las ciencias naturales sólo son conocidos por inferencia”. Según este autor, las teorías son las únicas que pueden proporcionar soluciones. Su validez dependerá de los supuestos de partida y su aplicabilidad dependerá de la medida en que é3stas reflejen las situaciones reales. El método de Robbins resulta claramente deductivista y para él no era posible buscar en la contrastación empírica un criterios de selección de la validez de las teorías. Una de las explicaciones más evidentes de la posición de autores como Robbins, se encuentra en la definición que da Mises de un “praxólogo”, o apriorístico extremo. Según este autor, será aquel que piensa que: ? Las premisas y los axiomas fundamentales de la economía son absolutamente verdaderos. ? Los teoremas y las conclusiones deducidos de estos axiomas según las leyes de la lógica, son también absolutamente verdaderos. ? En consecuencia, no hay necesidad de probar empíricamente los axiomas o los teoremas ? Los teoremas deducido son se podrían probar aunque conviniera hacerlo. La obra de Robbins sería contestada por Hutchison, autor de “The Significance and Basic Postulates of Economic Theory” publicada en 1938. Este autor se encuentra en lo que podríamos llamar el polo opuesto en cuanto a posición metodológica. Sería además el primer autor que aplica el criterio popperiano de falsación a la economía. Las posturas contemporáneas en torno al método deductivo en economía están ampliamente divididas. Algunos autores señalan que la capacidad de las matemáticas para manipular a través de complejas construcciones es un elemento que está presente en los desarrollos actuales, mientras que otros indican que es una herramienta fundamental para la construcción de modelos y su aplicación a trabajos empíricos. Para concluir, recogeremos una interesante cita de Pheby (1988, pág. 20) en la que se recoge, según su opinión, la influencia de ambas metodologías en la economía actual: “El inductivismo y deductivismo ha afectado a la economía de dos formas fundamentales. Primero, han jugado un rol importante en la división actual entre micro y macroeconomía. Ello se deriva de sus diferentes formas utilizadas para obtener resultados, la microeconomía es esencialmente deductiva, mientras que la macroeconomía está más inclinada hacia la inducción....La segunda, se infiere de la influencia de Bacon y Descartes en el desarrollo de posteriores metodologías”.

2.1.4 EL POSITIVISMO LÓGICO. Se denomina Positivismo Lógico a un conjunto de corrientes filosóficas, con ciertos rasgos comunes, que tuvieron su origen fundamentalmente en Viena, 1925. Los positivistas Lógicos del Círculo de Viena utilizaban el método Inductivo cuyos postulados fundamentales son (Katauzian, 1982): - La investigación científica comienza con la observación parcial o experiencia personal. - Las observaciones son formuladas mediante hipótesis primarias o enunciados singulares, totalmente libres de prejuicios mentales, describiendo un determinado acontecimiento o estado de las cosas en un lugar y un momento prefijados. - Los enunciados singulares derivan en enunciados universales. - Mediante el procedimiento se llega a la elaboración de teorías generales que se someten a contrastación por medio de un método adecuado de observación o experimentación para verificar sus implicaciones. - Si la contrastación tiene éxito se acepta la teoría; de otro modo se rechaza. La sujeción a test empíricos justifican las teorías para los positivistas lógicos entendiendo que el conocimiento se deriva objetivamente de los hechos objetivos vacíos de opiniones personales. Las críticas a los empiristas lógicos vienen por el lado de la inducción (que para Popper no precisa justificación ni es necesaria) ya que nunca se dispone de la seguridad de que no aparezcan hechos que contradigan las leyes emanadas de la experiencia, así como la búsqueda del número de pruebas necesarias para validar las leyes o teorías generales sin entrar en la prueba ad infinitum. De tales críticas, Carnap y Neurath emprendieron el desarrollo de una versión más moderna denominada Empirismo Lógico que reemplaza el concepto de verificación por el de gradual incremento de la confirmación mediante la utilización del método estadístico inductivo y realizando un apoyo probabilístico de sus conclusiones sobre la base de la acumulación de observaciones, de tal modo que una prueba negativa puede llevar a replantear la imagen del mundo real, el modelo y las hipótesis, y una prueba positiva sirve para incrementar la aceptación gradual de la teoría. El intento del empirismo lógico por salvar la inducción a través de la confirmación no resuelve los problemas planteados, puesto que aparece el problema de precisar la probabilidad de una ley o teoría y el propio de la pureza u objetividad de los hechos sobre los que experimentar, así como una total despreocupación por la lejanía de la construcción ideal y la práctica del investigador. El empirismo lógico se centra en cinco puntos (Medina, 1989): - Sólo son ciencias las ciencias naturales. - Sólo su metodología es universal. - La lógica interna de las ciencias es ajena a factores sociales. - El proceso de conocimiento científico es acumulativo. - La filosofía de la ciencia establece normas que aumentan el rigor de las ciencias. 2.1.5 El positivismo lógico del Círculo de Viena A comienzos de los años 20, un grupo de intelectuales vieneses se empieza a reunir semanalmente bajo el liderazgo de Moritz Schlick (1892-1936), recientemente nombrado profesor de filosofía de las ciencias inductivas en la Universidad de Viena. Entre ellos se incluían matemáticos, físicos, sociólogos, economistas, etcétera. El grupo, que desarrolló un fuerte sentido de misión e identidad, se autodenominó el Círculo de Viena. Su influencia se

extendió luego por Europa y Estados Unidos y sus concepciones fueron también conocidas bajo los nombres de empirismo lógico, empirismo científico y positivismo lógico. Sus miembros no eran ni escépticos, ni relativistas. Por el contrario, se caracterizaban por una postura de confiada afirmación de la ciencia, desde la cual asumían una posición fuertemente antimetafísica y una tajante oposición contra todo lo que invocaba dimensiones sobrenaturales. Otro de sus rasgos era su profunda fe en el progreso. Sus miembros acusaban el impacto de los recientes desarrollos registrados en torno a la teoría de la relatividad por Einstein y en relación al problema del éter por Michelson y Morley. De allí que cuando invocaban la ciencia, la física era considerada como su expresión paradigmática. El núcleo de la posición asumida por los positivistas lógicos era la común aceptación del llamado principio de verificación. Este sostenía que «el significado de una proposición es su modo de verificación». Se entiende por modo de verificación la manera como se demuestra que ella es verdadera. Las proposiciones que no se apoyan en un modo efectivo de verificación, carecen de sentido. Ellas requieren ser verdaderas o falsas. Una proposición que carece de condiciones de verificación, no puede ser ni lo uno ni lo otro. Sólo las proposiciones empíricas son, por lo tanto, auténticas proposiciones: sólo ellas pueden ser verificadas. Para los positivistas lógicos, las proposiciones matemáticas o lógicas son tautologías. Ellas pueden ser probadas (por referencia a otras proposiciones), no verificadas. Si son probadas, demuestran ser válidas. Las proposiciones filosóficas, en cambio, no son ni empíricas, ni tautológicas: simplemente carecen de significado. No pueden ser ni probadas, ni verificadas. Si pudieran ser probadas, no serían materia de discusión. La disputa sobre ellas se resolvería de una vez. Si pudieran ser verificadas, no serían filosofía, serían ciencia. Un rasgo no menos importante del Círculo de Viena es su apoyo en el análisis lógico. Las discusiones que sus miembros emprenden se caracterizarán por su rigor lógico, por el propósito de eludir toda ambigüedad. Siguiendo la tradición inaugurada por la filosofía analítica, excluían del universo de las proposiciones significativas todas las proposiciones de existencia. Todo enunciado debía reducirse a sus unidades lógicas más simples, como exigencia de claridad. Para estos mismos efectos, recurrían también al cálculo proposicional. Dentro del ideario sustentado por el positivismo lógico, hay que mencionar también la afirmación del supuesto de la unidad de la ciencia. La ciencia es una sola y tal unidad estaba garantizada por la validez para todo quehacer científico del método científico. La unidad de la ciencia se asegura por la unidad de su método, que es común a todas sus disciplinas particulares. Sin embargo, dentro de estas disciplinas particulares, a la física se le asigna un papel especial, pues ella proporciona el lenguaje universal de la ciencia. La distinción entre disciplinas diferentes, pudiendo ser útil por motivos prácticos, no se justifica desde el punto de vista de diferenciaciones inherentes del conocimiento. En un sentido riguroso, no existirían diversos dominios y objetos científicos. A partir de las posiciones asumidas por los positivistas lógicos, se comprende el gran entusiasmo que muchos de ellos profesaron ante la publicación del Tractatus de Wittgenstein. Esta obra parecía confirmar, desde una perspectiva sistemática, el principio de verificación que ellos proclamaban. Recordemos que Wittgenstein sostenía que las proposiciones elementales debían resolver empíricamente su valor de verdad. Ello evidentemente remitía a los modos de verificación. Les atraía también en Wittgenstein su rigor lógico, su perspectiva analítica, su cálculo proposicional y la afirmación de que el lenguaje correctamente analizado es isomórfico con el mundo (supuesto de la similitud estructural del lenguaje con el mundo). En 1921, de hecho, se había invitado a Wittgenstein, cuyas ideas comenzaban a conocerse, a varias reuniones del Círculo de Viena. Estas reuniones no dejarán satisfecho a Wittgenstein, quién reconocerá que los positivistas lógicos poseen temperamentos y estilos muy diferentes de

los suyos. Wittgenstein quedaba con la sensación de que, en la apropiación que se hacía de su concepción, esta era simplificada en aspectos muy importantes. No había entre los positivistas lógicos una mínima acogida a los problemas éticos que preocupaban a Wittgenstein y una vez que ellos aceptaban que tales problemas quedaban fuera de los límites de lo decible, afirmaban que lo indecible simplemente debía ignorarse. Para Wittgenstein, en cambio, lo inexpresable podía ser sentido e incluso comprendido. Su posición al respecto era vulnerable y el rechazo que sobre ella manifestaban los positivistas lógicos, no estaba exento de justificación. La influencia del Círculo de Viena será importante. Posteriormente, con el advenimiento del nazismo y, más adelante, con la Segunda Guerra Mundial, muchos de sus miembros se verán obligados u optarán por emigrar y serán acogidos por diversas universidades norteamericanas o británicas. La influencia ya no se ejercerá desde Viena, pero el positivismo lógico llegará a nuevos círculos. Entre sus figuras más destacadas puede mencionarse a Otto Neurath (18821945) y Rudolf Carnap (1891-1970). Es importante mencionar, sin embargo, que el principio de verificación comienza, con el tiempo, a exhibir y acumular problemas. El reconocimiento de tales problemas resultará importante para reorientar la discusión sobre el conocimiento hacia nuevas direcciones. Uno de los problemas que se perciben apunta al hecho que si las proposiciones remiten a sus componentes elementales (que son siempre particulares concretos), pues en ellos reside su valor de verdad, se tiende a excluir a las leyes de la naturaleza. El fantasma del problema de la inducción planteado por Hume vuelve a hacerse presente. Ello implicaba que las leyes universales se transforman en frases que informan situaciones particulares, con lo que dejan de ser universales, o se las considera en su plena universalidad, con lo que se problematiza su relación con el mundo empírico. Esto último se traducía en transformar las leyes universales sólo en «direcciones para la construcción de proposiciones» (en un horizonte para la ciencia). A partir de estos primeros problemas, los positivistas lógicos introducen un principio correctivo, un principio de tolerancia. A través de él afirman: «no corresponde establecer prohibiciones, sino alcanzar convenciones». De la misma manera, pronto se reconoce que, para las ciencias, no existe un lenguaje básico. Ello abre la posibilidad de diversos lenguajes que pueden ser, según el caso, más o menos «expeditos». La ciencia, por lo tanto, no sólo está sometida a convenciones, sino también a exigencias de conveniencia. Ello no implica dejar de exigir que cada uno de los lenguajes científicos deba estar lógicamente fundado. El lenguaje de la ciencia no es el lenguaje ordinario. Ello abre una importante reorientación en las posiciones de los positivistas lógicos que comienzan a preocuparse de manera especial por las reglas de la sintaxis, insistiéndose en que el lenguaje está formado por palabras, no por objetos. De esta manera, adoptando una posición nominalista, no hay que suponer la existencia de universales. Se trata, por lo tanto, de transferir el énfasis del modo de lenguaje material al formal. Así, se define que hay palabras objetos, palabras-números, palabras-propiedades, etcétera. Desde esta perspectiva, se vuelve al principio de verificación. Se descubre que toda verificación se realiza siempre por referencia a otras proposiciones que, a su vez, exigen de otras y éstas de otras, y así sucesivamente. Si, por otro lado, se acepta que es el significado de la proposición lo que requiere ser verificado, se debe concluir que significado y modo de verificación no pueden ser lo mismo. Por último, cabe mencionar que al preguntarse por el status del principio de verificación se generan nuevos problemas que comprometen su validez. Según el planteamiento de los positivistas lógicos, las proposiciones pueden ser tautologías o hipótesis empíricas. Cabe entonces preguntarse, ¿a cuál de ellas pertenece el principió de verificación? Ninguna de las respuestas posibles satisfacen a los positivistas lógicos.

Si se responde que se trata de una tautología, se debe concluir que el principio no dice nada acerca del mundo y resulta irrelevante como exigencia para determinar el significado. Si se responde que se trata de una hipótesis empírica, significa que el principio de verificación requiere de su propia verificación, lo que evidentemente resulta problemático. En efecto, ¿cómo podemos determinar que el principio de verificación es verdadero? ¿Cuál es su modo de verificación? Todos estos problemas terminan socavando los cimientos del positivismo lógico.

2.2 El falsacionismo de Popper. Rafael Echeverría.- “El buho de minerva” Karl R. Popper, nacido a comienzos de siglo, en 1902, es el más influyente filósofo de la ciencia del siglo XX. Fundador de una importante escuela de pensamiento, sus concepciones se impondrán de manera preponderante en la forma cómo los científicos darán cuenta de su quehacer específico. A partir de Popper, una parte importante de la comunidad científica entenderá que hacer ciencia consiste en lo que Popper entiende por actividad científica. La importancia de Popper reside también en el hecho de que gran parte de las concepciones alternativas sobre la teoría de la ciencia arrancan de problemas planteados por él o suscitados por sus posiciones. Popper nace en Viena. Ello le permitió tener contacto con las actividades y los miembros del Círculo de Viena, al punto que su primer libro, La lógica de la investigación científica (1934), apareció en la serie de publicaciones del Círculo. Aunque Popper se verá atraído por la actitud «científica» de los positivistas lógicos, va a diferir fuertemente de ellos en cuestiones fundamentales. Popper se opondrá al criterio de verificación defendido por los positivistas lógicos como, asimismo, a la conexión establecida por éstos entre verificación y significado. En 1935 y como consecuencia del clima de hostilidades antisemitas que se desarrolla en Austria antes de la guerra, Popper emigra a Inglaterra y luego, en 1937, a Nueva Zelandia, donde ejerce actividades universitarias hasta 1945. Regresa a Inglaterra y desde 1949 enseña en el London School of Economics de la Universidad de Londres. Cabe destacar la fuerte amistad y la gran afinidad de ideas que, en múltiples planos, Popper mantiene con el eminente economista austríaco Friedrich A. von Hayek (1899-1992). Formado en la tradición de la Escuela económica austríaca, Hayek había emigrado a Inglaterra en 1931 donde asume, hasta 1950, una cátedra en el London School of Economics. Es gracias a las gestiones de Hayek que Popper logra abandonar Austria. Fuente significativa de inspiración de las posiciones de Popper será la contribución de Einstein y el nuevo escenario que se configura al interior de las ciencias físicas. Pero no sólo tendrá una importante influencia en Popper la contribución sustantiva de Einstein, sino también la posición adoptada por éste en relación al carácter del quehacer científico y la escasa importancia que le confiere a la forma como la ciencia deba iniciarse y, por tanto, a su punto de partida. Entre las obras principales de Popper cabe destacar La lógica de la investigación científica (1959), La sociedad abierta y sus enemigos (1945), La miseria del historicismo (1944-45), El desarrollo del conocimiento científico: Conjeturas y refutaciones (*1962) y Conocimiento objetivo: un enfoque evolucionista (1972). 2.2.1 El método científico A partir de la contribución científica de Einstein, Popper vuelve a plantearse el viejo problema de la inducción presentado por Hume. Es más, una de las reivindicaciones importantes de Popper es el haberlo resuelto en forma clara y definitiva. Recordemos que el problema de la inducción consistía en afirmar la imposibilidad de fundar leyes generales y universales a partir de la acumulación de observaciones y, por lo tanto, mediante el procedimiento de la inducción.

Ningún número de observaciones particulares permiten, según Hume, obtener como conclusión una proposición universal. Aunque constatamos que el Sol se levanta todos los días, no podemos concluir que el Sol se levantará necesariamente al día siguiente de nuestra última observación. Nada impide que una observación futura contradiga lo que han constatado todas las observaciones pasadas. Según Hume, la conclusión universal es el resultado de una expectativa psicológica, avalada por la conveniencia práctica de hacerla. Pero no podemos afirmar que tal conclusión universal sea verdadera. Popper concuerda con Hume. Está de acuerdo en que no hay nada que nos permita eludir el hecho de que la experiencia no es capaz de asegurarnos la verdad; nada, por lo tanto que nos permita fundar empíricamente la verdad. Popper estima, sin embargo, que no todo está perdido y que lo empírico puede propocionarnos una determinada e importante certeza. Su argumento descansa en el reconocimiento de lo que llama una asimetría lógica entre verificación y falsabilidad. Popper señala que, si bien ningún número de observaciones nos permite alcanzar una proposición universal y, por lo tanto, ellas no nos permiten verificar tal proposición, basta con una observación que señale lo contrario para concluir (no que la realidad es dialéctica sino) que tal proposición es falsa. En consecuencia, la única proposición verdadera es la falsa. Lo falso es lo único que puede aspirar a la verdad. Con este argumento, Popper se distancia definitivamente de los positivistas lógicos y declara, con Hume, la imposibilidad del principio de verificación empírica. Pero, a la vez, Popper acomete una importante inversión en relación con el problema de la inducción. Este surge por cuanto colocamos a lo empírico como punto de partida de nuestro conocimiento; porque pretendemos que lo que la ciencia afirma se encuentra empíricamente fundado. Ello, según Popper, evidentemente no es posible. Las proposiciones universales de la ciencia, y que la ciencia sin duda las hace, no se fundan en lo empírico, ni pueden fundarse en ello. Popper sostiene que la ciencia parte de proposiciones universales, sin que haya que cuestionarse de donde provienen tales proposiciones. Eso no interesa. Da exactamente lo mismo cual es su origen. No se trata, ni pueden ser proposiciones fundadas. El que una proposición pueda haber surgido de un sueño, por ejemplo, en nada la desmerece en su capacidad de convertirse en una proposición científica. Recordemos, por lo demás, que Kekulé resuelve el problema de la estructura de la molécula del benceno como resultado de un sueño luego de una noche de borrachera. Lo que sí importa, en cambio, es el papel de la observación en relación a una proposición de este tipo. Lo que interesa es el hecho de que tal proposición universal sea o no falsada por la observación empírica. Con respecto a la falsabilidad, Popper distingue entre dos situaciones diferentes: una que involucra un aspecto lógico y otra que compromete un aspecto metodológico. Desde un punto de vista lógico, una ley científica puede ser falsada, pero no puede ser verificada. Desde un punto de vista metodológico, una proposición siempre puede ser puesta en duda, como también puede dudarse de las implicancias metodológicas de una determinada observación. Así, por ejemplo, pueden existir errores en la observación. De la argumentación ofrecida por Popper resulta, por lo tanto, que la idea generalizada de que las ciencias son cuerpos de hechos demostrados, establecidos o verdaderos, es falsa. Nada en la ciencia es permanente, inalterable. Es más, la ciencia cambia todo el tiempo, pero no lo hace mediante la acumulación de certidumbres. La ciencia representa, según Popper, «lo mejor de nuestro conocimiento» y para los efectos prácticos puede asumirse provisionalmente como verdadera por cuanto ella representa la posición menos insegura. Pero no puede perderse de vista el hecho de que, en cualquier

momento, la experiencia puede demostrarla falsa. Para Popper, en consecuencia, la verdad no se alcanza jamás, aunque tengamos elementos para afirmar que estamos más cerca de ella. El quehacer científico, por lo tanto, no consiste en probar la verdad de algo. Por el contrario, consiste en tratar incesantemente de probar que ese algo es falso, o que no logramos probar que ello sea falso. Las afirmaciones científicas están respaldadas por las observaciones hasta entonces conducidas y exhiben una mayor capacidad predictiva que cualquier alternativa conocida. No obstante, ello no impide que puedan ser sustituidas por una teoría mejor. Si la teoría de Newton no es un cuerpo de verdades sobre el mundo, derivadas inductivamente de la realidad por el hombre, ¿de dónde proviene? De Newton, responde Popper. Se trata de un conjunto de hipótesis construidas por Newton, que se adecuaban a todos los hechos conocidos en esa época. De ellas, los científicos procedieron a deducir consecuencias, hasta que alcanzaron dificultades insuperables. La creación científica representa, según Popper, uno de los logros más sorprendentes de la mente humana. Pero ella no es libre, de la manera como puede serlo la creación artística. Tiene que sobrevivir una confrontación permanente con la experiencia. A Popper no le interesa la psicología de los practicantes de la ciencia. No le interesa qué hechos pudieron conducir a Newton a levantar sus hipótesis. Lo que le importa, en cambio, es la lógica y la historia de la ciencia como cuerpos impersonales de conocimiento. Cuando un científico publica una teoría, lo que interesa a la ciencia no son los problemas relacionados con su subjetividad, sino con la objetividad de tal teoría. Al respecto es posible hacer tres afirmaciones. Primero, la forma como el científico llegó a esa teoría no tiene ningún interés para su status lógico o científico. Segundo, las observaciones y experimentos no son los que generan la teoría, sino que son, por el contrario, derivados de ella. Están diseñados para testearla, para probarla (no para comprobarla). Tercero, la inducción queda fuera del quehacer científico. El problema de la inducción de Hume no es problema: no hay inducción. No la hay, en el sentido de que nuestras proposiciones generales y universales no requieren de la inducción para ser afirmadas. La idea general de que pensamos desde los hechos para llegar a las ideas (de la observación a la teoría) es equivocada y requiere ser reemplazada. La inducción es un concepto del cual se debe prescindir: no existe. La teoría es inventada. Es más, la observación no es previa a la teoría, en la medida en que se presupone la teoría en cualquier observación. No entender lo anterior representa para Popper el principal defecto de la tradición empirista. 2.2.2 El criterio de demarcación de la ciencia Es importante dentro de lo que se propone Popper, poder establecer con claridad lo que distingue la ciencia de la no-ciencia. Este problema es el que Popper denomina el criterio de demarcación de la ciencia. De acuerdo a lo señalado, es evidente que ya no sirve el criterio tradicional que apuntaba a la inducción como aquello específico de la ciencia. Según el punto de vista tradicional, se consideraba también que lo que los científicos buscan son proposiciones sobre el mundo que tengan el máximo grado de probabilidad, dada la evidencia disponible. Popper también se opondrá a ello. Considérese la proposición «lloverá». Su probabilidad de que ocurra, alguna vez, es máxima porque su contenido informativo es mínimo. Las tautologías, según Popper, son proposiciones de contenido informativo mínimo (0) y de probabilidad máxima (1). Las proposiciones que interesan a la ciencia son aquellas con un alto contenido informativo. A mayor contenido informativo, mayor es la probabilidad de que ella pueda ser falsa. Lo que interesa son proposiciones de alto contenido informativo y baja probabilidad porque, en la medida que son altamente falsables, son altamente contrastables (tested). Un contenido

informativo que está en proporción inversa a su probabilidad, está en proporción directa a su contrastabilidad (testability). La baja probabilidad que tales proposiciones poseen, apunta al hecho, aceptado por Popper, de que la ciencia penetra las apariencias, las cuestiona, y revela un orden no directamente perceptible, un mundo de entidades no observadas y de fuerzas invisibles. Ello es lo que ha acontecido, por ejemplo, con las teorías que nos hablan de las células, de las ondas, de partículas, de átomos, etcétera. Este mismo reconocimiento llevaba a Hegel y a Marx a un planteamiento radicalmente diferente. Las hipótesis científicas, por lo tanto, se presentan tendiendo a ser más bien falsas que verdaderas. La creencia equivocada de que la ciencia conduce a la certidumbre de una explicación definitiva, conlleva e implica que es un delito científico grave el publicar alguna hipótesis que sea falsada. Ello ha traído consigo, según Popper, el que los científicos se resistan a admitir la falsabilidad de sus hipótesis y se desgasten muchas veces en defender lo indefendible. Para Popper, en cambio, la falsabilidad es el destino anticipado e ineludible de todas las hipótesis. Todas las hipótesis terminan siendo sustituidas por nuevas hipótesis de mayor capacidad explicativa. Una teoría, según Popper, debe: 1) proporcionar una solución a un problema de interés, 2) ser compatible con las observaciones registradas, y 3) contener las teorías anteriores como primeras aproximaciones, contradiciéndolas en sus puntos de fracaso y dando cuenta de tales fracasos. Si en una determinada situación-problema se ofrecen diferentes teorías que cumplen con estas condiciones, es necesario poder decidir entre ellas. El procedimiento que debe utilizarse es el de deducir de cada una de ellas aquellas proposiciones contrastables que las diferencian. Si las proposiciones deducidas son contrastadas con éxito (sin que logremos probarlas falsas), deberíamos inclinarnos por aquella teoría con mayor contenido informativo. Ello nos hace decidir por la teoría con un mayor grado de corroboración. Para Popper es condición de la ciencia que la formulación de sus teorías sea lo más directa posible, de manera de exponerlas con la menor ambigüedad a la refutación. En su nivel metodológico, no se debe evadir sistemáticamente la refutación a través de la reformulación constante de la teoría o del reexamen de las evidencias, procurando evitar la refutación de la teoría. Este ha sido, según Popper, el recurso permanente tanto del marxismo como del psicoanálisis. En ambos casos, se elude sistemáticamente la exigencia de la refutación, a través de una permanente readecuación de la teoría. Ellas sustituyen el dogmatismo por la ciencia, a la vez que siguen proclamándose como científicas. Una teoría científica no es la que explica todo lo que es posible que pase. Por el contrario, ella excluye gran parte del campo de lo posible y, por lo tanto, ella queda excluida si lo que se excluye sucede. Esto permite concluir que una teoría genuinamente científica se coloca a sí misma permanentemente en peligro, se expone a una situación de alto riesgo de ser probada falsa. La falsabilidad es, para Popper, el criterio de demarcación entre la ciencia y la no-ciencia. Si todas las situaciones posibles tienen cabida en una determinada teoría, entonces ninguna situación posible puede ser invocada para respaldarla, para ser considerada como evidencia en su favor. En tal caso, no hay diferencia observable entre el hecho de que ella pueda ser invocada como válida o falsa. Por lo tanto, tal teoría no entrega información científica. Sólo si existe la posibilidad de que alguna observación la refute, ella es contrastable (testable), y sólo si es contrastable, ella es científica. Popper se impresionó fuertemente por la forma como la teoría de la relatividad se exponía a la refutación, prediciendo eventos observables que nadie se hubiese imaginado que podían ocurrir.

Recordemos el episodio de las predicciones sobre la posición de las estrellas efectuadas por Einstein y corroboradas por las observaciones de Eddington en 1919. Esta situación contrastaba, por ejemplo, con las teorías de Freud para las cuales, según Popper, ninguna observación podía contradecirlas. Una vez que ellas se encontraban con una observación que ponía en duda lo afirmado por la teoría, se desarrollaba una nueva variante explicativa para asimilar cualquier observación amenazante. Esta capacidad de explicarlo todo, que para muchos representa el factor que hace más atractivas estas teorías, era precisamente lo que tenían de más débil y ponían de manifiesto el hecho de que algo funcionaba mal en relación a su cualidad de teorías científicas. El caso del marxismo era algo diferente. De él podían desprenderse varias predicciones falsables. El problema residía en que un número considerable de tales predicciones habían demostrado ser falsas, no obstante lo cual, los marxistas, según Popper, se negaban una y otra vez a aceptar las consecuencias y procedían a una reformulación constante de la teoría (en el mejor de los casos) de manera de eludir cualquier posible refutación. El atractivo psicológico de estas teorías reside en su habilidad para explicarlo todo. Ello concede a quienes las aceptan, la falsa idea de dominio intelectual y un considerable sentido emocional de orientación segura en el mundo. No importa lo que pase, todo lo confirma. Según Popper, un marxista no logra abrir el diario sin sentir que cada página confirma su interpretación de la historia. Ya sea debido a lo que el diario dice, por la particular forma como lo dice, por lo que no dice, etcétera. Lo anterior no significa que necesariamente todo lo que estas teorías sostienen sea inútil o que no tenga sentido. La demarcación propuesta por Popper no es entre el sentido y el sinsentido, sino entre la ciencia y la no-ciencia. En este último campo, Popper sitúa a la metafísica. Sin embargo, ello no significa que se pueda prescindir de la metafísica. Popper cree, por ejemplo, en las regularidades de la naturaleza y tal afirmación no puede ser refutada. 2.2.3 La estructura del quehacer científico La concepción tradicional, sostiene Popper, considera que la actividad científica pasa, de manera sucesiva, por las fases siguientes: 1. 2. 3. 4. 5. 6.

Observación y experimento. Generalización inductiva. Construcción de hipótesis. Intento de verificación de las hipótesis. Prueba o rechazo. Conocimiento.

Para Popper, la estructura efectiva es la siguiente: 1. Problema. 2. Solución propuesta: nueva teoría. 3. Deducción de proposiciones contrastables (testable) de la nueva teoría. 4. Tests: intentos de refutación a través de la observación y el experimento, entre otros. 5. Preferencia entre teorías que compiten entre sí. Esta misma estructura puede simplificarse, de manera que el desarrollo científico se revela apegado al siguiente patrón:

P1 --------------------- > SE------- > EE ------ > P2

Donde,

P1: problema inicial SE: solución por ensayo EE: eliminación por error P2: nuevos problemas

Las instancias básicas del quehacer científico son la existencia de problemas, el ensayo y el error. En último término, lo que la ciencia realiza no es sino la aplicación de manera sistemática del antiguo método de ensayo y error. Ello, sobre el trasfondo de problemas que requieren ser resueltos. La humanidad tiende a la solución de problemas y el primero de todos ellos es el de la sobrevivencia. Popper insiste en la importancia de reconocer la existencia de los problemas. Siempre las teorías remiten a problemas. De allí que toda teoría, o incluso toda filosofía, debe procurar ser entendida a la luz de los problemas que pretende resolver. Ello se contrapone a aquellos intentos que procuran saber qué se dice, sin preocuparse por saber por qué se lo dice. Ninguna teoría, sostiene Popper, parte de cero. Siempre heredamos un campo de problemas y soluciones. En relación con esta posición, cabe notar que Popper se acercará, como se apreciará más adelante, a algunas de las afirmaciones centrales de la filosofía heideggeriana. Para Popper, el conocimiento científico es objetivo y forma parte de lo que llama un Mundo 3. Es diferente del mundo externo de las cosas (Mundo 1) y es también distinto del mundo subjetivo y privado de la mente (Mundo 2). El conocimiento científico es de dominio público. Es evidente que la concepción de Popper sobre el quehacer científico le genera algunos problemas con el dualismo. La ciencia, según su opinión, no encuentra una caracterización adecuada ni en uno ni en otro de los términos del dualismo. La solución planteada por Popper consiste, sin embargo, en inventarle a la ciencia su propio mundo: un mundo tercero. Ello no involucra, sin embargo, una superación efectiva de la matriz dual. La solución de Popper sólo la elude. La filosofía popperiana no se limita a los problemas relacionados con el quehacer científico. A partir de ellos, Popper desarrollará también una concepción sobre la sociedad, la historia y el carácter de los cambios sociales. Popper será un apasionado defensor de una concepción liberal a partir de la cual aboga por lo que llama una «sociedad abierta», fundada en la libertad, la tolerancia y la democracia. De la misma manera, será un fuerte detractor de las concepciones «historicistas», que afirman la posibilidad de la predicción histórica, del detectar leyes, patrones o tendencias del desarrollo histórico y, por lo tanto, conciben la posibilidad de develar el «sentido» de la historia. Popper rechaza tales pretensiones. Popper es un declarado indeterminista. Cree que el cambio en la historia es el resultado de nuestros múltiples intentos por resolver nuestros problemas, los que involucran la imaginación, nuestra capacidad de escoger, la suerte, etcétera. El futuro estará determinado por lo que serán nuestros nuevos descubrimientos y conocimientos. Pues bien, señala Popper, no podemos predecir nuestros conocimientos futuros. Si pudiéramos hacerlo, ya dispondríamos de ellos en el presente y no serían conocimientos o descubrimientos futuros. LA METODOLOGIA DE POPPER EN LAS CIENCIAS SOCIALES Popper, a diferencia de Bachelard, hace una sugerencia sistemática sobre cómo se puede realizar, con su metodología, el estudio en ciencias sociales. Si bien la propuesta se encuentra en varias de sus obras, el planteamiento esencial se halla en La miseria del historicismo. La finalidad del autor en este texto consiste en refutar el historicismo como método. Popper opina que las "doctrinas metodológicas historicistas son responsables, en el fondo, del estado poco satisfactorio de las ciencias sociales teóricas."' Y para realizar la refutación hace cinco proposiciones:

1. "El curso de la historia humana está fuertemente influido por el crecimiento de los conocimientos humanos. (La verdad de esta premisa tiene que ser admitida aun por los que ven nuestras ideas, incluidas nuestras ideas científicas, como el subproducto de un desarrollo material de cualquier clase que sea.) 2. No podemos predecir, por métodos racionales o científicos, el crecimiento futuro de nuestros conocimientos científicos. (Esta aserción puede ser aprobada lógicamente por consideraciones esbozadas más abajo.) 3. No podemos, por tanto, predecir el curso futuro de la historia humana. Esto significa que hemos de rechazar la posibilidad de una historia teórica; es decir, de una ciencia histórica y social de la misma naturaleza que la física teórica. No puede haber una teoría científica del desarrollo histórico que sirva de base para la predicción histórica. La meta fundamental de los métodos historicistas... está, por tanto, mal concebida; y el historicismo cae por su base." 105

Con esas proposiciones el autor, según menciona no intenta refutar toda clase de predicción social, sino sólo aquella sobre sucesos históricos que puedan ser influidos por el crecimiento de los conocimientos. Esto explica lo que había enunciado en la proposición 2, lo cual es descrito de la manera siguiente: "Si hay en realidad un crecimiento de los conocimientos humanos, no podemos anticipar hoy lo que sabremos sólo mañana... ninguna sociedad puede predecir científicamente sus propios estados de conocimiento futuros." 106 Si bien la finalidad es refutar el método historicista, primero hablaremos del concepto que el autor tiene de historicismo: "Entiendo por 'historicismo' un punto de vista sobre las ciencias sociales que supone que la predicción histórica es el fin principal de éstas, y que supone que este fin es alcanzable por medio del descubrimiento de los 'ritmos' o los 'modelos', de las 'leyes' o las tendencias que yacen bajo la evolución de la historia."107 ' Por tanto, el historicismo es toda proposición que intente predecir fenómenos sociales por medio de leyes del desarrollo social. En relación con la metodología, Popper dice sobre el historicismo: "Es frecuente encontrarlo en las discusiones sobre el método de las ciencias sociales; y se usa a menudo sin reflexión crítica, o incluso se da por sentado... Como estoy convencido de que estas doctrinas metodológicas historicistas son responsables, en el fondo, del estado poco satisfactorio de las ciencias sociales teóricas (otras que la teoría económica), mi presentación de estas doctrinas no es ciertamente imparcial." 108 Efectivamente, el autor critica las concepciones historicistas, entre las cuales considera al marxismo. En su artículo "Predicción y profecía en las ciencias sociales", afirma: "Mi análisis del papel de la predicción y la profecía, por tanto, puede ser considerado como una crítica del método histórico del marxismo. Pero, en realidad, no se limita a la variante económica del historicismo conocida como marxismo, pues aspira a criticar la doctrina historicista en general. Sin embargo, he decidido hablar del marxismo como si fuera el objeto principal o único de mi ataque porque deseo evitar la acusación de que ataco al marxismo subrepticiamente, bajo el nombre de 'historicismo'. Pero me agradaría que recordarais que cuando menciono al marxismo, también aludo a una serie de otras filosofias de la historia; pues trato de criticar cierto método histórico que ha sido juzgado por muchos filósofos... Como crítico del marxismo, trataré de abordar mi tarea con espíritu liberal. No sólo me sentiré libre de criticar al marxismo, sino también de defender algunas de sus afirmaciones. También me consideraré libre de simplificar radicalmente sus doctrinas. Uno de los puntos en los cuales siento simpatía por los marxistas es su insistencia en que los problemas sociales de nuestro tiempo son urgentes y que los filósofos deben enfrentarse con los mismos; que no debemos contentarnos con interpretar el mundo, sino que debemos ayudar a cambiarlo. Siento gran simpatía por esta actitud... Lo mejor que podemos hacer es llevar la

crítica racional a los problemas con que se nos enfrenta y a las soluciones propugnadas por los diversos partidos. Para ser más específicos, creo que lo mejor que podemos hacer como filósofos es abordar los problemas pertrechados con las armas de una crítica de los métodos." 109 La crítica de los métodos del historicismo abarca todas las concepciones o doctrinas que comprende el historicismo; Popper las resume en dos grandes rubros: doctrinas antinaturalistas y doctrinas pronaturalistas. Las doctrinas antinaturalistas se oponen al criterio de que el método de las ciencias naturales sea aplicable al conocimiento de las ciencias sociales; el argumento que esgrime el historicismo antinaturalista es que "algunos de los métodos característicos de la física no pueden ser aplicados a las ciencias sociales debido a las profundas diferencias entre la sociología y la física. Las leyes físicas o 'leyes naturales', nos dice, son válidas siempre y en todo lugar; y esto porque el mundo físico está regido por un sistema de uniformidades físicas, invariable a través del espacio y del tiempo. Las leyes sociológicas, o leyes de la vida social, por el contrario, difieren en lugares y periodos diferentes."110 Entre los obstáculos que, según Popper, presenta el historicismo antinaturalista para refutar la aplicación de los métodos de la física a las, ciencia sociales, está el que las leyes sociales tienen una relatividad histórica y, por tanto, no puede haber una generalización que explique los fenómenos; tampoco la aplicación de un método experimental que pueda inducir a que en circunstancias semejantes ocurran cosas semejantes, lo cual se debe a que el aislamiento experimental se encuentra limitado ante la complejidad de los fenómenos sociales. Finalmente, se considera que no es posible hacer una predicción exacta, como puede ocurrir en la física; y se argumenta que la vida social debe entenderse por sus peculiaridades, como son la novedad, la complejidad, la organicidad, el holismo (o totalidad) del complejo social y la forma en que la historia se divide en periodos. Por tanto, la posición de los historicistas antinaturalistas se apoya en el "esencialismo", como base metodológica para el conocimiento de los fenómenos sociales. El esencíalismo representa los términos universales que comprenden los elementos diversos, particulares. Popper lo expone de la siguiente manera: 'Para tomar un ejemplo de las ciencias sociales, la economía se interesa por el dinero y por el crédito, pero no por las formas particulares bajo las que aparecen monedas, billetes o cheques. La ciencia debe apartar lo accidental y penetrar hasta la esencia de las cosas. Pero la esencia de cualquier cosa es siempre algo universal” 111 Por otro lado describe las doctrinas pronaturalistas del historicismo, en las cuales se considera que hay un elemento común entre los métodos de las ciencias físicas y los de las sociales. Esto se fundamenta en el criterio de que la física, como la sociología, es una rama del conocimiento con pretensión teórica y empírica. "Al decir que es una disciplina teórica, entendemos que la sociología tiene que explicar y predecir acontecimientos, con la ayuda de teorías o leyes universales (que intenta descubrir). Al describir la sociología como ciencia empírica, queremos decir que ha de estar corroborada por la experiencia, que los acontecimientos que explica y predice son hechos observables y que la observación es la base sobre la cual aceptar o rechazar cualquier teoría propuesta." 112 En su crítica al historicismo pronaturalista, Popper acepta que puede haber una explicación y predicción en las ciencias sociales, pero advierte que una cosa es la "predicción científica" y otra las "profecías históricas". El autor afirma: "Las predicciones comunes de la ciencia son condicionales... un ejemplo simple de las ciencias sociales: así como el físico nos enseña que en determinadas condiciones físicas una caldera estalla, así también podemos aprender del economista que en ciertas condiciones sociales -tales como la escasez de mercadería, el control de precios y digamos, la ausencia de un efectivo sistema punitivo surgirá un mercado negro.” 113 A diferencia de las predicciones científicas, las profecías son calificadas como "interpretaciones" o "ingeniería utópica" en las que se considera que la "revolución social conducirá a un mundo mejor" ; 114 y que se "busca remodelar a toda la sociedad de acuerdo con

un determinado plan o modelo... y busca además, controlar desde esas posiciones clave las fuerzas históricas que moldean el futuro de la sociedad en desarrollo: ya sea parando ese desarrollo, ya previendo su curso y adaptando la sociedad a dicho curso."115 La crítica de Popper a las doctrinas historicistas pronaturalistas radica en que las afirmaciones que no se sustenten sobre una posibilidad causal no pueden ser predicciones científicas y, por ende, no pueden ser teorías científicas. Ante el historicismo, Popper propone replantear las propuestas metodológicas que a su entender han dejado a las ciencias sociales en un estado poco satisfactorio. Entre sus principales refutaciones cuestiona: "¿está dentro de las posibilidades de alguna ciencia social la formulación de profecías históricas de tan vasto alcance?... Se trata aquí de la cuestión del método de las ciencias sociales. Evidentemente, es más fundamental que cualquier debate relativo a cualquier argumento particular en defensa de cualquier profecía histórica.” 116 Ante esas consideraciones, el autor propone el retorno al "método científico": "Lo que sí debemos al método científico es la conciencia de nuestras limitaciones: no ofrecemos pruebas allí donde nada puede ser probado, ni pretendemos ser científicos donde todo lo que puede darse es, a lo sumo, un punto de vista personal. No tratamos tampoco de reemplazar los viejos sistemas filosóficos por otro nuevo, ni de agregar absolutamente nada a todos esos volúmenes llenos de sabiduría, a esa metafísica de la historia y del destino que se estila en la actualidad. Procuramos, más bien, demostrar que esa sabiduría profética resulta perjudicial, y que la metafísica de la historia obstaculiza la aplicación de los métodos rigurosos, aunque lentos, de la ciencia a los problemas de la reforma social.” 117 Expuesto en este terreno, el pensamiento de Popper considera a la metodología dentro del criterio de la actividad práctica, de la crítica que tiene una finalidad aplicable a la solución de problemas concretos. La utilidad práctica de la metodología en la ciencia (en el sentido amplio de la expresión) la describe el autor de la siguiente manera: "La necesidad de un estímulo consistente en problemas prácticos es igualmente clara en el caso de estudios de los métodos de la investigación científica, y más especialmente en el caso de los métodos de las ciencias sociales... Los debates metodológicos más fructíferos están siempre inspirados por ciertos problemas prácticos con los que se enfrenta el investigador; y casi todos los debates sobre el método que no están así inspirados se caracterizan por esta atmósfera de fútil sutileza que ha desacreditado a la metodología ante los ojos del investigador práctico. Es necesario darse cuenta de que los debates metodológicos de tipo práctico no sólo son útiles, sino también necesarios. El desarrollo y la mejora del método, común de la ciencia misma, sólo se hace por medio de ensayos y errores, y se necesita de la crítica de los demás para descubrir las propias equivocaciones; y esta crítica es tanto más importante cuanto que la introducción de nuevos métodos puede significar cambios de carácter básico y revolucionario. "118 Con base en ese criterio de utilizar una metodología práctica, Popper hace una sugerencia: "En oposición a la metodología historicista, podríamos concebir una metodología cuyo fin fuese una ciencia social tecnológica. Una metodología de esta clase conduciría a un estudio de las leyes generales de la vida social, cuyo fin sería el de descubrir todos aquellos hechos que habría de tomar en cuenta todo el que quisiera reformar las instituciones sociales... El fin de la metodología tecnológica que estamos considerando sería el de proporcionar medios de evitar construcciones irreales de esa clase. Sería antihistoricista, pero de ninguna forma antihistórica."119 La "metodología tecnológica" la califica el autor como "ingeniería social”. Esta actividad debe ser desempeñada por un profesional que se puede identificar como ingeniero social y cuya función debe ser la siguiente: "El ingeniero social no se plantea ninguna interrogante acerca de la tendencia histórica del hombre o de su destino, sino que lo considera dueño del mismo, es decir, capaz de influir o modificar la historia exactamente de la misma manera en que es capaz de modificar la faz de la Tierra. El ingeniero social no cree que estos objetivos nos sean

impuestos por nuestro marco histórico o por las tendencias de la historia, sino por el contrario, que provienen de nuestra propia elección, o creación incluso, de la misma manera en que creamos nuevos pensamientos, nuevas obras de arte, nuevas casas o nuevas máquinas... el ingeniero social cree que la base científica de la política... debe consistir en la información fáctica necesaria para la construcción o alteración de las instituciones sociales, de acuerdo con nuestros deseos y propósitos. Una ciencia semejante tendría que indicarnos los pasos por seguir si deseamos, por ejemplo, eliminar las depresiones, o bien producirlas; o si deseáramos efectuar una distribución de la riqueza más pareja, o bien, menos pareja. En otras palabras: el ingeniero social toma como base científica de la política una especie de tecnología social. “ 120 Ahora bien, el concepto de ingeniería social puede tener diversas interpretaciones; por ello, el ingeniero social debe prever que su actitud se oriente por la tecnología social con una base científica, lo que el autor denomina ingeniería social gradual, 121 tecnología fragmentaria, que es lo mismo que ingeniería social fragmentaria. 122 Esta ingeniería social fragmentaria se opone a la ingeniería utópica, la que también llama ingeniería holística. La ingeniería utópica u holística, que describimos en párrafos anteriores, se identifica con el historicismo, tanto antinaturalista como pronaturalista por su concepción totalizadora, holística; porque soslaya la utilidad de las propuestas de la ingeniería social gradual o fragmentaria, debido a que la ingeniería fragmentaria no considera la realización de los cambios en la sociedad de una manera total. Popper lanza su ofensiva contra el historicismo y la ingeniería utópica, defendiendo la posición de la ingeniería gradual o fragmentaria. Por principio dice: "El término es útil, ya que es necesario un término que incluya las actividades sociales, tanto privadas como públicas que, para conseguir algún fin o meta, utilizan conscientemente todos los conocimientos tecnológicos disponibles. La ingeniería social fragmentaria se parece a la ingeniería física en que considera que los fines están fuera del campo de la tecnología (todo lo que la tecnología puede decir sobre fines es si son compatibles entre sí o realizables)... De la misma forma que la tarea principal del ingeniero físico consiste en proyectar máquinas y remodelarlas y ponerlas en funcionamiento, la tarea del ingeniero social fragmentario consiste en proyectar instituciones sociales y reconstruir y manejar aquellas que ya existen. La expresión institución social se usa aquí en un sentido muy amplio, que incluye cuerpos de carácter tanto público como privado." 123 La descripción anterior pone de relieve las funciones del ingeniero social fragmentario. Ahora bien, la cuestión propia del método usado se centra en la proposición siguiente: "El ingeniero o técnico fragmentario reconoce que sólo una minoría de las instituciones sociales se proyecta conscientemente, mientras que la gran mayoría ha 'nacido' como el resultado impremeditado de las acciones humanas... como tecnólogo o como ingeniero las contemplará desde un punto de vista “funcional” o 'instrumental¨. Las verá como medios para ciertos fines; como máquinas más que como organismos.” 124 En la cita anterior, Popper afirma que muy pocas instituciones sociales se han formado de manera premeditada, de acuerdo con un proyecto y una planeación conscientes: en cambio, la mayoría de las instituciones sociales, al ser creadas de una manera impremeditada, tienen una multitud de problemas; por ello se deben hacer en estas sociedades ajustes y reajustes, que tampoco serán definitivos, sino que tendrán que ser mejorados constantemente hasta lograr la finalidad perseguida. Lo anterior se puede realizar exponiendo los resultados de sus propuestas a manera de hipótesis para ver su reacción, y sustentados en esa actitud podremos avanzar de forma certera en el conocimiento científico. Esto es lo que el autor identifica como el método de ensayo y error. La operacionalidad práctica de ese método la describe de la manera siguiente: "Ensayamos; es decir, no sólo registramos una observación, sino que intentamos activamente resolver algunos problemas más o menos prácticos y definidos. Y progresamos sólo y únicamente si estamos preparados a aprender nuestras equivocaciones: a reconocer nuestros errores y a utilizarlos críticamente en vez de perseverar dogmáticamente en ellos. Aunque este análisis puede parecer

trivial, describe, creo yo, los métodos de todas las ciencias empíricas. Este método adquiere tanto más carácter científico cuanto más libre y conscientemente estemos preparados a arriesgarnos a un ensayo y cuanto más preparados estemos a observar críticamente las equivocaciones que siempre cometemos. Y esta fórmula cubre no sólo el método experimental, sino también la relación entre la teoría y el experimento. Todas las teorías son ensayos; son hipótesis provisionales ensayadas para ver si valen, y toda corroboración experimental es sencillamente el resultado de pruebas a las que se las somete con espíritu crítico, en un intento de encontrar dónde está su error.” 125 Estas consideraciones sobre el método científico en general pueden ser aplicadas al estudio de los fenómenos sociales. Popper afirma: "Para el ingeniero o tecnólogo fragmentario, estas opiniones significan que, si quiere introducir métodos científicos en el estudio de la sociedad y en la política, lo más necesario es la adopción de una actitud crítica y el darse cuenta de que no sólo es necesario el ensayo, sino también el error. Y tiene que aprender no sólo a esperar que haya equivocaciones, sino a buscarlas conscientemente. Todos sufrimos una debilidad poco científica: el querer siempre tener razón; y esta debilidad parece estar particularmente extendida entre los políticos, tanto profesionales como aficionados. Pero la única forma de aplicar a la política algo parecido a un método científico es la de dar por sentado que no puede haber una acción política que no tenga inconvenientes, que no tenga consecuencias indeseables. Estar alerta frente a esas equivocaciones, analizarlas y aprender de ellas, esto es lo que tanto un político científico, como un estudioso de la ciencia política deben hacer. La aplicación del método científico en política significa que el gran arte de convencernos de que no hemos cometido ninguna equivocación, de ignorar éstas, de esconderlas, de hacer recaer sobre otros la responsabilidad, queda reemplazado por el arte más grande de aceptar la responsabilidad, de intentar aprender de ellas y de aplicar este conocimiento de tal forma que en el futuro podamos evitarlas." 126 En síntesis, Popper se basa en el método de ensayo y error, el cual no pretende la confirmación de lo expuesto, sino la negación de que lo expuesto sea realmente cierto, y no podremos confirmarlo sino a través de las negaciones. Con base en ello, Popper sugiere que se piense tanto en los fenómenos naturales como los sociales y se considere la aplicabilidad del mismo método para unos y otros. Por tanto, supone un método único: "voy a proponer una doctrina de unidad de método; es decir, la opinión de que todas las ciencias teóricas o generalizadoras usan el mismo método, ya sean ciencias naturales o ciencias sociales. No pretendo afirmar que no existe diferencia alguna entre los métodos de las ciencias teóricas de la naturaleza y de la sociedad; tales diferencias existen claramente, incluso entre las distintas ciencias naturales, tanto como entre las distintas ciencias sociales. Pero estoy de acuerdo con Comte y Mill en que los métodos de los dos campos son fundamentalmente los MISMOS.”127 En este supuesto, el autor concluye que el método de conocimiento es aquel que "consiste en ofrecer una explicación causal deductiva y en experimentar (por medio de predicciones). Este ha sido llamado a veces el método hipotético-deductivo, o más a menudo el método de hipótesis, porque no consigue certeza absoluta para ninguna de las proposiciones científicas que experimenta; por el contrario, estas proposiciones siempre retienen el carácter de hipótesis de signo tentativo, aunque este carácter pueda dejar de ser obvio después que han superado gran número de experimentos, de pruebas severas... Lo que es importante es darse cuenta de que en ciencia siempre nos ocupamos de explicaciones, de predicciones y experimentos, y que el método para experimentar las hipótesis es siempre el mismo." 128 Según Popper, todo es objeto de experimentación, entendiendo por ello la formulación de hipótesis y la verificación de si éstas responden, reflejan o describen los objetos seleccionados. Para el desarrollo científico se requiere seguir "una hipótesis, o un prejuicio, o un problema -a menudo un problema tecnológico- que de alguna forma guíe nuestras observaciones y nos ayude

a seleccionar de los innumerables objetos de observación aquellos que pueden tener interés. Pero si esto es así, el método de eliminación -que no es más que el de ensayo y error...- siempre se puede aplicar."129 Y afirma que "con el fin de que el método de la selección por eliminación funcione, y para asegurarse que sólo las teorías más aptas sobreviven, su lucha por la vida tiene que ser severa... Éste es, en sus líneas generales, el método de todas las ciencias que se apoyan en la experimentación."130 Así, podemos concluir que, para Popper, el conocimiento científico se realiza en cada uno de los momentos en que se desarrolla la experimentación de las hipótesis; y todo conocimiento, ya sea negativo o positivo, tiene valor para el avance de la ciencia en la búsqueda de la verdad, lo que permite aceptar el racionalismo crítico. LA INFLUENCIA DE POPPER EN LA ECONOMIA Como señalábamos en el anterior apartado dedicado a los aspectos metodológicos generales, gente al criterio de verificación empírica, Popper propone para la investigación científica el método de contrastación empírica, según el cual una hipótesis debe ser formulada y después sometida a un proceso de contrastación. Además frente a la verificación positiva como criterio de validación e teorías propone el criterio de falsabilidad, que consiste en aceptar una proposición como científica sólo cuando es empíricamente refutable. En este epígrafe consideraremos algunos de los economistas que han encontrado atractiva la perspectiva metodológica de Popper. LA CONTRIBUCIÓN DE POPPER AL LIBERALISMO55 El autor analiza la influencia de Karl Popper en la doctrina política del liberalismo a lo largo del siglo XX, a la luz de tres textos fundamentales de Popper: La lógica de la investigación científica, La miseria del historicismo y La sociedad abierta y sus enemigos. El primero de ellos —un análisis de la esencia e interacción del conocimiento del hombre común, el conocimiento lógico y el conocimiento científico—, señala Modesto Collados, constituye el aporte más importante que ha recibido el pensamiento liberal en el campo de la epistemología desde la época de Locke. En el segundo texto —a juicio del autor quizás el más original y audaz—, Popper atribuye los excesos del nazismo y el comunismo durante el siglo XX a la in-fluencia del historicismo. Respecto de la tercera obra analizada, se destaca cómo el concepto de “sociedad abierta” desarrollado allí por Popper ha llegado a constituir un elemento esencial de la doctrina liberal y contribuido a modernizarla.. Tres grandes doctrinas sociales y políticas han orientado el destino de las sociedades humanas al final del siglo XX. Ellas son el liberalismo, el socialismo y la doctrina conservadora. Han actuado ya sea separadamente o en forma conjunta, pero siempre han tenido una influencia profunda y perdurable. En líneas generales, el socialismo ha influido en la cultura y especialmente en el lenguaje; la doctrina conservadora lo ha hecho en las costumbres y en el manejo geopolítico de las grandes potencias, y la idea liberal, en definitiva, se impuso como solución en la economía y en los progresos sociales. Si uno rastrea el conjunto de doctrinas que han moldea-do la sociedad contemporánea en fuentes tan diversas como la Enciclope-dia Británica o la encíclica Fides et ratio, de Juan Pablo II, llega a la conclusión de que sólo estas 55

Modesto Collados Estudios Públicos, 78 (otoño 2000). Chile.Ingeniero Civil U. de Chile. Director del Instituto de Ingenieros de Chile, Consejero Nacional de la Cámara Chilena de la Construcción y Vicepresidente del Banco de Crédito e Inversiones. Ex profesor en la Universidad de Chile y ex ministro de Estado, es autor de numerosas publicaciones, entre ellas Popper y Hayek en su tinta.

tres doctrinas han mantenido su vigencia en la sociedad humana al finalizar la centuria. Otras ideas matrices como el cientificismo, el historicismo y el nihilismo quedarán registradas en los anales académicos pero no se encarnaron en la vida de los pueblos. La Enciclopedia Británica, en su artículo sobre las doctrinas socio-económicas modernas, menciona las siguientes: socialismo, comunismo, anarquismo, fascismo, nacionalismo, liberalismo y conservatismo. La encíclica Fides et ratio, de Juan Pablo II, menciona como corrientes de pensamiento las siguientes: eclecticismo, historicismo, cientificismo, pragmatismo y nihilismo. Todas estas corrientes filosóficas han influido, de alguna manera, en las doctrinas socioeconómicas actuales, de las cuales, como hemos dicho, nos parece prudente opinar que tienen vigencia actual el socialismo, el liberalismo y la doctrina conservadora. Correspondió al filósofo Karl R. Popper, nacido en Austria y nacionalizado en Gran Bretaña, vivir intensamente, a lo largo de 92 años, la contienda intelectual y política que se produjo entre estas ideas y participar en el estudio de ellas, mostrando erudición, agudeza y equilibrio en un ambiente en que estas virtudes no eran frecuentes. Si no hubiera sido por las terribles circunstancias que afectaron a los habitantes de Europa en la primera mitad del siglo y que culminaron en las dos guerras mundiales, Popper habría proseguido sin variaciones su carrera de matemático y epistemólogo, disciplinas en que, de todas maneras, se distinguió. Pero estas catástrofes, que lo afectaron gravemente en lo personal, obligándolo a huir de Austria y refugiarse en Nueva Zelanda, le hicieron indagar en las causas de la profunda confusión de ideas que imperó en Europa por aquellos años. Esta indagación lo llevó a escribir su libro La sociedad abierta y sus enemigos, obra clave en la filosofía política del siglo XX, que lo entronca directamente en la corriente ideológica del liberalismo. De la gran cantidad de libros que produjo este pensador y humanista singular, es posible mencionar tres que definen su intervención en este tema y que presentan tres facetas muy diferentes de su pensamiento. El primero es un libro de teoría del conocimiento llamado La lógica de la investigación científica, que incide indirectamente en la filosofía política, dando a ésta un apoyo conceptual que resultó absolutamente necesario. La tradición de los más eminentes pensadores de la Política, desde Aristóteles hasta Marx, pasando por Hobbes, por Locke, por Vico, por Adam Smith, entre otros, obligaba a establecer una sólida base epistemológica desde la cual era posible incursionar en el complejo estudio de las relaciones entre los componentes de una sociedad. En el caso de Popper, su teoría del conocimiento no sólo es el fundamento del pensamiento de muchos pensa-dores contemporáneos, entre los cuales destaca Hayek, sino también es considerada útil en todas las ramas de la ciencia. Presento a continuación un esquema de la teoría que Popper plantea en este su primer libro, dejando constancia de que a lo largo de su vida volvió invariablemente sobre este tema, modificando en algunos aspectos su tesis original o ampliándola considerablemente, como lo hace en su Objective knowledge, una de sus últimas publicaciones. Popper nos dice que el ‘conocimiento’ que tienen las personas no es, generalmente, un conocimiento científico, y que es más bien la suma de tres conocimientos, a saber: a) el conocimiento del hombre común, b) el conocimiento científico, c) el conocimiento lógico. El conocimiento lógico (puramente deductivo) es independiente de la experiencia y corresponde al que definieron Russell y Whitehead en Principia mathematica, a comienzos del siglo. En el conocimiento científico la experiencia se suma a la lógica y bien podría decirse que ambas se entrecruzan. Esta experiencia puede tomar la forma de observación o experimentación.

El conocimiento del hombre común se basa en la experiencia cotidiana a la que se aplica un método aproximativo y ecléctico que incluye intuición, comparación, estadística y aproximaciones sucesivas, en sus formas más elementales. Al conocimiento que resulta de la adición de estos tres sumandos lo llamaremos conocimiento genérico, al cual Popper le asigna gran importancia. Para él, lo que interesa es la suma de los conocimientos y en esta actitud sigue directamente las aguas de Bacon. En la parte crítica de esta obra, destina gran espacio al problema de la inducción planteado por Hume y posteriormente por Kant. Llega a una conclusión negativa respecto de este método y propone reemplazarlo por nuevas herramientas, que constituyen lo que se ha llamado el deductivismo popperiano. Conviene recordar dos de estas herramientas. La primera es la que él llama falsifiability. Esta palabra se traduce en algunos textos universitarios por el término “falsación”, pero yo prefiero traducirlo por “refutabilidad”. Dice este autor que toda información basada en la experiencia debe ser sometida a un criterio de verdad y a otro de falsedad. La aplicación del primer criterio es la verificación; la del segundo es la refutación. Para Popper la refutabilidad no sólo es un mérito de una teoría científica: es una condición necesaria. Simplificando su pensamiento podríamos decir que si una teoría no es refutable, no es una teoría científica. Según él, no es posible probar jamás la verdad de una teoría, sino sólo su falsedad, y las teorías científicas son propuestas sólo como hipótesis provisionales, es decir, conjeturalmente, hasta el momento de su eventual refutación. Así, entre conjeturas audaces, fruto de la imaginación creadora, y refutaciones severas, obra del control crítico y experimental, discurre el juego dinámico de la ciencia. Al progresar de una teoría derrotada a otra victoriosa pensamos que nuestras conjeturas se acercan más a la verdad, pero nuestro conocimiento es falible y siempre puede ser refutado. Una segunda herramienta propuesta por Popper para reemplazar a la inducción es la de los experimentos imaginarios. Éstos consisten en dar por verdaderas determinadas leyes científicas y deducir de ellas qué sucede cuando las aplicamos hipotéticamente a casos concretos. Da el ejemplo del razonamiento empleado por Galileo para demostrar que la antigua creencia de que los cuerpos pesados caían en el vacío con mayor velocidad que los livianos era una creencia falsa. Galileo imagina la caída de un cuerpo pesado sobre un cuerpo liviano, lo que determina la formación de un cuerpo de peso intermedio que cae más lento que el cuerpo pesado. Esta experiencia virtual, que en la realidad no se efectúa, ‘prueba’ la falsedad de la creencia mencionada. Basado en este método, Popper propone a Einstein en 1935 una tesis relacionada con la relatividad. El famoso físico responde con una carta manuscrita que se encuentra reproducida en una edición de La lógica de la investigación científica. Otra de las características de la teoría del conocimiento de Popper es su impugnación de los raciocinios basados en definiciones, que tanto Platón como Aristóteles consideraban infalibles. Nos dice que esta exigencia fue responsable de un gran retraso en la filosofía y en la ciencia y concluye literalmente afirmando que “una definición de todos los términos nos lleva-ría a una recurrencia infinita y que haría aun más largos los discursos de los políticos”. Crea así, Popper, una epistemología que sirve de fundamento a su filosofía política. Sus epígonos más destacados —Kuhn, Lakatos, Feyerabend—, aunque con frecuencia se rebelan contra el maestro, hacen uso permanente de este soporte conceptual. Sin embargo, el pensador que más extensa y útilmente aprovechó este apoyo filosófico fue Frederick A. Hayek, apóstol del liberalismo, doctrina que se hace así tributaria del pensamiento de Popper.

Debemos mencionar ahora un segundo libro de este autor en el que, abandonando las áridas disquisiciones de la obra anterior, entra directamente en el campo de la filosofía política. Este libro se titula Miserias del historicismo, remedando la Miseria de la filosofía con la que Marx respon-dio irónicamente a la Filosofía de la miseria, de Proudhom. Este pequeño libro fue publicado por primera vez en italiano (Milán, 1954), luego en francés (París, 1956) y por último en inglés (Londres, 1957). Esta última es la edición que yo conozco y en mi opinión, desde el punto de vista formal, es una obra maestra. Es probable que su depurado estilo sea el producto de haber pasado en su elaboración por tantos idiomas, ya que, sin duda, el primer original estaba escrito en alemán. Todo esto revela el humanismo de Popper. Con este libro el autor ingresa en el campo de la sociología, ciencia novísima por aquellos años, y al ingresar a ella entra de lleno en una polémica enconada sobre los límites, el contenido y la metodología de esta disciplina. Esta polémica, expuesta en forma sencilla, nace de la pregunta: ¿el estudio de la sociedad debe ser paralelo, análogo o subordinado al estudio de la física? Popper llama a los autores que le preceden y que quieren asimilar las ciencias sociales a la física con el epíteto de naturalistas. Él ya ha tomado partido en esta polémica y se opone a los pro naturalistas, a cuya cabeza menciona al psicólogo Wundt. Se encuentra, sin embargo, con antinaturalistas, como J. Stuart Mill y Marx, que tienden a hacer depender la sociología de la psicología y de la economía, respectivamente. Nuestro autor prefiere a la nueva ciencia independiente, con su propio contenido —lo que es más difícil— con su propio método. Al atacar nuestro autor a J. Stuart Mill y a Marx los enjuicia a ambos, a pesar de sus diferencias, bajo una misma denominación: la de activistas, denominación que para Popper es peyorativa. Ser activista, en el campo de las ideas sociales, consiste en agregar a los argumentos que las defienden una acción destinada a que las predicciones que ellas contienen se conviertan en realidad. El caso más explícito es el de la lucha de clases: Marx no sólo la postula sino que la promueve. En la segunda parte de este libro aparecen enemigos mucho más temibles, un ejército de profetas: Platón, Vico, Hegel, Spengler, Toynbee, a los cuales habría que agregar el nombre de Fukuyama, a quien Popper no alcanzó a conocer. Todos ellos, que eran elocuentes escritores, cambian la física por la biología y postulan que las sociedades (a las que Spengler llama culturas y Toynbee civilizaciones) tienen todas las características de los seres vivos y, como ellos, nacen, crecen, progresan, declinan y se mueren. Para que este paralelo entre historia y biología sea legítimo es necesario que la historia obedezca a leyes cualitativas y cuantitativas tales que su curso sea previsible. Popper, aplicando su rigurosa teoría del conocimiento y su aversión por la inducción, denuncia a estas teorías como simples supersticiones y les asigna gran responsabilidad en la confusión doctrinaria que prevaleció en la primera mitad de nuestro siglo. Nos corresponde ahora referirnos al tercer libro de los que mencionamos al principio: a la obra más conocida y más influyente de este autor, La sociedad abierta y sus enemigos. Este libro, escrito en nueva Zelanda durante los cinco años que dura la segunda guerra mundial, mientras el mundo entero se desangra, intenta rastrear a lo largo de la historia a los culpables intelectuales de esta hecatombe. Una de las razones que me llevó a estudiar esta obra de Popper fue la de cotejar su nómina de culpables con la que yo mismo había propuesto en 1996, sin conocer la opinión del filósofo vienés. Yo había elegido como adversarios de la cultura occidental tres nombres, todos del segundo milenio, cuales eran Maquiavelo, Rousseau y Marx. A Popper le fue posible ahondar mucho más en el pasado, ya que, como buen europeo, tenía una inmensa cultura clásica con el acento en lo grecorromano. Por otra parte, formado en el Círculo de Viena, desconocía y menospreciaba a la Edad Media. Esta fortaleza y esta debilidad lo llevaron a formar su conocida

tríada: Platón, Hegel y Marx. En ambas series Marx ocupa el lugar más reciente, aunque, a mi juicio, no es el más determinante. De su extensa obra Popper dedica un tomo a Platón y el segundo lo asigna a Hegel y Marx. Para comprender la importancia que da este autor a. la figura de Platón como un pensador opuesto a la sociedad abierta es necesario observar la forma incondicional en que Popper se sumerge en el torrente de la cultura británica, a partir de su aventura neozelandesa. Aparte de evidentes afinidades intelectuales con dicha cultura, hay en este hombre perseguido y exiliado un natural y loable sentimiento de gratitud para quie-nes lo acogieron espiritual y materialmente. Análoga situación se produce cuando Friedrich Hayek, huyendo de la persecución nazi, es recibido generosamente por Londres, en su Escuela de Economía. En ambos casos, la cultura anglosajona ganó a dos figuras sobresalientes del saber contemporáneo. Pero antes de analizar lo que afirma este autor sobre Platón y su relación con la sociedad abierta, debemos intentar explicarnos lo que en-tiende Popper por este último concepto. Desde luego, no es posible pedirle una definición, cuando ya hemos oído su lapidaria opinión sobre las definiciones. Sin embargo, a lo largo de su alegato, su concepto de sociedad abierta comienza a tomar vida, como sucede cuando un buen novelista procede a revelarnos la esencia de sus personajes. La sociedad abierta nace como oposición a la sociedad primitiva o sociedad tribal, la cual, según Popper, es un organismo cuyos miembros están relacionados entre sí por lazos biológicos tales como vivir juntos, bajo la tutoría de un monarca, compartiendo esfuerzos, peligros, alegrías y tristezas. En oposición a ellas, la sociedad abierta está constituida por indivi-duos que se ven confrontados a decisiones personales. Vemos que la sociedad abierta es en realidad un paradigma: no se da estrictamente en ningún lugar ni en ninguna época. Es necesario hacer notar que el autor habla de sociedad abierta y no de sociedad libre, como a veces se ha traducido erróneamente. En efecto, el protagonista que Popper describe se ve con-frontado a tomar decisiones y no las toma con absoluta libertad. Platón vive la transición que va del luminoso siglo de Pericles al infausto siglo que comienza con la muerte de Sócrates, que sume a Grecia en la decadencia más grande de su historia. A estos desgraciados acontecimientos les aplica su concepción cíclica de la historia y su esquema es el siguiente: primero, el Estado ideal, que Platón relaciona con la antigua Esparta; segundo, la timocracia, el gobierno de los nobles que buscan honor y fama; tercero, la oligarquía, el gobierno de las familias adineradas; cuarto, la democracia, para Platón el gobierno libertario que desemboca en la anarquía; quinto y final, la tiranía, última dolencia de la ciudad. Como bien apunta Popper, en ese esquema toda la historia es una enfermedad: la sociedad es el paciente y el gobernante está obligado a ser el médico, que ayude a bien morir. Esta visión tan pesimista deja en claro el historicista que hay en Platón y lo define, además, como un precursor de la doctrina conservadora. Popper, a su vez, al contrastar esta visión con el paradigma de la sociedad abierta, no sujeta a este ciclo pernicioso, apunta su proyecto hacia la doctrina liberal. Mientras nuestro autor analiza las ideas de Platón, que tanta influen-cia tuvieron en Occidente, su tarea nos parece lúcida y ecuánime. No sucede lo mismo cuando se refiere al personaje Platón y lo acusa, trasladando conceptos actuales al siglo IV antes de Cristo, de ser enemigo de la democracia y de servir a tiranos. El concepto de democracia, en Platón, que ya hemos expuesto, no tiene relación alguna con el producto anglosajón que hoy llamamos democracia. Por otra parte, en el siglo en que vivió Platón sólo había tiranos a los cuales servir. Nos parece que en esto, guiado por su pasión liberal, Popper es injusto. A continuación, le corresponde el papel de enemigo de la sociedad abierta al filósofo alemán Jorge Guillermo Federico Hegel. Este inmenso salto que va desde Platón hasta Hegel, que se mide en veintitrés siglos, nos parece la más grave debilidad de este libro. Uno se pregunta si en este período tan prolongado no hay, al menos, un discípulo de Platón o un precursor de Hegel que merezcan también figurar en esta galería de enemigos.

Este curioso olvido sólo se explica por la fobia hacia la Edad Media que desató la Ilustración y que ha durado ya varios siglos, de la cual sin duda el filósofo austriaco ha sido una víctima. Pero no permitamos que esta reserva nos impida enfrentar a Hegel. A este filósofo dedica apenas unas pocas páginas, la mitad de las cuales se refieren al estilo críptico, delirante y contradictorio que se presenta en casi toda la obra de Hegel. La definición de “sonido” que nos transcribe Popper es sólo comparable a la definición de “electricidad” que se menciona en mi libro sobre la cultura occidental. En ambas definiciones el filósofo alemán parece burlarse de sus lectores, a tal grado llega la esquizofrenia de su discurso. Más adelante Popper deja el tema formal en la literatura de Hegel y nos conduce a la demostración de cómo, a partir de la dialéctica, establece la doctrina del absolutismo prusiano, con todo lo que había en él de racismo, belicismo y xenofobia. La mayor influencia de Hegel sobre la filosofía política moderna es la que se hace presente en la obra de Marx a través del método dialéctico que este último aplica con un ingenioso artilugio que él llama “inversión copernicana”. Según este proceso lógico, la afirmación hegeliana de que el Espíritu determina la Materia puede transformarse en la afirmación de que la Materia determina el Espíritu, y de aquí nace su materialismo histórico. Hemos traducido a expresiones sencillas y cotidianas este razonamiento, extremando el método de Popper que trata de acercar al “conocimiento del hombre común” una figura tan alambicada y obsoleta. Popper realiza una admirable síntesis cuando reúne todo el pensamiento de Hegel y de Marx y sus seguidores en un solo concepto: el de la Filosofía Oracular, la cual conduce, al aplicarla a la realidad, a un nuevo tribalismo. Bajo esta óptica analiza tres aspectos del marxismo: el método, la profecía y la moral. Concluye así que esta doctrina es un historicismo económico, no menos dañino que el biológico, que le antecede y que comparte con éste la jactancia de creer que puede predecir los hechos de la historia. Popper y sus epígonos, muchos de ellos bastante rebeldes, como Kuhn, Lakatos y Feyerabend, entre otros, han contribuido a levantar el andamiaje filosófico del liberalismo moderno. La obra de este maestro, producto de una larga vida de esfuerzo intelectual, es titánica, tanto por la variedad de las disciplinas que aborda como por su profunda influencia en la vida política contemporánea.

2.3 LOS PARADIGMAS DE KHUN. LAS REVOLUCIONES CIENTÍFICAS: SU ESTRUCTURA Y CAMBIO METODOLOGIA DE LAS CIENCIAS SOCIALES – II Gabriel Gutiérrez Pantoja y OXFORD UNIVERSITY PRESS-HARLA MÉXICO, S.A. de C.V Hablar de revoluciones científicas puede tener una multiplicidad de interpretaciones, pero referirnos a ese concepto en el periodo de la posguerra conduce universalmente a un hombre y una obra: el primero, Thomas S. Kuhn; la segunda, La estructura de las revoluciones científicas. Thomas Kuhn nació el 18 de julio de 1922 en Cincinnati, Ohio. Sus estudios profesionales de física los hizo en la Universidad de Harvard. Trabajó inicialmente en el ámbito de su formación, pero más tarde se interesó en la historia y filosofía de la ciencia, con especial énfasis en el desarrollo histórico de la ciencia, con lo cual cambió la idea del progreso científico de manera unidireccional y acumulativa. Como físico de profesión, Kuhn se preocupaba por el progreso y la racionalidad científica, pero además vinculó y trascendió esa actividad para formarse como historiador de la ciencia. Con esa

formación, centra la atención en elementos psicosociales de la comunidad científica, es decir, en el ámbito sociológico de la praxis científica y su influencia sobre la formulación y aceptación de teorías de la ciencia. En esa perspectiva, el autor invita a la reflexión sobre la finalidad de las ciencias, de acuerdo con los momentos históricos de las comunidades que la ejercitan, y la responsabilidad de la praxis científica; y según esos supuestos allana el camino hacia lo que se identifica como una epistemología social de la ciencia. Centrado en esa posición, el autor nos limita a extraer de su concepción global, de su We1tanschauung, o concepción del mundo, una propuesta metodológica particular; pero nos permite entender cómo se articula la metodología en los momentos históricos de los procesos científicos. Y además, enuncia cuál es su adopción metodológica personal. Kuhn inició propiamente su actividad intelectual como historiador de la ciencia, cuando en 1947 interrumpió su proyecto de física para preparar una serie de conferencias sobre los orígenes de la mecánica del siglo XVII, a invitación del Instituto Lowell, de Boston. Para su preparación dedicó parte del tiempo a la historia de la ciencia, cuando se encontraba como Junior Felloves de la Society of Fellows de la Universidad de Harvard. En sus investigaciones preliminares se adentró en los análisis del movimiento contenidos en la Física de Aristóteles y en los posaristotélicos, de quienes, desde una perspectiva newtoniana de la mecánica, descubrió que sabían poco de mecánica y que lo dicho entonces era errado en gran medida. La duda acerca de los motivos que habían provocado los errores de Aristóteles y sus seguidores en su concepción de la física, llevó a Kuhn a reconsiderar sus lecturas ubicándose en una perspectiva distinta: "Por primera vez le concedí la importancia debida al hecho de que el tema de Aristóteles era el cambio de cualidad en general, lo mismo al observar la caída de una piedra que el crecimiento de un niño hasta llegar a la edad adulta. En su física, el objeto que -habría de convertirse en la mecánica era, a lo más, un caso especial no aislable todavía. Muy lógico, pues, fue mi reconocimiento de que los ingredientes permanentes del universo aristotélico, sus elementos ontológicos primarios e indestructibles, no eran los cuerpos materiales sino más bien las cualidades que, impuestas por una porción de la materia neutral y omnipresente, constituían un cuerpo material o sustancia. No obstante, la posición en sí era una cualidad en la física de Aristóteles, y un cuerpo que cambiaba de posición permanecería, por consiguiente, siendo el mismo cuerpo sólo en el problemático sentido en que el niño es también el individuo en que se convierte más tarde. En un universo en donde las cualidades eran lo primario, el movimiento tenía que ser necesariamente no un estado, sino un cambio de estado.” 131 Esa afirmación de Kuhn lleva como fundamento toda su posterior concepción sobre los momentos históricos de la ciencia, pues sus lecturas no eran de Aristóteles y sus epígonos desde el tiempo del lector, es decir, desde el siglo XX: finalizando su primera mitad e iniciando la segunda, sino que era una lectura interpretativa del momento y la concepción aristotélica, una lectura hermenéutica. Esa forma de lectura la ilustra Kuhn de la siguiente manera: "Aunque tan incompletos como pobremente expresados, esos aspectos de mi nueva manera de entender la empresa aristotélica deben indicar lo que quiero decir con el descubrimiento de una nueva manera de leer un conjunto de textos. Lograda esta nueva forma, las forzadas metáforas se convirtieron muchas veces en informes naturalistas al tiempo que se desvanecía gran parte de la aparente absurdidad. A resultas de esto, no me convertí en un físico aristotélico, pero hasta cierto punto aprendí a pensar como tal. De ahí en adelante, tuve pocos problemas para entender por qué Aristóteles había dicho tal o cual cosa acerca del movimiento y también la razón de que sus afirmaciones hubiesen sido tomadas tan en serio. Cierto es que seguí encontrando tropiezos en su física, pero

ahora ya no me parecían ingenuidades y pocos de ellos podrían haber sido caracterizados como meros errores." 132 En este párrafo podemos encontrar la confluencia de su epistemología social de la ciencia y el método adquirido para entender esa ciencia; en otras palabras, encontramos el paradigma y la hermenéutica. Pero antes de describirlos concluyamos con el esbozo biográfico intelectual de Kuhn. Después de la experiencia con las lecturas aristotélicas, siguió el método en la lectura de otros personajes como Boyle, Newton, Lavoisier, Dalton, Boltzmann y Planck, de donde Kuhn extrajo dos lecciones: "La primera consiste en que hay muchas maneras de leer un texto y que las más accesibles al investigador moderno suelen ser impropias al aplicarlas al pasado. La segunda dice que la plasticidad de los textos no coloca en el mismo plano todas las formas de leer, pues algunas de ellas -uno quisiera que sólo una- poseen una plausibilidad y coherencia que falta en otras.” 133 Kuhn se interesó por continuar la investigación sobre historia de la ciencia, por lo que se abocó a su enseñanza en la rama de la física. En el mismo periodo escribió una serie de artículos, acerca de los cuales dice: "Varios de ellos tratan del papel integral desempeñado por una u otra metafísica en la investigación científica creadora. Otros examinan el modo como las bases experimentales de una nueva teoría se acumulan y son asimiladas por hombres fieles a una teoría incompatible y más antigua. En el proceso describen el tipo de desarrollo que llamo más adelante emergencia de un descubrimiento o una teoría nuevos. 134 En su actividad docente, Kuhn procuró trasmitir a los alumnos la experiencia hermenéutica en la lectura de los textos, derivada de sus vinculaciones con los escritos aristotélicos y de científicos posteriores: "Cuando trato de comunicarles estas lecciones a los estudiantes, les digo esta máxima: al leer las obras de un pensador importante, busca primero las absurdidades aparentes del texto y luego pregúntale cómo es que pudo haberlas escrito una persona inteligente. Cuando tengas la respuesta, prosigo, cuando esos pasajes hayan adquirido sentido, encontrarás que los pasajes primordiales, ésos que ya creías haber entendido, han cambiado de significado." 135 Pasado este periodo de fortalecimiento de sus ideas, sobre la proposición de una forma de entender las condiciones de la actividad científica en los diversos momentos históricos, Kuhn tiene la oportunidad de incorporar a sus reflexiones los problemas que se presentan a la investigación de los científicos sociales, a través de la beca que recibe para incorporarse al Centro de Estudios Avanzados en Ciencias de la Conducta, en Stanford, California, entre 1958 y 1959. Sobre su estancia en Stanford el autor afirma: "el pasar un año en una comunidad compuesta, principalmente, de científicos sociales, hizo que me enfrentara a problemas imprevistos sobre las diferencias entre tales comunidades y las de los científicos naturales entre quienes había recibido mi preparación. Principalmente me asombré ante el número y el alcance de los desacuerdos patentes entre los científicos sociales, sobre la naturaleza de problemas y métodos científicos aceptados. Tanto la historia como mis conocimientos me hicieron dudar de que quienes practicaban las ciencias naturales poseyeran respuestas firmes o permanentes para esas preguntas que sus colegas en las ciencias sociales. Sin embargo, hasta cierto punto, la práctica de la astronomía, de la física, de la química o de la biología, no evoca, normalmente, las controversias sobre fundamentos que, en la actualidad, parecen a menudo endémicas, por ejemplo, entre los psicólogos o los sociólogos. Al tratar de descubrir el origen de esta diferencia, llegué a reconocer el papel desempeñado en la investigación científica por lo que, desde entonces, llamo paradigmas.” 136 Durante su estancia en el Centro de Estudios Avanzados en Ciencias de la Conducta como becario, el autor se dedicó a la redacción del libro La estructura de las revoluciones científicas:

"Poco después de mi llegada, elaboré la primera versión de un capítulo sobre el cambio revolucionario, pero resultó muy problemático preparar un capítulo sobre el interludio normal entre revoluciones. En esa época, concebía yo la ciencia normal como resultado del consenso prevaleciente entre los miembros de una comunidad científica. Las dificultades surgieron cuando traté de definir este consenso enumerando los elementos de acuerdo en torno de los cuales girase el consenso entre los miembros de una determinada comunidad científica. Tratando de replicar la forma en que los miembros de una comunidad investigan y, especialmente, la unanimidad con la que suelen evaluar las investigaciones de otros, tuve que atribuirles un consenso acerca de las características que definen términos cuasiteóricos como fuerza y masa, o mezcla y compuesto. Pero mi experiencia, tanto de científico como de historiador, me indicaba que rara vez se enseñan tales definiciones y que, cuando tal ocurre, el asunto suele terminar en profundo desacuerdo. Al parecer, no existía el consenso que yo andaba buscando, pero, sin él, no encontraba la manera de escribir el capítulo sobre la ciencia normal."137 Ante los obstáculos referidos en el párrafo anterior, para describir lo que el autor identifica como "ciencia normal”, resultado del consenso sobre conceptos y teorías que se utilizan entre miembros de una comunidad científica, hizo algunas reconsideraciones de sus planteamientos: "A principios de 1959, terminé por darme cuenta de que no era ésa la clase de consenso que andaba buscando. A los científicos no se les enseñan definiciones, pero sí formas estandarizadas de resolver problemas seleccionados en los que figuran términos como fuerza o compuesto. Si aceptaran un conjunto lo suficientemente vasto de estos ejemplos estandarizados, entonces podrían modelar sobre ellos sus investigaciones ulteriores, sin necesidad de concordar acerca del conjunto de características de estos ejemplos que justificasen su estandarización y, por ende, su aceptación. Ese procedimiento me pareció muy semejante al empleado para que los estudiantes de idiomas aprendan a conjugar verbos y a declinar nombres y adjetivos. Aprenden a recitar, por ejemplo, amo, amas, amat, amamus, amatis, amant, y más tarde recurren a esa forma estandarizada para producir el presente de indicativo de otros verbos latinos de la primera conjugación. En inglés, esos ejemplos estandarizados que se emplean en la enseñanza de idiomas reciben el nombre de paradigmas, y no me pareció violenta la aplicación de ese término a problemas científicos estandarizados como el del plano inclinado y el del péndulo cónico."138 El autor introduce el concepto de paradigma en el sentido de una forma estandarizada de resolver problemas científicos aceptados por una comunidad científica determinada, y así entendido, el paradigma se equipara con la "ciencia normal”. La primera ocasión que el autor utiliza el concepto deparadigma es en una conferencia titulada "La tensión esencial" 139 en julio de 1959, con lo cual considera que ha logrado un avance modesto hacia la noción de "ciencia normal". "Así es como ingresa el concepto deparadigma en 'La tensión esencial', ensayo preparado aproximadamente un mes más tarde después de haber reconocido la utilidad de tal concepto... Y resultó que el concepto paradigma era el elemento faltante para escribir el libro, así que entre el verano de 1959 y el invierno de 1960 culminé la tarea de redactar el primer borrador." 140 De esa labor surge el controvertido texto titulado La estructura de las revoluciones científicas, en el que existe una rica gama de aspectos, aunque nosotros nos centraremos en las sugerencias epistemológicas y los planteamientos metodológicos que de ellas se derivan. Por principio, el autor replantea la concepción existente sobre la ciencia; en su momento indica que ésta no se da por acumulación de conocimientos, sino que es una actividad histórico-social desarrollada por una comunidad de científicos. Por tanto, el desarrollo del conocimiento científico es un proceso que llevan a cabo las colectividades de científicos, quienes asumen determinadas actitudes, preferencias e inclinaciones, las cuales forman un marco para su actividad epistemológica. En esas condiciones se van constituyendo los paradigmas dentro de cada marco histórico-social, con características particulares tanto intelectuales como sociopolíticas. Desglosemos esta apretada reseña de la concepción de Kuhn sobre la ciencia.

La ciencia puede ser "normal" o extraordinaria. La primera es aquella concepción que tiene en consenso una comunidad científica dada. En palabras de Kuhn: "Significa investigación basada firmemente en una o más realizaciones científicas pasadas, realizaciones que alguna comunidad científica particular reconoce, durante cierto tiempo, como fundamento de su práctica posterior.” 141 La ciencia normal es, en otras palabras, la recuperación de la experiencia científica que rechazaron algunos estudiosos en diversos momentos y que puede servir de base para el entendimiento de fenómenos, ya sean naturales o sociales, de nuestros tiempos, por ejemplo la ley de la gravedad, de Newton, o la teoría política de Maquiavelo. Aunque esas concepciones son generalmente aceptadas, están limitadas para explicar ciertos fenómenos como los desafíos antigravitacionales de la tecnología moderna y las diversas actitudes sociales que rebasan las consideraciones políticas de El príncipe, por lo que aún queda una gran cantidad de problemas por resolver. A ello, es decir, a esa práctica científica insuficiente para resolver todo tipo de problemas es a lo que Kuhn llama paradigma. Éste es un término que se relaciona estrechamente con "ciencia normal”. "El estudio de los paradigmas... es lo que prepara principalmente al estudiante para entrar a formar parte como miembro de la comunidad científica particular con la que trabajará más tarde. Debido a que se reúne con hombres que aprenden las bases de su campo científico a partir de los mismos modelos concretos, su práctica subsiguiente raramente despertará desacuerdos sobre los fundamentos claramente expresados. Los hombres cuya investigación se basa en paradigmas compartidos están sujetos a las mismas reglas y normas para la práctica científica. Este compromiso y el consentimiento aparente que provoca son requisitos previos para la ciencia normal, es decir, para la génesis y la continuación de una tradición particular de la investigación científica." 142 Entendida de esa manera la ciencia normal, y el concepto de paradigma que el autor le asocia, se aceptan las teorías y los métodos de investigación en una comunidad científica durante un periodo específico, así como las técnicas usadas comúnmente para la experimentación y el acopio de información, con la finalidad de avanzar en la resolución de enigmas propia del conocimiento científico. La durabilidad de un proceso y la aceptación de un paradigma para el establecimiento de la ciencia normal es variable, de conformidad con el trabajo que realice la comunidad científica y la visión que se imponga para la aceptación de los avances de investigación. Acerca de ello, el autor señala: "Pocas personas que no sean realmente practicantes de una ciencia madura llegan a comprender cuánto trabajo de limpieza de esta especie deja un paradigma para hacer, o cuán atrayente puede resultar la ejecución de dicho trabajo. Y es preciso comprender esos puntos. Las operaciones de limpieza son las que ocupan a la mayoría de los científicos durante todas sus carreras. Constituyen lo que llamamos aquí ciencia normal. Examinada de cerca, tanto históricamente como en el laboratorio contemporáneo, esa empresa parece ser un intento de obligar a la naturaleza a que encaje dentro de los límites preestablecidos y relativamente inflexible que proporciona el paradigma. Ninguna parte del objetivo de la ciencia normal está encaminada a provocar nuevos tipos de fenómenos; en realidad, a los fenómenos que no encajarían dentro de los límites mencionados frecuentemente ni siquiera los ve. Tampoco tienden normalmente los científicos a descubrir nuevas teorías, y a menudo se muestran intolerantes por las formuladas por otros.” 143 Los estereotipos que generan los paradigmas son parte de los esquemas mentales y lenguajes de las comunidades científicas, los cuales después de entender los supuestos conceptuales, los reproducen sin cuestionar sus orígenes o la representación del contenido. Esto puede llevar a confusiones como la que ejemplifica Kuhn: "Un investigador que esperaba aprender algo sobre lo que creían los científicos que era la teoría atómica, le preguntó a un físico distinguido y a un químico eminente si un átomo simple de helio era o no una molécula. Ambos respondieron sin

vacilaciones, pero sus respuestas no fueron idénticas. Para el químico, el átomo de helio no era una molécula, puesto que se comportaba como tal con respecto a la teoría cinética de los gases. Por la otra parte, para el físico, el átomo de helio no era una molécula, ya que no desplegaba un espectro molecular. Puede suponerse que ambos hombres estaban hablando de la misma partícula; pero se la representaban a través de la preparación y la práctica de investigación que les era propia. Su experiencia en la resolución de problemas les decía que debía ser una molécula. Indudablemente sus experiencias habían tenido mucho en común; pero, en este caso, no les indicaban lo mismo a los dos especialistas.” 144 De conformidad con ese ejemplo, los paradigmas se convierten en un obstáculo para la investigación científica, pues las opiniones sobre si el átomo de helio es una molécula, son divergentes, merced a la formación paradigmática de cada uno de los científicos en sus respectivas áreas del conocimiento. Pero esa incompatibilidad puede ser estimulante para el investigador que realizó el cuestionamiento, para profundizar en su investigación y proponer una nueva respuesta ante la antinomia percibida en relación con su pregunta. Esto se constituye como un paso en el conocimiento científico, como una novedad ya sea fáctica o teórica, con mira a la modificación o el ajuste de los paradigmas vigentes. La disputa para el cambio de paradigmas la describe Kuhn de la manera siguiente: "En el desarrollo de cualquier ciencia, habitualmente se cree que el primer paradigma aceptado explica muy bien la mayor parte de las observaciones y experimentos a que pueden con facilidad tener acceso todos los que practican dicha ciencia. Por consiguiente, un desarrollo ulterior exige normalmente la construcción de un equipo complejo, el desarrollo de un vocabulario esotérico y de habilidades, y un refinamiento de los conceptos que se parecen cada vez menos a sus prototipos usuales determinados por el sentido común. Por una parte, esta profesión conduce a una inmensa limitación de la visión de los científicos y a una resistencia considerable al cambio del paradigma. La ciencia se hace así cada vez más rígida. Por otra parte, en los campos hacia los que el paradigma dirige la atención del grupo, la ciencia normal conduce a una información tan detallada ya una precisión tal en la coincidencia de la teoría y de la observación como no podrían lograrse de ninguna otra forma... La anomalía sólo resalta contra el fondo proporcionado por el paradigma. Cuanto más preciso sea un paradigma y mayor sea su alcance, tanto más sensible será como indicador de la anomalía y, por consiguiente, de una ocasión para el cambio de paradigma... Asegurando que no será fácil derrumbar el paradigma, la resistencia garantiza que los científicos no serán distraídos con ligereza y que las anomalías que conducen al cambio del paradigma penetrarán hasta el fondo de los conocimientos existentes.” 145 La proposición de otro paradigma frente al existente pone en crisis al que está en vigor; entre ambos habrá una exposición y defensa de sus fundamentos para que alguno de ellos prevalezca, ya que la aceptación de un paradigma equivale al rechazo del otro. La transición entre concepciones paradigmáticas se puede identificar mediante una serie de aspectos que describe Kuhn de la forma siguiente: "La transición de un paradigma en crisis a otro nuevo del que pueda surgir una nueva tradición de ciencia normal, está lejos de ser un proceso de acumulación al que se llegue por medio de una articulación o una ampliación del antiguo paradigma. Es más bien una reconstrucción del campo, a partir de nuevos fundamentos, reconstrucción que cambia algunas de las generalizaciones teóricas más elementales del campo, así como también muchos de los métodos y aplicaciones del paradigma. Durante el periodo de transición habrá una gran coincidencia, aunque nunca completa, entre los problemas que pueden resolverse con ayuda de los dos paradigmas, el antiguo y el nuevo; pero habrá también una diferencia decisiva en los modos de resolución. Cuando la transición es completa, la profesión habrá modificado su visión del campo, sus métodos y sus metas.” 146

El paso de un paradigma a otro es calificado por el autor como revolución científica, entendida ésta como los episodios de desarrollo científico no acumulativo en que un paradigma es reemplazado completamente, o en parte, por uno nuevo que, además, es incompatible. El nuevo paradigma expondrá sus teorías, métodos y fórmulas de experimentación y comprobación generalmente mediante libros de texto para que, a través del proceso de enseñanza-aprendizaje de las propuestas, se vaya estableciendo una nueva tradición de ciencia normal. Dicha tradición debe establecerse necesariamente, ya que en el cambio de paradiginas la ciencia normal del primer paradigma pasa a convertirse en ciencia extraordinaria o revolución científica, periodo en el cual para que sea aceptado, el nuevo candidato a paradigma debe reunir dos condiciones: 'Primeramente, el nuevo candidato deberá parecer capaz de resolver algún problema extraordinario y generalmente reconocido, que de ninguna otra forma pueda solucionarse. En segundo lugar, el nuevo paradigma deberá prometer preservar una parte relativamente grande de la habilidad concreta para la solución de problemas que la ciencia ha adquirido a través de sus paradigmas anteriores.” 147 En esas condiciones, la solución de los problemas a que se enfrenta una comunidad científica determinada tiene una sustentación en las teorías, métodos, normas y bases experimentales que descansan en un consenso mayoritario. En suma: para Kuhn la ciencia es una actividad social que lleva a cabo el grupo de científicos, los cuales tienen inclinaciones-, actitudes y preferencias para desarrollar su actividad epistemológica. Esto es propiamente un paradigma, que establece históricamente el desarrollo del conocimiento científico mediante la articulación de propuestas que circundan el consenso generalizado de la acción científica. Esos periodos normales se ven alterados por periodos revolucionarios, en los que se persigue un cambio de paradigma, y si ese paradigma que deviene tiene las condiciones para imponerse, se formula una nueva situación de consenso para el desarrollo del conocimiento científico. Las revoluciones científicas son en sí mismas la estructura básica para el avance de la ciencia. El autor difundió estas ideas en las universidades de Harvard, Boston y Berkeley entre 1958 y 1964; en Princeton, de 1964 a 1979, y a partir de entonces en el Massachusetts Institute of Technology hasta su deceso el 19 de junio de 1996. Tales propuestas sirvieron de base para establecer el criterio de estudio en las ciencias sociales. LOS PARADIGMAS EN LAS CIENCIAS SOCIALES Ahora bien, ¿qué aplicabilidad tiene la propuesta de Kuhn en las ciencias sociales? Aunque en las ciencias naturales, especialmente en las físicas y en las químicas, hay una gran discusión en torno a la propuesta de las revoluciones científicas y del significado de paradigmas, entre los científicos sociales, si bien no se ha levantado polémica en torno a las propuestas del autor, sí ha sido aceptada la concepción de que las ciencias sociales se basan en conflictos de paradigmas, para elegir determinado tipo de investigación o para adherirse a una ideología en el estudio y la explicación de los fenómenos sociales. Miguélez dice: "Los conceptos de paradigma y de conflicto de paradigmas... pueden permitir un enfoque más fecundo de problemas tradicionales de la historia y de la sociología del conocimiento, así como fertilizar un análisis filosófico de la ciencia empobrecido por la unilateralidad y la relativa simplicidad de la concepción de la ciencia a la que se halla generalmente subordinado. A condición, sin embargo, de hacer de esos conceptos no meras categorías descriptivas sino nociones teóricas en el sentido fuerte del término. Para ello, sin duda, es necesario postular como hipótesis general que tanto factores externos -es decir, factores que se refieren al contexto económico, político y social- como factores internos

especialmente factores lógicos y metodológicos- actúan en la resolución de los conflictos de paradigmas, que los factores externos no son menos racionales que los factores internos y que unos y otros no actúan de modo independiente, sino que mantienen relaciones de influencia recíproca según modalidades precisas. Si se acepta tal hipótesis, un análisis filosófico de la ciencia no puede reducirse al examen de los factores internos y debe tener en cuenta, en tanto que factores igualmente incidentes sobre el tipo de racionalidad de la ciencia en un momento histórico preciso y en un contexto socioeconómico preciso, aquellos que conciernen justamente a este contexto.” 148 Si se analizan las ciencias sociales a partir del supuesto de un conflicto de paradigmas, se pueden extraer las siguientes conclusiones: 1 .Los conflictos que marcan, desde su fundación misma, las así llamadas ciencias sociales y humanas, no son conflictos meramente teóricos, sino, principalmente, metateóricos o, más exactamente, paradigmáticos, en el sentido sugerido, por ejemplo, por Kuhn. Por tanto, el análisis filosófico de la ciencia debe apuntar a descubrir las formas de posición de los problemas científicos y el peso relativo de los criterios de evaluación de las soluciones: formas de posición y peso relativo que definen los paradigmas en conflicto. 2. En la mecánica de la resolución de los conflictos de paradigmas inciden factores internos y externos a la práctica científica, que el análisis filosófico de la ciencia debe descubrir. Por tanto, el análisis filosófico de la ciencia no puede reducirse a un análisis lógico de las construcciones -lingüísticas- de la ciencia y debe ir más allá de un examen de los productos lingüísticos de la performance. 3. En la medida en que los factores externos son, por así decirlo, internalizados por la práctica científica, especialmente bajo la forma de exigencia de consistencia desde el punto de vista de las representaciones (ideológicas) del mundo, no es dable postular la oposición de la ideología y de la ciencia. Por tanto, el análisis filosófico de la ciencia debe descubrir los elementos ideológicos que entran, a título decisivo, en la formación y en la persistencia de los paradigmas .149 Como aquí se enuncia, las ciencias sociales han surgido entre un conflicto de paradigmas aún no resuelto, por lo cual, si se quiere conceptualizar a las ciencias sociales como un todo homogéneo, se perdería el entendimiento de su desarrollo, en el cual se pueden encontrar los supuestos lógicos, metodológicos y filosóficos de las concepciones paradigmáticas que se enfrentan en el estudio de los fenómenos sociales. Pero es especialmente en la metodología donde se manifiesta de manera más abierta la lucha entre paradigmas. Sobre las características de los paradigmas, Miguélez dice: "En rigor, las así llamadas teorías sociológicas y antropológicas -como, en general, las teorías de las ciencias sociales y humanas- constituyen, sobre todo, metateorías, es decir, teorías acerca de la construcción de teorías. Sin embargo, con frecuencia, si no en la mayoría de los casos, los elementos teóricos y metateóricos no se presentan distinguidos y si se tiene en cuenta, además, que los elementos teóricos mismos pertenecen a una gama bastante heterogénea de proposiciones, el estatus lógico de lo que se acepta como 'teoría' en las ciencias sociales y humanas es dudoso y el concepto se refiere a una clase compleja y frecuentemente bastante heterogénea de objetos. De allí que si, por un lado, la existencia de conflictos de paradigmas se manifiesta en el interior mismo de las construcciones teóricas bajo la forma de exigencia de definición a nivel de los supuestos lógicos, metodológicos y hasta filosóficos de la perspectiva en cuestión; por otro lado, la determinación de esos supuestos exige un análisis interno de las construcciones teóricas que no es, generalmente, fácil de realizar. Y esto, tanto más cuanto que esos presupuestos pueden encontrarse en la teoría de un modo indirecto." 150

Así, en las ciencias sociales existen teorías que pretenden identificar y explicar objetos, y además metateorías que describen cómo se formularon y cuál es el sentido de las teorías, pero ambas, teorías y metateorías, se refieren de manera heterogénea a los fenómenos sociales -en el caso de las primeras- y al entendimiento de la construcción teórica de los fenómenos sociales, en el caso de las segundas. En otras palabras, los paradigmas en las ciencias sociales, y la lucha entre éstos, se dan en el nivel de la metodología. En palabras de Miguélez: "La forma indirecta, clásica en sociología y en antropología por lo menos, de definición de esos presupuestos ha sido, sin duda, la forma metodológica... el interés por la metodología... se ha concentrado y se concentra allí donde era y es preciso históricamente concentrarse, aunque sea un modo indirecto: en las cuestiones metateóricas que son el objeto de los conflictos disciplinarios. Es por ello que un examen de los paradigmas en conflicto pasa, casi necesariamente, por el examen de cuestiones metodológicas: la metodología desempeña, podríamos decir, un rol estratégico en los conflictos que afectan las disciplinas sociales y humanas." 151 Si bien hay una diversidad de propuestas metodológicas para el estudio de las ciencias sociales, al hacer una síntesis de las mismas se pueden reducir básicamente a dos: materialismo e idealismo, u objetivismo y subjetivismo, las cuales son las propuestas paradigmáticas que desde el surgimiento de las ciencias sociales se encuentran, en diversos foros y desde distintas perspectivas, en conflicto constante. Según Miguélez, los paradigmas de las ciencias sociales se delimitan en la metateoría y más específicamente en las perspectivas metodológicas, lo cual enriquece la comprensión de los fenómenos, ya que el conflicto entre las diversas opciones paradigmáticas promueve el establecimiento de una visión más amplía de la sociología. Sobre la utilidad del concepto, este autor nos dice que: "puede mostrarse la existencia de formas del conocimiento en el dominio de las ciencias sociales y humanas, que el concepto paradigma (o sus similares) es un concepto fecundo para el análisis filosófico de esas ciencias, y que los conflictos que atraviesan su dominio son, ante todo, conflictos metateóricos, conflictos acerca de la manera misma de hacer ciencia. Pero también se sigue que es preciso rechazar una visión simplista del problema, en la que dos o tres paradigmas se enfrentarían en un combate interminable, siempre bajo las mismas formas y con idénticos argumentos. Para ello, es decir, para huir de esta simplificación y de esta reducción, no hay otro camino que el de un estudio sistemático y riguroso de lo que producen efectivamente las así llamadas ciencias sociales y humanas." 152 Como se expuso en los párrafos anteriores, para Miguélez el concepto de paradigma, en el sentido que lo expresa Kuhn para las ciencias sociales, se encuentra en la metodología. Pero esta idea no siempre es aceptada; por ejemplo, Robert K. Merton considera que los paradigmas son la base para codificar la teoría sociológica: "Los paradigmas para el análisis sociológico tienen por objeto ayudar al sociólogo a realizar su tarea."'153 A diferencia de la consideración en torno a que la confrontación paradigmática se da en las concepciones metodológicas, para Merton esa confrontación se identifica en la teoría: "Puesto que la interpretación sociológica sólida implica de manera inevitable algún paradigma teórico, lo más discreto es exponerlo al aire libre. 154 Con la exposición del paradigma teórico se puede identificar la calidad del análisis sociológico. También, según el autor, se pueden encontrar cinco funciones de los paradigmas que están relacionadas entre sí: "En primer lugar, los paradigmas tienen una función anotadora. Proporcionan una ordenación compacta de los conceptos centrales y de sus interrelaciones tal como se utilizan para la descripción y el análisis. El exponer los conceptos en una extensión lo bastante pequeña para permitir su inspección simultánea es una ayuda importante para la autocorrección de las interpretaciones sucesivas, meta difícil de alcanzar cuando los conceptos están diseminados por toda la exposición discursiva.

En segundo lugar, los paradigmas disminuyen la probabilidad de incluir sin advertirlo supuestos y conceptos ocultos, ya que cada nuevo supuesto y cada concepto nuevo lógicamente deben derivarse de los componentes previos del paradigma o introducirse explícitamente en él. El paradigma suministra así una guía para evitar hipótesis ad hoc (es decir, irresponsables desde el punto de vista lógico). En tercer lugar, los paradigmas promueven la acumulación de interpretación teórica. En efecto, el paradigma es la base sobre la cual se construye un edificio de interpretaciones. Si no puede construirse un nuevo piso directamente sobre estos cimientos, entonces debe tratársela como una nueva ala de la estructura total, y la base de los conceptos y supuestos debe ampliarse para sostener esta ala. Además, cada nuevo piso que pueda construirse sobre los cimientos originales fortalece nuestra confianza en su calidad esencial, así como cada nueva ampliación; precisamente porque requiere cimientos adicionales, nos mueve a sospechar de la solidez de la estructura original. Un paradigma que merezca gran confianza soportará en el momento oportuno una estructura interpretativa de dimensiones de rascacielos, testimoniando cada piso sucesivo de la calidad sustancial y bien sentada de los cimientos originales, en tanto que un paradigma defectuoso soportará una destartalada estructura de un solo piso, en la cual cada conjunto nuevo de uniformidades requiere que se echen cimientos nuevos, ya que el original no puede soportar el peso de pisos adicionales. En cuarto lugar, los paradigmas, por su disposición misma, sugieren la tabulación cruzada sistemática de conceptos importantes y pueden sensibilizar al analista para problemas empíricos y teóricos que de otro modo podría no advertir. Los paradigmas promueven el análisis más que la descripción de detalles concretos. Dirigen nuestra atención, por ejemplo, hacia los componentes de la conducta social, a los posibles esfuerzos y tensiones entre los componentes, y de ahí a las fuentes de desviación de la conducta prescrita en forma normativa. En quinto lugar, los paradigmas favorecen la codificación del análisis cualitativo de una manera que no se acerca al rigor lógico, sino al rigor empírico del análisis cuantitativo. Los procedimientos para computar medidas estadísticas y sus bases matemáticas están codificadas como cartabón; sus supuestos y procedimientos están abiertos al escrutinio crítico de todos. En contraste, el análisis sociológico de datos cualitativos a menudo reside en un mundo privado de ideas penetrantes pero insondables y de conocimientos inefables. En realidad, las exposiciones discursivas que no están basadas en paradigmas a menudo incluyen interpretaciones perceptivas; como dice la frase, son ricas en 'atisbos iluminadores'. Pero no siempre está claro qué operaciones, qué conceptos analíticos estaban implícitos en esos atisbos. En algunos círculos, la mera sugestión de que esas experiencias de índole tan privada tienen que ser remoldeadas dentro de procedimientos públicamente certificables si han de tener valor científico, se considera como una profanación. Empero, los conceptos y procedimientos incluso del más perceptivo de los sociólogos deben ser reproducibles, y los resultados de sus atisbos comprobados por otros. La ciencia, y esto incluye a la ciencia sociológica, es pública, no privada. No es que nosotros los sociólogos comunes queramos reducir todos los talentos a nuestra propia pequeña estatura, es sólo que las contribuciones de los grandes y también las de los pequeños, deben ser codificadas si han de promover el desarrollo de la sociología. Todas las virtudes pueden convertirse fácilmente en vicios, por el hecho de llevarse al exceso, y esto es válido para el paradigma sociológico. Es una tentación para la indolencia mental. Equipado con su paradigma, el sociólogo puede cerrar sus ojos ante datos estratégicos que no se exigen de manera expresa en el paradigma. Puede transformarlo, de anteojos de campaña sociológicos en anteojeras sociológicas. El mal uso es consecuencia de la absolutización del paradigma y no utilizarlo como punto de partida a título de ensayo. Pero si se les reconoce como provisionales y cambiantes, destinados a ser modificados en el futuro inmediato como lo han sido en el pasado reciente, estos paradigmas son preferibles a los conjuntos de supuestos tácitos. "155

En resumen, la calidad de los paradigmas teóricos para el trabajo sociológico debe cumplir las funciones de ordenar de manera compacta los conceptos, derivar los nuevos conceptos de los ya establecidos en el paradigma, aceptar los conceptos de las diversas interpretaciones que sean consecuentes con los cimientos o la base del paradigma original, sugerir el cruzamiento sistemático de conceptos importantes, y apoyar la codificación para el rigor lógico del análisis cualitativo o para el rigor empírico del análisis cuantitativo. Con esas funciones los paradigmas teóricos se presentan al público y demuestran su calidad para el estudio y la explicación de los fenómenos sociales. Si bien la concepción de Kuhn acerca de los paradigmas tuvo una amplia repercusión en las diversas áreas del conocimiento, incluidas las ciencias sociales, como lo muestran los ejemplos de Miguélez y Merton, ese concepto (el de paradigma) no pudo mantenerse inalterable debido a las críticas que se hicieron en torno a la vaguedad de su uso por parte del autor. Ejemplo de ello es la descripción que Margaret Masterman presenta en su obra La naturaleza de los paradigmas, en la que identifica por lo menos 21 definiciones de paradigma, lo que provoca que Kuhn consolide su concepto en la posdata de 1969, que se incluye en la segunda edición de su libro en 1970 y, por ende, en la primera edición en español. Estas observaciones vienen a colación con motivo de que el concepto que entienden Merton y Miguélez como "paradigma" es cambiado por Kuhn en su posdata de 1969 por el de matriz disciplinaria, concepto que expondremos en el capítulo siguiente como corolario de la discusión establecida en torno a la obra de este autor. Hasta aquí hemos descrito la concepción originaria de Kuhn acerca de los paradigmas y de la ciencia normal y ciencia extraordinaria. Si bien en los periodos de ciencia normal se puede encontrar en los paradigmas una concepción metodológica propia del momento, en la idea de Kuhn la metodología adecuada para el conocimiento es la hermenéutica: "Lo que yo, como físico, descubrí por mí mismo, la mayoría de los historiadores lo aprenden por el ejemplo en el curso de su formación profesional. Conscientemente o no, todos ellos practican el método hermenéutico. En mi caso, sin embargo, el descubrimiento de la hermenéutica hizo algo más que infundirle sentido a la historia. Su efecto más decisivo e inmediato fue el ejercido sobre mi concepción de la ciencia. .. En mi caso, por ejemplo, incluso el término de hermenéutica, que acabo de emplear hace un momento, no formaba parte de mi vocabulario hasta hace apenas unos cinco años." Kuhn no se detiene a exponer lo que entiende por el método hermenéutico; sólo se dedica a utilizarlo, y por ello es necesario que definamos lo que es la hermenéutica como método. LA INFLUENCIA DE KUHN EN LA ECONOMÍA La teoría de Kuhn tuvo una agradable acogida por parte de los científicos sociales, pues tanto conservadores como radicales veían en ella puntos de apoyo a sus propias hipótesis. Sin embargo, en su aplicación a la economía las tésis Kuhnianas han encontrado numerosas dificultades, principalmente por el olvido de una serie de elementos importantes que resume Katouzian (1982, pág. 130) en los siguientes: 1. La teoría de Kuhn no es un ataque a la contrastabilidad, aunque él dijera que las hipótesis científicas no necesitaran de forma inherente ser contrastadas. 2. Una ciencia normal madura no excluye las existencia de paradigma competidores. 3. Una revolución científica no es algo que pueda suceder por un llamamiento de científicos disidentes. 4. Una crisis debe mostrar una incompatibilidad persistente entre el paradigma dominante y el mundo de la realidad empírica.

5. Para que se de una revolución, además de la crisis debe surgir un nuevo paradigma que sea aceptable por la comunidad científica como teoría superior. 6. El paradigma victorioso será incompatible con su predecesor. Sin duda, la enumeración de estos seis puntos excluiría la aplicación de la teoría de Kuhn a la economía. De todas formas, un modo de acercarnos a dicha aplicación sería intentar la búsqueda de revoluciones kuhnianas en la historia de la economía. A este respecto podemos destacar la aparición de la teoría neoclásica y el advenimiento de la teoría keynesiana como ejemplos de tales revoluciones, sin embargo, podemos decir que para que se de la revolución científica en el sentido de Kuhn se ha de producir la sustitución de un paradigma por otro en base a la inconsistencia del paradigma inicial con la realidad empírica, lo cual no se da en este caso, pues el paradigma keynesiano no era incompatible con el neoclásico y no reemplazó totalmente a la teoría económica ortodoxa. Por otro lado, existen muchas partes de paradigmas competidores dentro de cada una de las corrientes de pensamiento, con lo cual existe una coexistencia de unos y otros que se difuminan en un conjunto. Otros autores han afirmado que sólo un paradigma ha dominado la teoría económica desde el último cuarto de siglo XVIII, y desde entonces no ha existido ningún cambio sustancial en las ideas económicas, lo que implicaría que sólo ha habido un paradigma en el sentido de Kuhn, el diseñado por la economía clásica. Este punto de vista parece discutible, pues ello implicaría que es el paradigma que se impone en la actualidad y el que ha dominado en nuestra ciencia desde esa fecha. La aplicación del criterio de Kuhn a la economía lo ha tenido una aceptación definitiva debido a las deficiencias señaladas en los párrafos anteriores y que podemos resumir diciendo que en economía, cuando se origina lo que podríamos llamar una revolución científica en el sentido de Kuhn, o se produce la sustitución del nuevo paradigma por el anterior, se da la coesxistencia de ambos. As pesar de sus limitaciones, en opinión de Pheby (1988, pág. 53, el marco de trabajo que proporciona la metodología de Kuhn parece ofrecer más a los economistas que el de Popper, en el sentido de que al ocuparse más de la descripción que de la prescripción, es más realista y menos utópica desde el punto de vista de la práctica científica. Sus elementos han constituido un soporte lógico aplicable sobre todo a la historia del pensamiento económico. 2.4

LA METODOLOGÍA DE LOS CIENTÍFICOS: IMRE LÁKATOS

PROGRAMAS

DE

INVESTIGACIÓN

Este autor mantiene una posición crítica tanto frente a Kuhn como a Popper, intenta unir la interpretación metodológica de Popper con la necesidad planteada por Kuhn de conocer la historia y el desarrollo de una ciencia. En palabras de Blaug (1985, pág. 54): “Lakatos es menos duro con la ciencia que Popper, pero mucho más duro que Kuhn, y se siente siempre más inclinado a criticar la mala ciencia con la ayuda de una buena metodología que a evaluar las especulaciones metodológicas recurriendo a la práctica científica”, Los “Programas de Investigación Científica”, forman el concepto fundamental de la aportación metodológica de Lakatos. El concepto de programa de investigación de Lákatos “surge como consecuencia de una respuesta a las críticas que Popper formuló a las ideas sobre los paradigmas de Khun” (Cañibano y Gonzalo, 1995). Este autor, el filósofo de la ciencia más importante a juicio de Feyerabend, consciente de la dificultad de realizar el falsacionismo ingenuo y de la necesidad de incluir hipótesis ad hoc para el avance científico, se aleja de Popper señalando que para la comparación de teorías hay que verificar el contenido factual excedente y no analizar si posee más falsadores que otra. Para Lákatos (1970) las teorías que constituyen un programa de investigación pueden presentar “cambios progresivos” o “cambios degenerativos”. Una cadena de teorías T1, T2, ... es progresiva si satisface las siguientes condiciones:

- Tn tenga un contenido empírico excedente sobre Tn-1, Tn predice hechos nuevos, improbables e incluso prohibidos por Tn-1. - Tn explique el éxito previo de Tn-1, todo contenido no refutado de Tn-1 está contenido en Tn. - Tn tenga corroborado algo o todo el exceso de contenido. Si no ocurre lo anterior, el cambio es degenerativo. Este giro es importante porque existía un problema, ya comentado por Kuhn, sobre la inconmensurabilidad de paradigmas (teorías), pero este problema no es debido a los propios paradigmas sino a la falta de un objetivo común con el que medirlos y, en este caso, Lákatos unifica el objetivo en el concepto de contenido excedente. Pero la clave no está sólo en proponer un nuevo objetivo para comparar teorías, sino que además elude la cuestión de la validez del conocimiento actual centrando la atención en ver porqué existe y si está creciendo o no, como señala Lákatos (1981): En ciencia aprendemos de la experiencia no la verdad (o probabilidad) ni la falsedad (o improbabilidad) de las teorías, sino el progreso y degeneración empíricas, relativos a los programas de investigación científica (P.I.C). Por programa de investigación científica entiende una configuración de teorías interconectadas, ninguna de las cuales se considera totalmente autónoma por lo que es difícil descartar teorías individuales sin hacer referencia al programa de investigación como un todo. Por otra parte, si nos centramos en la metodología de los programas de investigación, ha de subrayarse que Lákatos (Lákatos y Musgrave, 1975) considera que las más grandes realizaciones científicas son programas de investigación que pueden ser evaluados en términos de cambios progresivos y cambios degenerativos de problemas; y las revoluciones científicas consisten en un programa de investigación que pasa a suceder a otro - superándole en progreso-. Para él, la unidad básica de evaluación no debe ser una teoría aislada o conjunto de teorías aisladas, sino un “programa de investigación” con un núcleo aceptado por convenio y con una heurística positiva que “define problemas, traza las líneas generales de la construcción de un cinturón protector de hipótesis auxiliares, prevé anomalías y las convierte victoriosamente en ejemplos, todo ello según un plan preconcebido”. Según Lákatos (1976) un programa de investigación no es más que un conjunto de reglas metodológicas, heurístico positivas unas y heurístico negativas otras, que nos definen cuales son los senderos a seguir y cuales los problemas a evitar para la elaboración de nuevas teorías. De esta forma, en un programa de investigación se pueden distinguir dos elementos principales: un núcleo, elemento característico del programa especificado por la heurística negativa, e irrefutable por decisión metodológica de sus protagonistas, y un cinturón protector en el que se desarrolla una serie de hipótesis auxiliares y se realizan las adaptaciones precisas. Es este cinturón protector de hipótesis auxiliares quien tiene que resistir el peso de las contrastaciones e irse ajustando y reajustando, o incluso ser sustituido por completo, para defender el núcleo que de ese modo se hace más sólido. Un programa de investigación tiene éxito si todo esto lleva a un cambio de programas progresivo; no tiene éxito si lleva a un cambio de problemas degenerativo. En la metodología de los programas de investigación científica (MPIC) las revoluciones científicas no se analizan como cambios bruscos, que decía Kuhn, sino como el reemplazamiento progresivo de PIC. La aparición de anomalías no invalida los PIC mientras tengan fuerza, es decir, no sean eliminados por otros con mayor contenido excedente. Por tanto el número de anomalías no es el elemento crucial en la comparación de teorías o programas, sino que la evaluación requiere la comparación con otro cuyo núcleo central sea incompatible y de ello se valorará, como se ha comentado, el contenido excedente suplementario. Para este autor la ciencia en su conjunto puede ser considerada como un enorme programa de investigación dotado de la regla heurística de Popper de diseñar supuestos que tengan más

contenido empírico que sus predecesoras: “La historia de la ciencia es la historia de los programas de investigación, más que la historia de las teorías”4. De esta forma lakatos propuso una nueva teoría que describió como “falsacionismo sofisticado, que gira en torno al concepto de “ programa de investigación” frente al “falsacionismo ingenuo” que considera a las teorías científicas aisladamente y exige su rechazo cuando no están de acuerdo con la realidad. Lakatos rechaza las consideraciones aisladas de las teorías como instrumentos para realizar evaluaciones científicas. Lo que se debe evaluar son grupos de teorías con más o menos relación o programa científicos de investigación”, que Lakatos define como: “Reglas metodológicas: algunas nos dicen las rutas de investigación que deben ser evitadas (heurística negativa), y otras, los caminos que deben seguirse (heurística positiva)” (Lakatos, 1989, pág. 65). 4 Citado por Blaug (1985, pág. 56). Por tanto Lakatos divide el programa en dos partes: la “heuristica negativa” y la “heurística positiva”. La heurística negativa de un programa es su “núcleo central” o “núcleo firme”, los enunciados muy básicos que sostienen todo el edificio no sometiéndose al proceso de falsación. En cambio, la heurística positiva constituye el contenido de investigación del programa, es más fácil de contrastar y conduce a la formulación de otros conceptos y teorías descritas como “el cinturón protector”. Por tanto, el núcleo central puede sobrevivir a refutaciones, mientras el resta está abierto al rechazo o mejora. Siguiendo a Lakatos: “El cinturón protector de hipótesis auxiliares debe recibir los impactos de las contrastaciones y para defender al núcleo firma, será ajustado y reajustado e incluso completamente sustituido” (Lakatos, 1989, pág.66). El núcleo central está referido al conjunto de teorías centrales que reúnen los logros más notables en ese campo de conocimiento. El cinturón protector comprende el conjunto de hipótesis auxiliares destinadas a ser sometidas a contraste con los hechos, con la posibilidad de que resulten refutadas. Lakatos distingue dos tipos de programas de investigación: progresivos y denegerativos. Un programa de investigación científico será calificado de progresivo si las sucesivas formulaciones del programa suponen un aumento de su contenido empírico con respecto a la formulación anterior y además este aumento de contenido resulta contrastado con la realidad. La característica fundamental de los programas degenerativos es que brindan soluciones “a posteriori”, tratando de acomodarse a cualquier hecho ya observado. De acuerdo con el criterio comentado, un programa de investigación no se considera científico de forma perpetua, sino que es provisional y puede pasar, a medida que se descubren nuevos hechos, de la fase progresiva a la degenerativa y viceversa. Para Blaug (1985), tendríamos de esta forma un criterio de demarcación entre ciencia y no ciencia que además es histórico, puesto que incluye la evolución de las ideas en el tiempo. Para el profesor García Martín (1984) “en los propósitos de Lákatos se ha de señalar la integración de la obra de Popper de las críticas provenientes de la nueva filosofía de las ciencias, en especial las efectuadas por Khun. Así, de Popper desarrolla la idea sobre la sustitución constante de unas teorías antiguas por otras nuevas. Este principio de proliferación lo integra con el concepto kuhniano de ciencia normal, a fin de explicar la inercia de las teorías a ser sustituidas hasta que surgen las anomalías. Con estos elementos, Lákatos confecciona un esquema de progreso de la ciencia a través de la historia. Estas ideas las desarrolla a través de programas de investigación científica, similar al paradigma de Kuhn, como alternativo al de teoría; de lo que se deduce que es una sucesión de teorías y no una teoría dada la que se evalúa como científica o pseudocientífica”. Según Giner Inchausti “en un intento de aproximación cabría decir que: la ciencia normal, a la que Kuhn se

refiere avanza dentro de un programa de investigación, que la actividad de los científicos de esta etapa, orientada a la resolución de problemas dentro del paradigma se corresponde con la existencia del llamado cinturón protector de Lákatos. También puede entenderse que la transición de una época de ciencia normal a una situación de crisis, en terminología de Kuhn, se corresponde con la transición de un programa progresivo a la fase degenerativa de un programa de investigación lakatosiano, y que la sustitución revolucionaria de un viejo paradigma por otro equivale al abandono de un programa por otro nuevo, una vez sustituido el núcleo central” (Giner Inchausti, 1994). Lakatos utiliza como su unidad de análisis no las teorías en forma aislada, sino lo que él llama un Programa de Investigación Científica (PIC). Todos los programas constan de dos partes. La primera es su núcleo que consiste en un conjunto de proposiciones que el sector de la comunidad científica que está adherido al programa decide no poner en duda, descartando de aplicar sobre él las reglas de la lógica para comprobar su valor de verdad. Aun cuando se presenten refutaciones, los miembros del programa seguirán compartiendo ese núcleo a manera de .pacto. mínimo, de punto de acuerdo común. A la decisión epistemológica de defender ese núcleo y de considerarlo irrefutable, Lakatos la llama heurística negativa. Por otro lado, ese hard core del programa está rodeado por un conjunto de hipótesis empíricamente corroborables que .protegen. al núcleo y que están expuestas a posibles refutaciones desde dentro o fuera del propio programa. Pero los científicos que adscriben a un programa tienen determinados los problemas a investigar y aquellos que no interesan para el desarrollo del PIC. Y esas recomendaciones fundamenta las investigaciones científicas, permitiéndole al estudioso ahorrarse la justificación de por qué investiga tal o cual tópico. Esta decisión es llamada por Lakatos la heurística positiva y con ella critica la posición popperiana según la cual la principal labor del científico es encontrar refutaciones. Lejos de esto, para Lakatos, la tarea esta prefijada por el programa y éste le indica qué debe ser corroborado y qué debe intentar ser refutado. Cuando el programa le señala a su comunidad científica que una teoría dada está ocasionando inconsistencias lógicas a todo el PIC, entonces parte de ésta deberá encontrar instancias de refutación. Pero, mientras esto no suceda, los científicos tenderán a corroborar tantas veces como les sea posible, sus hipótesis y teorías. (Lakatos parece interpretar mejor que, a lo largo de la historia de la ciencia, los nombre que han perdurado son los de los grandes creadores y no los de los grandes refutadores). ¿Por qué esta visión es menos ingenua que la popperiana?. Pues bien, porque Lakatos propone que un científico no abandonará su hipótesis .que a veces le ha costado una vida de estudio- simplemente por una refutación. Ni por dos o diez. El número de refutaciones es importante, pero más lo es la relación que exista entre los grupos de la comunidad científica que comparten un PIC. Asimismo, ninguna refutación será viable hasta tanto no surja una teoría alternativa que explique los fenómenos que la teoría refutada permitía comprender. En otras palabras, la ciencia no acepta vacío de explicaciones allí donde alguna vez hubo explicaciones. Si combinamos parte del planteo de Lakatos con lo visto del método hipotético-deductivo nos encontramos con que otra de las razones para no abandonar las hipótesis principales es que éstas se encuentran acompañadas e interrelacionadas con un conjunto de hipótesis colaterales y ad hoc que sirven para que las principales gocen de cierto poder explicativo y/o predictivo. Además, Lakatos indica que un PIC regresivo . uno cuyas teorías van paulatinamente reduciendo su contenido empírico- puede repentinamente comenzar a ser progresivo y así convertirse en una opción real nuevamente para la comunidad científica. Por lo tanto, no es válida la recomendación de abandonar un PIC cuando es regresivo y, consecuentemente, no queda claro cuándo es racional dejar de lado ciertas teorías y cuándo es racional continuar trabajando con ellas.

Digamos, por concluir este acápite sobre Lakatos, que el desarrollo de un programa de investigación científica es progresivo cuando sus nuevas teorías amplían el contenido empírico del PIC, cuando permiten mayores condiciones de refutabilidad. Y es regresivo cuando las sucesivas teorías que surgen son sólo hipótesis ad hoc corroboradas que explican un caso .el que le dio origen exclusivamente- y no son útiles para pensar nuevas consecuencias observacionales y permitir nuevas contrastaciones. En esos casos, Lakatos se vuelve popperiano y no teme afirmar que los científicos están haciendo trampas. Dentro de los principales aportes de Lakatos está el haber incorporado la historia de la ciencia como criterio para evaluar, hasta cierto punto, la racionalidad de las teorías, de los programas y del quehacer doméstico del científico. Empero, también ha sabido evitar la rigidez del paradigma kuhniano y es por ello que su perspectiva de la ciencia ha sido tomada frecuentemente por los científicos sociales, ya que la historia de las ciencias sociales demuestra que rara vez se ha llegado a un concepto tal como para poder utilizar la teoría de Kuhn del progreso científico. LA INFLUENCIA DE LAKATOS EN LA ECONOMÍA Dadas las dificultades del método kuhniano para dar explicación al desarrollo y crecimiento de nuestra ciencia, algunos autores han preferido acogerse a la mayor operatividad el método lakatosiano para tales explicaciones. Blaug (1976) se adhiere a la metodología de Lakatos en su explicación el progreso científico en economía, rechazando la posición de Kuhn con sus revoluciones científicas. Identifica la economía política clásica on un “núcleo central” y a la vez cambió su cinturón protector dirigiendo su atención hacia otros problemas. Igualmente da su explicación, en contraste con la evolución de la teoría clásica a la neoclásica, a la postura keynesiana como un cambio en el núcleo central de la teoría económica. En palabras de Blaug (1976): “Los marginalistas se limitaron a sustituir el cinturón protector, en tanto que Keynes fue más lejos, al cuestionar el núcleo central”. La tesis mantenida por Blaug no se limita a estos dos programas de investigación, sino que intenta dar una explicación de todas las aportaciones en el campo de la economía a través de la metodología propuesta por Lakatos. Sin embargo, los resultados de la metodología de Lakatos también tienen una serie de inconvenientes vistos por sus detractores y que exponemos a continuación. Según comentamos en el apartado dedicado a Lakatos en la evolución del método de investigación, la descripción del crecimiento del conocimiento científico no sería relevante para una disciplina si ésta no contempla la regla poperiana de la falsación. Muchos elementos del programa de investigación neoclásico no serían falsables. En base a estas ideas, Katouzian se muestra contrario a la explicación lakatosiana del progreso científico en economía. Según sus propias palabras: El rigor y la coherencia impedirían dar una explicación de la historia y el método de la economía en términos lakatosianos a pesar de superficiales semejanzas” (Katouzian, 1982, pág. 139). Otros autores como Cross (1982) han considerado la aplicación de la metodología de Lakatos al desarrollo del monetarismo. Este autor abandona la distinción entre núcleo central y cinturón protector, argumentando que puede ayudar más el hecho de distinguir entre proposiciones de núcleo central ex ante y ex post. Las primeras son aquellas consideradas como abiertas al cambio, y las segundas se refieren a las proposiciones que a través del tiempo permanecen fijas, a pesar de la crítica lógica y empírica. A partir de ésta y otras aclaraciones, identifica al monetarismo como heurística positiva dirigida a explicar las variaciones en la tasa de inflación ocasionadas por variaciones en la tasa de crecimiento del dinero. Incluye, además, otros codeterminantes dentro del esquema monetarista como los tipos de interés, output, empleo, etc.

Sin embargo, en la explicación histórica de Cross en base a la metodología lakatosina, este mismo autor reconoce determinadas dificultades. Por ejemplo, no existen comparaciones con programas alternativos y, en consecuencia, no puede proporcionar una guía real en base a una análisis retrospectivo par un periodo futuro.

2.5 EL ANARQUISMO METODOLÓGICO DE FEYERABEND Uno de los ataques más fervientes contra todo tipo de esquemas metodológicos se produce con la aportación de Feyerabend. Su pensamiento se halla recogido principalmente en su obra “Contra el método: esquema de una teoría anarquista del conocimiento”, donde se muestra opuesto a la racionalidad científica como guía para cada investigación. Parte del hecho de que no existe norma en la metodología científica que no haya sido atacada en algún momento en el transcurso histórico de la ciencia. A este respecto Feyerabend (1986, pág. 7) explica: “Descubrimos entonces, que no hay una sola regla, por plausible que sea, y por firmemente basada que esté en la epistemología, que no sea infringida en una ocasión u otra”. Feyerabend mantiene que la mayor parte de las investigaciones científicas nunca se han desarrollado siguiendo un método racional. Sostiene que el anarquismo debe reemplazar al racionalismo y que el progreso intelectual sólo puede alcanzarse enfatizando la creatividad y los deseos de los científicos más que el método. En su agresión a la metodología preconizada por Popper, este autor niega el principio de refutación como vía para la formación de teorías por considerar que impide el desarrollo de la ciencia, puesto que no permite el desarrollo de hipótesis alternativas hasta qu no se haya producido la refutación de la primera: “El requisito de aceptar sólo aquellas teorías que son consistentes con los hechos disponibles y aceptados nos deja también sin ninguna teoría, pues no existe ni una sola teoría qu no tenga una dificultad u otra.... El método correcto no debe contener reglas que nos obliguen a elegir entre teorías sobre la base de la falsación. Por el contrario, las reglas de dicho método deben hacer posible elegir entre teorías que ya fueron contrastadas y resultaron falsadas” (Feyerabend, 1986, pág. 49). En su obra Contra el Método. Esquema de una Teoría Anarquista del Conocimiento (Feyerabend, 1975) afirma que el método de la ciencia actual condiciona no sólo a las personas normales sino también a los científicos. “La idea de un método que contenga principios firmes, inamovibles y absolutamente obligatorios para conducir la actividad científica tropieza con graves dificultades cuando se confronta con los resultados de la investigación histórica. Entonces nos encontramos con que no hay una sola regla, por plausible que sea, por firmes que sean sus fundamentos epistemológicos, que no sea infringida en una u otra ocasión. Es evidente que tales infracciones no son acontecimientos meramente accidentales, no son resultado de la insuficiencia del conocimiento o de descuido que pudieran haberse evitado” (Feyerabend, 1975). De ahí que para este autor, la sumisión a reglas y normas haga, a la larga, estéril el trabajo del científico; y más que una teoría del camino recto, se ha de escribir una teoría del error. “La ciencia como realmente la encontramos en la historia es una combinación de tales reglas y de error. De lo que se sigue que el científico que trabaja en una situación histórica particular debe aprender a reconocer el error y a convivir con él, teniendo siempre presente que él mismo está sujeto a añadir nuevos errores en cualquier etapa de la investigación. Necesita una teoría del error que añadir a las reglas ciertas e infalibles que definen la aproximación a la verdad” (Feyerabend, 1975). “Mi intención no es abolir las reglas ni demostrar que no tienen valor alguno. Mi intención es más bien ampliar el inventario de reglas y proponer un uso distinto de las mismas. Es este uso el que caracteriza mi posición y no cualquier contenido determinado de las reglas” (Feyerabend, 1975). Para Martínez Freire (1990) esto último debe interpretarse como

que “las reglas no deben usarse como moldes previos a los que se ajusta la investigación prescindiendo de las características de ésta, sino que en una investigación determinada se usará una regla u otra según interese e incluso se abandonarán las reglas ya existentes para inventar una nueva”. Según Feyerabend, la única regla de contrastación de teorías consistirá en compararlas, no con la experiencia, como sugerirán Popper y Lákatos, sino con sistemas teóricos combinados con ésta. “La evidencia relevante para la contrastación de una teoría T a menudo sólo puede ser sacada a la luz con ayuda de otra teoría T’, incompatible con T’’ (Feyerabend, 1975). Por último, como señala Martínez Freire (1990), la actitud de Feyerabend “es útil para evitar dogmatismos en Metodología pero su radicalidad le lleva a olvidar la existencia de patrones de descubrimiento que son eficaces. Finalmente, las consideraciones de Feyerabend son relevantes en el contexto de la investigación en nuevos campos de estudio, pero no pueden pretender aplicarse a la práctica científica en campos de estudio ya conocidos, donde la rutina en el uso de reglas es posible”. Para Feyerabend, la ciencia progresa cuando existe independencia y autonomía en la utilización metodológica y no sometimiento a normas estrictas de investigación. Blaug (1985, pág. 63) resume la aportación de Feyerabend de la siguiente forma: “Feyerabend no está en contra del método en las ciencias, sino que más bien está en contra del método en general, incluyendo su propio consejo de ignorar todo método”. Propuesta metodológica de Feyerabend: De salida Feyerabend cuestiona la afirmación popperiana de que toda investigación empieza por un "problema", sobre el que después actúa el científico. Feyerabend prefiere decir que el científico se mueve guiado "por un vago impulso" por una "pasión", conceptos tomados de Kierkeggard. "La pasión da lugar a una conducta específica que a su vezcrea las circunstancias y las ideas necesarias para analizar y el explicar el desarrollo total, para hacerlo "racional"", dice. Y agrega: "las teorías llegan a ser claras y "razonables" sólo después de que partes incoherentes de ellas han sido utilizadas por largo tiempo". "Está claro, pues, que la idea de un método fijo, de una (teoría de la) racionalidad fija, surge de una visión del hombre y de su contorno social demasiado ingenua". "Es cierto que mucho de nuestro pensamiento surge de la experiencia, pero hay amplias zonas que no surgen en absoluto de la experiencia, sino que están firmemente basadas en la intuición, o incluso en reacciones más profundamente asentadas. Es cierto que frecuentemente contrastamos nuestras teorías con la experiencia, pero invertimos el proceso igualmente a menudo... Todo lo que queda es que algunas de nuestras ideas están acompañadas por procesos psicológicos fuertes y vivos, "sensaciones", mientras que otras no lo están. Ésta, sin embrago, es una peculiaridad de la existencia humana que es necesario examinar tanto como todo lo demás". Elementos de su método: a. CONTRAINDUCCION Feyerabend cuestiona la regla que dice que los hechos, la experiencia o el experimento sirven para medir la solidez de toda teoría:"...ni una sola teoría concuerda con todos los hechos conocidos en su dominio". "Tomando el punto de vista opuesto, sugiero la introducción, elaboración y propagación de hipótesis que sean inconsistentes o con teorías bien establecidas o con hechos bien establecidos. O, dicho con precisión, sugiero proceder contrainductivamente además de proceder inductivamente".

"Por ello, el primer paso en nuestra crítica de conceptoshabituales y reacciones habituales es salirse del círculo e inventar un nuevo sistema conceptual, una nueva teoría, por ejemplo, que entre en conflicto con los resultados observacionales más cuidadosamente establecidos y lleve la confusión a los principios teóricos más plausibles. Este pasoes, de nuevo, contrainductivo. La contrainducción es por lo tanto dos cosas: un hecho -la ciencia no podría existir sin ella- y un movimiento legítimo y muy necesario en el juego de la ciencia". b. HIPOTESIS "AD HOC" Las hipótesis "ad hoc" son formulaciones provisionales, corroboradas empíricamente, que tienen por objetivo salvar una parte oscura o dudosa de una teoría. En la medida en que, como ya se ha dicho, para Feyerabend ninguna teoría puede dar cuenta completa de todos los hechos implicados en ella, se requiere de estas hipótesis ad hoc para completarlas. Dado que "desarrollar una buena teoría es un proceso complejo que tiene que empezar modestamente y que lleva tiempo...De aquí que, como uno no puede evitar ser ad hoc, es mejor ser ad hoc con respecto a una teoría nueva , porque una teoría nueva, como todas las cosas nuevas, dará un sentimiento de libertad, estímulo y progreso". c. LAS INTERPRETACIONES NATURALES "En la historia del pensamiento, las interpretaciones naturales han sido consideradas bien como presuposiciones a priori, bien como prejuicios...". La interpretación natural es la que nos formamos inmediatamente al observar o percibir con nuestros sentidos un fenómeno. Es decir, una interpretación precientífica, pero basada enexperiencias previas y racionalizadas mediante el lenguaje. Según Feyerabend, contrario a los racionalistas, no es posible, ni deseable deshacernos de tales interpretaciones naturales en el proceso de indagación científica. Según él, Galileo las utilizó en sus demostraciones. Deshacerse de todas las interpretaciones naturales implicaría partir de cero, e impediría seguir adelante. "(Las interpretaciones naturales) Son instrumentos para constituir el campo, como el mismo Bacon dijo. Eliminad todas las interpretaciones naturales y habréis eliminado la capacidad de pensar y percibir". d. LA INCONMENSURABILIDAD DE LAS TEORIAS Basado en el análisis de la teoría de la relatividad de Einstein, frente a la física clásica de Newton, y en los estudios sicológicos de Piaget sobre el desarrollo cognoscitivo de los infantes, Feyerabend propone que una teoría nueva puede ser más amplia que la anterior, pero que no la suprime del todo, pues esta sigue siendo válida dentro de propia batería conceptual. Por ende, los experimentos diseñados para verificar una teoría no son válidos para refutar otra, pues ambas serían inconmensurables (INCOMPARABLES) entre sí, ya que ambas tendrían una "terminología observacional" distinta. "...al extender los conceptos de una nueva teoría, T, a todas sus consecuencias, informes observacionales incluidos, puede cambiar la interpretación de estas consecuencias hasta tal extremo que desaparezcan, o bien el conjunto de consecuencias de las primeras teorías, o bien del conjunto de consecuencias de las alternativas disponibles. Estas primeras teorías y sus alternativas se harán entonces inconmensurables con T". "¿Por qué habría de ser necesario poseer una terminología que nos permita decir que es el mismo experimento el que confirma una teoría y refuta la otra?" "Hay sólo una tarea que podamos legítimamente pedir a una teoría, y es que nos dé una descripción correcta del mundo, es decir, de la totalidad de los hechos vistos a través de sus propios conceptos". "Las teorías inconmensurables pueden, pues, ser refutadas por referencia a sus respectivos tipos de experiencia, es decir, descubriendo las contradicciones internas... Sus contenidos no pueden

ser comparados, ni es posible hacer un juicio de verosimilitud excepto dentro de los confines de una teoría particular". e. ELECCION ENTRE "IDEOLOGIAS" COMPREHENSIVAS Por todo lo anterior, Feyerabend llega finalmente a una conclusión completamente subjetiva y extremosa del relativismo, al afirmar que la elección entre teorías generales, que abarcan el mundo de manera "comprehensiva" (es decir, TOTAL)es sólo cuestión de: ¡¡¡GUSTO!!! "¿Qué mejor recordatorio hay que el darse cuenta de que la elección entre teorías que son suficientemente generales para proporcionar una concepción del mundo comprehensiva y entre las que no hay conexión empírica puede llegar a ser una cuestión de gusto; que la elección de una cosmología básica puede llegar a ser también una cuestión de gusto? Crítica de la concepción metodológica de Feyerabend: 1. Lo positivo, es su actitud crítica frente a la ciencia moderna. La cual contiene un elemento deshumanizador, pues convierte al ser humano en un instrumento, y ella misma se vuelve un instrumento. Cierta rigidez metodológica, su compartimentación, su especialización extrema, tienden a perder de vista la totalidad de la vida humana y otros aspectos de la cultura que son necesarios para llevar una vida plena. De ahí que el humor, el sentido común, la subjetividad, el arte, etc., son elementos que no se deben perder. Pero esta crítica es incompleta en Feyerabend, pues deja de lado el análisis social, pues el problema no está en la ciencia misma, sino en la forma en que la sociedad capitalista la utiliza para la explotación de clase. Es la sociedad basada en la explotación capitalista la que convierte al ser humano y a la ciencia en un instrumento, en una "cosa" deshumanizada, en algo alienante. Es el capitalismo el que convierte al ser humano en "robot", en obrero-consumidor, en un "monstruo", para beneficio de una élite empresarial. Sobre este aspecto Marx, o Georg Lukacs (Historia y conciencia de clase) tienen críticas más contundentes y profundas a la instrumentalización de la ciencia que hace el capitalismo. 2. El elemento negativo de la propuesta de Feyerabend es que conduce a un relativismo absurdo, según el cual la elección entre interpretaciones teóricas al final sólo es cosa de gusto, de sentido estético. Al borrar de esta manera la delimitación entre arte y ciencia, se acaba negando la esencia de la ciencia, la cual no consiste en dar una percepción subjetiva del mundo (arte), sino de encontrar la verdad, es decir, las leyes que rigen el mundo, para que la humanidad pueda transformarlo (ciencia). Feyerabend llega al absurdo de decir: "Ninguno de los métodos que Popper (o Carnap, o Hempel, o Nagel) quiere aplicar para racionalizar la ciencia puede ser aplicado, y el único que puede aplicarse, la refutación, es de fuerza muy reducida. Lo que quedan son juicios estéticos, juicios de gusto, y nuestros propios deseos subjetivos". Si este criterio se aplicara a las ciencias sociales sus consecuencias serían nefastas (para los oprimidos) y convenientes para los explotadores.

2.6 LA TEORÍA DEL CAOS: UNA METODOLOGÍA EMERGENTE (Gabriel gutierrez Pantoja

UNAM

México 1998)

Es difícil referir la teoría del caos propiamente como una metodología, puesto que sus principios se sustentan en una concepción en la que no se aceptan paradigmas o parámetros para la adquisición del conocimiento, ya que el mundo es un caos y al acceder a su conocimiento es limitado en cuanto no pueden estipularse modelos para lograr ese objetivo. Si se revisa la tradición grecorromana, encontraremos que había una lógica que se utilizaba como una introspección, donde destaca Aristóteles para imponer orden mental ante el universo. Los científicos del Renacimiento que siguieron a Francis Bacon eligieron un camino diverso para encontrar la verdad y entender la naturaleza: el camino de la experimentación, el examen y el razonar de la observación a los principios generales y las leyes naturales. En el siglo XX, esas tendencias seculares cambiaron pues Einstein (con la relatividad) y Bohr y otros (con los mecánicos de quántum) hicieron que se entendiera el conocimiento de la realidad como algo más sutil y complicado. A partir de entonces se vino configurando lo que ahora se identifica como la teoría del caos, idea que se consolidó por diversas vías en los últimos 20 años. En adelante, los científicos de cualquier disciplina y los matemáticos saben que el mundo es más complejo y más duro entender, pero por ello más cercano a la realidad del mundo alrededor de nosotros, La teoría del caos y las maneras en que los procesos naturales se mueven entre el orden y el desorden, nos ayuda a entender la dimensión de una variable de nubes, de los modelos y de la carencia de modelos de la agua corriente y de los vientos que caen, de las órbitas planetarias que, en el hecho, nunca relanzan ellos mismos exactamente, y de una miríada de complejidades en el mundo natural y también en el mundo social. Son las penetraciones y las extensiones de la teoría del caos las que nos llevarán a todo terreno de conocimiento tecnológico, filosófico y social. Aunque no pueda determinarse un origen común de esta concepción, en la historia de la dinámica caótica se considera que pudo haber tenido sus principios en el trabajo del físico matemático francés Henri Poincaré, quien había procurado solucionar el problema de los tres cuerpos celestiales (three body celestial), Sol, planeta Tierra y Luna, experimentando la gravitación mutua. Sobre todo buscaba contestar a la pregunta histórica de si el Sistema Solar era estable por siempre o si algunos planetas volarían con un apagado eventual. Para contestar a esta pregunta, Poincaré comenzó a mirar el problema desde un punto de vista diverso. Más que siguiendo toda la trayectoria de cada órbita, ideó un acercamiento geométrico para analizar el problema. De este acercamiento él podía mostrar que el problema three body se había complicado para explicar la dinámica orbital, la cual ahora indicaba un caos. Por ello decía que puede suceder que las diferencias pequeñas en las condiciones iniciales produzcan efectos muy grandes en los fenómenos finales. Un pequeño error en el producto inicial de la dinámica provoca un error enorme en el último. Por ello, la predicción llega a ser imposible. Así, la ciencia puede hablar de lo que conoce y cómo lo conoce, pero jamás podrá hacer afirmaciones del porvenir puesto que no hay regularidades que permitan predecir los sucesos, salvo que no haya cambios en los procesos. El advenimiento de calculadoras numéricas ha acelerado el desarrollo en el campo del caos. Los ordenadores permitieron que se experimentara con las ecuaciones diferenciales no lineales, que eran imposibles antes. Lorentz en 1963 descubrió el movimiento caótico cuando simulaba un modelo simplificado de la convección para ganar la penetración en la naturaleza imprevisible del pronóstico de tiempo. Para su sorpresa, Lorentz descubrió que los resultados de su simulación nunca colocarían abajo a cualquier clase de solución de estado estacionario. La solución se desarrolló siempre en una manera irregular, sin periodicidad. Además, si comenzaba la

simulación otra vez, su solución perceptiblemente divergiría de la simulación anterior y llegó a ser totalmente diferente después de un periodo. Esto estableció que el sistema es intrínsecamente imprevisible y, por tanto, cualquier error leve en las condiciones iniciales se amplifica rápidamente en las subsecuentes. En 1971 Ruelle y Takens propusieron una nueva teoría, basada en el concepto abstracto de un "atractor extraño” para el inicio de la turbulencia en líquidos. Varios años más tarde se encontró un ejemplo del caos en la correspondencia iterativa (correspondencia logística) que se utilizó para estudiar la dinámica de la población en biología. Feigenbaum descubrió que hay ciertas rutas universales que los sistemas tomarán en transiciones al pasar del movimiento irregular. Este descubrimiento proporcionó la conexión entre el caos y su fase transitioning. Después de este trabajo vinieron los experimentalistas, que probaron estas ideas en líquidos, sistemas mecánicos, reacciones químicas y semiconductores. En los últimos años de la década de los setenta había dos progresos considerables adicionales en el campo. Mandelbrot descubrió fractales (vocablo que denota un procedimiento de descripción, cálculo y pensamiento sobre las figuras irregulares fragmentadas, dentadas y descoyuntadas) y mostró que pueden ser aplicados a otros temas. Y en el campo de la biología matemática, Winfree utilizó la idea geométrica de estudiar oscilaciones biológicas tales como los ritmos del corazón. Antes de los años ochenta, el interés en el caos se extendió y sus aplicaciones habían tomado una raíz firme para este campo que emergía de la dinámica. Esto dio lugar al crecimiento rápido de teorías que se convertían y de otras herramientas matemáticas para ocuparse de los sistemas. Uno de éstos conduciría al desarrollo del control del caos en los inicios de los años noventa. Y aunque ese desarrollo en Occidente de la teoría del caos era relativamente nuevo, se pretende que para los orientales del mundo natural ha tenido siempre una forma caótica de comportarse, como se ha documentado en textos budistas desde hace siglos. En esos textos, los monjes budistas del Tibet trataron los diversos modelos que habían descubierto en el universo y que desde el principio habían aparecido como un ser caótico. Estos monjes ya discutían entonces la mecánica del caos. La teoría del caos apenas ahora empieza a desarrollarse como parte de la crítica de la ciencia, de las matemáticas, del arte y del mundo y, ante la imposibilidad de entenderse en computadores, se simulan los procesos. Así, el computador es ahora un telescopio y un microscopio simulados, y también nuestra galería de arte. Ante la complejidad del universo y nuestras limitaciones cognoscitivas, no podemos realmente explorar caos sin él. Sin embargo, es necesario utilizar el ordenador como herramienta para la investigación y no como sustituto, pues la mayoría usa el ordenador con base en datos que introducen y mandan lo que requieren que salga, por lo que se simula la realidad sin verificar que ella existe. La teoría del caos se presentó a los científicos y los matemáticos para que comenzaran a jugar. Jugando con la programación del ordenador produjeron las imágenes que parecían la naturaleza: nubes, montañas y bacterias empezaron a reproducirse e indicaron por qué no podíamos predecir su proceso en el tiempo. Ello parecía corresponder a acontecimientos sociales como el comportamiento de la bolsa de valores y de la movilidad de las poblaciones y a las reacciones del producto químico en el mismo tiempo. Las investigaciones sugirieron respuestas a preguntas que habían sido hechas por siglos acerca del flujo irregular, sobre la formación de copos de nieve, sobre la oscilación de un péndulo, sobre mareas y latidos del corazón y formaciones de la coliflor y de la roca. Esta nueva teoría se ocupó de una amplia gama de dominios intelectuales donde se iniciaba una nueva concepción de la ciencia y, por ende, de la metodología. Acerca de ello, Gleik dice: "La ciencia clásica acaba donde el caos empieza. Mientras los físicos indagaron las leyes naturales, el mundo adoleció de una ignorancia especial en lo que concierne a los desórdenes de la atmósfera y del mar alborotado; a las fluctuaciones de las poblaciones silvestres de animales y vegetales; y para abreviar, a las oscilaciones del corazón y del cerebro. La porción irregular de la naturaleza, su parte discontinua y variable, ha sido un rompecabezas a los ojos de la ciencia o, peor aún, una monstruosidad.

No obstante, en la década de 1970 un puñado de científicos estadounidenses y europeos comenzó a fraguarse camino en el desorden. Eran matemáticos, físicos y biólogos, y todos buscaban nexos entre las diferentes clases de irregularidades. Los fisiológicos hallaron pasmoso orden en el caos que sobreviene en el corazón humano, causa primera de inexplicables muertes repentinas. Los ecologistas exploraron el aumento y el decrecimiento de las poblaciones de mariposas lagartas. Los economistas exhumaron datos pretéritos sobre el precio de valores cotizados en la bolsa y emprendieron un género nuevo de análisis. “496 Los sistemas caóticos no provienen del azar, aunque pueden parecerlo. Tienen cierto campo común que define sus características, las cuales se desprenden de lo dicho anteriormente: 1. Los sistemas caóticos son deterministas. Esto significa que tienen algo que determina su comportamiento en un tiempo y espacio precisos. 2. Los sistemas caóticos son muy sensibles a las condiciones iniciales. Un cambio muy leve en el punto de partida puede conducir a resultados enormemente diversos en el punto de llegada. Esto hace al sistema bastante imprevisible. 3. Los sistemas caóticos aparecen al azar, desordenados, pero no lo son. Debajo del comportamiento del azar hay un sentido del orden y del modelo. Los sistemas verdaderamente al azar no son caóticos; en cambio, los sistemas ordenados predichos por la física clásica son las anomalías, pues en este mundo del orden, el caos gobierna. Además del cambio de entendimiento del mundo, el caos aporta una nueva forma de organización disciplinaria, ya que como dice el mismo autor: "El caos salva las fronteras de las disciplinas científicas. Por ser la ciencia de la naturaleza global de los sistemas, ha reunido a pensadores de campos muy separados. Hace quince años, el ser se abocaba a una crisis de especialización creciente... La superespecialización inminente se ha trastocado de modo espectacular gracias al caos. Éste plantea cuestiones que desafían los usuales métodos científicos de trabajo. Defiende con vigor el comportamiento universal de lo complicado... Los defensores más encendidos de la nueva ciencia llegan al extremo de declarar que el siglo XX se recordará sólo por tres cosas: la relatividad, la mecánica cuántica y el caos. El último, sostén, se ha transformado en la tercera gran revolución de la ciencia física en esta centuria.” 497 Por ello se afirma que "el estudio del caos surgió en el seno de la física... hubo jóvenes especialistas que sintieron descontento creciente ante la orientación de la más prestigiosa de las ciencias. Empezaron a creer que los progresos eran lentos, fútil la especificación de nuevas partículas y confusa la masa teórica. Al presentarse el caos, vieron en él un cambio de dirección de toda la física. Las rutilantes abstracciones de las partículas de alta energía y la mecánica cuántica habíanse impuesto más de lo conveniente.” 498 Como todo cambio, la actitud de los científicos ante el caos fue poco aceptada, pero su proliferación fue inminente. Acerca de ello Gleick afirma: "A medida que los especialistas del caos proliferaron, algunos departamentos pusieron mala cara a aquellos eruditos descarriados; otros pidieron más. Ciertas revistas establecieron reglas no escritas contra el sometimiento al caos; otras, en cambio, vieron el día exclusivamente para tratar de él. Los caoticistas o caólogos (palabras como éstas sonaron) comparecieron con frecuencia desproporcionada en las listas anuales de las plazas pensionadas y premios importantes. Un proceso de difusión académica había situado, mediados los años de 1980, a especialistas del caos en cargos influyentes dentro de las administraciones universitarias. Se fundaron centros e institutos para especializarse en 'dinámicas no lineales' y 'sistemas complejos'.

El caos se ha transformado no sólo en teoría, sino en método: no sólo en un canon de creencias, sino en una forma de hacer ciencia... El caos presagia el porvenir de modo indiscutible. Mas, para aceptar el futuro, hay que renunciar a buena parte del pasado." 499 Hay varios ejemplos en la física que se identifican como ejemplos de teoría del caos. Uno de ellos es el caso de Geoffey Chew, quien crea una teoría de las partículas que intenta unificar la mecánica cuántica y la teoría de la relatividad. En su idea, la naturaleza no puede ser reducida a entenderse a través de la autoconsistencia. En su idea, la naturaleza no puede ser reducida a entidades fundamentales (como los átomos), sino que debe entenderse a través de la autoconsistencia. En su filosofía, conocida como Bootstrap, no se acepta ninguna entidad, ley, constante ni ecuación fundamental. El universo físico se ve como una red dinámica de sucesos interrelacionados y la consistencia global de sus interrelaciones determinan la estructura de la totalidad de la red. Por su parte David Bohm, físico atómico, ha planteado una teoría del orden implícito y explícito y donde el universo aparece como una totalidad en movimiento (holomovimiento). Sus implicaciones no se quedan allí, sino que tocan a la persona y al mundo en que se mueve. Para explicarlo y hacerlo sentir, Bohm, además de usar la física y la matemática, se apoya en la teoría holográfica del cerebro, de Karl Pribram, y genera una nueva forma verbal que llama Reomodo. El principio de la teoría del caos está en la creatividad, por lo que se requiere encontrar opciones para entender mucho mejor el pensamiento creativo, de lo que ahora se conoce. La creatividad se comienza a ver en algunas teorías como un hecho ontológico más que cognoscitivo; lo que importa es la presencia del hombre ante su realidad. Es el hombre total el que participa en el evento, no es sólo un problema de conocimiento; en ese sentido, el hombre torna transformador y creador de ámbitos y esto precisamente porque participa de la dinámica real de la vida, que es caos y desorden. Para enfrentarlo se necesita revisar algunas de las teorías más sugestivas, en especial las que se refieren a las complejidades, y formar un estilo de pensador, de investigador independiente, que represente en sí mismo la complejidad. La Tierra, como organismo viviente, un reto de convivencia, sólo se logrará entendiendo la complejidad. Uno de los pensadores que ha promovido este tipo de pensamiento es Edgar Morin, quien basado en la teoría de la información y de los sistemas, la cibernética y los procesos de autoorganización biológica, construye un método que intenta estar a la altura del desafío, de la complejidad. Según Morin, estamos en la prehistoria del espíritu humano y sólo el pensamiento complejo nos permitirá civilizar nuestro conocimiento. Ello implica epistemológicamente que "debemos combinar lo algorítmico y lo estocástico, lo improbable, el orden y el desorden, con un principio creador, además, que proceda de su encuentro. Esto lleva consigo una presunción ontológica... que el mundo no siendo ni verdaderamente coherente ni verdaderamente incoherente, es caos".500 Por ello hay que reconocer que universo y caos están estrechamente unidos o, como dice Morin: "el Cosmos es Caos y el Caos es Cosmos. El caos es esto, sin duda: orden inacabado, desorden controlado, agitación y constreñimiento, entropía de donde nace la neguentropía, caminar simultáneo hacia la organización y el desorden. El cosmos es caos porque, en él, el mismo tiempo es desorganizador y organizador, destructor y creador. El cosmos es caos, en fin, porque no es reductible a la inteligibilidad y a la racionalidad". 501 Ante ello debe usarse un criterio sobre la complejidad, pero ¿cómo saber cuando algo es complejo y cómo se puede diferenciar de lo simple? Acerca de esto Morin afirma: "La complejidad es una noción cuya primera definición no puede concebir como una unidad elemental indescomponible. La noción simple es la que permite concebir este objeto de forma

clara y neta, como una entidad aislable de su entorno. La explicación simple es la que puede reducir un fenómeno compuesto a sus unidades elementales y concebir el conjunto como una suma del carácter de las unidades. La causalidad simple es la que puede aislar la causa y el efecto de la causa según un determinismo estricto. Lo simple excluye a lo complicado, lo incierto, lo ambiguo, lo contradictorio. A fenómenos simples les corresponde una teoría simple. No obstante, se puede aplicar una teoría simple a fenómenos complicados, ambiguos, inciertos. Entonces se hace una simplificación.” 502 Derivado de esa afirmación, Morin establece: "El problema de la complejidad es el que plantean los fenómenos no reductibles a los esquemas simples del observador. Es de suponer, pues, que la complejidad se manifestará en primer lugar, para este observador, en forma de oscuridad, de incertidumbre, de ambigüedad, de paradoja, e incluso de contradicción. Es cierto que todo conocimiento tiene algo de simplificador en el sentido que abstrae, es decir, elimina un cierto número de rasgos empíricos del fenómeno, juzgados como no significativos, no pertenientes, contingentes. Pero no debe ser sobresimplificador, o sea, apartar como epifenoménico todo lo que no entre en un esquema simplificador. Aquí se ve el problema: siempre es posible rechazar lo complejo a la periferia, para no retener más que lo simplificable, y decidir que lo simplificable es lo cientifizable. " 503 Con base en esa idea, es necesario tener presente que hay una relación entre el orden, el desorden y la organización; ello es lo que hace patente la presencia de la complejidad, pues mediante ella "se constata empíricamente qué fenómenos desordenados son necesarios en ciertas condiciones, en ciertos casos, para la producción de fenómenos organizados, los cuales contribuyen al incremento del orden... La aceptación de la complejidad es la aceptación de una contradicción, es la idea de que podemos escamotear las contradicciones con una visión eufórica del mundo.” 504 Cuando se acepta la complejidad, por principio, se requiere estar en una expectativa constante para conocer el entorno, puesto que "la complejidad no es una receta para conocer lo inesperado. Pero nos vuelve prudentes, atentos, no nos deja dormirnos en mecánica aparente y la trivialidad aparente de los determinismos. Ella nos muestra que no debemos encerrarnos en el contemporaneísmo, es decir, en la creencia de que lo que sucede ahora va a continuar indefinidamente. Debemos saber que todo lo importante que sucede en la historia mundial o en nuestra vida es totalmente inesperado, porque continuamos actuando como si nada inesperado debiera suceder nunca. Sacudir esa pereza del espíritu es una lección que nos da el pensamiento complejo. El pensamiento complejo no rechaza, de ninguna manera, la claridad, el orden, el determinismo. Pero los sabe insuficientes, sabe que no podemos programar el descubrimiento, el conocimiento ni la acción." 505 Visto desde esa perspectiva, teoría y método no pueden separarse, pues, según Morin, "en la perspectiva compleja, la teoría está engramada, y el método para ser puesto en funcionamiento necesita estrategia, iniciativa, invención, arte. Se establece una relación recursiva entre método y teoría. El método generado por la teoría, la regenera. El método es la praxis fenoménica, subjetiva, concreta, que necesita de la generatividad paradigmática/teórica. De este modo, la teoría no es el fin del conocimiento, sino un medio-fin inscrito en una recursión permanente... Aquí, la teoría no es nada sin el método, la teoría casi se confunde con el método o más bien, teoría y método son los dos componentes indispensables del conocimiento complejo... El método, o pleno empleo de las cualidades del sujeto, es la parte ineluctable de arte y de estrategia en toda paradigmatología, toda teoría de la complejidad.”506 Siguiendo las ideas de Morin y de otros pensadores, actualmente muchos científicos están aceptando ésta y otras formas de racionalidad. Se puede llegar a tener razón del entendimiento de la realidad por muchas vías diferentes. La razón de la ciencia ya no es la única. La palabra

realidad en el sentido usual no es un concepto utilizable para estudiar el comportamiento de las partículas que forman el universo. La ciencia ya reconoce las posibilidades de otras racionalidades que actúan sobre la materia, sobre todo a partir de teorías y experiencias como el colapso de la función de onda, la polarización de los fotones, las variables ocultas y el principio de incertidumbre, entre otros. Científicos reconocidos mundialmente han establecido un diálogo de saberes que igualmente respeta lo físico y lo místico o metafísico, pero aún más se han adentrado de tal manera en otras dimensiones de fenómenos, que en esa confluencia Oriente-Occidente han comenzado a aparecer teorías que no pueden dejar de ser consideradas actualmente por la ciencia. EL CAOS Y LAS CIENCIAS SOCIALES

La différance y deconstrucción de Derrida, los rizomas y construcción de caoideas de Deletize y Guattari, son otro ejemplo de estas propuestas de pensamiento complejo que caracteriza a la caología. Pero es Georges Balandier, escritor, antropólogo y sociólogo, quien sistematiza estas propuestas para las ciencias sociales. Georges Balandier es profesor en la Sorbona y director de estudios en la escuela de Altos Estudios en Ciencias Sociales. Ha publicado reconocidas obras, entre las que destacan Le Détour, de 1985, Le Désordre, de 1988 y Le Dédale, de 1994. Por su contenido, relacionado con nuestro tema, revisaremos la segunda de ellas sobre El desorden, cuyo subtítulo en español, que no aparece en la edición francesa, es "La teoría del caos y las ciencias sociales. Elogio de la fecundidad de movimiento". El contenido está dividido en unas reflexiones preliminares y tres partes, referidas esencialmente al concepto "desorden". En la nota preliminar, que titula "El enigma", recaba algunas de las ideas a las que ya nos hemos referido: "El caos es el enigma que viene desde tiempos muy lejanos, cuando los mitos trataba de mostrar cómo todas las cosas provienen y son el resultado de génesis sucesivas. Hoy, la investigación científica toma los caminos que conducen inevitablemente a él. El desorden, la turbulencia, la desorganización y lo inesperado fascinan, los arcanos del azar incitan menos a una iniciación que a un avance utilizando los instrumentos de la informática más complejos y más poderosos. Hace unos diez años ha nacido una disciplina nueva, la caología, y ya algunos la consideran una de las principales invenciones que han revolucionado la historia de las civilizaciones... la nueva disciplina quiere forzar su misterio, encontrar la respuesta que hará menos falible la previsión del tiempo más allá de lo inmediato. " 507 Luego hace explícita la finalidad de esta concepción: "La caología no podría ser interpretada como una apología del desorden, pues propone otra representación de éste, lo pone en su lugar, demuestra que si los acontecimientos y las turbulencias de la naturaleza dan una impresión de confusión, de batifondo, son sin embargo atraídos por ciertos estados. Estos 'atraedores extraños' están mal identificados, pero su acción es reconocida; el desorden no se confunde con el batifondo. Se plantean, si embargo, preguntas irritantes, sobre todo las siguientes: ¿cómo puede nacer del caos algún tipo de organización?; ¿cómo otra vez vuelve a surgir el orden y a escapar a las obligaciones que éste define? Hace mucho que el mito ha dado respuestas; la ciencia ha enunciado las suyas, las ha sometido a la prueba de la verificación y las revisa continuamente. Hay ahí dos usos de la razón, dos lógicas, en la actualidad más reconocidas porque están más separadas. Los grandes mitos de las sociedades de la tradición dan una explicación total, afirman, dicen, lo que es y lo que debe ser. La ciencia actual ya no intenta llegar a una visión del mundo totalmente explicativa; la visión que produce es parcial y provisoria. Se enfrenta a una

realidad incierta, con fronteras imprecisas o móviles, estudia 'el juego de los posibles', explora lo complejo, lo imprevisible y lo inédito. Ya no tiene la obsesión de la armonía, le da gran lugar a la entropía y al desorden, y su argumentación, si bien enriquecida con conceptos y metáforas nuevos, descubre progresivamente sus propias limitaciones. Si los científicos parecen jugar al caos sobre el gran tablero de la naturaleza, los analistas de la modernidad se lanzan con menos probabilidades a un juego similar. A éste lo he definido no hace mucho con una fórmula: el movimiento más la incertidumbre. El primero de esos dos términos se realiza en formas múltiples, vistas por muchos como otras tantas ocultaciones o máscaras del desorden. El vocabulario posmodernista se ajusta a este inventario exploratorio de la 'deconstrucción' y de las simulaciones. Hace unos años se estableció progresivamente la cuenta de las desapariciones: desde el campo hasta la ciudad, desde los grupos hasta las relaciones entre individuos, desde estos últimos hasta los espacios de la cultura y el poder, todo ha sido condenado a desaparecer.. El segundo término de mi fórmula -la incertidumbre- expresa a la vez irrupción de lo inédito bajo los impulsos de la modernidad, y el riesgo, para el hombre, de encontrarse en posición de exiliado, extranjero o bárbaro, en su propia sociedad, si la incomprensión de lo que está en vías de hacerse lo alejarse de una civilización contemporánea donde sólo identificara el caos y el no sentido."508 El caos está aquí; no obstante, queremos tener orden. Nuestra forma de pensamiento, nuestra forma de entender la realidad parten del orden, por ello el caos nos agrede, nos violenta. No queremos entender el caos, pero orden y desorden se encuentran indisolublemente unidos. Así lo afirma Balandier: "El orden y desorden no se separan. En este libro no se los ha disociado; consagrado al segundo, se ocupa constantemente de sus relaciones complejas y misteriosas, del doble enigma que constantemente han planteado a los hombres de todos los tiempos y todas las culturas.” 509 De acuerdo con ese criterio, el mismo autor hace una síntesis de los contenidos del libro: "En la primera parte, se los considera bajo tres aspectos. Se demuestra primero en ella cómo los mitos de origen expresan un orden primordial sacado del caos, cómo los ritos trabajan para el orden y por qué procedimientos la tradición obra astutamente con el movimiento. Se aborda luego el devenir de la ciencia, la historia de las maneras de dialogar con la naturaleza, el paso de un mundo definido por la armonía a un mundo en movimiento, librado a una turbulencia incesante. Se examina finalmente un saber social en completa transformación, para el cual la sociedad ya no está más establecida en la unidad y la permanencia; el orden y el desorden actúan en ella juntos, la complejidad creciente multiplica en ellas los posibles y se convierte en un factor de improbabilidad.” 510 Efectivamente, el mito y el rito, las creencias no comprobables y los procesos litúrgicos dan al individuo la seguridad del orden, y ello se realiza en todas las actividades y en todas las sociedades, pero el desorden se presenta de manera continua. Esto es lo que desarrolla el autor en la parte siguiente: "En la segunda parte se estudia el desorden en las sociedades de la tradición. En ella se pone de manifiesto su trabajo oculto, se señalan los lugares donde éste se sitúa, se identifican las figuras que lo encarnan, se presenta en acción bajo las máscaras de la brujería. Empero, en esas sociedades, el desorden puede traducirse en orden por el efecto de lo imaginario, lo simbólico y las prácticas ritualizadas. El poder mismo aparece como una máquina que tiene la capacidad de actuar sobre el desorden a fin de convertirlo en energía positiva; el movimiento debe ser un agente de refuerzo y no de disipación de las fuerzas colectivas." 511 En esa parte, Balandier ejemplifica algunas de las actitudes de los grupos sociales para enfrentar el desorden, pero con la mentalidad y pasividad del criterio de orden.

Por ello hay que entender ese criterio y su confrontación con el desorden como Balandier lo hace en la última parte: "En la tercera parte se efectúa el regreso al universo de la modernidad. Se revela como ésta mezcla las cartas, mantiene las incertidumbres y obliga en cierto modo a comprometerse en la historia inmediata al avanzar hacia ella a ojo de buen cubero. La atención se centra primero en la dificultad de saber, en el desbarajuste de lo real y en el hombre actual, que se ha vuelto un sujeto difícil de identificar. El desorden no se delimita, lo cual exaspera la conciencia del desorden. Las figuras del desorden son tratadas entonces como figuras reveladoras. Cuatro de ellas aportan un ejemplo: el acontecimiento, advenimiento repentino del desorden (la crisis bursátil de otoño de 1987); la enfermedad, el mal, desorden que viene de afuera (el SIDA); la violencia, aprovechamiento del desorden (el terrorismo); el político debilitado, desorden e incertidumbre (el revelador electoral). Nos arriesgamos a continuación a realizar una investigación primera de las formas que toma la respuesta dada al desorden.” 512 En esta última parte es donde debe prestar atención la ciencia social para adquirir una concepción que le permita una construcción metodológica que enfrente al caos. Sobre la situación en las, sociedades modernas, el autor dice: "La modernidad es el movimiento más la incertidumbre; conviene recordar aquí mi propia máxima... es el movimiento el que impone su presencia, tanto es verdad que pensar este tiempo y en este tiempo es necesariamente pensar en el movimiento. Lo real, tal como lo podemos aprehender de sus manifestaciones actuales, debe ser relacionado con él, aunque las disciplinas encargadas de investigarlo estén desigualmente preparadas para hacer frente a esta presión dinámica. La ciencia social heredada, establecida, no ha sido motivada para considerar los fenómenos de los que se ocupa, en estados alejados de equilibrio; su práctica la lleva a la preferencia de la estabilidad (habiendo el conflicto dependido de la sociología crítica, más periférica), a la preferencia de lo funcional, lo estructurado, lo organizado. En esas condiciones, el tiempo se convierte en la dimensión olvidada, y el acontecimiento, el intruso por ser expulsado... Hoy, lo real se aprehende en y por el movimiento, necesariamente; éste quiere que se identifiquen las formas nuevas de la temporalidad y, por consiguiente, de los tiempos sociales, según la terminología sociológica convenida. La experiencia humana se encuentra radicalmente cambiada en su relación contemporánea con el tiempo, al punto de estar a veces desorientada, de no reconocer más que una agitación cuyos movimientos son comparables a los de las máquinas delirantes e inútiles, productores de efectos, sin una razón aparente por una movilidad inscrita en una duración desprovista de calidad." 513 El problema que se presenta es que ante esa incertidumbre, los individuos y, por ende, las sociedades no puedan identificarse a sí mismos. Ello lo refiere Balandíer de la siguiente manera: 'Frente a una realidad incierta, la figura del hombre se hace más confusa, borrosa, como lo sería la imagen devuelta por una superficie líquida en constante movimiento. El hombre se descubre en parte desterrado en un mundo cuyo orden, unidad y sentido le parecen oscurecidos; en presencia de una realidad fluctuante y fragmentada, se interroga sobre su propia identidad, sobre su propia realidad, mientras que la modernidad sobreactivada multiplica las manipulaciones resultantes de nuevas técnicas; las ingenierías de las cuales él es objeto, y estimula la producción de apariencias y señuelos que lo hacen caer en una trampa. Lo que importa, en un primer tiempo, es el punto de referencia de los procesos que hacen del hombre contemporáneo un ser histórico mal identificado, sin definición mítica, metafísica, positiva y cultural de amplia aceptación. La indiferencia, el desprecio, la violencia, pueden atacarlo a costos más reducidos; la inquietud y el miedo lo confinan en la pasividad, el poder técnico lo hace moldeable. La apatía terminaría por hacerlo un espectador desvinculado de todo y de sí mismo. La incertidumbre expresa en parte la relación ambigua que el hombre actual mantiene con su medio ambiente y con su propia naturaleza. Ha tomado conciencia del poder creciente de las técnicas, de las conquistas que logran y los efectos de desorden de los cuales son también las

generadoras. Su capacidad en constante aumento es asociada con la desnaturalización, el riesgo, la amenaza fatal y no sólo con un dominio de la naturaleza cada vez mejor asegurado y más propicio. El hombre está ahora atento a las conmociones que lo afectan en su naturaleza misma. La intervención resultante del movimiento acelerado de la biología puede afectarlo en su ser físico, en su formación misma, en lo que le es constitutivo. Los procesos biológicos humanos han llegado a ser portadores de cultura hasta en la intimidad celular. El genio genético adquiere el poder de efectuar recombinaciones, los medios de actuar sobre las fuentes de vida. El hombre, que estaba comenzando a saber que es programable por el efecto de las presiones sociales y culturales, ahora descubre que es fabricable a pedido, y que un orden insidioso puede formarlo o interrogarlo en lo que es su condición biológica. La bioética levanta con dificultad barreras protectoras, las reglamentaciones vacilan la definición genética del individuo -con la carta genética- puede duplicar la identificación burocrática. Más significativas aún, porque ya existen, son las técnicas de procreación artificial. Es el advenimiento del nacimiento tecnificado, con todas las disociaciones que éste entraña: de la sexualidad y la reproducción, del cuerpo y la procreación, de la paternidad natural y la paternidad social, de la conjunción de las diferencias sexuales y la fecundación. Todo un asentamiento, y en todas las sociedades, sobre el cual han sido construidas en un periodo muy largo las relaciones primarias ligadas con formas culturales, se encuentra trastocado. Se gana una libertad pero se corren riesgos, principalmente de una eugenesia, considerada primero positiva, que se pervertiría en seguida por deslizamientos progresivos. Se descubre un movimiento, que procede por medio del artificio (mediaciones técnicas complejas), de la dislocación (disociación de los elementos constitutivos de un orden) y de la recomposición (aparición de recombinaciones, de formas nuevas todavía precarias). Desorden y orden actúan conjuntamente en un enfrentamiento cuyo desenlace es aún impreciso.” 514 Empieza a haber una idea del desorden, pero no una conciencia que reconozca y acepte las condiciones de la realidad tal como se presentan, y no como se quisiera que se presentasen. Ante ello, hay que reconocer, como dice Balandier: "El movimiento, pues, y el desorden que lo acompaña inevitablemente. Hubo un tiempo en el que las civilizaciones, las culturas, consideradas en su forma general, eran divididas según el lugar que les concedían o les negaban. Apolíneas, privilegiaban el orden, la mesura, la armonía y todo lo que implicaba una amenaza asumía el aspecto del mal o la catástrofe. Dionisiacas, ponían el acento en la fecundidad del desorden, el exceso y la efervescencia, relacionaban el movimiento con las fuerzas de la vida y su agotamiento con un orden cristalizado en la muerte. Dos grandes figuras del destino, pero una división demasiado simple: las civilizaciones y las culturas nacen del desorden y se desarrollan como orden, están vivas gracias a uno y otro, llevan a ambas en ellas, aunque sus aspectos particulares ponen de manifiesto la importancia muy desigual que ellas les atribuyen respectivamente, en general y a merced de variaciones sometidas a las coyunturas o las circunstancias. En las sociedades de la tradición, el mito proclama el orden, pero a partir del caos, del desorden que él contribuye a ordenar y a dominar sin fin. Con la irrupción de las modernidades en el curso de la larga historia de las civilizaciones y las sociedades occidentales, aparecen nuevos temas y figuras, todos vinculados con el movimiento, la superación. La idea cáustica es la de una fuerza sin cesar en acción contra los obstáculos, la lucha se convierte en la esencia misma de la vida; sin ella, la existencia personal está desprovista de sentido, y sólo pueden ser alcanzados los valores más ordinarios; el hombre fáustico se forma en el enfrentamiento y sus aspiraciones rechazan los límites, son infinitas. Con la idea prometeica -la que sirve para calificar a las sociedades emprendedoras y acumuladoras-, lo que se designa es la capacidad del hombre de liberarse colectivamente de lo que lo mantiene en sumisión, y principalmente los dioses, la capacidad de alcanzar el dominio y la posesión del mundo por su propia acción, sus técnicas y sus artes." 515 Ante ello la teoría del caos propone que se aprenda a administrar el movimiento, que se adquiera una metodología que entienda la inestabilidad, la incertidumbre. El autor afirma: "La

administración del movimiento y, por consiguiente, el desorden, no puede reducirse a una acción defensiva, a una operación de restauración, a un juego de apariencias que sólo impondrían efectos de orden en la superficie. Más aún que en los periodos apacibles, es una conquista, una creación constante que orientan los valores jóvenes, una ética nueva y en gran medida compartida. Lo cual implica dar todas las posibilidades a lo que es portador de vida y no a lo que depende de un funcionamiento mecánico, a la sociedad civil y no a los aparatos. Encuentro aquí una conclusión ya propuesta no hace mucho: hacer participar de manera continua la gran cantidad de actores sociales en las definiciones -que deben retomarse siempre de la sociedad, reconocer la necesidad de su presencia en los lugares donde se forman las elecciones que la producen y donde se engendran los elementos de su significación. Dicho de otro modo, hacer el elogio del movimiento, disipar los temores que inspira y, sobre todo, no consentir jamás que se aproveche el miedo confuso que produce."516 Por ello ante el caos no hay normas; se requiere enfrentarlo tal como se presenta en la realidad, en la sociedad. Esta idea de Balandier también podemos encontrarla, con sus peculiares características, en otros escritos sobre diversos aspectos de los fenómenos sociales. Aquí ilustraremos algunos. La teoría del caos, como cualquier otra concepción de la realidad, puede incursionar en cualquier ámbito del quehacer social, incluida la política. La conexión evidente entre el caos y la actividad política se basa en la actitud que tengan los políticos y politólogos frente a los acontecimientos. En términos generales, los políticos enquistados en el poder querrán hacer prevalecer sus ideas, por lo que no aceptarán las de los otros grupos opositores; se podrá encontrar una mayor aceptación y relación entre el caos y el político progresista, puesto que siempre estará en la expectativa de las respuestas de los grupos en el poder para actuar. La política no es sólo un artefacto de la gente implicada actualmente en tomas de decisiones de organizaciones públicas, pues ésa es una acción que corresponde a cada uno de los individuos de una sociedad, pequeña o grande que está a favor o en contra del establishment en ese ámbito. En el caso de los politólogos, los estudiosos de la política, también se encuentran concepciones similares, ya que hay quienes estudian y explican la dinámica de los cambios en las relaciones políticas; pero hay quienes se concentran en esgrimir el deber ser, sin aceptar el ser. En ambos casos, la no aceptación lineal de la dinámica social implica el reconocimiento del caos pues está constantemente ocupado sobre los cambios, cambios que son a menudo discontinuos y reconocen los procesos fundamentales de ellos. No obstante, tanto los políticos como los grupos de intelectuales que desean efectuar cambios en las formas de organización social de las que son partícipes, y deseen saber sobre las clases de cambios que puedan ocurrir en un sistema y cómo ocurren esos cambios, deben estar atentos a esa situación caótica, a fin de revertir las técnicas que sirven para que algunos pueden controlar el indeseado cambio. Para el caso de la política, el caos puede ser un principio adecuado, pues ningún modelo, con cualquier rigor, explicará condiciones políticas de que no hay ningún cambio del statu quo, así como tampoco para los que utilizan la dinámica del cambio. Ello se hace más complejo cuando se tratan asuntos de tanta incertidumbre como la predicción del terrorismo. No obstante que se tengan modelos y criterios que son la base, o indican las actitudes que rodean las condiciones para establecer acontecimientos en torno a los terroristas, cada acto da una nueva aportación. Los conceptos que etiquetan a menudo a un grupo social o gobierno como "conservador", para quienes quieren preservar el statu quo, o de ´liberal', del que se ha hecho un manojo de significados, pero se centra generalmente alrededor de la idea de "dejar que la gente haga lo que desea hacer", lo cual significa permitir el cambio y promover políticas de asistencia social y reformas; son tan relativos, pues en muchas ocasiones los liberales realizan lo que se asigna a los conservadores y viceversa. Incluso cuando algunos grupos se ordenaban alrededor de los

movimientos comunistas o socialistas que se han marcado con la etiqueta de “izquierdistas" en el esquema político, en muchas ocasiones sus actividades eran bastante conservadoras, como sucedió en varios casos durante los regímenes de Stalin y Mao, que fueron fuertemente autoritarios en nombre del comunismo, por lo que la sociedad estaba en condiciones similares a las de cualquier gran dictadura de los "conservadores" y “liberales" en otras partes del mundo y con otros regímenes. El efecto de la teoría del caos también puede ser identificado en las hojas de operación estratégicas de la economía, ya se trate de modelos centralizados, planificados y cerrados o de libre cambio, en las naciones industrializadas o subdesarrolladas, países que acepten corporaciones multinacionales con gran libertad o las sometan a expensas de economías locales. En el ámbito financiero, la preocupación fundamental es entender el comportamiento de la economía, de los mercados de capitales y de los inversionistas. Pero aquí se destaca con mayor acento que el mundo no es ordenado; que la naturaleza no es ordenada y que las instituciones creadas por el hombre tampoco lo son, a pesar de ser diseñadas por él. Los mercados de capitales son un producto del hombre, pero poco se sabe sobre ellos; los modelos propuestos por la econometría, más que resolver preguntas generan muchas más interrogantes que difícilmente se pueden esclarecer. Por ello los departamentos de pronósticos económicos en Wall Street y la corporación América están siendo desmantelados, fundamentalmente por su incapacidad para hacer prospecciones en el mundo real. Ello se debe a que un mercado eficiente y en equilibrio implicaría un precio justo de acuerdo con la información disponible y que ninguno de los participantes, que sea oferente o demandante, tenga una ventaja sobre los demás. También requeriría una volatilidad baja y probablemente bajas tasas de interés. Ello produciría la desaparición del mercado. La psicología ha considerado que la teoría del caos ha sido un asunto de interés considerable en las ciencias biológicas; y sus aplicaciones en psicología y campos relacionados que comúnmente han sido oscurecidas por su complejidad. Sin embargo, una comunidad de los psicólogos, con el apoyo de neurobiólogos, sociólogos, matemáticos y filósofos, han estado discutiendo sus implicaciones y explorando sus posibilidades de investigación. Ello con la finalidad de que la teoría del caos incluya análisis cognoscitivo de la mente, la naturaleza de la personalidad, la dinámica de psicoterapia, acontecimientos del cerebro para el entendimiento y el comportamiento, dinámica de la organización social y la psicología de la predicción. A cada uno de estos asuntos, la teoría del caos le trae una perspectiva de autoorganización dinámica y procesos de la complejidad. Esta línea de conocimiento pretende aproximarse más estrechamente al comportamiento, el sistema nervioso y los procesos sociales que exhiben muchas de las características clásicas de sistemas caóticos porque no se someten a la previsibilidad exacta. La educación también ha incursionado en la teoría del caos para establecer criterios que permitan entender, a partir de las teorías de complejidad, las situaciones que se presentan en el proceso enseñanza-aprendizaje que ha escapado a todos los modelos elaborados para su eficaz desarrollo. Para ello se confía en la capacidad del ser humano que pueda construir sistemas de complejidad magisterial sin la concepción previa de un plan maestro que regule, rija y, por tanto, restrinja el proceso educativo. La concepción sobre el caos, además de apoyar el desarrollo de las concepciones disciplinarias, puede contribuir en otros aspectos de la vida misma como la toma de decisiones, que es un aspecto donde la ambigüedad y la incertidumbre están constantemente presentes.

La teoría del caos en la toma de decisiones busca el establecimiento y la interpretación de diversos fenómenos con la finalidad de entender, en ocasiones a través de modelos matemáticos, los escenarios posibles en función de ciertos valores de las variables que intervienen en el fenómeno. Ello, desde luego, incluye a la ciencia, que desde un punto de vista práctico hace mucho tiempo que reconoce que un enfoque jerárquico es necesario, sólo que hay que examinar constantemente la clasificación de las disciplinas científicas y la manera en que se enseña para verificar si un químico que desarrolla vacunas bien puede saber poco de la teoría de los quarks, un médico que atiende un enfermo que sangra puede saber poco de la mecánica de fluidos, y un programador de computadoras que hace programas de seguridad nunca estudia la física del estado sólido. Es cada vez más patente que tal enfoque práctico refleja una realidad subyacente que no se trasmite en las teorías, a saber, que lo más importante es que los componentes de una cosa en un nivel dado, puedan ser entendidos y se establezca cómo actúan de una manera integral. Esto es, en lugar de aceptar que el sistema tiene la habilidad de predecir todo basado sobre el nivel jerárquico más elemental, se descubran y entiendan los componentes complejos en una realidad práctica y compleja. Reflejando este cambio de paradigma, actualmente la ciencia de sistemas acepta que en los problemas ocurren diversas y complejas interacciones, y que el tipo de comportamiento de un sistema puede mostrar en sus estudios las relaciones de conectividad, estabilidad y control en eventos caóticos. Este enfoque nuevo sobre los sistemas presupone que la realidad tiene “estratos" o "niveles” cuyo comportamiento es constreñido, pero no determinado completamente, por los otros niveles. ¿Por qué? Físicamente, porque en cada nivel hay incertidumbres e indeterminación, porque es imposible determinar el conjunto total de interacciones de cosas entre los niveles. Dicho esto, se puede entender que ni la filosofía ni la ciencia escapan al caos en su búsqueda para acercarse a la realidad. Por ello, el método científico es sólo "una" vía de acceso a la realidad profunda, pero no la única para el encuentro con la realidad. Así, la teoría del caos tiene como resultado el interés de que se entienda lo inevitable y catastrófico del mundo, y lo limitado que sería su denominación por la ciencia. Ante ello se requiere un paradigma filosófico, con los valores añadidos de la sociedad, sin soslayar la ideología de moda, acorde con la situación del mundo.

2.7 EL PENSAMIENTO COMPLEJO Y LA CIENCIA EN EL SIGLO XXI En contraposición con la concepción clásica, aparece un enfoque distinto que no es posible llamar nuevo si consideramos que su origen se remonta a principios del siglo XIX56, pero sí, si observamos que es en los últimos años cuando está siendo objeto de una sistematización creciente y que aún está muy lejos de llegar a una sistematización "completa". Podemos decir que la primera amenaza para la construcción newtoniana surge con las ciencias del calor57 y sus derivaciones más importantes, la ciencia de la conservación de la energía y la ciencia de las máquinas térmicas que dieron lugar a la primera ciencia "no-clásica", la primera ciencia de la complejidad, la termodinámica, con un segundo principio que introduce el concepto de entropía y con él, el tiempo irreversible en la física.

56

Aún más si tenemos en cuenta que el espacio aristotélico era informado por la organización y solidaridad del funcionamiento biológico, que fue reemplazado, en el nacimiento de la ciencia moderna por el espacio homogéneo e isótropo de Euclides.

57

Recordemos la formulación de la ley de la propagación por Fourier.

Tras ello, también en el s. XIX, los estudios de biología, geología y sociología pusieron énfasis en los procesos de cambio, los procesos de incremento de la complejidad. No obstante, durante ese siglo sólo se consideraron los estados finales de la evolución, los puntos de equilibrio. Se menospreciaban los procesos irreversibles considerándolos como meras perturbaciones sin interés. Hoy, sin embargo, sabemos que lejos del equilibrio pueden aparecer de forma espontánea nuevos tipos de estructuras que convierten el desorden y el caos en un nuevo orden, lo que se suelen llamar "estructuras disipativas" gobernadas por lo específico y lo único frente a lo repetitivo y lo universal. En posiciones alejadas del equilibrio la materia se adapta y se autoorganiza para generar nuevos estados prebiológicos. Estas estructuras disipativas están siendo formalizadas y descritas a través de la teoría de las bifurcaciones58 que nos lleva a conclusiones tan poco esperadas como que en la física, de forma muy análoga a los problemas sociales, e incluso a los de la historia, lejos de oponerse "azar" y "necesidad", ambos aspectos son esenciales en la descripción de sistemas no-lineales muy alejados del equilibrio. Comienza así a enlazarse el ser y el devenir y surge el tiempo como uno de los conceptos claves 59, no ya como un parámetro reversible, sino que se introduce el llamado "tiempo interno"; y sabemos que nuestro mundo, nuestra biosfera considerada tanto globalmente como por sus componentes, vivientes o no, está en condiciones muy alejadas del equilibrio. El concepto de entropía y de tiempo irreversible ya no es sólo generador de degradación y muerte, sino también de diversidad, de complejidad y autoorganización. La vida no puede ser reducida al principio de orden de Boltzman, si embargo, es compatible con el comportamiento que puede aparecer en condiciones muy alejadas del equilibrio, donde las palabras claves del nuevo comportamiento de la materia son: comunicación y percepción. La vida, lejos de estar fuera del orden natural, aparece como la expresión suprema de los procesos de autoorganización que pueden acontecer en estas situaciones. El acercamiento entre hombre y naturaleza es evidente en esta concepción. Se elimina con esto el mayor obstáculo que diferenciaba "ciencias" y "humanidades", ya no es necesario elegir entre una libertad "práctica" y un determinismo "teórico", el mañana ya no está incluido en el hoy. La separación clásica entre ciencia y sociedad ya no es posible. Estamos hoy mucho más preparados para establecer "nuevas alianzas" entre el hombre, sus conocimientos, sus sueños, y las actividades exploradoras de la naturaleza60. Así, dos palabras claves en esta nueva ciencia son tiempo irreversible, que nos lleva a cambio y evolución, y desequilibrio, que nos lleva a variedad y creatividad, a complejidad. De la misma forma, la relatividad y la mecánica cuántica nos llevan al fin de la universalidad con la modificación del concepto clásico de objetividad física, según el cual la descripción sólo es "objetiva" si es completa, esto es, independientemente de la elección de cómo es observada. La relación de incertidumbre de Heisenberg que afirma que las condiciones iniciales para determinar la trayectoria del electrón en su órbita (posición y momento) no pueden ser medidas simultáneamente con precisión, siendo el producto del error resultante en las mediciones que pueden realizarse aproximadamente igual a la constante h de Planck, provoca que se tenga que 58

La naturaleza bifurcante es aquella en la cual pequeñas diferencias, fluctuaciones insignificantes pueden, si se producen en oportunas circunstancias, invadir todo el sistema, engendrar un nuevo régimen de funcionamiento. La semejanza con algunos fenómenos sociales es evidente. 59 No en vano podemos observar cómo el problema del tiempo informa gran parte de los conceptos de este siglo, comenzando por la distinción de los diversos tiempos fruto de las investigaciones de Einstein, aunque el "tiempo local" definido por él es aún un tiempo reversible, y llegando a la concepción de I. Prigogine e I. Stengers (1983) donde el concepto de tiempo irreversible se convierte en una categoría central. 60 I. Prigogine e I. Stengers (1983), p.29.

introducir el concepto de probabilidad en las hasta entonces "objetivas" y "ciertas" mediciones de la física. Aunque como manifiesta Scheurer61 es una exageración buscar en esta relación "una raíz objetiva del libre arbitrio", no es menos cierto que tras él se hace necesaria la revisión del concepto de causalidad. El principio de complementariedad de Bohr puede considerarse como una extensión de la relación de incertidumbre de Heisenberg. Ningún lenguaje teórico que articule las variables a las cuales se puede atribuir un valor bien definido puede agotar el contenido físico de un sistema. Los posibles diferentes lenguajes y puntos de vista sobre el sistema son complementarios; la realidad es demasiado rica y sus contornos demasiado complejos para que una sóla lámpara las pueda iluminar por completo. Esta naturaleza irreducible de los puntos de vista sobre una misma realidad expresa la imposibilidad de descubrir un punto de vista divino desde el cual toda realidad es visible simultáneamente62. De todo esto surge la relatividad del mismo conocimiento que nos lleva a la urgencia de pensar en lo que M. Merleau-Ponty llama la "verdad en la situación"63; a la ciencia de la repetición, del encadenamiento riguroso la sustituye la ciencia creativa del azar y de las circunstancias64. De lo anterior, en parte al menos, se deduce otra característica importante: nuestro universo es participativo. No podemos detenernos en este punto como en ningún otro, pero sí podemos citar a Wheeler: "El universo es un circuito autoexcitado. Según se expande, enfría y desarrolla, da lugar a la participación del observador. Ésta a su vez genera lo que llamamos realidad tangible, el Universo"65. "En este mundo somos, -según la conocida frase de Niels Bohr-, actores y espectadores a un tiempo". La interdependencia entre todos los elementos de la naturaleza es manifiesta, por tanto, la naturaleza no se hace totalmente manipulable. Es un mundo abierto, imprevisible, que no puede ser dominado sino sólo explorado; a este mundo pertenecemos y participamos en su construcción. La naturaleza tiene su propia autonomía no está hecha para nosotros más que para el resto de la naturaleza, y no se ve entregada a nuestra voluntad. De esta forma, la historia de la ciencia no tiene, no puede tener, la sencillez atribuida a la evolución biológica hacia la especialización. Es una historia más sutil, más retorcida, más sorprendente. Es siempre susceptible de volver atrás, de volver a encontrar, en el seno de un paisaje intelectual transformado, preguntas olvidadas, de demoler los tabiques que ha construido y, sobre todo de estar por encima de los perjuicios más enraizados, incluso de aquellos que parecen serle constitutivos. Descripción que se contradice claramente con la simplicidad del análisis psico-social positivista de T. S. Kuhn66 , descripción parcial e históricamente situada, como demuestra I. Prigogine67. La historia de la ciencia por el contrario, como toda historia social es un proceso complejo. No obstante, entre la estrechez evolutiva de Khun, Lakatos y Stegmüller68 y la amplitud del "todo sirve" de Feyerabend69 existe un término medio (por así decirlo) que aquí defendemos y desarrollamos más adelante. Nos referimos a la combinación de "azar" y "necesidad" propia de los fenómenos complejos que no se adaptan a las leyes estáticas y rígidas. Esto unido a la interrelación antes señalada que tiene el mismo intento de conocimiento con las circunstancias 61

Vid. P. Sheurer (1979), p. 38-39. Vid. B. d'Espagnar (1979), M. Jammer (1974) y A. Petersen (1968). 63 M. Merleau-Ponty (1960), pp. 136-37. 64 Vid. M. Serres (1977), p. 139. 65 J. A. Wheeler (1979), citado por I. Prigogine e I. Stengers (1983), p. 245. 62

66

T. S. Kuhn (1971). I. Prigogine e I. Stengers (1983), pp. 273-76. W. Stegmüller (1981), con su concepto de "redes estructurales teóricas". 69 P. Feyerabend (1981). 67 68

humanas y sociales del conocedor, hace muy difícil llegar a determinar criterios "objetivos" sobre la validez del trabajo científico. El trabajo científico complejo está más cerca, no obstante, de dilucidar esa realidad compleja. En toda la descripción anterior la relación con la filosofía ha estado patente, dado que consideramos que filosofía y ciencia son dos saberes complementarios que contribuyen a la traducción de preocupaciones pertenecientes a una cultura y a una época. Podemos decir con G. Deleuze que "la dramatización se forma en la mente del soñador, pero también bajo el ojo crítico del sabio"70. Una interesante incursión en la filosofía de la complejidad se encuentra en el libro de S. Paniker, Aproximación al Origen71. Filosofía que también está en período de formación como la misma ciencia de la complejidad y ambas convergen enriqueciéndose y complementándose mutuamente. No podemos detenernos aquí en este tema, nos remitimos por ello a la bibliografía. Nos quedaría hablar del método para la complejidad; no obstante, hemos considerado más oportuno trasladar este aspecto al punto 3 dedicado expresamente a ello.

70 71

G. Deleuze (1988). S. Paniker (1982).

TERCERA UNIDAD: LA CIENCIA DE LA ECONOMÍA INTRODUCCIÓN En este apartado del presente manual docente, pretendo recoger algunas consideraciones generales sobre la Economía, la primera una clara referencia a la determinación del objeto de la ciencia económica, para después pasar a temas que traten del significado, carácter y método. Cuestiones todas ellas de permanente motivo de discusión entre los estudiosos de esta disciplina, de quienes se recogerán algunas de las opiniones más cualificadas. Resulta obligada la referencia al propio concepto de Economía, a lo que se entiende por tal, mostrando algunos de los numerosos empeños que a lo largo de la historia se han realizado par definir este término. Profundizando en la caracterización de la Economía, se establecen algunas de las opiniones surgidas en torno a su consideración científica y la presencia o no de valoraciones ideológicas en las recomendaciones económicas. Así mismo se tratará, a su vez, de encuadrar dentro de este marco general los conceptos de Economía (Economía Aplicada) Este apartado finaliza con un breve recorrido por la historia del pensamiento y el método económico, que nos permitirá una mejor comprensión del contenido de la Economía y de las coordenadas en que se desenvuelve en la actualidad. 3.1 EL OBJETO DE LA ECONOMÍA Antes de perfilar una definición formal de nuestra disciplina, nos parece oportuno buscar la caracterización esencial del objeto de la ciencia económica. Delimitar cuál es el objeto de estudio nos parece fundamental, pues puede ocurrir, como decía Robbins, que todos hablemos de los mismo sin habernos puesto de acuerdo todavía sobre el objeto de la conversación. Empezaremos con las aportaciones de los “Economistas Clásicos”, quienes centran su interés en la riqueza y resaltan la importancia del consumo como fina de toda producción. En este sentido, para A. Smith, el principal objeto de la economía de cualquier país, consiste en aumentar la riqueza y el poderío de sus dominios. Por tanto, para este economista clásico, el ámbito de estudio de nuestra ciencia sería determinar las causas explicativas de la riqueza/pobreza de las naciones, clases sociales, grupos o personas (Smith, 1958). Por su parte, J. Stuart Mill, centra su atención en la distribución, viniendo a definir la economía como la ciencia que estudia la riqueza y las leyes de su producción y de su distribución (Mill, 1951). Sin embargo, como comenta el Profesor Castañeda (1968), respecto a la delimitación del objeto por parte de los Economistas Clásicos, descripciones de este tipo no pueden satisfacernos, pues esto no significa otra cosa que trasladar la cuestión a la determinación de lo que bajo la palabra “riqueza” deba entenderse. Debemos buscar la caracterización esencial del objeto de la ciencia económica a través de lo que denominamos “actividad económica”, que es como actualmente se entiende y que analizamos en los siguientes párrafos. Para concretar el objeto de la economía, vamos a delimitar los rasgos propios del aspecto económico de la actividad humana. En este sentido, la primera característica sería la escasez de los medios empleados para la satisfacción de unas necesidades humanas que son ilimitadas. Generalmente, el fin que se persigue es que el individuo satisfaga, al menos, algunas de sus necesidades. A este respecto, los bienes y servicios obtenidos mediante la actividad que

llamamos producción se consideran medios a través de los cuales se conseguirá el objetivo de la satisfacción de las necesidades de los consumidores. Una segunda nota sería la necesidad de elección, dado que los recursos o medios disponibles para producir los bienes utilizados son escasos y las necesidades ilimitadas. Sin escasez de recursos los problemas económicos no existirían, pero, aún con escasez de recursos, si sólo existiera una opción con respecto a sus utilización, los problemas económicos no serían tales. La existencia de escasez, al ser ilimitadas las necesidades y limitados los recursos, obliga a elegir. Para cualquier sociedad existe un límite, una “frontera de posibilidades” económicas, por lo que habrá que decidir cómo asignar los recursos para producir unos bienes u otros. El término que utilizamos para expresas los costes desde el punto de vista de las alternativas perdidas es el de “coste de oportunidad”. Escasez de medios, necesidades ilimitadas, elección de fines y coste de oportunidad constituyen las ideas básicas que permiten comprender la actividad económica. Resumiremos utilizando las siguientes palabras del profesor Castañeda (1968, pág. 9): “Podemos sentar la conclusión de que la actividad económica es la que se dirige a la satisfacción e las necesidades humanas empleando medios escasos con arreglo al principio de máximo aprovechamiento”. En definitiva, será esta actividad económica el objeto de la economía y, más concretamente, los problemas que plantea la actividad económica. A este respecto, los profesores Dornbusch, Ficher, y Schmalensee (1989, pág. 3), exponen lo siguiente: “El problema económico esencial de todas las sociedades es el conflicto entre los deseos casi ilimitados de los individuos de bienes y servicios y los recursos limitados que puedan utilizarse para satisfacerlos”. Para el profesor Lipsey, el objeto de la economía será la resolución de los problemas económicos que ocasionan el hecho de que los recursos de los países no sean suficientes para la producción de bienes y servicios que necesitan sus ciudadanos para la satisfacción de necesidades humanas. Estos problemas económicos se concretan en la siguientes preguntas (Lipsey, 1985, pp. 69-72): 1. “ ¿Qué bienes hay que producir y en qué cantidades?. 2. ¿Con qué métodos de producción se obtiene estos bienes? 3. ¿Cómo se distribuye la oferta de bienes producidos entre los individuos que componen la sociedad? 4. ¿Se utiliza la totalidad de los recursos de una país, o algunos se desaprovechan? 5. ¿Permanece constante el poder adquisitivo del dinero y del ahorro o está siendo erosionado por la inflación? 6. Crece cada año la capacidad de la economía de producir bienes y servicios o permanece estacionaria? ”

3.2 UNA APROXIMACIÓN AL CONCEPTO DE ECONOMÍA Previamente al estudio de los problemas metodológicos que presenta nuestra disciplina, estamos obligados a dar una definición de ciencia económica y posteriormente analizar y delimitar el concepto. En este sentido, hay que aclarar que no resulta fácil dar una definición única, puesto que han sido muchas las que se han propuesto a lo largo de la historia, la mayoría de ellas están más o menos influidas por las condiciones del momento o bien por las distintas escuelas o doctrinas de pensamiento económico de la época. No quiere decir esto que exista un relativismo en su concepción, sólo ponemos de relieve la dificultad que entraña el aceptar una única definición. Dado que hemos indicado anteriormente que la actividad económica tiene por fin la satisfacción de las necesidades humanas, de la misma forma podría decirse que el fin de la

actividad económica es el bienestar humano. En este mismo sentido se muestra Marshall al expresar la siguiente definición de economía en 1930: “La economía es un estudio de la humanidad en las ocupaciones ordinarias de la vida y examina aquella parte de la acción individual y social que pueda tener más estrecha conexión con la obtención y el uso de los artículos materiales para el bienestar” (Marshall, 1957, pág. 1). Sin embargo, esta propuesta de Marshall sobre el contenido de la economía, en opinión del profesor Castañeda (1968), no considera el principio de escasez ni la posibilidad de elección de medios limitados sucsceptibles de usos diferentes, es decir, una elección para determinar entre varias posibilidades la más conveniente. Por su parte Robbins, se va acercando más a los principios que conforman la actividad económica, su definición, ya clásica, es la siguiente: “La economía comprende la conducta humana como relación entre fines y medios escasos con usos alternativos” (Robbins, 1951)”. La definición de Robbins no se centra en cualquier tipo de comportamiento, sino que se ocupa fundamentalmente de un aspecto particular, la forma que éste adopta bajo la influencia de la escasez. Un inconveniente que encontramos en esta definición es que no se pone de manifiesto que la economía es una ciencia social que estudia la actividad de los hombres que viven en colectividad. A esta crítica podemos añadir la del profesor Malinvaud (1981, pág. 13): “La definición de Robbins corre el riesgo de no distinguir suficientemente la economía de la ciencia política, puesto que las expresiones “fines y medios” pueden entenderse en un sentido muy general”. Por su parte O. Lange en una obra adherida al pensamiento marxista, define la economía como: “La ciencia de las leyes sociales que rigen la producción y distribución de los medios materiales que sirven para satisfacer las necesidades humanas” (Lange, 1966, pág.11) Malinvaud también critica esta definición en cuanto a la mala interpretación que se le pueda dar a los contenidos de “leyes sociales”, que deberían incluir la categoría de fenómenos que la economía analiza, más que las relaciones entre ellos, y “medios materiales”, en cuanto que no dice nada de los servicios, que se suponen implícitos dentro de estos medios materiales. En su lugar, propone una definición que de alguna forma completa las dos anteriores: “La economía es la ciencia que estudia cómo los recursos escasos se emplean para la satisfacción de las necesidades de los hombres que viven en sociedad; se interesa, por un lado, en las operaciones esenciales tales como la producción, la distribución y el consumo de los bienes y, por otro, en las instituciones y las actividades que tienen por objeto facilitar dichas operaciones” (Malinvaud, 1981, pág. 13). Recientemente se ha preferido aclarar el contenido y significado de la economía, más que expresar breves definiciones. De esta forma el profesor Samuelson (1990, pág.5) delimita el concepto de la siguiente forma: ? “La economía es el estudio de las actividades relacionadas con la producción y con el intercambio de bienes”. ? “La economía analiza la evolución de la economía global: las tendencias de los precios, de la producción y del desempleo. Una vez que se comprenden esos fenómenos, ayuda a elaborar las medidas con las que los gobiernos pueden mejorar los resultados económicos”. ? “La economía es la ciencia de la elección. Estudia la forma en que los individuos deciden utilizar los recursos productivos escasos o limitados para producir diversas mercancías y distribuir estos bienes entre los distintos miembros de la sociedad para su consumo”.

? “La economía estudia las relaciones comerciales entre las naciones. Ayuda a explicar por qué éstas exportan algunos bienes e importan otros y analiza los efectos que produce la instalación de barreras económicas en las fronteras nacionales”. ? “La economía es el estudio del dinero, la banca, el capital y la riqueza”. Si analizamos las explicaciones propuestas por Samuelson, vemos que contienen las definiciones elaboradas por Robbins, en cuanto a la utilización de recursos escasos susceptibles de usos alternativos, y la formulada por Lange, que hace hincapié en la distribución“. Por su parte el profesor Lipsey (1985, pág. 74), prefiere perfilar el alcance de la economía de la siguiente forma: “La economía definida en términos generales, se ocupa en la actualidad de: ? La asignación de los recursos de una sociedad entre sus usos alternativos y la distribución de su producción entre los individuos y los grupos ? El modo como la producción y la distribución cambian a lo largo del tiempo ? La eficacia e ineficacia de los sistemas económicos”. Desde una visión más de evolución, la caracterización conceptual de la economía ha sido objeto de controversia a lo largo de la historia del pensamiento económico, aunque las diferentes perspectivas que sobre esta disciplina conviven han dado lugar a distintas conceptualizaciones. Ciertamente, cualquier definición, en la medida que limita o pone fronteras al concepto sobre cuyo significado responde, es susceptible de ampliación o restricción, lo que se acentúa en el caso de una ciencia humanista y social, con vinculaciones ideológicas e históricas, con un amplio abanico de escuelas, y que incorpora la certeza de que sus conclusiones no están exentas de un posterior impacto en la realidad. No es sólo una cuestión de diferencias conceptuales e ideológicas entre autores, sino también el hecho de que las diferentes definiciones se vinculan, en mayor o menor grado, al estado en que se hallaba la disciplina en el momento de definirla. Así vemos cómo el objeto de la economía es “la naturaleza y las causas de la riqueza de las naciones “ (A. Smith), “las leyes que rigen la distribución de los productos de la tierra” (D. Ricardo); “poner al desnudo la ley económica del movimiento de la sociedad moderna” (C. Marx); “las acciones del hombre en los asuntos ordinarios de la vida” (A Marshall): “los precios y sus causas y sus corolarios” (Davenport); “la conducta humana como relación entre fines y medios limitados que tienen vías alternativas” (L. Robbiens). Mientras que en el siglo XIX la corriente principal en economía se dedicaba al estudio de problemas como la relación entre el crecimiento de los recursos y el aumento de las necesidades, las leyes de distribución de los productos de la tierra, la naturaleza y causas de la riqueza, o las leyes de la evolución del capitalismo, en el siglo XX pasó a convertirse en un estudio de los principios que gobiernan la asignación eficiente de los recursos cuando tanto estos como las necesidades están dados. Las visiones de A. Smith o Ricardo inciden sobre un objeto amplio de la economía, de naturaleza social, que como señalaba J. S. Mill72, está encaminado, a “enseñar o investigar la naturaleza de la riqueza, las leyes de su producción y su distribución, incluyendo directamente o en forma remota, la actuación de todas las causas por las que la situación de la humanidad, o de cualquier sociedad de seres humanos, prospera o decae respecto a ese objetivo universal de los deseos humanos”.

72

Oser Blanchfield (1980) pág. 150

Como puede comprobarse, el análisis de las relaciones de producción y distribución, en cuanto condicionantes básicos del crecimiento y del bienestar social, ocupan ya una parcela importante del esfuerzo científico de la escuela clásica73. Del intento de acotar el campo de la economía dado por L. Robbiens, para quien la economía es: “la ciencia que estudia la conducta humana como una relación entre fines y medios limitados que tienen diversa aplicación”, se desprende el giro experimentado por las investigaciones económicas. Este giro tiene sus antecedentes en el último tercio del siglo XIX con Jevons y como síntesis de la corriente subjetiva. La definición de Robbins sitúa el objeto de la economía en la relación entre fines y medios escasos, aunque sin cuestionarse acerca de éstos y aquéllos. La economía pasa a ser una ciencia general del comportamiento en un aspecto de la acción humana, la lógica de la elección en condiciones de escasez74. La economía así concebida deja de ser una ciencia social para convertirse en una lógica de la actividad racional aplicable por igual en la medicina, la física o el arte.

8 Sin duda, esta concepción genérica de la economía corresponde a una etapa de predominio de las investigaciones microeconómicas, al observar olvidos importantes como el de los problemas relativos al crecimiento de los recursos o la falta de referencia a los aspectos sociales. El estudio de la optimización de la conducta de los individuos lleva a considerar a éstos como decisores racionales, en lugar de cómo seres sociales. Desprovistas de su carácter social y haciendo abstracción del marco histórico e institucional, las leyes económicas pasan a adquirir así el carácter de universales. Este enfoque expresa el profundo cambio y la ruptura en la concepción del objeto de la economía desde sus primeras formulaciones científicas. Culmina de esta forma la preocupación por reducir lo más posible el objeto de la economía. Reduccionismo que se va a manifestar en la transición de la Economía Política clásica a la Economía sin más, por otra parte, ya sugerida en el título de los Principios de Economía de Marshall en 1890. Por tanto y después de dos siglos de ocuparse del crecimiento de los recursos, y del aumento de las necesidades, la economía se convierte, como señala Blaug, en “un estudio de los principios que gobiernan la asignación eficiente de los recursos, cuando tanto los recursos como las necesidades están dados75”. Siguiendo a Sweezy, con los recursos, gustos, y técnicas de producción como datos exógenos, con los determinantes políticos-sociales eliminados y los aspectos institucionales relegados, el sistema económico deja de ser considerado primordialmente en términos de relaciones entre

73

Como se verá en el apartado dedicado al enfoque estructural, la identificación de relaciones estructurales y la preocupación por la realidad, aparecen ya en los primeros desarrollos de la ciencia económica. La idea de globalidad e interdependecnia ya está presentes en la visión de proceso económico de los clásicos. 74 Blaug, M (1985) pág. 28 75 Sweezy, P. (1975) pág.15

individuos (relaciones sociales) para contemplarse en términos de relaciones entre individuos y cosas 76. De esta forma se desarrolla una concepción del objeto de la economía que ni delimita adecuadamente su campo de actuación, que no logra integrar gran parte del quehacer teórico en economía, ni permite hacer frente a nuevas realidades económicas, de los que los problemas derivados de la concentración de capital, la expansión de las actividades estatales y el desarrollo institucional, o el desigual desarrollo de las economías nacionales, pueden ser buenos ejemplos. No resulta extraño pues, que esta concepción suscitara un intenso debate, encontrando defensores y, sobre todo, detractores generalizados en torno a lo que en palabras de Hutchison sería “exceso de reduccionismo racionalista”. Entroncado con los planteamientos de la escuela clásica del estudio de las relaciones de producción y distribución, se dan paso las definiciones “materiales” que otorgan a la economía la necesaria autonomía dentro de las ciencias sociales. Desde esta concepción, O. Lange considera que la definición formalista de Robbins difumina los contornos del objeto de la economía y la empuja a cubrir campos de la actividad humana que le son ajenos y a marginar problemas genuinamente económicos. Lange señala como objeto de la economía “el estudio sistemático... de las leyes sociales que rigen la producción y la distribución de los medios materiales que sirven para satisfacer las necesidades humanas11 ”. Las concepciones materialistas, permiten avanzar en la delimitación del ámbito específico de la Economía, centrándola en la descripción y explicación de los procesos de producción, distribución y consumo de los bienes materiales. Desde una óptica social del proceso económico, estas concepciones permiten integrar las tradiciones propias de la economía como ciencia favoreciendo un enfoque multidisciplinar y la incorporación de variables no estrictamente económicas77. A medio camino entre concepciones como la de Robbinds, y la de Lange, surgen otras definiciones inconcretas y tan amplias que pueden abarcar las más diversas materias. En esta línea Samuelson, quien junto a Schumpeter no otorga gran interés ni utilidad a la búsqueda de una definición del objeto de la economía, se limita a ofrecer una descripción de las cuestiones de las que se ocupa la Economía, acaba señalando que, “la Economía es el estudio de la manera en que las personas terminan por elegir, usando o no el dinero, el empleo de los recursos productivos escasos que podrían tener usos alternativos para producir diversos bienes y distribuirlos para su consumo, presente y futuro, entre las diferentes personas o grupos de la sociedad. La Economía analiza los costos y los beneficios derivados de la mejora de los patrones de utilización de los recursos78”. La definición de Samuelson mantiene el núcleo de la de Robbins, elección y escasez, introduciendo conceptos como sociedad, grupos o distribución que la hacen menos coherente y no elude ninguna de las críticas primitivas. En resumen, la dificultad para encontrar una acotación específica y generalmente aceptada al concepto de economía permite recordar la afirmación de Pascal, no puede soñarse en definirlo 76

Lange, O. (1961) pág.11 Mientras, el enfoque racionalista expresado por Robbins, explicaría la multiplicidad y diversidad de campos en que encontramos trabajando a economistas: la Economía del Trabajo, la Educación, o el Medioa Ambiente, y por tanto, y a la vez, la práctica imposibilidad de definir un objeto común s uss preocupaciones. 78 Samuelson, P. (1983) pág. 2 77

todo, a la vez que pensar con J. Viner en la ausencia de fronteras: economía es lo que hacen los economistas. Con las definiciones precedentes se deja notar que la economía es una ciencia social y empírica que se ocupa de estudiar cómo se administran los recursos escasos susceptibles de usos alternativos para la satisfacción de unas necesidades humanas que son ilimitadas, utiliza para ello unos instrumentos de análisis con la intención de explicar y predecir los fenómenos observados que acontecen en la actividad económica. 3.3 LA ECONOMÍA COMO CIENCIA Quienes se plantean esta cuestión se ven obligados previamente a interrogarse sobre qué se entiende por economía y qué se entiende por ciencia. La solución de ambos interrogantes ha suscitado opiniones encontradas. En el campo concreto de la economía se mantienen en cuestión aspectos tan elementales como el objeto o el método, por no citar un sinfín de cuestiones, lo que ha impedido hasta el momento alcanzar una opinión unánime sobre su carácter científico. La discrepancia no tendría mayor importancia si no fuera porque de las distintas concepciones sobre la ciencia y la economía han surgido diversas percepciones y diagnósticos sobre la ciencia económica.

En síntesis, el modo de concebir el objeto y el método de la economía se ha polarizado entre la corriente denominada, por un lado, de tradición marxista, y por otro, la de tradición capitalista, dentro de la cual a su vez se yuxtaponen o se suceden distintas escuelas de pensamiento. Este marco de discusión se suscita, en todo caso, en el ámbito propio de los economistas y entre economistas. No sucede lo mismo con la polémica entre lo que es o no es ciencia, que se presenta desde un comienzo como problema marcadamente filosófico, del que no han rehuido polemizar intelectuales como Kant, para quien el problema está en determinar la demarcación entre ciencia y metafísica, que sólo es posible establecer a través de criterios lógicos, puesto que para él al conocimiento científico se llega a través de un ejercicio de lógica. Abundando en esta interpretación la profesora J. Robinson niega el pretendido carácter científico de la Economía ya que, argumenta, como ciencia social que, carece de criterios generalmente aceptados sobre las hipótesis, lo que le confiere, en su opinión, un sentido más tecnológico que científico. Admite la posibilidad de que con el tiempo pueda adquirir carácter científico, si bien, dice, por ahora lo que hay en ella no es más que una caja de herramientas. Para otros autores como Schumpeter, que mantienen una concepción más amplia – más sociológica si se quiere- sobre la ciencia, la Economía lo es. En su interpretación “es ciencia cualquier campo de conocimiento que haya desarrollado técnicas especiales para el hallazgo de hechos y para la interpretación o la inferencia (análisis)”79. Bajo este criterio la cuestión se hace meridiana, pues resulta evidente que la economía se vale de técnicas que no son de uso común para el público, siendo, por otra parte, muchos los economistas que las cultivan.

79

Schumpeter, J.A. (1982) pág. 41.

Una forma generalmente aceptada de determinar el carácter científico de una teoría es a través de la refutación de las hipótesis. En el caso de la economía el problema estriba en la falta de unos criterios mayoritariamente asumidos sobre la forma de realizar esta refutación. Como señala Mark Blaug “la gran dificultad para verificar las teorías económicas, -antiguas o modernas, no es tanto la imposibilidad de la realización de experimentos controlados para refutar así las teorías en forma definitiva, sino más bien el hecho de que, por carece de condiciones de laboratorio adecuadas, los economistas (y por supuesto todos los científicos sociales) no pueden ponerse de acuerdo sobre los criterios empíricos precisos que deben emplearse para refutar una hipótesis”80 En última instancia, la dificultad para calificar de científica una determinada teoría económica es que rara vez ésta conduce a conclusiones inequívocas de política económica, más bien al contrario, los economistas encuentran en ella respaldo a recomendaciones de política económica diametralmente opuestas. Incapaces de llegar a un acuerdo, e indagando en la vertiente científica de la economía, la cuestión se ha intentado resolver profundizando en el propio contenido de la misma. Surge así la polémica sobre ciencia positiva y normativa, con la consiguiente implicación sobre juicios de valor o la presencia de ideología en la economía. El tema de los juicios de valor no es exclusivo de la economía ni de las ciencias sociales. Pero no se debe minimizar el papel que juegan en este disciplina. En las ciencias naturales, por ejemplo, el objeto de estudio, la materia, no tiene juicios de valor y el científico carece en muchas ocasiones de un sentido finalista porque no tiene un interés especial en conducir la investigación hacia un objetivo socialmente determinado. El pensamiento económico tradicional ha mantenido la preocupación por lograr una ciencia económica desprovista de juicios de valor y principios ideológicos. Bajo el pensamiento económico clásico, ortodoxo y neoclásicos se mantuvo, on mayor o menor unanimidad, el principio de diferenciación entre proposiciones ositivas y normativas 81. Desde el punto de vista conceptual esta distinción parece lara. En palabras de M. Friedman: “ la primera se ocupa de cómo se resuelve el roblema económico mientras que la teoría normativa de cómo se debe resolver”82. La dificultad surge en el campo de la Política Económica, dado que la Economía es una disciplina en la que, a diferencia con otras como la física, el objeto de estudio son las interrelaciones entre los seres humanos – entre los que se incluye obviamente el propio investigador- cualquier valoración sobre una determinada acción parte de las consecuencias previstas en los principios positivistas bajo los que se analiza aquélla, las cuales podrán suscitar, dependiendo de la persona de que se trate, su aceptación o rechazo. Schumpeter propone separar la Economía Científica (que para él si es ciencia) de la Economía Política (que no lo es). Esta pretensión es muy criticada por los economistas heterodoxos, que mantienen que la ideología está en la misma raíz del análisis económico. Por lo general, los defensores de la conexión entre economía e ideología añaden el calificativo de política al término economía. Así hablan de Economía Política y no de Ciencia Económica; término que usan quienes ven a la economía libre de condicionamientos ideológicos. Robbins es particularmente explícito en este sentido cuando separa los medios de los fines en el ámbito científico, con el objeto de lograr una neutralidad científica83. 80

Blaug, M. (1985). pág. 31 En opinión de Hutchison, esta distinción pudo arraigar ya en 1836, de la mano de J. S. Mill y Nassau Seniro. T.H. Hutchison (1971). 82 Friedman, M. (1976) pág. 15. 83 Para una crítica al profesor Robbins sobre la netutralidad de los medios ver Sanchez Ayuso (1975) pp. 13 y sgtes.. 81

Entre los críticos a la concepción admitida tradicionalmente de una economía libre de juicios de valor, se argumenta que la ideología está en la base misma del trabajo analítico ya que la selección de los datos se hace según la particular visión que cada cual tiene de las cosas, y esa visión es fruto de la ideología, cuya presencia –se admite- puede afectar a la validez de los resultados. Schumpeter considera que tan ciertas como estas ideas es la existencia de unas reglas de procedimiento analítico, desarrolladas a través del tiempo y al margen de la ideología, que tienden a contrarrestar ese “error” ideológico del que partimos. Con esta alegación intenta combatir las críticas a la validez objetiva de los métodos y resultados del análisis económico84. Muy distinta opinión mantiene la señora Robinson que considera que la economía ha sido siempre en parte un vehículo de la ideología dominante en cada momento y en parte un método de investigación científica, siendo tarea del economista lograr la separación entre ambos85. Separación que, evidentemente, presenta no pocas dificultades, ya que todo sistema económico se apoya en la existencia de un conjunto de reglas, fruto de una concepción ideológica determinada que el individuo asume y que el economista se encuentra arrastrado a justificar. M. Blaug no cuestiona la presencia permanente de la propaganda y la ideología, si bien, en similitud con Schumpeter, proclama frente a ellas las reglas del procedimiento científico incorporado a lo largo del tiempo a la Ciencia Económica, que actúan corrigiendo los “sesgos” del pasado. Es innegable que, al igual que la generalidad de las ciencias sociales, la economía no se encuentra libre de juicios de valor86. Es más, ni tan siquiera cabe alegar una actitud moralmente neutral frente a un problema económico, puesto que la misma indiferencia comporta en si una determinada postura moral. Esta circunstancia no cierra la posibilidad de teorías económicas intrínsecamente objetivas, si bien tal cualidad habrá de probarla mediante el sometimiento a la crítica y la comprobación de que sus predicciones no se compatibilizan con todos los resultados posibles. Al subrayar Oskar Lange la importancia del cambio sobrevenido en el pensamiento económico tras la muerte de Ricardo escribe: “...la burguesía dejó de interesarse por el ulterior desarrollo de la economía política. A medida que la economía política, ahora utilizada por el movimiento obrero, fue resultando inconveniente y hasta peligrosa para la burguesía, se desarrolló la tendencia a liquidarla en cuanto ciencia que estudia las relaciones económicas entre los hombres, y a sustituirla por una apología, esto es, por la justificación del modo de producción capitalista”87 Prescindiendo del carácter (genético) agresivo y teologal con que se expresan ciertos herederos de Marx, es claro que la economía (o economía política) es usada a menudo con justificación de actuaciones poco neutrales. Entre los economistas se ha legado en cierta medida a sumir que la teoría económica puede estar en gran parte libre de juicios de valor, situación que no se puede dar en la política económica, lo que de hecho supondría su principal caracterización por entender que lleva implícitos juicios morales. Esta distinción lleva unida una gran contradicción: la de admitir que las verdades 84

Puede verse Meek, R.L. (1972) pp. 295 yss., para una crítica a Schumpeter y pp. 315 y ss para Robinson. 85 Robinson, J. (1966) pág. 8 86 La mejor prueba nos la proporciona la teoría del bienestar, bajo la cual se pretende lograr una asignación de recursos socialmente eficiente, lo que obliga a escoger entre un conjunto de opciones la mejor o más eficiente (elección que está cargada de subjetividada). 87 Lange, O.L (1963) pág.261

objetivas que el economista puede descubrir en su tarea investigadora se convertirán en juicios morales al utilizarlas para asesorar a los políticos. Tal contradicción puede que no exista, y que de hecho todos (o casi todos) los enunciados económicos, tanto de política como de teoría económica, sean de una u otra forma prescriptivos (normativos) y no descriptivos (positivos). No obstante, si bien es evidente que las prescripciones políticas pueden encubrir juicios morales, es igualmente lícito pensar que ello no ha de producirse inevitablemente.

La discusión sobre hasta qué punto es posible el conocimiento objetivo, libre de subjetividad o apreciaciones ideológicas, ha dificultado la aplicación práctica del saber económico, haciendo de las recomendaciones de política económica un motivo permanente de discrepancia entre los economistas. Estas discusiones tienen por regla general un trasfondo más político que económico23. Mientras esto ocurra hemos de ser forzosamente pesimistas sobre un próximo desenlace de la polémica y no será descabellado concluir que en tanto haya ideologías económicas opuestas existirán necesariamente discrepancias sobre el resultado práctico de las aplicaciones de los principios económicos.

3.4 EL CALLEJON SIN SALIDA DE LA ECONOMIA “EL Punto Crucial” de Fritjof Capra Con el triunfo de la mecánica newtoniana en los siglos XVIII y XIX la física quedó establecida como prototipo de una ciencia «exacta» con la que se habían de cotejar todas las demás ciencias. Cuanto más cerca llegasen los científicos en su imitación de los métodos físicos, y cuantos más conceptos de la física lograsen utilizar, tanta más categoría tendría su ciencia ante la comunidad científica. En nuestro siglo, esta tendencia A imitar los conceptos, y las teorías de la física newtoniana se ha vuelto una gran desventaja en muchos campos, especialmente en las ciencias sociales. Éstas, por tradición, eran consideradas las «menos exactas», y sociólogos y economistas han realizado los mayores esfuerzos para ganar respetabilidad, adoptando el paradigma cartesiano y los métodos de la física newtoniana. Sin embargo, el esquema cartesiano muchas veces resulta inadecuado para describir los fenómenos de las ciencias sociales y, por consiguiente, los modelos se han vuelto cada vez menos realistas. Hoy por hoy, esto es particularmente notorio en la economía. La economía actual se caracteriza por el enfoque fragmentario y reduccionista, típico de la mayoría de las ciencias sociales. Por lo general, los economistas tienden a olvidar que su ciencia no es más que un aspecto de toda una estructura ecológica y social, un sistema viviente formado de seres humanos que se relacionan continuamente entre sí y con los recursos naturales, que, a su vez, son también organismos vivientes. El principal error de las ciencias sociales es la división de esta estructura en fragmentos que se consideran independientes y que se tratan en distintos departamentos académicos. Así pues, los expertos en política suelen hacer caso omiso de las fuerzas económicas básicas, mientras los economistas no logran incorporar las realidades políticas y sociales a sus modelos. Este enfoque fragmentario también se refleja en los gobiernos, en la división entre la política social y la economía, y —especialmente en los Estados Unidos— en los laberínticos comités y subcomités del Congreso donde se discuten estos temas políticos. A lo largo de la historia moderna, varias figuras destacadas han señalado y criticado la división de la economía en fragmentos y secciones. No obstante, al mismo tiempo, los economistas críticos que querían estudiar los fenómenos económicos tal y como se presentaban en la

realidad, vinculados a la sociedad y al ecosistema, y que, por consiguiente, disentían de la doctrina económica aceptada, se veían prácticamente obligados a situarse «fuera» de las ciencias económicas, eximiendo a la confraternidad de los economistas de tratar con los problemas que estos críticos planteaban. Por ejemplo, a Max Weber, uno de los críticos del capitalismo en el siglo XIX, se le consideraba un historiador económico; John Kenneth Galbraith y Robert Heilbroner suelen aparecer como sociólogos; y los libros hablan del «historiador» Kenneth Boulding. En cambio, Karl Marx se negaba a que lo llamasen economista y se consideraba a sí mismo un crítico de la sociedad, afirmando que los economistas no eran más que apologistas del orden capitalista existente. De hecho, en su origen, el término «socialista» se refería sólo a aquellos que no aceptaban la visión del mundo de los economistas. En los últimos años, Hazel Henderson ha continuado esta tradición, llamándose a sí misma «futurista» y poniéndole por subtítulo a uno de sus libros «El fin de la Economía»1. Otro aspecto de los fenómenos económicos que, pese a su enorme importancia, ha sido descuidado por los economistas es la evolución dinámica de la economía. Los fenómenos descritos por la economía se diferencian profundamente de los estudiados por las ciencias naturales en su naturaleza dinámica. La física clásica se aplica a un ámbito de fenómenos naturales bien definido e inmutable. Si bien más allá de estos límites he de ser sustituida por la física cuántica y por la relativista, el modelo newtoniano sigue siendo válido dentro del ámbito clásico y sigue considerándose una base teórica eficaz para gran parte de la tecnología contemporánea. Asimismo, los conceptos de la biología se aplican a una realidad que ha cambiado muy poco a través de los siglos, pese a los considerables progresos habidos en el conocimiento de los fenómenos biológicos y al reconocimiento de las limitaciones de la antigua estructura cartesiana. Pero la evolución biológica tiende a suceder durante larguísimos períodos de tiempo y en general no genera fenómenos totalmente nuevos, sino que avanza mezclando y combinando un número limitado de estructuras y funciones2. En cambio, la evolución de los modelos económicos sucede a una velocidad mucho mayor. La economía es un sistema obligado al cambio y a la evolución constante y que depende de los cambiantes sistemas ecológicos y sociales a los que está vinculada. Para entenderla necesitamos un esquema conceptual que también sea capaz de cambiar y adaptarse continuamente a nuevas situaciones. Desafortunadamente, las obras de la mayoría de los economistas contemporáneos carecen de tal estructura, pues sus autores siguen fascinados por el rigor absoluto del paradigma cartesiano y por la elegancia de los modelos newtonianos, y pierden por ello cada vez más el contacto con las realidades económicas actuales. La evolución de una sociedad, que incluye la evolución de su sistema económico, está íntimamente vinculada a los cambios del sistema de valores que está en la base de todas sus manifestaciones. Los valores que rigen la vida de una sociedad son los que determinarán su visión del mundo y de sus instituciones religiosas, sus empresas científicas, su tecnología y sus acuerdos políticos y económicos. Una vez expresados y codificados, los valores y los objetivos de la comunidad constituirán la estructura de las percepciones e ideas de la sociedad, y también determinarán las innovaciones y las adaptaciones sociales que ésta realice. Como el sistema de valores culturales suele cambiar —muchas veces en respuesta a los desafíos ambientales— surgirán nuevos modelos de evolución cultural. Así pues, el estudio de los valores tiene una importancia capital en todas las ciencias sociales: no puede haber ninguna ciencia social que esté desprovista de valores. Los investigadores que consideran «poco científica» la cuestión de los valores y que creen estar evitándolos están tratando de hacer algo imposible. Cualquier análisis «desprovisto de valores» de un fenómeno social se basa en la suposición tácita de que existe un sistema de valores implícito en la selección y la interpretación de datos. Evitar el asunto de los valores, pues, no significa que los especialistas en ciencias sociales sean más científicos, sino que, por el contrario, están siendo menos científicos, al no exponer

explícitamente las suposiciones en las que se apoyan sus teorías. Por consiguiente, quedan expuestos a la crítica de Marx cuando afirmaba que «todas las ciencias sociales son ideologías disfrazadas»3. La economía se define generalmente como la ciencia que se ocupa de la producción, de la distribución y del consumo de la riqueza. Las ciencias económicas tratan de determinar qué es válido en un momento dado a través del estudio del valor de cambio de bienes y servicios. Así pues, de todas las ciencias sociales, la economía es la más normativa y la más dependiente de valores. Sus modelos y sus teorías siempre estarán basados en un cierto sistema de valores y en una cierta concepción de la naturaleza humana, apoyándose en una serie de suposiciones que E.F. Schumacher llama «metaeconomías», pues rara vez están incluidas explícitamente en el pensamiento económico contemporáneo4. Schumacher ha ilustrado elocuentemente la dependencia de la economía respecto del sistema de valores, comparando dos sistemas económicos dotados de valores y de objetivos totalmente distintos5. El primero es nuestro sistema materialista moderno, en el que el «nivel de vida» se mide de acuerdo con la cantidad de consumo anual, y que por consiguiente trata de alcanzar el consumo máximo junto con un modelo óptimo de producción. En el segundo se trata de un sistema de economía budista basado en las nociones del «justo sustento» y de «la Vía del Medio», cuyo objeto es conseguir el máximo de bienestar humano con un modelo óptimo de consumo. Los economistas contemporáneos, tratando equivocadamente de proporcionar rigor científico a su disciplina, han evitado constantemente el tema de los valores no expresados. Kenneth Boulding, presidente de la Asociación de Economistas Norteamericanos, ha definido este intento concertado como «un ejercicio destinado a fracasar estrepitosamente... que ha preocupado a toda una generación de economistas (en realidad, a varias generaciones) llevándolos a un punto muerto, a un desinterés casi total por todos los principales problemas de nuestro tiempo»6. Al evadir los temas relacionados con los valores, los economistas se han retirado hacia problemas más fáciles pero menos importantes, y han ocultado los conflictos de valores utilizando un lenguaje técnico muy elaborado. Esta tendencia es particularmente fuerte en los Estados Unidos, donde hoy existe la creencia generalizada de que todos los problemas — económicos, políticos o sociales— pueden resolverse con la técnica. De ahí que las industrias y las empresas contraten ejércitos de economistas para preparar los análisis de rentabilidad que convierten las opciones morales y sociales en opciones pseudotécnicas y por ello ocultan los conflictos de valores que sólo pueden ser resueltos políticamente7. Los únicos valores que aparecen en los modelos económicos actuales son aquellos que pueden ser cuantificados asignándoles un valor monetario. La importancia que se da a la cuantificación hace que la economía parezca una ciencia exacta. Al mismo tiempo, sin embargo, limita severamente el ámbito de las teorías económicas, pues excluye las distinciones cualitativas, que son de extrema importancia para entender las dimensiones ecológicas, sociales y psicológicas de la actividad económica. Por ejemplo, la energía se mide únicamente en kilovatios, sin tener en cuenta su origen; no se hace una distinción entre los bienes renovables y los no renovables, y los costos sociales de la producción se añaden —incomprensiblemente— como contribuciones positivas al producto nacional bruto. Además, los economistas nunca se han preocupado por las encuestas psicológicas sobre el comportamiento de las personas como trabajadores, como inversores o como consumidores al no poder aplicar los resultados de estas investigaciones a los actuales análisis cuantitativos8. El enfoque fragmentario de los economistas contemporáneos, su preferencia por los modelos cuantitativos abstractos y su olvido de la evolución estructural de la economía han tenido como resultado la tremenda división que hoy existe entre la teoría y la realidad económica. En opinión del Washington Post: «La ambición de los economistas los ha llevado a crear complejas soluciones matemáticas para los problemas teóricos, que pese a su elegante formulación tienen poca o ninguna importancia para los problemas sociales»9. La economía actual está pasando por una profunda crisis conceptual. Se le ha hecho imposible ocuparse de las anomalías sociales y

económicas —la inflación y el desempleo mundial, la injusta repartición de las riquezas, la crisis energética y muchas más— que hoy resultan evidentes para la mayoría de las personas. El público, cada vez más escéptico, los científicos de otras disciplinas, y los mismos economistas reconocen que su ciencia ha fracasado. La mayoría de los sondeos de la opinión pública realizados en los años setenta han mostrado la disminución de la confianza del público norteamericano en sus instituciones comerciales e industriales. El porcentaje de gente que creía que las principales compañías se habían vuelto demasiado poderosas ascendió en 1973 a un 75 por ciento; y en 1974, el 53 por ciento de las personas creían en la necesidad de desmantelar muchas de las principales compañías, y más de la mitad de los ciudadanos norteamericanos deseaban un aumento de la reglamentación federal en los servicios públicos, en las compañías de seguros, y en las industrias petroleras, farmacéuticas y automovilísticas10. También dentro de las propias corporaciones se están modificando estas actitudes. Según una encuesta publicada en 1975 en el Harvard Business Review, el 70 por ciento de los ejecutivos entrevistados prefería las antiguas ideologías del individualismo, de la propiedad privada y de la libre empresa, pero el 73 por ciento afirmaba estar convencido de que estos valores serían sustituidos en el transcurso de una década por modelos colectivos para solucionar los problemas, y el 60 por ciento creía que una orientación colectiva sería mucho más eficaz para encontrar una solución a la crisis11. Los mismos economistas comienzan a reconocer que su disciplina se encuentra en un callejón sin salida. En 1971 Arthur Burns, en aquel entonces presidente del Federal Reserve Board, observó que «las leyes de la economía ya no funcionan exactamente como antes»12 y Milton Freedman, dirigiéndose a la Asociación de Economistas Norteamericanos en 1972, fue aún más sincero: «Creo que en los últimos años los economistas hemos hecho muchísimo daño a la sociedad en general y a nuestra profesión en particular, exigiendo más de lo que podemos dar.»13 En 1978 el tono había pasado de admonitorio a desesperado cuando el Ministro de Hacienda Michael Blumenthal declaró: «Creo firmemente que la profesión económica está muy cerca de la bancarrota en lo que respecta a la situación actual, ante o post factum»14. Juanita Kreps, Secretaria de Comercio saliente en 1979, dijo rotundamente que le era imposible regresar a su antiguo trabajo de catedrática de economía en la Duke University, pues «No sabría qué enseñar»15. La mala administración de nuestra economía actual pone en tela de juicio los conceptos básicos del pensamiento económico contemporáneo. Pese a ser perfectamente conscientes del estado de crisis actual, la mayoría de los economistas siguen creyendo en la posibilidad de encontrar las soluciones a los problemas dentro de la estructura teórica existente. Esta estructura, sin embargo, se apoya en ciertos conceptos y variables que se remontan a varios siglos y que han sido superadas definitivamente por los cambios tecnológicos y sociales. Lo más urgente sería que los economistas reactualizaran toda su base conceptual y que proyectaran nuevamente sus modelos básicos y sus teorías de acuerdo con ello. La crisis económica actual sólo se superará cuando los economistas estén dispuestos a participar en el cambio de paradigma que hoy se está verificando en todos los campos. Igual que en psicología y en medicina, la transición del paradigma cartesiano a una visión holística y ecológica no significará que los nuevos métodos sean menos científicos; por el contrario, los hará más coherentes con los últimos desarrollos en el campo de las ciencias naturales. Para examinar nuevamente los conceptos y los modelos económicos a un nivel más profundo es necesario tener en cuenta el sistema de valores en el que se apoyan y reconocer su relación con el contexto cultural. Desde este punto de vista, muchos de los actuales problemas sociales y económicos parecen derivar de la dificultad que los individuos y las instituciones tienen para ajustarse a los cambiantes valores de nuestra época16. La emergencia de la economía como disciplina separada de la filosofía y de la política coincidió con la aparición, a finales de la Edad

Media de la cultura centrada en los sentidos, propia de la Europa Occidental. En su evolución, esta cultura incluyó en sus instituciones sociales los valores masculinos, orientados hacia el yang, que hoy dominan nuestra sociedad y que forman la base de nuestro sistema económico. La economía, centrada esencialmente en la riqueza material, es hoy la expresión quintaesencial de los valores de los sentidos17. Entre las actitudes y las actividades consideradas importantes por este sistema figuran la adquisición, la expansión, la competitividad, y una obsesión por la «tecnología dura» y la «ciencia exacta». A enfatizar excesivamente estos valores, nuestra sociedad ha fomentado ciertos objetivos que resultan peligrosos e inmorales, y ha institucionalizado varios de los pecados mortales del Cristianismo: la gula, el orgullo, el egoísmo y la avaricia. El sistema de valores que se desarrolló en los siglos XVII y XVIII fue sustituyendo poco a poco a una serie coherente de valores y actitudes medievales: la creencia en el carácter sagrado de la naturaleza las sanciones morales contra los prestamistas; la exigencia de precios «justos»; el convencimiento de que no habían de fomentarse el beneficio personal y la acumulación y de que el comercio se justificable solamente cuando servía para restaurar una situación económica desahogada en el grupo; la idea de que el trabajo era necesario para la comunidad y para el bienestar del alma y que todas las verdaderas recompensas se encontrarían en el otro Mundo. Hasta el siglo XVI los fenómenos puramente económicos no estaban separados de la vida misma. Durante gran parte de la historia los alimentos, la ropa, la casa y otras necesidades básicas fueron producidas por su valor y uso y se distribuyeron a tribus y grupos sobre una base recíproca18. El sistema nacional de mercados es un fenómeno relativamente reciente que surge en la Inglaterra del siglo XVII y de allí se extendió a todo el mundo, dando origen a la actual «plaza de mercado global» interdependiente. Los mercados, evidentemente, habían existido desde la Edad de Piedra, pero se basaban en el trueque y no en el dinero, y por tanto tenían que ser locales. Incluso los primeros comerciantes carecían prácticamente de motivaciones económicas, pues el comercio solía ser una actividad religiosa y ceremonial relacional con los lazos de sangre y con las costumbres de la familia. Por ejemplo, los habitantes de las islas Trobriand en el Pacífico sudoccidental emprendían viajes en los que recorrían una ruta circular de miles de kilómetros sin tener ningún motivo significativo de ganancia, canje o de intercambio que lo justificase. Su incentivo radicaba en una suerte de moralidad profesional y en un simbolismo mágico que consistía en transportar joyas hechas con conchas marinas blancas en una dirección y ornamentos de conchas marinas rojas en la otra dirección, de modo que realizasen en diez años todo el periplo de su archipiélago19. Muchas sociedades arcaicas usaban el dinero y las divisas metálicas, pero siempre para impuestos y salarios, no para circular libremente. El motivo de una actividad económica tendente a un beneficio individual no solía existir; la idea de lucro, y mucho menos de interés, era inconcebible o estaba prohibida. Había organizaciones económicas extremadamente complejas que suponían una detallada división del trabajo y que funcionaban completamente a través del mecanismo de almacenar y redistribuir los bienes comunes —los cereales, por ejemplo— y de igual manera funcionaban todos los sistemas feudales. Obviamente, esto no impedía la aparición de los antiquísimos motivos de poder, dominación y explotación, pero la idea de que las necesidades humanas eran ilimitadas no surgiría hasta el Siglo de las Luces. Un principio importante de todas las civilizaciones arcaicas era el de la economía doméstica, la oikonomía de los griegos, que es la raíz de nuestro término moderno «economía». La propiedad privada se justificaba sólo en la medida en que servía al bienestar de todos. De hecho, el adjetivo «privado» deriva de la palabra latina «privare», lo que demuestra la creencia generalizada de los antiguos en que la propiedad era ante todo y sobre todo comunitaria. Cuando las sociedades pasaron de este punto de vista comunitario y cooperador a un punto de vista más individualista y autoafirmante, las personas ya no pensaron en la propiedad privada como un bien que ciertos individuos privaban al grupo de utilizar; de hecho, invirtieron el sentido del

término, sosteniendo que la propiedad debía ser ante todo privada y que la sociedad no debía privar al individuo de su uso sin los debidos procedimientos legales. Con la Revolución Científica y el Siglo de las Luces, el razonamiento crítico, el empirismo y el individualismo se convirtieron en los principales valores, junto con una orientación secular y materialista que llevó a la producción de bienes y lujos materiales y a la mentalidad manipuladora de la Era Industrial. Las nuevas costumbres y las nuevas actividades tuvieron como resultado la creación de nuevas instituciones políticas y sociales, y dieron origen a un nuevo objetivo filosófico: teorizar sobre una serie de actividades económicas específicas —la producción, el comercio, la distribución y los préstamos— que de pronto comenzaron a adquirir relieve y que requerían no sólo una descripción y una explicación, sino también una justificación. Una de las consecuencias más importantes del cambio de valores ocurrido a finales de la Edad Media fue el desarrollo del capitalismo en los siglos XVI y XVII. El desarrollo de la mentalidad capitalista, según la ingeniosa tesis de Max Weber, estaba íntimamente vinculado a la idea de la «vocación» religiosa, que se perfila por primera vez con Lutero durante la Reforma, y a la noción de una obligación moral de cumplir con el propio deber en los asuntos mundanos. Esta idea de una vocación mundana proyectó el comportamiento religioso en el mundo laico. Este punto fue recalcado con mayor fuerza por las sectas puritanas, para quienes la actividad mundana y las ganancias materiales que resultaban de una vida laboriosa eran una señal de predestinación divina. A raíz de esto surge la famosa ética protestante del trabajo, en la que el trabajo duro realizado con abnegación y el éxito material se equiparan con la virtud. Por otra parte, los puritanos aborrecían todo lo que no fuera el consumo más frugal, y por consiguiente aprobaban la acumulación de riquezas, siempre y cuando se combinase con una actividad laboriosa. Según las teorías de Weber estos valores y motivos religiosos fueron los que engendraron el impulso y la energía emocional necesaria para la aparición y el rápido desarrollo del capitalismo20. La tradición weberiana de criticar las actividades económicas basándose en un análisis de los valores fundamentales marcó el camino para muchos críticos que vinieron después, entre ellos Kenneth Boulding, Erich Fromm y Barbara Ward21. Siguiendo esta tradición, pero llegando a un nivel aún más profundo, la reciente crítica feminista de los sistemas económicos —tanto del capitalista como del marxista— ha centrado su atención en el sistema patriarcal de valores en el que se apoyan prácticamente todas las economías modernas22. La conexión entre los valores patriarcales y el capitalismo va había sido señalada en el siglo XIX por Friedrich Engels y fue subrayada por las sucesivas generaciones de marxistas. Sin embargo, en opinión de Engels, la explotación de la mujer tenía origen en el sistema económico capitalista y llegaría a su fin con la derrota del capitalismo. Pero las críticas feministas actuales demuestran contundentemente que las actitudes patriarcales son mucho más antiguas que las economías capitalistas y están mucho más arraigadas en la mayoría de las sociedades. De hecho, la mayoría de los movimientos socialistas y revolucionarios denotan una abrumadora tendencia machista, promoviendo revoluciones sociales que mantienen esencialmente intactos el liderazgo y el control masculinos23. En los siglos XVI y XVII, mientras los nuevos valores del individualismo, del derecho a la propiedad y del gobierno representativo llevaban al decaimiento del sistema feudal tradicional y desgastaban el poder de la aristocracia, el antiguo orden económico seguía siendo defendido por varios teóricos que creían que el desarrollo económico de una nación se lograba a través de la acumulación de dinero proveniente del comercio exterior. Esta teoría fue llamada «mercantilismo». Sus partidarios no eran economistas, sino políticos, administradores y comerciantes. Aplicaban la antigua noción de la economía —en el sentido de llevar los gastos de una casa— al estado, concebido como la «casa» del gobernante, y por tanto sus ideas fueron conocidas por el nombre de «economía política». El término siguió siendo utilizado hasta el siglo XX, cuando fue sustituido por el término «economía».

La idea mercantilista del balance comercial —la creencia de que la nación se enriquece cuando exporta más de lo que importa— se convirtió en el concepto central de todo el pensamiento económico sucesivo. No cabe duda de que influyó en ella el concepto de equilibrio de la mecánica newtoniana y que concordaba perfectamente con la limitada visión del mundo de las monarquías de la época, escasamente pobladas y aisladas en sí mismas. Pero hoy, en un mundo superpoblado donde todos dependemos estrechamente de los demás, resulta evidente que no todos los países pueden ganar simultáneamente el juego mercantilista. El hecho de que muchos países —entre los que figura recientemente el Japón— sigan intentando mantener una balanza comercial positiva lleva necesariamente a la guerra comercial, a la crisis económica y al conflicto internacional. En realidad, la economía moderna tiene poco más de trescientos años. Fue creada en el siglo XVII por sir William Petty, profesor de anatomía en Oxford y profesor de música en Londres, y también médico del ejército de Oliver Cromwell. En su círculo de amistades figuraba Christopher Wren, arquitecto de muchos monumentos londinenses, y también Isaac Newton. En su Política Aritmética se nota la influencia de Newton y de Descartes, pues el método de Petty consiste en sustituir palabras y razonamientos por números, pesos y medidas y usar sólo los argumentos dictados por la razón y considerar únicamente las causas que tengan fundamentos visibles en la naturaleza24. En esta y en otras obras, Petty formuló una serie de ideas que se convirtieron en los ingredientes indispensables de las teorías de Adam Smith y de otros economistas posteriores. Entre estas ideas figuraban la teoría del valor del trabajo —adoptada por Smith, Ricardo y Marx— según la cual el valor de un producto derivaba únicamente del trabajo humano requerido para producirlo, y la idea de la distinción entre precio y valor que, en diversas fórmulas, ha preocupado a los economistas desde entonces. Petty también expuso la noción del «justo salario», describió las ventajas de la división del trabajo y definió el concepto de monopolio. Discutió las nociones «newtonianas» de la cantidad de dinero y de la velocidad con que éste circulaba, temas que siguen siendo objeto de controversia en la escuela monetarista actual, y sugirió la creación de obras públicas como remedio al desempleo, anticipándose a Keynes en más de dos siglos. La política económica de hoy, tal como se discute en Washington, Bonn o Londres, no sería ninguna sorpresa para Petty, salvo por el hecho de haber cambiado tan poco. Junto con Petty y los mercantilistas, John Locke también contribuyó a sentar las bases de la economía moderna. Locke fue el más destacado filósofo del Siglo de las Luces y sus ideas sobre los fenómenos psicológicos, sociales y económicos —influidas fuertemente por Descartes y Newton— se tornaron el centro del pensamiento del siglo XVIII. Su teoría atomista de la sociedad humana25 le hizo concebir la idea de un gobierno representativo cuya función era proteger el derecho del individuo a la propiedad y a los frutos de su trabajo. Locke creía que cuando las personas hubiesen elegido un gobierno que administrase sus derechos, sus libertades y sus propiedades, la legitimidad de tal gobierno dependería de la protección de éstos. Si el gobierno fracasaba, las personas habrían de tener el poder de disolverlo. Varias teorías políticas y económicas fueron influidas por los conceptos radicales y morales del Siglo de las Luces. Sin embargo, en el campo de la economía una de las teorías más innovadoras de Locke trataba de los precios. Mientras que Petty había afirmado que los precios y las mercancías tenían que reflejar exactamente la cantidad de trabajo que suponía su fabricación, Locke propuso la idea de que los precios podían ser determinados de manera objetiva, por la ley de la oferta y la demanda. Esto no sólo liberó a los comerciantes de esa época de la idea de los precios «justos», sino que se convirtió en la clave de la economía y fue elevada a la categoría de las leyes de la mecánica, rango que conserva aún hoy en la mayoría de los análisis. La ley de la oferta y la demanda también se ajustaba perfectamente a la nueva matemática de Newton y de Leibniz —el cálculo diferencial— pues se creía que la economía se ocupaba de variaciones continuas de cantidades extremadamente pequeñas que se podían describir con

eficacia a través de esta técnica matemática. Esta noción se convirtió en la base de todos los esfuerzos sucesivos para convertir la economía en una ciencia matemática exacta. Sin embargo, el problema era —y lo sigue siendo— que las variables utilizadas en estos modelos matemáticos no pueden cuantificarse rigurosamente, sino que se definen de acuerdo con una serie de suposiciones que suelen volver totalmente irreales los modelos. Otra escuela del pensamiento del siglo XVIII que influyó de manera significativa en la teoría económica clásica, y especialmente en la de Adam Smith, fue la escuela de los fisiócratas franceses. Estos filósofos fueron los primeros en llamarse a sí mismos economistas, en considerar sus teorías «objetivamente» científicas y en desarrollar una visión completa de la economía francesa de la época inmediatamente anterior a la Revolución. La palabra fisiocracia significa «gobierno de la naturaleza» y los fisiócratas criticaban con acerbo el mercantilismo y el crecimiento urbano. En su opinión, la agricultura y la tierra eran los únicos factores que producían la verdadera riqueza; por este motivo, promovieron una temprana visión «ecologista». El líder de este grupo, Francois Quesnay, era como William Petty y John Locke, médico de profesión, y trabajaba de cirujano en la corte del rey de Francia. Según Quesnay, la ley natural, si se la dejase actuar libremente sin oponerle obstáculos, podría gobernar los asuntos económicos de la manera más ventajosa para todos. De esta manera fue introducida otra piedra angular de la economía: la doctrina del laissez faire o no intervención. El período de la «economía política clásica» se inauguró en 1776, cuando Adam Smith publicó la Encuesta sobre la naturaleza y las causas de la riqueza de los países. Filósofo escocés y amigo de David Hume, Smith fue con mucho el más influyente de todos los economistas. Su obra La Riqueza de los Países fue el primer tratado completo de economía y ha sido definido como «por sus resultados finales, el libro más importante que jamás se haya escrito»26. En la obra de Smith se manifiesta la influencia de los fisiócratas y los filósofos del siglo de las Luces. Por otra parte, Smith fue amigo de James Watt, el inventor de la locomotora de vapor, conoció a Benjamin Franklin y quizá también a Thomas Jefferson, y vivió en un período en el que la Revolución Industrial había comenzado a cambiar la faz de Gran Bretaña. Cuando Smith escribió La Riqueza de los Países se encontraba bien encaminada la transición de una economía agrícola y artesanal a otra dominada por la energía de yapo y por máquinas que funcionaban en las gigantescas fábricas y molinos ingleses. Se había inventado la máquina de hilar y los telares mecánicos se utilizaban en fábricas de algodón que daban trabajo a más de trescientos obreros. Las ideas de Smith fueron plasmadas por la nueva actividad empresarial, por las fábricas y por las máquinas propulsadas por energía, de suerte que Smith se convirtió en un ferviente entusiasta de las transformaciones sociales de su época y en un ardiente crítico de los vestigios del sistema feudal basado en propiedad agrícola. Como la mayoría de los grandes economistas clásicos, Adam Smith no era un especialista, sino un pensador rico en imaginación y con muchas ideas nuevas. En un comienzo, se puso a investigar como aumenta y se distribuye la riqueza de un país —el tema central de la economía moderna—. Rechazando la visión mercantilista según la cual la riqueza aumenta mediante el comercio exterior y la acumulación de lingotes de oro y plata, Smith afirmó que la verdadera base de la riqueza se halla en la producción que resulta del trabajo humano y de los recursos naturales: la riqueza de una nación dependería así del porcentaje de la población que participe en esta producción y en la eficiencia y en la habilidad de estas personas. Smith sostenía, como Petty antes que él, que el medio fundamental para incrementar la producción era la división del trabajo. De la idea newtoniana sobre las leyes naturales dedujo Smith que pertenecía a «la naturaleza humana el canjear e intercambiar» y también creía «natural» que el trabajo de los obreros se volviese gradualmente más fácil y su productividad mejorase con la ayuda de maquinaria. Al mismo tiempo, los primeros industriales tenían una visión mucho más cínica de la función de las máquinas: sabían perfectamente que las máquinas podían sustituir a los obreros y que por tanto podían usarlas para mantenerlos dóciles y temerosos27.

Smith adoptó el tema del laissez faire de los fisiócratas, y lo inmortalizó en la metáfora de la Mano Invisible. Según Smith, la Mano Invisible del mercado guiaba el interés privado de todos los patrones, los productores y los consumidores para conseguir una armonía y una mejora de las condiciones de todos: la «mejora» equivalía a la producción de bienes materiales. De esta manera se conseguía un resultado social que sería independiente de las intenciones individuales, y por consiguiente, surgía la posibilidad de una ciencia objetiva de la actividad económica. Smith creía en la teoría del valor del trabajo, pero también aceptaba la idea de que los precios fueran determinados en los mercados libres por los efectos estabilizadores de la oferta y la demanda. Su teoría económica estaba basada en las teorías newtonianas sobre el equilibrio, las leyes del movimiento y la objetividad científica. Una de las dificultades para aplicar estos conceptos mecanicistas a los fenómenos sociales era la falta de apreciación por el problema de la fricción. Puesto que la mecánica de Newton suele olvidar el problema de la fricción, Smith creyó que los mecanismos estabilizadores del mercado deberían ser casi instantáneos, y describió sus ajustes como «inmediatos» «que ocurrirán pronto» y «continuos» mientras los precios «gravitaban» en la dirección correcta. Los pequeños productores y los pequeños consumidores se encontrarían en la plaza del mercado provistos del mismo poder y de la misma información. Esta imagen idealista es la base del «modelo competitivo» que usan con mucha frecuencia los economistas actuales. Entre sus suposiciones básicas figuran la existencia de una información correcta y libre para todos los participantes en una transacción comercial; la creencia de que el comprador y el vendedor en un mercado tienen poca significación y por tanto no pueden influir en el precio; y la completa e instantánea movilidad de los trabajadores desplazados, de los recursos naturales y de la maquinaria. Estas condiciones son incumplidas en la mayoría de los mercados actuales, pero muchos economistas siguen utilizándolas como base para sus teorías. Lucia Dunn, catedrática de economía de la Northwestern University, describe la situación con estas palabras: «Utilizan estas suposiciones en sus obras de manera casi inconsciente. De hecho, en la opinión de muchos economistas, han dejado de ser suposiciones y se han vuelto una imagen de la realidad del mundo»28. Para el comercio internacional, Smith creó la doctrina de la ventaja comparativa, según la cual cada país tenía que sobresalir en algún tipo de producción, y esto tendría como consecuencia una división internacional del trabajo y de la libertad del comercio. El modelo del libre comercio internacional sigue siendo la base de la mayoría de los conceptos actuales sobre economía mundial y hoy por hoy produce su propia serie de costes sociales y ambientales29. Smith creía que dentro de un país el sistema de mercados autoestabilizador se caracterizaba por un desarrollo gradual y constante, unido a una demanda cada vez mayor de bienes y de trabajo. La idea del crecimiento continuo fue adoptada por las generaciones sucesivas de economistas, quienes, paradójicamente, siguieron usando las hipótesis dictadas por el equilibrio mecanicista y postulando al mismo tiempo el crecimiento económico continuo. El mismo Smith predijo que el progreso económico, a la larga, llegaría a su fin cuando la riqueza de los países hubiera llegado a los límites naturales impuestos por su terreno y por su clima. Desgraciadamente creyó que este punto se hallaba en un futuro tan lejano que no tenía importancia en sus teorías. Smith hizo alusión a la idea del crecimiento de las estructuras sociales y económicas como monopolios cuando criticó a las personas que, dentro de un mismo ramo comercial, conspiraban para aumentar los precios artificialmente, pero no vio las enormes repercusiones de estas prácticas. El crecimiento de estas estructuras, y en particular el de la estructura de clases, se convertiría en el tema central del análisis económico de Marx. Adam Smith justificaba las ganancias del capitalismo afirmando que éstas eran necesarias para invertir en máquinas y en fábricas que serían provechosas para todos. Indicó la lucha entre los obreros y los empresarios y los esfuerzos de ambos para «interferir en el mercado» pero nunca hizo referencia alguna a la

desigualdad de poder de los trabajadores y los capitalistas —un clavo que Marx remacharía a fondo. Cuando Smith escribió que los trabajadores y «otras clases inferiores de personas» engendraban demasiados hijos los cuales harían disminuir los salarios a un nivel de simple subsistencia, no hacía más que demostrar que su visión de la sociedad era parecida a la de otros filósofos del Siglo de las Luces. Su posición como miembros de la burguesía ilustrada les permitía concebir ideas extremistas sobre la igualdad, la justicia y la libertad, pero les impedía extender estos conceptos a las «clases inferiores», y tampoco incluían en sus teorías a las mujeres. A comienzos del siglo XIX, los economistas empezaron a sistematizar su disciplina en una tentativa de darle la forma de una ciencia. El primero y el más influyente de esos pensadores sistemáticos de la economía fue David Ricardo, un agente de Bolsa que llegó a ser multimillonario a la edad de treinta y cinco años y luego, tras leer La Riqueza de los Países, se volcó en el estudio de la economía política. Basándose en la obra de Adam Smith, Ricardo redujo la economía a un enfoque más parcial y así comenzó un proceso que se volvería característico de la mayoría del pensamiento económico no marxista posterior. La obra de Ricardo contenía muy poca filosofía social; en cambio, introducía el concepto de «modelo económico», un sistema lógico de postulados y de leyes con un número limitado de variables que podían utilizarse para describir y predecir fenómenos económicos. La idea central del sistema ricardiano era que el progreso llegaría tarde o temprano a su fin a causa del aumento del coste de la producción de alimentos en un terreno limitado. El fundamento de esta perspectiva ecologista era la visión pesimista de que, como había evocado anteriormente Thomas Malthus, la población aumenta con mayor rapidez que la oferta de víveres. Ricardo aceptaba el principio malthusiano pero analizaba la situación más detalladamente. En su opinión, el aumento de la población significaba que se habrían de cultivar terrenos más pobres y marginales. Al mismo tiempo, aumentaría el valor relativo de los terrenos más fértiles, y el alto alquiler pagado por ellos sería un superávit recibido por los terratenientes simplemente por ser dueños de la tierra. Este concepto de las tierras «marginales» se volvió la base de las modernas escuelas económicas de análisis marginal. Igual que Smith, Ricardo aceptaba la teoría del valor del trabajo pero incluía en su definición de los precios el coste del trabajo requerido para construir las máquinas y las fábricas. En su opinión, el dueño de una fábrica, al recibir los beneficios, estaba recibiendo algo producido por el trabajo, y éste fue el punto sobre el cual Marx construyó su teoría sobre el valor excedente (plusvalía). Los esfuerzos sistemáticos de Ricardo y de otros economistas clásicos consolidaron la economía en una serie de dogmas que sostenían la estructura de clases existente y que se oponían a todos los intentos de realizar mejoras sociales con el razonamiento «científico» de que las «leyes de la naturaleza» estaban funcionando y que los pobres eran responsables de su propia desdicha. Al mismo tiempo las sublevaciones de los obreros se hacían cada vez más frecuentes y el nuevo cuerpo de pensamiento económico engendró sus propios críticos aterrorizados mucho antes de Marx. Un enfoque lleno de buenas intenciones pero irrealista en sus planteamientos llevó a una larga serie de formulaciones irrealizables que más tarde se conocería por el nombre de economía de la asistencia social o de la beneficencia. Los defensores de esta escuela dejaron de lado la antigua visión del bienestar concebido como producción material y centraron su interés en los criterios subjetivos de placer y dolor individual, construyendo complicadísimos diagramas y curvas basados en «unidades de placer» y «unidades de dolor». Vilfredo Pareto mejoró estos esquemas algo primitivos con su teoría de la oportunidad, basada en la suposición de que el bienestar social aumentaría si la satisfacción de algunos individuos pudiese ser aumentada sin disminuir la satisfacción de los demás. En otras palabras, cualquier cambio que hiciese a alguien «más rico» sin hacer a otro «más pobre» era propicio al bienestar social. No obstante, la teoría de Pareto seguía olvidando el hecho de la desigualdad de poder, de información y de renta. La

economía del bienestar sigue siendo utilizada en la actualidad, pese a que se ha demostrado de manera concluyente la imposibilidad de convertir la suma de las preferencias individuales en una opción social30 . Muchos críticos contemporáneos ven en este enfoque una excusa mal disimulada para un comportamiento egoísta que socava los cimientos de cualquier serie coherente de objetivos sociales y que hoy está haciendo estragos en todas las líneas políticas de tipo ambiental31. Mientras los economistas del bienestar estaban construyendo sus detallados esquemas matemáticos, otra escuela de reformadores intentaba oponerse a las deficiencias del capitalismo con unos experimentos francamente idealistas. Los utopistas construían fábricas y talleres según los principios humanitarios—reducción de horarios de trabajo, aumento de los salarios, tiempo libre, seguros y a veces alojamiento—, fundaban cooperativas de trabajadores y fomentaban los valores éticos, estéticos y espirituales. Muchos de estos experimentos tuvieron éxito durante un tiempo, pero a la larga todos ellos fracasaron, incapaces como eran de sobrevivir en un ambiente económico que les era hostil. Karl Marx, quien mucho debía a la imaginación de los utopistas, creía que sus comunidades no podían durar, al no haber surgido «orgánicamente» de la etapa existente de desarrollo económico material. Mirándolo desde la perspectiva de los años ochenta, parecería que Marx tenía razón. Quizá hemos tenido que esperar al actual cansancio «postindustrial» con el consuno masivo y el reconocimiento de los costes sociales y ambientales cada vez mayores —por no mencionar la disminución rápida de los recursos— para alcanzar las condiciones necesarias en las que el sueño utopista de un orden social en armonía con la ecología y basado en la cooperación puede hacerse realidad. El más destacado de los reformadores económicos clásicos fue John Stuart Mill, quien participó en el campo de la crítica social tras haber asimilado la mayor parte de las obras de los economistas y filósofos de su tiempo a la edad de trece años. En 1848 publicó sus Principios de la Economía Política, un hercúleo examen en el que llegaba a una conclusión radical. La economía, en su opinión, sólo tenía un campo de trabajo: la producción y la escasez de medios. La distribución no era un proceso económico, sino un proceso político. Sus teorías reducían el ámbito de la economía política a una «economía pura» que más tarde sería llamada «neoclásica», y que permitía enfocar más detalladamente el «proceso del núcleo económico», excluyendo a la vez las variables sociales y ambientales en analogía con los experimentos controlados de las ciencias físicas. Después de Mill, la economía se fraccionó en dos bloques: por una parte, el enfoque neoclásico, «científico» y matemático, por la otra el «arte» de una filosofía social mucho más extensa. Con el tiempo esto acabó en la desastrosa confusión que hoy existe entre los dos bloques, dando origen a unos instrumentos políticos derivados de modelos matemáticos abstractos e irreales. John Stuart Mill tenía buenas intenciones cuando puso de relieve la naturaleza política de toda la distribución económica. El hecho de que señalara que la distribución de la riqueza de una sociedad dependía de las leyes y de las costumbres de esta sociedad, que variaban mucho a través de las épocas y las culturas, debía haber puesto el tema de los valores nuevamente en la agenda de la economía política. Mill no sólo veía las opciones éticas en el fondo de la economía, sino que también estaba perfectamente enterado de sus repercusiones psicológicas y filosóficas. Cualquiera que intente seriamente comprender la condición social de la humanidad tiene que ocuparse del pensamiento de Karl Marx y no podrá dejar de sentirse fascinado por su atractivo intelectual. Según Robert Heilbroner, este atractivo radica en el hecho de que «Marx fue el primero en descubrir un método de investigación que desde entonces le pertenecería para siempre. Esto sólo había sucedido antes una vez, cuando Platón «descubrió» el método de la investigación filosófica32. El método de investigación marxista fue el de la crítica social, y es por este motivo por lo que Marx no solía hablar de sí mismo como filósofo, historiador o economista —pese a ser todo eso a la vez— sino como crítico de la sociedad. También esta es la

razón por la que su filosofía social y su ciencia siguen ejerciendo una gran influencia en el pensamiento social. Como filósofo, Marx enseñaba una filosofía de acción. «Los filósofos —escribió— no han hecho más que interpretar el mundo de varias maneras; la cuestión, sin embargo, es cambiarlo33. Como economista, Marx criticó la economía clásica con más habilidad y eficacia que cualquiera de sus predecesores. No obstante, la influencia de Marx no ha sido intelectual, sino política. Como revolucionario, si se juzga por el número de sus adoradores, «Marx ha de ser considerado un líder religioso que está al mismo nivel que Cristo o Mahoma»34. Mientras que el Marx revolucionario ha sido canonizado por millones de personas de todo el mundo, los economistas han tenido que enfrentarse —pese a que frecuentemente han preferido olvidarlos o citarlos incorrectamente— con sus pronósticos molestos pero certeros, entre ellos la aparición de ciclos comerciales de «gran auge» y de «quiebra» y la tendencia de los sistemas económicos orientados en los mercados a desarrollar «ejércitos de reserva» de parados, que hoy por hoy suelen estar formados de minorías étnicas y de mujeres. La principal obra marxista, expuesta en los tres volúmenes de El Capital, representa una crítica a fondo del capitalismo. Marx consideró la sociedad y la economía desde la perspectiva, formulada de manera explícita, de la lucha entre trabajadores y capitalistas, pero su amplitud de ideas sobre la evolución social le permitía concebir unos modelos mucho más amplios de los procesos económicos. Marx reconocía que las formas capitalistas de organización social acelerarían el proceso de las innovaciones tecnológicas e incrementarían la productividad material, y predijo que este hecho modificaría dialécticamente las relaciones sociales. Así pues, logró prever fenómenos como los monopolios y las crisis económicas y predecir que el capitalismo fomentaría el socialismo —lo cual es cierto— y que a la larga desaparecería —lo que podría ocurrir. En el primer volumen de Das Kapital, Marx formuló su acusación al capitalismo con las siguientes palabras: Mano a mano con la centralización del capital... se desarrolla, en una escala cada vez más extensa,... la implicación de todas las personas en la red del mercado mundial y con ello el carácter internacional del régimen capitalista. Junto con el constante aumento del número de magnates del capital que usurpan y monopolizan todas las ventajas de este proceso de transformación, aumenta la miseria, la opresión, la esclavitud, la degradación y la explotación...35 Actualmente, en el contexto de nuestra economía mundial, plagada por las crisis y dominada por las grandes sociedades, con lo inmensos riesgos de su tecnología y sus enormes costes sociales ecológicos, esta afirmación no ha perdido nada de su fuerza. Los críticos de Marx suelen señalar que la fuerza de trabajo en los Estados Unidos, que hubiera debido ser la primera en organizarse políticamente y en alzarse en armas para crear una sociedad socialista, no lo hizo, pues los salarios de los trabajadores son suficientemente altos para que éstos comiencen a identificarse con la movilidad ascendente de la clase media. Pero esta es sólo una de lo explicaciones que existen para el fracaso del socialismo en los Estado Unidos36. Los trabajadores norteamericanos siempre fueron gente de paso que se desplazaba con sus trabajos a lo largo de una frontera que cambiaba continuamente; estaban divididos por barreras lingüísticas y por otras diferencias étnicas que los dueños de las fábricas no dejaban de explotar. Un gran número de estos trabajadores regresaban a su tierra de origen tan pronto como tenía los medios par mejorar las condiciones de la familia que allí los esperaba. Por consiguiente, las oportunidades de organizar un partido socialista al estilo europeo eran muy limitadas. Por otra parte, no cabe duda de que la situación de los obreros norteamericanos no ha empeorado sino que, por el contrario, su riqueza material ha aumentado, si bien es cierto que a un nivel relativamente bajo y después de muchas luchas.

Otro punto importante es que hoy, a finales del siglo XX, el Tercer Mundo ha asumido el papel de proletariado a causa del desarrollo de las multinacionales, algo que Marx no había previsto. En la actualidad, las multinacionales azuzan a los trabajadores de un país contra los de otro, sacando provecho del racismo, del nacionalismo y del machismo. Por tanto, las ventajas conseguidas por los trabajadores norteamericanos suelen ser a expensas de los trabajadores del Tercer Mundo; cada vez resulta más difícil cumplir con el lema marxista «Trabajadores del mundo, uníos». En su «Crítica de la Economía Política», que es el subtítulo de Das Kapital, Marx utilizó la teoría del valor del trabajo para plantear el problema de la justicia y formuló nuevos conceptos de gran eficacia para combatir la lógica reduccionista de los economistas neoclásicos de su tiempo. Marx comprendía perfectamente bien que los salarios y los precios se determinan en gran medida políticamente. Partiendo del hecho de que el trabajo humano crea todos los valores, Marx observó que un trabajo constante y repetitivo tendría que producir, al menos, lo suficiente para asegurar la subsistencia del trabajador y para recambiar los materiales utilizados. Pero, en general, suele haber un excedente con respecto a ese mínimo. La forma que toma este «valor excedente» será la clave para comprender a una sociedad, su economía y su tecnología37. En las sociedades capitalistas, según Marx, los capitalistas son los que se apropian del valor excedente; son ellos los dueños de los medios de producción y los que determinan las condiciones de trabajo. Esta transacción entre gente de poder desigual permite a los capitalistas ganar más dinero con el trabajo de los obreros, Y así el dinero se convierte en capital. En su análisis, Marx hacía hincapié en que una condición necesaria para la aparición del capital era una determinada relación entre las clases sociales, que a su vez era el resultado de una larga historia38. La base de la crítica marxista de la economía clásica, tan válida hoy como lo era en aquel entonces, es que los economistas, reduciendo su campo de investigación al «proceso del núcleo económico», eludían el problema ético de la repartición. En palabras del economista Joan Robertson, que no es marxista, los economistas desplazaban su interés «de la medida de los valores... al problema mucho menos candente de los precios relativos»39. El valor y los precios, sin embargo, son dos conceptos muy diferentes. Otro no marxista, el escritor Oscar Wilde, lo expresó mejor: «Es posible saber el precio de todo y no conocer el valor de nada.» Marx no era rígido en su teoría del valor del trabajo, sino que parecía dejar un cierto espacio al cambio. Predijo que el trabajo se volvería más «mental» a medida que el conocimiento y la ciencia se aplicasen cada vez más al proceso de producción, y también reconoció la importante función de los recursos naturales. De ahí que escribiese en sus Manuscritos Económicos y Filosóficos de 1844: «El trabajador no puede crear nada sin la naturaleza, sin el mundo externo y sensual, pues éste es el material en el que su trabajo se manifiesta, en el que realiza su actividad, a partir del cual y por medio del cual produce»40. En tiempos de Marx, cuando los recursos eran abundantes y la población reducida, el trabajo humano era efectivamente la más importante aportación a la producción. Pero en el transcurso del siglo XX la teoría del valor del trabajo perdió parte de su significado y hoy el proceso de producción se ha vuelto tan complejo que ya no es posible distinguir netamente cuáles son las contribuciones de la tierra, del trabajo, del capital y de otros factores. La visión de Marx del papel de la naturaleza en el proceso de producción formaba parte de su percepción orgánica de la realidad, como ha observado Michael Harrington en una convincente reexaminación del pensamiento marxista41. Los críticos del marxismo suelen pasar por alto esta visión orgánica o integral, afirmando que las teorías de Marx son exclusivamente deterministas y materialistas. Ocupándose de los razonamientos económicos reduccionistas de sus contemporáneos, Marx cayó en la trampa de expresar sus ideas con fórmulas matemáticas «científicas» que minaban la amplitud de su teoría sociopolítica. Pero la teoría marxista reflejaba firmemente una aguda conciencia de que la sociedad y la naturaleza formaban un todo

orgánico, como podemos ver en este hermoso pasaje tomado de los Manuscritos Económicos y Filosóficos: La naturaleza es el cuerpo inorgánico del hombre —esto es, la naturaleza en la medida en que no es en sí misma el cuerpo humano. Que el hombre viva de la naturaleza significa que la naturaleza es su cuerpo, con el que tiene que relacionarse continuamente para no morir. La relación de la vida física y espiritual del hombre con la naturaleza significa simplemente que la naturaleza está vinculada a sí misma, pues el hombre es parte de la naturaleza42. En todos sus escritos destacó Marx la importancia de la naturaleza en el tejido social y económico, pese a no ser este el problema central de los activistas de aquella época. Tampoco en aquel entonces era la ecología un problema tan candente como lo es hoy, y no cabía esperar que Marx lo recalcase con firmeza. No obstante ello, Marx era muy consciente del impacto ecológico de los sistemas económicos capitalistas, como podemos ver en muchas de sus afirmaciones, por muy fortuitas que parezcan. Por citar sólo un ejemplo: «Todos los adelantos de la agricultura capitalista son adelantos no sólo en el arte de robar al trabajador, sino también en el de robar a la tierra»43 Parecería, entonces, que pese a no haber puesto demasiado énfasis en los problemas ecológicos, el método de Marx podría haber sido utilizado para predecir la explotación ambiental provocada por el capitalismo y perpetuada por el socialismo. No cabe duda de que se podría criticar a los marxistas por no haber comprendido antes el problema ecológico, pues éste les hubiera proporcionado otra crítica devastadora al capitalismo y una confirmación de la fuerza del método marxista. Desde luego, si los marxistas se hubiesen enfrentado honradamente con la evidencia ecológica, se habrían visto obligados a concluir que las sociedades socialistas no lo habían hecho mejor, y que su impacto en el medio ambiente era menor sólo debido a su nivel de consumo más bajo (que de todos modos estaban tratando de aumentar). Los conocimientos ecológicos son muy sutiles y resulta muy difícil usarlos como base para el activismo social, puesto que las demás especies —se trate de ballenas, secoyas o insectos— no proporcionan la energía revolucionaria necesaria para cambiar las instituciones humanas. Quizá sea este el motivo por el que los marxistas han pasado por alto durante tanto tiempo el aspecto ecológico de las teorías de Marx. Estudios recientes han traído a la luz algunas de las sutilezas del pensamiento orgánico de Marx, pero estos aspectos les resultan muy incómodos a la mayoría de los activistas sociales, quienes prefieren organizar su actividad alrededor de temas mucho más simples. Tal vez sea esta la razón por la que Marx dijo al final de su vida «Yo no soy marxista»44. Igual que Freud, Marx tuvo una vida intelectual larga y fructífera, enunciando muchísimas ideas creativas que han dado forma de manera decisiva a nuestra época. Sus críticas sociales han sido fuente de inspiración para millones de revolucionarios no sólo de todo el mundo socialista sino también en la mayoría de los países europeos, en el Canadá, en África y en el Japón —de hecho, prácticamente en todos los países del mundo excepto en los Estados Unidos. El pensamiento marxista puede interpretarse de un sinfín de maneras y por ello sigue fascinando a los estudiosos. Un punto que nos interesa particularmente en nuestro análisis es la relación entre la crítica marxista y la estructura reduccionista de la ciencia de su tiempo. Como la mayoría de los pensadores del siglo XIX, Marx estaba muy preocupado por ser «científico» y utilizaba constantemente este término en la descripción de su método de crítica. Por ello, con frecuencia intentaba formular sus teorías en un lenguaje cartesiano y newtoniano. Con todo, su amplia visión de los fenómenos sociales le permitió trascender la estructura cartesiana de varias maneras significativas. No adoptó la postura clásica del observador objetivo, sino que dio gran importancia a su papel de participante, afirmando que su análisis de la sociedad era inseparable de la crítica social. En su crítica fue mucho más allá de las cuestiones sociales y con frecuencia reveló unas ideas profundamente humanistas, por ejemplo

en su planteamiento del concepto de alienación45. Por último, si bien solía hablar a favor del determinismo tecnológico —lo que hacía a su teoría más aceptable como ciencia— también se adentró en las relaciones que ligan todos los fenómenos, concibiendo la sociedad como un todo orgánico en el que ideología y tecnología tenían la misma importancia. A mediados del siglo XIX, la economía política clásica se había dividido en dos grandes corrientes. Por una parte estaban los reformadores: los utopistas, los marxistas y la minoría de economistas clásicos partidarios de John Stuart Mill. Por la otra estaban los economistas neoclásicos que centraban sus esfuerzos en el proceso del núcleo económico y crearon la escuela de la economía matemática. Algunos de ellos trataron de establecer fórmulas objetivas para alcanzar un máximo de asistencia social, mientras otros se refugiaron en una matemática aún más abstrusa, tratando de escapar a las críticas devastadoras de los utopistas y de los marxistas. Gran parte de la economía matemática estaba —y, sigue estando—dedicada a estudiar los «mecanismos del mercado» con la ayuda de curvas que describen la oferta y la demanda, que siempre se expresan como funciones de precios y se basan en varias hipótesis sobre el comportamiento económico que suelen resultar extremadamente irreales en el mundo actual. Por ejemplo, la mayoría de los modelos dan por sentada la perfecta competencia en los mercados libres, tal y como fue formulada por Adam Smith. La esencia del enfoque puede ser ilustrada por el gráfico básico de la oferta y la demanda presentado en todos los textos de introducción a la economía (ver gráfico).

La interpretación de este gráfico se basa en la hipótesis newtoniana según la cual los participantes en un mercado «gravitarán» automáticamente (y, por supuesto, sin «fricción» alguna) hacia el precio de «equilibrio» situado en el punto de intersección de las dos curvas. Mientras los economistas matemáticos perfeccionaban sus modelos a finales del siglo XIX y principios del siglo XX, la economía mundial se aproximaba a la peor crisis de la historia, una crisis que socavó los cimientos del capitalismo y pareció confirmar todas las predicciones de Marx. Sin embargo, después de la Gran Depresión de 1929, la rueda de la fortuna giró de nuevo a favor del capitalismo, estimulada por las intervenciones sociales y económicas de los gobiernos. Estos programas se apoyaban en la teoría de John Maynard Keynes, economista que influyó de manera decisiva en el pensamiento económico moderno. Keynes estaba profundamente interesado por toda la escena política y social y consideraba la teoría económica un instrumento de la política. Modificando los métodos llamados «libres de valores» de la economía neoclásica y utilizándolos para fines y propósitos instrumentales, Keynes dio nuevamente un valor político a la economía, pero esta vez de una manera totalmente diferente. Desde luego, esto suponía renunciar al ideal del observador científico objetivo, y esto era algo que los economistas neoclásicos hacían sólo de mala gana. Pero Keynes los tranquilizó, demostrándoles que podía derivar sus intervenciones normativas del modelo neoclásico sin

interferir con las operaciones estabilizadoras del sistema de mercados. Con este fin demostró que los estados de equilibrio económico eran «casos especiales», excepciones y no la regla del mundo real. Con objeto de determinar la naturaleza de las intervenciones gubernamentales, Keynes desplazó su centro de interés del micronivel al macronivel, hacia unas variables económicas como la renta nacional, la suma total de los consumos y de las inversiones, el volumen total de empleo, etc. Estableciendo relaciones simplificadas entre estas variables, logró demostrar que eran susceptibles de cambios a corto plazo en los que se podía influir tomando las disposiciones adecuadas. Según Keynes, estos ciclos económicos fluctuantes eran una propiedad intrínseca de las economías nacionales. Esta teoría iba en contra del pensamiento económico ortodoxo, que postulaba el empleo total, pero Keynes defendió su herejía apelando a la experiencia y señalando que «una característica destacada del sistema económico en que vivimos es el hecho de que está sujeto a graves fluctuaciones con respecto a la producción y al empleo»46 En el modelo keynesiano, al aumentar la inversión siempre aumentará el número de puestos de trabajo, y por consiguiente incrementará el nivel de renta total, que a su vez conducirá a una mayor demanda de bienes de consumo. Así pues, la inversión estimula el crecimiento económico e incrementa la riqueza nacional que, a la larga, «se filtrará poco a poco» a las clases más pobres. Por otra parte, Keynes nunca dijo que este proceso culminaría en el empleo total: simplemente hará que el sistema se desplace en esa dirección: deteniéndose en algún nivel de subempleo o dando directamente marcha atrás, pues esto depende de muchas hipótesis que no forman parte del mundo keynesiano. Esto explica la importancia de la publicidad, medio con el que las grandes compañías tratan de controlar la demanda en el mercado. Para que el sistema funcione, no sólo es necesario que los consumidores gasten cada vez más, sino que lo hagan de una manera previsible. En la actualidad, la dirección de la teoría de la economía clásica prácticamente se ha invertido. Los economistas de todas las creencias, cada uno a su manera, formulan distintos tipos de ciclos económicos; los consumidores se ven obligados a convertirse en inversores involuntarios y las intervenciones gubernamentales y comerciales controlan el mercado, mientras los teóricos neoclásicos siguen invocando la Mano Invisible. En el siglo XX, el modelo keynesiano es totalmente asimilado por la corriente principal del pensamiento económico. A la mayoría de los economistas les sigue interesando muy poco el problema político del paro, y siguen intentando «poner a punto» los remedios keynesianos para acuñar moneda, aumentar o reducir las tasas de interés, recortar o incrementar los impuestos, y así sucesivamente. Sin embargo, al no tener en cuenta la estructura detallada de la economía y la naturaleza cualitativa de sus problemas, estos métodos suelen estar destinados al fracaso. En los años setenta, los fallos de la economía keynesiana ya se habían hecho evidentes. Hoy el modelo keynesiano se ha vuelto inadecuado, pues no tiene en cuenta muchos factores que son de importancia capital para comprender la situación económica. Se concentra en la economía interna, disociándola de la red económica mundial y haciendo caso omiso de los acuerdos económicos internacionales; no tiene en cuenta el enorme poder político de las multinacionales; no presta atención a las condiciones políticas y olvida las costas sociales y ambientales de las actividades económicas. En el mejor de los casos, el enfoque keynesiano puede proporcionar una serie de escenarios posibles, pero no puede hacer pronósticos específicos. Como gran parte del pensamiento económico cartesiano, ha durado más que su utilidad. La economía contemporánea es una mezcla de conceptos, teorías y modelos procedentes de varios períodos de la historia económica. Las principales escuelas de pensamiento son la escuela marxista y la economía «mixta», una versión moderna de la economía neoclásica que usa técnicas matemáticas mucho más complejas, pero que sigue basándose en las nociones clásicas.

A finales de los años treinta y en los años cuarenta se proclamó la nueva síntesis «neoclásicokeynesiana», pero en realidad, dicha síntesis nunca llegó a realizarse. Los economistas neoclásicos simplemente se apropiaron de los instrumentos keynesianos y los injertaron en sus propios modelos, en una tentativa de influir en las llamadas fuerzas de mercado y a la vez, esquizofrénicamente, retener los antiguos conceptos de equilibrio. En los últimos años, un grupo heterogéneo de economistas ha sido llamado colectivamente la escuela «post-keynesiana». Los partidarios más conservadores del pensamiento post-keynesiano anuncian hoy un nuevo tipo de la llamada economía de la oferta, que ha encontrado fervientes admiradores en Washington. La esencia de su razonamiento es que, tras el fracaso de los keynesianos en sus tentativas de estimular la demanda sin aumentar la inflación, hoy se debería estimular la oferta: por ejemplo, invirtiendo más en fábricas y en automatización y suprimiendo los «improductivos» controles ambientales. Este enfoque es obviamente antiecológico: su aplicación probablemente de origen a una rápida explotación de los recursos naturales y por tanto agravaría nuestros problemas. Otros post-keynesianos han comenzado a analizar la estructura económica de manera más realista. Estos economistas rechazan el modelo del mercado libre y el concepto de la Mano Invisible y reconocen que la economía actual se halla dominada por las gigantescas instituciones empresariales y por las agencias gubernamentales que suelen atender a sus necesidades. Sin embargo, la mayoría de los post-keynesianos utilizan datos demasiado generales, impropiamente derivados del microanálisis; hacen caso omiso del concepto de crecimiento y no parecen tener una visión clara de las dimensiones ecológicas de nuestros problemas económicos. En sus complejos modelos cuantitativos describen segmentos fragmentarios de la actividad económica; se supone que estos fragmentos tienen una base «empírica» y que no representan más que «hechos», pero en realidad se apoyan en una serie de conceptos neoclásicos tácitamente asumidos. Todos estos modelos y teorías —sean marxistas o no marxistas—siguen estando profundamente arraigados en el paradigma cartesiano, y por ello no sirven para describir las interacciones y las continuas transformaciones del sistema económico mundial actual. A los no iniciados no les resulta nada fácil comprender el lenguaje técnico y extremadamente abstracto de la economía moderna: no obstante, una vez dominado este lenguaje, los principales fallos del pensamiento económico contemporáneo se tornan inmediatamente evidentes. Una de las más destacadas características de los sistemas económicos modernos, tanto del capitalista como del comunista, es la obsesión por el crecimiento. Prácticamente todos los economistas y todos los políticos consideran esencial el crecimiento económico y tecnológico, pese a que hoy hay suficientes pruebas de que la expansión ilimitada en un ambiente finito sólo puede llevar al desastre. La creencia en la necesidad de un crecimiento constante es una consecuencia de la excesiva importancia dada a los valores yang —la expansión, la autoafirmación, la competitividad— y también puede estar relacionada con las nociones newtonianas del tiempo y espacio absolutos e infinitos. Este es un ejemplo de pensamiento lineal, de la creencia errónea de que si algo es bueno para un individuo o un grupo, más de lo mismo será necesariamente mejor. El enfoque competitivo y autoafirmador usado en el comercio forma parte de la herencia del individualismo atomista de John Locke. Esta filosofía tuvo una importancia vital para los primeros colonos y exploradores del continente americano; hoy, sin embargo, se ha vuelto insuficiente, incapaz de hacer frente a la intrincada red de relaciones sociales y ecológicas que caracterizan a las economías industriales maduras. En el gobierno y en el comercio, el credo predominante sigue siendo que el máximo del bien común se obtendrá cuando los individuos, los grupos y las instituciones logren llegar al máximo de su propia riqueza material: lo que es bueno para la General Motors también lo es para los Estados Unidos. El todo se identifica con la suma de sus partes y se olvida la posibilidad de que sea superior o inferior a esta suma, según la interferencia recíproca de las partes. Las consecuencias de esta falacia reduccionista se están haciendo desagradablemente visibles: hay cada vez más choques entre las fuerzas económicas, que desgarran el tejido social y arruinan el entorno natural.

De la obsesión mundial por el crecimiento ha resultado el asombroso parecido entre las economías capitalistas y las comunistas. Los dos representantes principales de estos opuestos sistemas de valores, la Unión Soviética y los Estados Unidos, no parecen hoy tan diferentes. Ambas potencias se dedican al crecimiento industrial y a la tecnología «dura», y ambas ejercen un control cada vez más centralizado y burocrático, sea por parte del estado, sea por parte de las multinacionales «privadas». La dependencia universal del crecimiento y de la expansión se está haciendo más fuerte que todas las demás ideologías: tomando la frase de Marx, podemos decir que se ha convertido en «el opio del pueblo» En cierto sentido, la creencia generalizada en el crecimiento se puede justificar, pues el crecimiento es una característica esencial de la vida. El hombre lo ha sabido desde tiempos inmemoriales, como podemos ver por los términos utilizados en la antigüedad para describir la realidad. La palabra griega physis —que es la raíz de nuestros términos modernos física, fisiología etc.—, y el término sánscrito brahman, utilizados ambos para describir la naturaleza esencial de todas las cosas, derivan de la misma raíz indoeuropea bheu, que significa «crecer». De hecho, la evolución, el cambio y el crecimiento parecen ser aspectos esenciales de la realidad. Sin embargo, el error de las actuales nociones de crecimiento económico y tecnológico estriba en su falta de restricciones. Se suele creer que todo crecimiento es bueno sin reconocer que, en un ambiente finito, tiene que haber un equilibrio dinámico entre el crecimiento y la decadencia. Mientras que unas cosas tienen que crecer, otras tienen que decaer, para que sus elementos constituyentes puedan ser liberados y aprovechados nuevamente. La mayor parte del pensamiento económico actual se apoya en la noción del crecimiento no diferenciado. La idea de que el crecimiento puede ser paralizante, malsano o patológico no se toma en consideración. Por tanto, lo más urgente es diferenciar y precisar el concepto de crecimiento. El crecimiento, enfocado hacia la excesiva producción y el enorme consumo del sector privado, ha de canalizarse hacia ramas del servicio público como el transporte, la educación y la asistencia sanitaria. Este cambio ha de ir acompañado de un cambio fundamental de énfasis, pasando de las adquisiciones materiales al crecimiento y desarrollo interiores. En las sociedades industriales hay tres aspectos de crecimiento que están íntimamente vinculados entre sí: el económico, el tecnológico y el institucional. La mayoría de los economistas aceptan el dogma del continuo crecimiento económico, suponiendo —como Keynes— que es la única manera en que la riqueza material «se filtrará» hacia las clases más pobres. Ahora bien: lo irreal de ese modelo de crecimiento «por filtración» ha quedado patente hace mucho tiempo. Los altos índices de crecimiento no resuelven prácticamente ninguno de los problemas sociales y humanos más urgentes y en muchos países han ido acompañados de un aumento del paro y de un deterioro general en las condiciones sociales47. Así pues, en 1976 Nelson Rockefeller afirmó en una reunión del Club dé Roma: «Es esencial aumentar el crecimiento para que millones de norteamericanos tengan la oportunidad de mejorar su calidad de vida»48. En realidad, Nelson Rockefeller no se estaba refiriendo a la calidad de vida sino al llamado «nivel de vida» que se equipara con el consumo material. Los industriales gastan enormes sumas de dinero en publicidad para mantener un nivel de consumo competitivo; por este motivo, muchos de los bienes consumidos son innecesarios, excesivos y con frecuencia directamente perjudiciales. El precio que pagamos por estas costumbres derrochadoras es la continua degradación de la verdadera calidad de vida —del aire que respiramos, de la comida que comemos, del ambiente en el que vivimos y de las relaciones sociales que forman el tejido de nuestras vidas. Las costas de este consumo excesivo basado en el despilfarro fueron muy bien documentadas hace unas décadas y siguen aumentando día a día49. La consecuencia más grave del crecimiento económico continuo es el agotamiento de los recursos naturales del planeta. A comienzos de los años cincuenta, el geólogo M. King Hubbert

predijo con exactitud matemática el ritmo de tal agotamiento. Hubbert trató de presentar esta hipótesis al presidente John F. Kennedy y a los sucesivos presidentes norteamericanos pero la mayoría de las veces fue tomado por un chiflado. Desde entonces, la historia se ha encargado de confirmar las predicciones de Hubbert con todo detalle, y últimamente ha recibido muchos premios. Las estimaciones y los cálculos de Hubbert demuestran que las curvas de producción/agotamiento para todos los recursos naturales no renovables tienen forma de campana, y que son muy parecidas a las curvas que indican el auge y la caída de las civilizaciones50. En un principio la curva sube paulatinamente, luego se empina bruscamente, llega a su punto culminante, desciende de improviso y a la larga desaparece. De esta manera predijo Hubbert que la producción de petróleo y de gas natural en los Estados Unidos alcanzaría su punto máximo en los años setenta —como sucedió— y luego comenzaría el descenso que continúa en la actualidad. El mismo modelo anuncia que la producción mundial de petróleo llegará a su punto culminante hacia 1990, mientras la producción mundial de carbón lo hará en el trascurso del siglo XXI. El aspecto más importante de estas curvas es que describen el agotamiento de todos los recursos naturales, desde el carbón, el petróleo y el gas natural hasta los metales, los bosques y las reservas ícticas e incluso del oxígeno y del ozono. Quizá la solución al problema de la producción de energía se encuentre en los combustibles orgánicos, pero esto no pondrá fin al agotamiento de los otros recursos naturales. Si mantenemos los modelos actuales de crecimiento no diferenciado, pronto agotaremos las reservas de metales, alimentos, oxígeno y ozono que tienen una importancia capital para nuestra supervivencia. Para reducir el ritmo veloz del agotamiento de nuestros recursos naturales no sólo tenemos que olvidar la idea del crecimiento económico continuo, sino que también hemos de controlar el incremento de la población mundial. Los peligros de esta «explosión demográfica» suelen reconocerse, pero las opiniones sobre cómo lograr un «crecimiento demográfico cero» varían mucho, y los métodos propuestos van desde la planificación familiar voluntaria y la educación sexual hasta la coacción con medidas legales y mediante el empleo de la fuerza bruta. La mayoría de estas proposiciones se basan en una visión exclusivamente biológica del fenómeno, relacionándolo sólo con la fertilidad y la contracepción. Pero hoy existen una serie de pruebas concluyentes, reunidas por demógrafos de todo el mundo, de que el crecimiento demográfico se ve afectado también, o incluso más, por varios factores sociales poderosos. La concepción sugerida por estas investigaciones ve afectado el índice de crecimiento por la compleja interacción entre varias fuerzas biológicas, sociales y psicológicas. Los demógrafos han descubierto que el modelo más significativo radica en la transición entre dos niveles de poblaciones estables, que ha sido una característica de todos los países occidentales. En las sociedades premodernas los índices de natalidad eran altos, pero también lo eran los índices de mortalidad, de suerte que el número de la población permanecía estable. Al mejorar las condiciones de vida en la época de la revolución industrial los índices de mortalidad comenzaron a disminuir y, puesto que los índices de natalidad seguían siendo muy altos, la población comenzó a aumentar rápidamente. Sin embargo, al mejorar constantemente el nivel de vida y al reducirse cada vez más los índices de mortalidad, también los índices de natalidad comenzaron a disminuir, con ello disminuyó también el ritmo del crecimiento demográfico. La razón de esta disminución se ha observado en todo el mundo. A través de la interacción de las fuerzas sociales y psicológicas, la calidad de vida —la satisfacción de las necesidades materiales, la sensación de bienestar y la confianza en el futuro— se convierte en una motivación muy potente y eficaz para controlar el crecimiento demográfico. De hecho, se ha descubierto un nivel crítico de bienestar que conduce a una rápida reducción del índice de natalidad y que tiende al equilibrio demográfico. Las sociedades humanas, pues, han desarrollado un proceso de auto-regulación, basado en las condiciones sociales, que tiene como resultado una transición demográfica de una población en equilibrio con un alto índice de natalidad y mortalidad y un bajo nivel de vida a una población con un nivel de vida más alto,

mayor en número que la anterior pero igualmente equilibrada, en la que tanto el índice de natalidad como el de mortalidad son muy bajos51. La crisis demográfica del mundo moderno se debe al rápido aumento de la población en el Tercer Mundo, y las consideraciones mencionadas anteriormente demuestran con claridad que este aumento continúa al no haberse cumplido las condiciones necesarias para la segunda fase de la transición demográfica. En el pasado colonial, los países del Tercer Mundo experimentaron una mejora de las condiciones de vida que bastó para reducir el índice de mortalidad, iniciando así el crecimiento demográfico. Ahora bien, el nivel de vida no siguió aumentando, pues las riquezas de las colonias se transferían a los países más desarrollados, donde contribuían a la estabilización de sus poblaciones. Este proceso ocurre todavía, pues muchos países tercermundistas siguen estando colonizados económicamente. Esta explotación sigue aumentando la opulencia de los colonizadores e impide que las poblaciones del Tercer Mundo alcancen el nivel de vida necesario para reducir su índice de crecimiento demográfico. La crisis demográfica mundial es pues un efecto imprevisto de la explotación internacional, una consecuencia de las relaciones fundamentales dentro del ecosistema mundial, en el que cada explotación vuelve, con el tiempo, a perjudicar a los explotadores. Desde este punto de vista resulta evidente que el equilibrio ecológico también requiere la justicia social. La manera más eficaz de controlar el crecimiento demográfico será ayudar a los pueblos del Tercer Mundo a alcanzar un nivel de bienestar que los induzca a limitar voluntariamente su fertilidad. Para ello, se requiere una redistribución mundial de la riqueza, a saber, que parte de la riqueza del mundo se devuelva a los que contribuyeron mayoritariamente a su producción. Un aspecto importante pero poco conocido del problema demográfico es que el costo de aumentar el nivel de vida de los países más pobres hasta el punto en que la gente se convenza de no tener un número excesivo de hijos es muy reducido con respecto a la riqueza de los países desarrollados. En otras palabras: hay suficiente riqueza para mantener a todo el mundo en un nivel que desemboque en un equilibrio demográfico52. El problema radica en que esta riqueza esta repartida de manera desigual, y que se desperdicia en gran parte. En los Estados Unidos, donde el consumo excesivo y el derroche se han convertido un modo de vida, el 5 por ciento de la población mundial, consume un tercio de los recursos mundiales, con un consumo la energía per cápita que es aproximadamente el doble del de la mayoría de los países europeos. Al mismo tiempo, las frustraciones creadas y mantenidas por las dosis masivas de publicidad, combinadas con la injusticia social dentro del país, contribuyen a determinar el creciente número de crímenes, de actos violentos y otras patologías sociales. El triste estado de cosas se refleja muy bien en el esquizofrénico contenido de los semanarios americanos. La mitad de las páginas están llenas de siniestras historias sobre crímenes violentos, desastres económicos, tensiones políticas internacionales y la carrera hacia la destrucción mundial, mientras que la otra mitad retrata gente alegre y despreocupada que nos ofrece paquetes de cigarrillos, botellas de alcohol y flamantes coches nuevos. En la televisión, la publicidad influye en el contenido y la forma de todos los programas, incluidos los noticiarios, y utiliza el enorme poder de sugestión de este medio de comunicación —en funcionamiento durante seis horas y media en la familia norteamericana media— para deformar la imaginación de las personas, desvirtuar su sentido de la realidad y determinar sus opiniones, sus gustos y sus comportamientos53. El único objetivo de esta peligrosa manera de proceder es condicionar al público para comprar los productos anunciados antes, después y durante cada programa. En esta cultura, el crecimiento económico está inexplicablemente ligado al crecimiento tecnológico. Los individuos y las instituciones se hallan hipnotizados por los milagros de la tecnología moderna y han acabado por creer que todos los problemas se pueden solucionar con la tecnología. No importa que la naturaleza del problema sea política, psicológica o ecológica, la primera reacción, casi automática, es tratar de resolverlo aplicando o desarrollando algún nuevo tipo de tecnología. Al derroche del consumo de la energía se responde creando nuevas centrales nucleares; la falta de ideas políticas se compensa fabricando más misiles y más bombas, y el

remedio para el envenenamiento del medio ambiente es la creación de nuevas tecnologías que, a su vez, afectan a la naturaleza de varias maneras aún desconocidas. Tratando de encontrar soluciones técnicas para todos los problemas, nos hemos limitado simplemente a cambiarlos de sitio en el ecosistema mundial, y frecuentemente los efectos secundarios de la «solución» son más dañinos que el problema original. La última manifestación de nuestra obsesión por la alta tecnología es la generalizada fantasía de que nuestros problemas actuales pueden resolverse creando hábitats artificiales en el espacio. No excluyo la posibilidad de que algún día se fabriquen estas colonias espaciales, si bien por lo que he visto de los planos y de la mentalidad que las ha concebido estoy seguro de que no me gustaría vivir allí. Sin embargo, el error básico de toda la idea no es tecnológico: se trata de la ingenua creencia de que la tecnología espacial puede solucionar las crisis sociales y culturales de nuestro planeta. El crecimiento tecnológico no sólo está considerado como la solución definitiva del problema, sino también como el factor que determina nuestro sistema de vida, nuestra organización social y nuestro sistema de valores. Este «determinismo tecnológico» parece ser consecuencia del prestigio de la ciencia en nuestra vida pública —en comparación con la filosofía, el arte o la religión— y del hecho que los científicos no han sido generalmente capaces de ocuparse de los valores humanos de manera significativa. Esto ha llevado a muchas personas a creer que la tecnología determina la naturaleza de nuestro sistema de valores y de nuestras relaciones sociales, en vez de reconocer que es exactamente lo contrario: son nuestros valores y nuestras relaciones sociales los que determinan la naturaleza de nuestra tecnología. La conciencia masculina, o «yang», que domina nuestra cultura, se ha visto realizada no sólo en la ciencia «exacta», sino también en la tecnología «dura» que deriva de ella. Esta tecnología es más bien fragmentaria que holística, orientada hacia la manipulación y el control y no hacia la cooperación, autoafirmadora y no integradora, y adecuada a una administración centralizada en vez de a una aplicación regional por individuos y pequeños grupos. Como resultado de ello, esta tecnología se ha hecho profundamente antiecológica, antisocial, poco sana e inhumana. La manifestación más peligrosa de nuestra tecnología dura y «machista» es la difusión de las armas nucleares, que equivale al «boom» militar más caro de la historia54. Tras lavar el cerebro del público americano y controlar eficazmente a sus representantes, el complejo militarindustrial ha logrado obtener con regularidad presupuestos de defensa cada vez mayores y los ha utilizado para diseñar las armas que se utilizarán en una guerra en la que se usarán intensivamente los recursos científicos y que estallará en unos diez o veinte años. En el campo militar trabajan de un tercio a la mitad de los científicos e ingenieros norteamericanos, utilizando toda su imaginación y su creatividad para inventar medios cada vez más complejos destinados a la destrucción total —sistemas de comunicación por laser, ondas dirigidas de partículas y otras tecnologías complejas destinadas a la «guerra de las galaxias»55. Resulta sorprendente que todos estos esfuerzos se concentren exclusivamente en las armas. Los problemas de defensa de los Estados Unidos, como todos los demás problemas que afectan al país, se perciben como simples problemas de alta tecnología. La idea de que las investigaciones en el campo de la psicología, de lo social y de la conducta —y no hablemos ya de la filosofía o la poesía— podrían ser importantes pasa desapercibida. Además, el problema de la seguridad nacional se analiza principalmente en términos de «bloques de poderes», «acción y reacción», «vacío político» y otras nociones newtonianas parecidas. Los efectos del extenso uso militar de la tecnología «dura» son semejantes a los que se encuentran en la economía civil. La complejidad de nuestros sistemas industriales y tecnológicos ha llegado a un punto en el que muchos de estos sistemas ya no pueden ser modelados ni controlados. Las averías y los accidentes suceden cada vez con mayor frecuencia;

continuamente surgen costos sociales y ambientales imprevistos, y se dedica más tiempo a mantener y a regular el sistema que a suministrar bienes y servicios útiles. Estas empresas, por tanto, son extremadamente inflacionarias, además de tener graves consecuencias para nuestra salud física y mental. De ahí que cada vez se haga más evidente, como indicaba Henderson, que podríamos alcanzar nuestros límites sociales, psicológicos y conceptuales de crecimiento incluso antes de haber alcanzado los límites físicos56. Por consiguiente, lo que necesitamos es una nueva definición de la naturaleza de la tecnología, un cambio en su orientación, y una nueva evaluación del sistema de valores en el que se apoya. Si se entiende la tecnología en el sentido más amplio del término —como la aplicación de los conocimientos humanos para resolver una serie de problemas prácticos— se hace evidente que nos hemos concentrado demasiado en las tecnologías «duras», altamente complejas, que requieren un uso intensivo de los recursos, y que hemos de desplazar nuestra atención hacia las tecnologías «blandas» para resolver los conflictos, llegar a acuerdos sociales, a la cooperación, a la recuperación y a la redistribución de los bienes. Como dice Schumacher en su obra Lo Pequeño es Hermoso, necesitamos una «tecnología con rostro humano»57. El tercer aspecto del crecimiento no diferenciado que es inseparable del crecimiento tecnológico y económico, es el crecimiento de las instituciones desde las compañías y las corporaciones hasta las universidades y las facultades, las iglesias, las ciudades, los gobiernos y los países. Cualquiera que sea el objetivo original de la institución, su crecimiento hasta más allá de cierto punto deforma inevitablemente este objetivo convirtiendo en meta principal la subsistencia y la posterior extensión de la institución. Al mismo tiempo, quienes forman parte de esta institución y los que tienen que tratar con ella se sienten cada vez más alienados y despersonalizados, mientras que las familias, los barrios y otras organizaciones sociales en pequeña escala se ven amenazadas y a menudo destruidas por la dominación y la explotación institucional58. Actualmente, una de las manifestaciones más peligrosas del crecimiento institucional es el de las sociedades anónimas. Las más grandes han trascendido los límites nacionales y se han convertido en protagonistas del escenario mundial. Los recursos económicos de estos gigantes multinacionales superan el producto nacional bruto de la mayoría de los países; su poder económico y político supera al de muchos gobiernos, amenazando la soberanía nacional y la estabilidad monetaria mundial. En la mayoría de los países occidentales, y especialmente en los Estados Unidos, el poder de las compañías se extiende prácticamente a todas las facetas de la vida pública. Las sociedades controlan gran parte del proceso legislativo, desvirtúan el sentido de la información que el público recibe a través de los medios de información, y determinan hasta cierto punto el funcionamiento de nuestro sistema escolar y la orientación de las investigaciones académicas. Los dirigentes de las empresas y del comercio destacan en los consejos de administración de las instituciones y fundaciones académicas, donde inevitablemente utilizan su influencia para perpetuar un sistema de valores conforme a los intereses de sus empresas59. La naturaleza de las grandes empresas es profundamente inhumana. La competencia, la coacción y la explotación son aspectos esenciales de sus actividades, todas ellas motivadas por el deseo de una expansión infinita. El crecimiento continuo forma parte integrante de la estructura empresarial. Por ejemplo, el ejecutivo de una empresa que deliberadamente deja pasar de largo la oportunidad de aumentar las ganancias de su empresa, por cualquier motivo, puede ser sometido a un proceso legal. Por consiguiente la obtención del máximo de ganancias se convierte en objetivo primordial, lo que excluye todas las demás consideraciones. Los ejecutivos empresariales tienen que olvidarse de su humanidad cuando asisten a las reuniones del consejo de administración. Se espera que no demuestren sentimiento alguno, ni tampoco arrepentimiento; no pueden decir nunca «lo siento» o «nos hemos equivocado». En cambio, los temas que tratan son la coacción, el control y la manipulación.

Las grandes sociedades anónimas, cuando han crecido más allá de cierto punto, comienzan a funcionar como máquinas y no como instituciones. Sin embargo, no existe ninguna ley, nacional o internacional, que pueda enfrentarse efectivamente a esas gigantescas instituciones. El crecimiento del poder empresarial ha superado el desarrollo de una estructura legal adecuada. Leyes hechas para seres humanos se aplican a sociedades que han perdido toda semejanza con los seres humanos. Los conceptos de propiedad privada y de empresa se han confundido con la propiedad de las empresas y con el capitalismo de estado, y la «libertad de expresión empresarial» está hoy protegida por la Primera Enmienda de la Constitución norteamericana. Por otra parte, estas empresas no asumen las responsabilidades de un individuo, pues están proyectadas de tal manera que ninguno de sus ejecutivos cargue con toda la responsabilidad de las actividades empresariales. De hecho, los dirigentes empresariales creen que las empresas están exentas de valores y que se les debería permitir funcionar fuera del orden moral y ético. Esta peligrosa noción fue expresada muy cándidamente por Walter Wriston, presidente del Citibank, el segundo banco del mundo. En una reciente entrevista, Wriston hizo el espeluznante comentario: «Los valores están patas arriba... Los estudiantes universitarios viven en dormitorios mixtos, los hombres en un piso y las mujeres en el otro, y todos ellos se reúnen para discutir si la General Motors actúa honradamente o no... En mi opinión no existen valores institucionales: sólo hay valores personales»60. Mientras las multinacionales intensifican su búsqueda de recursos naturales, de mano de obra barata y de nuevos mercados en todo el mundo, los desastres ecológicos y las tensiones sociales creadas en su obsesión por el crecimiento indefinido se hacen cada vez más evidentes. Miles de pequeñas empresas han sido expulsadas del mercado por el poder de las grandes compañías que pueden obtener subsidios federales para sus complejas tecnologías, en las que invierten enormes sumas de dinero y con las que consumen una gran cantidad de recursos naturales. Al mismo tiempo, hay una tremenda escasez de personas con conocimientos de oficios simples como la carpintería, la plomería, la sastrería y otro tipo de trabajos manuales y de mantenimiento que han sido socialmente desvalorizados y gravemente descuidados pese a seguir siendo tan importantes como antes. En vez de recuperar la autosuficiencia cambiando de trabajo y practicando estos oficios, la mayoría de los trabajadores siguen dependiendo totalmente de las grandes empresas y en las épocas de crisis económica no ven otra solución que cobrar los subsidios de paro y aceptar pasivamente que la situación está fuera de su control. Mientras las consecuencias del poder empresarial son perjudiciales en los países industrializados, en los países del Tercer Mundo resultan totalmente desastrosas, pues allí no suele haber ningún tipo de restricción y, cuando la hay, es imposible hacerla cumplir, y la explotación de las personas y de sus tierras ha llegado a proporciones extremas. Manipulando hábilmente los medios de información, que hacen hincapié en la naturaleza «científica» de sus actividades y a menudo están respaldadas completamente por el gobierno de los Estados Unidos, las empresas multinacionales extraen implacablemente los recursos naturales del Tercer Mundo. Con este fin suelen utilizar una tecnología contaminadora y perjudicial para la sociedad, que causa graves desastres ecológicos y caos político. Abusan de la tierra y de los recursos vírgenes de los países del Tercer Mundo para producir frutas y verduras destinadas a la exportación y no alimentos para la población local, y fomentan modelos de consumo poco sanos, entre ellos la venta de productos extremadamente peligrosos que están prohibidos en los Estados Unidos. En los último años hemos oído muchísimas historias terroríficas sobre las actividades de las multinacionales en los países del Tercer Mundo que prueban sin lugar a dudas que el respeto por las personas, por la naturaleza y por la vida no forman parte de la mentalidad empresarial. Por el contrario, los delitos empresariales a gran escala son hoy la actividad delictiva más difundida y menos perseguida61. La mayoría de las grandes empresas se han convertido en instituciones abrasadas que inmovilizan el capital, la administración y los recursos, pero que son incapaces de adaptar su funcionamiento a las necesidades cambiantes. Un ejemplo muy conocido es el de la industria automovilística, que no puede adaptarse al hecho de que las limitaciones mundiales de la

energía y los recursos nos obligarán a reestructurar drásticamente nuestro sistema de transporte, pasando a los transportes de masa y utilizando coches más pequeños, más eficaces y más duraderos. Asimismo, las empresas de servicio público necesitan una demanda de electricidad cada vez mayor para justificar su expansión y por ello se han embarcado en una enérgica campaña a favor de la energía nuclear en vez de fomentar la tecnología solar a pequeña escala, descentralizada, que es la única que puede producir un ambiente que nos permita sobrevivir. A pesar de que estas empresas gigantes suelen estar al borde de la quiebra, aún tienen suficiente poder político para convencer al gobierno de sacarlas de apuros con el dinero de los contribuyentes. Alegan invariablemente que sus esfuerzos están motivados por el deseo de mantener los puestos de trabajo pese a que se ha comprobado que las pequeñas empresas basadas en un uso intensivo de la mano de obra, crean más puestos de trabajo y generan menos costas sociales y ambientales62. Siempre necesitaremos operaciones a gran escala, pero muchas de las sociedades gigantescas, que dependen de unos medios de producción en los que se utilizan enormes cantidades de energía y de recursos naturales para producir bienes de utilidad marginal, tienen que transformarse radicalmente o pasar a mejor vida. Sólo entonces liberarán el capital, los recursos y el ingenio humano con los que se podrá construir una economía sostenible y crear unas tecnologías alternativas. La cuestión de la escala —iniciada por Schumacher con el lema «lo pequeño es hermoso»— desempeñará un papel crucial en la nueva evaluación de nuestro sistema económico y de nuestra tecnología. La obsesión universal por el crecimiento ha ido acompañada de una idolatría del gigantismo, del «grandor de las cosas» en palabras de Theodor Roszak63. El tamaño, desde luego, es relativo, y no siempre las estructuras pequeñas son mejores que las grandes. En el mundo moderno tenemos necesidad de ambas, y nuestra tarea será conseguir un equilibrio entre las dos. El crecimiento tendrá que ser cualificado y el concepto de escala tendrá una función capital en la reestructuración de nuestra sociedad. La cualificación del crecimiento y la integración de la noción de escala en el pensamiento económico tendrán como resultado una profunda revisión de la estructura conceptual básica de la economía. Muchos modelos económicos que hoy se aceptan tácitamente como inevitables tendrán que modificarse; la actividad económica se tendrá que estudiar dentro del contexto del ecosistema global; y será necesario ampliar, modificar o abandonar la mayoría de los conceptos utilizados en la teoría económica actual. Los economistas tienden a congelar la economía de manera arbitraria dentro de su actual estructura institucional en vez de concebirla como un sistema evolutivo que genera modelos que cambian continuamente. Es importantísimo comprender esta evolución dinámica de la economía porque muestra que ciertas estrategias que resultan aceptables en una fase pueden volverse totalmente inadecuadas en otra. Muchos de los problemas con los que hoy nos enfrentamos derivan del hecho de que hemos rebasado los límites de nuestras empresas tecnológicas y de nuestra planificación económica. Como suele decir Hazel Henderson, hemos llegado a un punto donde «nada fracasa tanto como el éxito». Nuestras estructuras económicas e institucionales son dinosaurios incapaces de adaptarse a los cambios del medio y por tanto destinados a extinguirse. La economía del mundo actual se basa en una configuración anticuada del poder que perpetúa las estructuras de clase y la injusta distribución de la riqueza dentro de las economías nacionales, además de fomentar la explotación de los países del Tercer Mundo por las ricas naciones industrializadas. Estas realidades sociales suelen ser ignoradas por los economistas, que tienden a evitar las cuestiones morales y a aceptar la actual distribución de la riqueza como un hecho dado e inmutable. En la mayoría de los países occidentales la riqueza económica está controlada herméticamente por un reducido número de personas que forman la «clase dirigente» cuya renta deriva en gran parte de sus propiedades64. En los Estados Unidos, el 76 por ciento de todas las acciones están en manos del 1 por ciento de los accionistas mientras que, en la base de la pirámide social, el 50 por ciento de los ciudadanos controla sólo el 8 por ciento de la riqueza del país65. En su famoso manual La Economía, Paul Samuelson ilustró con una analogía muy

elocuente esta asimétrica distribución de la riqueza: «Si hoy hiciéramos una pirámide de las rentas con los cubos de construcción de un niño, e hiciésemos que cada nivel correspondiese a 1.000 dólares de renta, la cima sería mucho más alta que la torre Eiffel, mientras que casi todos nosotros estaríamos a un metro del suelo»66. Esta desigualdad social no es un accidente, sino un aspecto intrínseco de la estructura misma de nuestro sistema económico y está perpetuada por el énfasis puesto en las tecnologías que hacen un uso intensivo de capital. La necesidad de continuar la explotación para el crecimiento de la economía norteamericana fue señalada escuetamente en un artículo de fondo del Wall Street Journal sobre «El crecimiento y la ética» en el que insistía en que los Estados Unidos tendrán que optar entre el crecimiento y una mayor igualdad, puesto que el mantenimiento de la desigualdad era necesario para crear el capital67. La enorme desigualdad en la repartición de la riqueza y de la renta en los países industrializados es paralela a unos modelos similares de injusta repartición entre los países industrializados y el Tercer Mundo. Las multinacionales frecuentemente utilizan los programas de ayuda económica y tecnológica al Tercer Mundo para explotar la mano de obra y los recursos naturales de estos países y para llenar los bolsillos de una elite corrupta y minoritaria. Como dice el cínico dicho, «La ayuda económica es tomar el dinero de los pobres de los países ricos para dárselo a los ricos de los países pobres». El resultado de estas prácticas es la perpetuación de un «equilibrio de la pobreza» en el Tercer Mundo, donde el nivel de vida se aproxima al mínimo necesario para la subsistencia68. El hecho de que la teoría económica actual evite enfrentarse a los problemas sociales va íntimamente vinculado a la asombrosa incapacidad de los economistas para adoptar una perspectiva ecológica. La discusión entre ecologistas y economistas ha durado más de dos décadas y ha demostrado con gran claridad que la mayoría del pensamiento económico contemporáneo es intrínsecamente antiecológico69. Los economistas hacen caso omiso de la interdependencia entre la sociedad y la ecología, tratando todos los bienes por igual, sin considerar las distintas formas en que estos bienes están relacionados con el resto del mundo — si son hechos por la mano del hombre o si se encuentran en la naturaleza, si son renovables o no, y así sucesivamente. Para ellos, diez dólares de carbón equivalen a diez dólares de pan, de transporte, de zapatos o de educación. El único criterio para determinar el valor relativo de estos bienes y servicios es su valor monetario en el mercado; todos los valores quedan reducidos al único criterio de los beneficios privados. Puesto que la estructura conceptual de la economía no resulta muy adecuada para explicar las costas ambientales y sociales generadas por toda la actividad económica, los economistas tienden a hacer caso omiso de estas costas, catalogándolas como «variables» externas que no encajan en sus modelos teóricos. Y puesto que la mayoría de los economistas trabajan para grupos de interés privado preparando análisis de rentabilidad que suelen tomar parte a favor de los proyectos de los empresarios, tenemos muy pocos datos aún sobre los «factores externos» que son fáciles de cuantificar. Los economistas al servicio de las empresas tratan el aire, el agua y otras reservas del ecosistema como productos gratuitos, concibiendo el delicado tejido de las relaciones sociales como un bien del que pueden disponer gratuitamente, a pesar de que se halla severamente afectado por la expansión económica. Las ganancias privadas se realizan cada vez más a costa del público, como refleja el deterioro del medio ambiente y de la calidad de la vida. En palabras de Henderson: «Nos hablan del brillo de las vajillas y de la ropa, pero se olvidan de mencionar la pérdida de brillo de los ríos y de los lagos»70. La incapacidad de los economistas para ver las actividades económicas dentro de un contexto ecológico les impide entender muchos de los principales problemas de nuestro tiempo, ante todo la tenaz persistencia de la inflación y del paro. La inflación no es causada por un único factor: se pueden identificar varias fuentes principales, y la mayoría de los economistas no logran comprender la inflación porque todas estas fuentes incluyen una serie de variables que han sido excluidas de los modelos económicos actuales. Los economistas no suelen tomar en cuenta el hecho de que la riqueza se basa en los recursos naturales y en la energía, pese a que resulta cada

vez más difícil olvidarlo. Al disminuir la base de los recursos, las materias primas y la energía han de ser extraídas de reservas cada vez más degradadas e inaccesibles, de ahí que se necesite cada vez más capital para financiar el proceso de extracción. Por consiguiente, el agotamiento inevitable de los recursos naturales, que sigue las conocidas curvas en forma de campana, va acompañado de un alza exponencial y continua del precio de la energía y los recursos, y esto se convierte en una de las principales fuerzas motrices de la inflación. La excesiva dependencia de nuestra economía respecto de la energía y de los recursos se refleja en el uso intensivo de capital y no de mano de obra. El capital representa una posibilidad de trabajo, derivado de la anterior explotación de los recursos naturales. Al disminuir estos recursos, el capital se está volviendo un recurso muy escaso. A pesar de ello, y a causa de la noción parcial de productividad, hay una fuerte tendencia a sustituir la mano de obra por el capital, y esto es algo que se observa tanto en los países capitalistas como en los marxistas. La comunidad de empresarios ejerce constantes presiones sobre el gobierno para obtener deducciones tributarias por sus inversiones de capital, muchas de las cuales reducen el número de puestos de trabajo a través de la automatización, por ejemplo en el caso de las líneas de control automatizadas en los supermercados y de los sistemas electrónicos para la transferencia de fondos en los bancos. Tanto el capital como la mano de obra engendran riqueza, pero una economía basada en el capital también comporta un uso intensivo de los recursos naturales y de la energía, y por ello se volverá extremadamente inflacionaria. Un sorprendente ejemplo de tal actividad con uso intensivo de capital se halla en el sistema de agricultura estadounidense, que ejerce su impacto inflacionista en muchos niveles de la economía. La producción se realiza con la ayuda de maquinaria y de sistemas de irrigación que tienen un gran consumo de energía y con fuertes dosis de pesticidas y fertilizantes a base de petróleo. Estos métodos no sólo destruyen el equilibrio orgánico del terreno y producen substancias químicas que envenenan nuestros alimentos, sino que dan además un rendimiento cada vez menor, convirtiendo a los agricultores en las principales víctimas de la inflación. La industria alimentaria transforma los productos agrícolas en alimentos enlatados o congelados, elaborados en exceso y desproporcionadamente anunciados, que luego transporta a todo el país, donde se venden en los grandes supermercados; todos estos procesos requieren un consumo de energía excesivo y, por tanto, fomentan la inflación. Lo mismo se puede decir de la cría de animales, muy fomentada por la industria petroquímica, ya que se necesita aproximadamente diez veces más energía de combustible orgánico para producir una unidad de proteína vegetal que una unidad de proteína animal. La mayor parte de los cereales producidos en los Estados Unidos no es consumida por personas, sino que sirve para alimentar el ganado que luego será comido por personas. A causa de ello, la mayoría de los americanos tienen una dieta desequilibrada que frecuentemente lleva a la obesidad y a la enfermedad, contribuyendo así a la inflación en la asistencia sanitaria. En todo nuestro sistema económico se pueden observar modelos similares. La inversión excesiva de capital, de energía y de recursos naturales pone a prueba el medio ambiente, afecta negativamente a nuestra salud, y es la principal causa de la inflación. La sabiduría económica convencional da por sentada la existencia de un mercado libre que por naturaleza tiende a permanecer en equilibrio. La inflación y el desempleo se conciben como aberraciones temporales e interdependientes del estado de equilibrio, y una es el recambio de la otra. En la realidad actual, sin embargo, con las economías dominadas por enormes instituciones y grupos de interés, esta suerte de modelos de equilibrio ya no son válidos. El supuesto recambio de la inflación y el desempleo —expresado matemáticamente por la llamada curva de Philips— es un concepto abstracto y completamente irrealista. La combinación de la inflación y el desempleo, conocida por el nombre de stagflation, se ha vuelto un aspecto estructural de todas las sociedades industriales que se dedican al crecimiento no diferenciado. La excesiva dependencia de la energía y de los recursos naturales, y la inversión excesiva de capital y no de mano de obra, son medidas extremadamente inflacionarias y además causan el desempleo

masivo. De hecho, el paro se ha vuelto un aspecto tan intrínseco de nuestra economía que los economistas gubernamentales hoy hablan del «pleno empleo» cuando más de 5 por ciento de la mano de obra no tiene trabajo. La segunda causa de la inflación es el aumento cada vez mayor de las costas sociales engendradas por el crecimiento no diferenciado. En sus tentativas por alcanzar el máximo de beneficios, los individuos, las compañías y las instituciones tratan de «exteriorizar» todas las costas sociales y ambientales, excluyéndolas de sus balances y transfiriéndolas al sistema, al medio ambiente y a las generaciones futuras. Gradualmente, estas costas se van acumulando y se manifiestan en las costas de pleitos, control de la criminalidad, coordinación burocrática, leyes federales, protección del consumidor, asistencia sanitaria y así sucesivamente. Estas actividades no añaden nada a la verdadera producción: por el contrario, todas ellas aportan de manera significativa al aumento de la inflación. En vez de incorporar en sus teorías estas importantísimas variables sociales y ambientales, los economistas tienden a trabajar con modelos de equilibrio que, pese a su elegancia, están totalmente desconectados de la realidad; la mayoría de estos modelos se fundamenta en la noción clásica de los mercados libres, donde los compradores y los vendedores se encuentran para intercambiar sus productos disponiendo del mismo poder y de la misma información. En la mayoría de las sociedades industriales, las grandes empresas controlan la oferta de bienes, crean una demanda artificial a través de la publicidad y ejercen una influencia decisiva en la política del país. El ejemplo más extremo son las compañías petroleras que determinan la política energética de los Estados Unidos hasta tal punto que las decisiones cruciales no se toman en interés del país, sino en interés de las empresas dominantes. El interés de las empresas, sin ninguna duda, no tiene nada que ver con el bienestar del ciudadano norteamericano, sino que se preocupa exclusivamente por sus propios beneficios. John Sweringen uno de los principales ejecutivos de la Standard Oil en Indiana, lo dijo sin rodeos en una reciente entrevista: «Nosotros no nos ocupamos de energía —fueron sus palabras—Nuestro objeto es utilizar los recursos que nos han sido confiados por nuestros accionistas para darles el máximo rendimiento por el dinero que han invertido en nuestra empresa»71. En la actualidad, gigantes como la Standard Oil tienen el poder de determinar en gran parte, no sólo la política energética del país, sino también sus sistemas de transporte, agricultura, asistencia sanitaria y muchos otros aspectos de la vida social y económica. Los mercados libres, equilibrados por la oferta y la demanda, desaparecieron hace mucho tiempo: sólo existen en los manuales de economía. También se ha vuelto anticuada la idea keynesiana de que las fluctuaciones económicas cíclicas pueden eliminarse tomando las medidas adecuadas. A pesar de ello, los economistas modernos aún utilizan los tradicionales instrumentos keynesianos para provocar la inflación o la deflación de la economía, creando oscilaciones a corto plazo que ocultan las realidades ecológicas y sociales. Para enfrentarse a los fenómenos económicos desde una perspectiva ecológica, los economistas tendrán que revisar drásticamente sus conceptos básicos. Como estos conceptos fueron definidos de manera parcial y han sido utilizados sin su contexto social y ecológico, ya no sirven para representar las actividades económicas en un mundo tan fundamentalmente interdependiente como el nuestro. El producto nacional bruto, por ejemplo, tendría que indicar la riqueza de un país, pero todas las actividades económicas relacionadas con los valores monetarios se suman de manera indiscriminada para obtener el PNB y se olvidan todos los aspectos no monetarios de la economía; la educación se sigue considerando un gasto en vez de una inversión y no se toman en cuenta el trabajo doméstico y los bienes producidos por éste. Pese a que hoy muchos economistas admiten la insuficiencia de este método de contabilidad, no se ha realizado ningún esfuerzo serio para definir nuevamente el PNB y convertirlo en una medida eficaz de la producción y de la riqueza. Así mismo, los conceptos de «rendimiento», «productividad» y «beneficio» se utilizan en un contexto tan parcial que se han vuelto extremadamente arbitrarios. El rendimiento de una sociedad anónima se mide desde el punto de vista de los beneficios de la empresa, pero como

estos beneficios se hacen cada vez más a costa del público, tenemos que preguntarnos «¿rendimiento para quién?» Cuando los economistas hablan del rendimiento, ¿quieren decir el rendimiento —o eficacia— para el individuo, para la empresa o para el ecosistema? Un sorprendente ejemplo del uso extremadamente parcial de la noción de rendimiento lo dan las compañías de servicios públicos, que han estado tratando de convencernos de que la energía nuclear es la fuente de energía más eficaz, prescindiendo totalmente de las tremendas costas sociales y ambientales que surgen del manejo de material radiactivo. Este uso oblicuo de la palabra «rendimiento» es una característica de la industria energética, que no sólo nos ha informado mal sobre los gastos ambientales y sociales, sino también sobre las realidades políticas ocultas tras el costo de la energía. Tras obtener enormes subsidios por la tecnología convencional gracias a su poder político, las empresas de servicio público dieron media vuelta y declararon que la energía solar era poco eficaz pues no podía competir con las demás fuentes de energía del «mercado libre». Esta suerte de ejemplos abunda. El sistema agrícola de los Estados Unidos, muy mecanizado y subvencionado por las empresas petroleras, hoy se ha vuelto el menos rentable del mundo si se lo juzga desde el punto de vista de la cantidad de energía utilizada para producir un determinado número de calorías; sin embargo, las empresas agrícolas, que son en gran parte propiedad de la industria petroquímica, obtienen enormes ganancias. De hecho, todo el sistema industrial norteamericano, que usa una enorme cantidad de los recursos del planeta para un diminuto porcentaje de su población, podría considerarse extremadamente ineficaz desde el punto de vista ecológico y mundial. El concepto de «productividad» está íntimamente vinculado al de «rendimiento», y también se ha desvirtuado de manera similar. La productividad suele definirse como la producción de un trabajador por hora de trabajo. Con objeto de aumentar esta cantidad, los empresarios tienden a automatizar y mecanizar lo más posible los procesos de producción: de esta manera, también aumentan el número de trabajadores en paro y reducen su productividad a cero haciendo que se inscriban en las listas de parados. Junto con la redefinición de «rendimiento» y de «productividad» tenemos que revisar minuciosamente nuestro concepto de «beneficios». Los beneficios privados se cosechan con demasiada frecuencia a expensas de la explotación de las personas o de la naturaleza. Todas estas costas se han de tomar en cuenta de manera que la noción de beneficios se relacione con la creación de verdadera riqueza. Sólo entonces la mayoría de los bienes producidos y vendidos «con beneficios» serán reconocidos como un gasto inútil y ya no podrán competir en los mercados internacionales. Uno de los motivos por los que el concepto de «beneficio» se ha desvirtuado tanto es la división artificial de la economía en sectores privados y públicos, que ha llevado a los economistas a olvidar el vínculo entre los beneficios privados y las costas públicas. Hoy se ponen cada vez más en duda las funciones relativas de los sectores privados y públicos de bienes y servicios, y cada vez más gente se pregunta por qué hemos de aceptar la necesidad de unas industrias multimillonarias dedicadas a la producción de alimentos para animales domésticos, cosméticos, fármacos y toda suerte de aparatos que suponen un derroche de energía, cuando al mismo tiempo se nos dice que no podemos «permitirnos el lujo» de unos servicios sanitarios adecuados, de un buen cuerpo de bomberos, o de unos sistemas de transporte público realmente eficaces para nuestras ciudades. La nueva organización de nuestra economía no es simplemente una tarea intelectual: también supone una serie de cambios profundos en nuestro sistema de valores. La idea misma de riqueza, que es la clave de la economía, está inextricablemente vinculada a las expectativas, los valores y los modos de vida de los seres humanos. Para definir la riqueza dentro de una estructura ecológica se ha de ir más allá de las actuales connotaciones de la palabra sobre la acumulación de bienes materiales y darle un sentido más amplio de enriquecimiento humano. Esta

noción de riqueza, junto con la de «beneficios» y la de otros conceptos relacionados con ellos, no podrá ser cuantificada con rigor, y por ello los economistas ya no podrán ocuparse de los valores en términos exclusivamente monetarios. De hecho, los problemas económicos actuales han puesto en evidencia que el dinero ya no es un criterio de medición adecuado72. Un aspecto importante de la revisión que hemos de hacer de nuestro sistema de valores es la redefinición de la palabra «trabajo73 ». En nuestra sociedad, el trabajo se identifica con la prestación de un servicio que se hace para alguien y por dinero; las actividades que se realizan gratuitamente no se consideran trabajos. Por ejemplo, al trabajo realizado por hombres y mujeres en su casa no se le da ningún valor económico; sin embargo, este trabajo equivale, en términos monetarios, a dos tercios de todos los sueldos y salarios pagados por todas las empresas de los Estados Unidos74. Por otra parte, ya no hay suficientes puestos de trabajo pagados para muchas personas que desean obtenerlos. Estar en paro conlleva un estigma social; las personas pierden prestigio y respeto ante sus propios ojos y los de los demás al ser incapaces de conseguir un empleo. Al mismo tiempo, los que sí tienen trabajo suelen verse obligados a realizar tareas de las que no pueden enorgullecerse, faenas que los dejan profundamente alienados e insatisfechos. Como Marx reconoció claramente, esta alienación deriva del hecho de que los obreros no son dueños de los medios de producción, no pueden expresar su opinión sobre el uso de su trabajo y no logran identificarse de manera significativa con el proceso de producción. El trabajador industrial moderno va no se siente responsable de su trabajo y tampoco se siente orgulloso de él. El resultado son productos que reflejan cada vez menos habilidad artesanal, calidad artística o buen gusto. De ahí que el trabajo se haya degradado profundamente; desde el punto de vista del obrero, su único objetivo es ganarse la vida, mientras que el único fin del empresario es aumentar sus ganancias. La falta de responsabilidad y de orgullo, junto con el motivo principal de los beneficios, han originado una situación en la que la mayoría del trabajo es hoy un gasto inútil y no tiene justificación. Como ha afirmado enérgicamente Theodor Roszak: El trabajo que produce cacharros innecesarios de consumo o armamento bélico es un error y un despilfarro. El trabajo que es resultado de una falsa necesidad o de un deseo impropio es un error y un despilfarro. El trabajo que engaña o que falsea para obtener sus fines, que explota o degrada a un ser humano, es un error y un despilfarro. El trabajo que daña el medio ambiente o que afea el mundo es un error y un despilfarro. Esta clase de trabajo no puede redimirse de ninguna manera, ni enriqueciéndolo ni reestructurándolo, ni socializándolo ni nacionalizándolo, ni volviéndolo más «pequeño», descentralizado o democrático75. La situación se opone netamente a la de las sociedades tradicionales en las que todos los hombres y mujeres se ocupaban de una gran variedad de actividades —agricultura, ganadería, pesca, caza, tejido, confección de ropa, construcción, fabricación de cerámica y de herramientas, cocina, curación— todas ellas trabajos útiles, dignos y especializados. En nuestra sociedad, la mayoría de las personas están insatisfechas con su trabajo y ponen las actividades de tiempo libre en el centro de su vida. Así pues, el trabajo se ha vuelto lo contrario del ocio, y este último es servido por una enorme industria que fabrica aparatos que conllevan un uso intensivo de energía y de recursos —videojuegos, lanchas motoras y trineos motorizados— y exhorta a las personas a despilfarrar y a consumir. En lo referente a la categoría social de los distintos tipos de trabajo, hay una interesante jerarquía en nuestra sociedad. El trabajo de menor categoría tiende a ser el más «entrópico», esto es, aquel donde la prueba tangible del esfuerzo puede ser destruida con mayor facilidad. Se trata de un trabajo que ha de realizarse una y otra vez sin dejar un efecto duradero: preparar comidas que se comen inmediatamente, barrer los suelos de una fábrica que pronto estarán sucios de nuevo, recortar setos y céspedes que siguen creciendo... En nuestra sociedad, como en

todas las culturas industriales, los trabajos que implican un alto nivel de entropía —los quehaceres domésticos, los servicios de reparación, la agricultura— ocupan la categorías inferiores y reciben la paga más baja, pese a ser esenciales para nuestra existencia cotidiana76. Suelen delegarse a los grupos minoritarios y a las mujeres. Los trabajos de alta categoría son los que producen algo duradero —rascacielos, aviones supersónicos, cohetes espaciales, cabezas nucleares, y todos los productos de alta tecnología. También se otorga gran categoría a todos los trabajos administrativos relacionados con la alta tecnología, por muy aburridos que sean. La jerarquía del trabajo es exactamente lo contrario de la que se observa en las tradiciones místicas. En ellas se da gran valor al trabajo que supone un alto grado de entropía pues éste cumple una función importantísima en el ritual cotidiano de las prácticas espirituales. Los monjes budistas consideran la cocina, el cuidado del jardín y la limpieza del monasterio como parte de sus actividades de meditación, y los monjes y monjas cristianos tienen una larga tradición de agricultura, asistencia a los enfermos y otros servicios. Parece que el alto valor espiritual otorgado al trabajo entrópico en estas tradiciones deriva de una profunda conciencia ecológica. Hacer un trabajo repetitivo nos ayuda a reconocer los ciclos naturales de crecimiento y descomposición, del nacimiento y de la muerte, de suerte que tomamos conciencia del orden dinámico del universo. El trabajo «ordinario», como indica el significado de la raíz del término, es el trabajo en armonía con el orden que percibimos en la naturaleza. Esta conciencia ecológica se ha perdido en nuestra cultura, donde el valor más alto corresponde al trabajo que crea algo «extraordinario», algo que está fuera del orden natural. Por tanto, no es sorprendente que la mayoría de estos trabajos altamente apreciados hoy esté generando unas tecnologías y unas instituciones que son extremamente perjudiciales para el ambiente natural y social. Así pues, lo que necesitamos es revisar el concepto y la práctica del trabajo de tal manera que se convierta en algo significativo y satisfactorio para el individuo, en algo útil para la sociedad, y en parte del orden armonioso del ecosistema. Reconocer y practicar nuestro trabajo de esta manera nos permitirá capturar una vez más su esencia mística. La revisión inevitable de nuestros conceptos económicos básicos y de nuestras teorías será tan radical que cabe preguntarse si la economía misma, como ciencia social, podrá sobrevivirle. De hecho, varios críticos han pronosticado el fin de la economía. En mi opinión, la manera más adecuada de abordar el problema no sería abandonar la economía como tal, sino considerar la estructura del pensamiento económico actual, tan arraigado en el paradigma cartesiano, como modelo científico hoy superado. Se lo podría seguir utilizando para un número limitado de análisis microeconómicos, pero indudablemente tendrá que modificarse y ampliarse. Es probable que la nueva teoría —o la nueva serie de modelos— se base en un enfoque integral que reúna en la misma estructura ecológica a la biología, la psicología, la filosofía política y varias otras ramas del conocimiento humano. En la actualidad, las líneas generales de esta estructura están siendo trazadas por muchos hombres y mujeres que se niegan a ser catalogados como economistas o relacionados con una determinada disciplina académica convencional77. Siguen utilizando un enfoque científico, pero éste va mucho más allá de la imagen cartesianonewtoniana de la ciencia. Su base empírica no solo incluye datos ecológicos, hechos sociales y políticos y fenómenos psicológicos, sino que también hace referencia explícita a los valores culturales. A partir de esta base, los científicos podrán construir modelos realistas y fiables de los fenómenos económicos. La referencia explícita a las actitudes, valores y estilos de vida de los seres humanos en el pensamiento económico harán que esta nueva ciencia sea profundamente humanista. Se ocupará de las aspiraciones y posibilidades humanas y las integrará en la matriz subyacente del ecosistema mundial. Tal enfoque irá mucho más allá de todas las tentativas de la ciencia moderna; su naturaleza final será, a la vez, científica y mística.

3.5 APUNTES PARA UN ESTUDIO EPISTEMOLÓGICO DE LAS CIENCIAS ECONÓMICAS Por Dr. Roberto Muñoz González (Cuba) Presentación La humanidad siempre se ha debatido entre el ser y el saber, entre el hecho real y el hecho imaginativo, entre la eutopía y la distopía. Hoy día, cuando los avances de la ciencia y la tecnología han alcanzado niveles escandalosamente profundos y complejos, las relaciones entre el ser, el saber y el deber ser, han entrado en una suerte de laberinto de luces y de sombras continuas y discontinuas, en la cual la epistemología parece tener un papel protagónico. Si observamos los saberes epistémicos en los diferentes campos de las preocupaciones humanas, podemos comprobar cuan proliferas están siendo las lecturas y explicaciones, que desde la ciencia, se dan a las múltiples y contradictorias consecuencias que para los hombres y la sociedad, ha traído el desarrollo de la ciencia y de las llamadas nuevas tecnologías de la información; tanto es así que de algún tiempo acá se habla con frecuencia, por ejemplo, de la nueva economía, de la ciencia postnormal, así como de otros tantos tipos de ciencias; lo cual está implicando ciertas rupturas (reales o imaginarias) con los paradigmas científicos tradicionales, pues casi siempre se parte del presupuesto de que la tecnología ha cambiado tanto el mundo, que éste ya no puede ser explicado suficientemente por la “ciencia convencional”. Esta manera contemporánea de abordar el asunto, fundamentalmente se abrió con el llamado postmodernismo y todo su arsenal explicativo, entroncando en ciertas zonas, con los enfoques del llamado relativismo cognitivo88 El conocido físico teórico norteamericano Alan Sokal, refiriéndose a este tema señaló: “Lo que nosotros criticamos es, más bien, una corriente filosófica e intelectual - llamémoslo «posmodernismo» a falta de un término mejor - caracterizada por el rechazo más o menos explícito de la tradición racionalista de la Ilustración, por elaboraciones teóricas desconectadas de cualquier prueba empírica, por discursos obscuros y a veces francamente surrealistas”.89. Es importante entonces precisar al menos, algunas ideas básicas intencionadas en torno a los códigos postmodernos sobre el saber: - Entre muchos postmodernos existe, según el propio Alan Sokal, la idea de que la ciencia moderna no es más que un mito, una narración, o una construcción social, este enfoque se puede encontrar, por ejemplo, en los representantes del llamado relativismo cognitvo. 90 - Si la ciencia no es más que una narración, entonces no importa mucho trastornar los códigos de las ciencias particulares. Una idea básica de los representantes de la corriente del postmodernismo es que ninguna frase quiere decir lo que dice. Esta suerte de embrollo que está más asociado a la semiótica y la lingüística que a la naturaleza misma del hecho científico, podemos considerarlo como una maniobra no-solo para impresionar a los receptores de ese tipo de discurso, sino sobre todo para dar la sensación de incertidumbre y de la impotencia del hombre para conocer las esencias del mundo que le rodea. - No son pocos los especialistas que intentan impresionar a sus lectores y oyentes, utilizando términos, conceptos y hasta categorías de las llamadas ciencias duras, especialmente de las matemáticas y la física, aplicándolas a las llamadas ciencias blandas( sociales), frecuentemente sin explicar su contenido y sobre todo sin mostrar la relevancia que tienen dentro del contexto 88

Alan Sokal. Contra las imposturas intelectuales. Revista Herramienta # 7, pag. 147. 1998. Buenos Aires. Argentina 89 El Nuevo Diario, lunes 4 de diciembre del 2000. Managua, Nicaragua 90 Ver La ciencia en acción, de Bruno Latuor, varias ediciones.

donde se insertan. Resulta interesante cómo se trata de justificar epistémicamente la cuestión, pretextando cierta flexibilidad conceptual a tono con el entrecruzamiento globalizante de los saberes y ciencias particulares. Algunos autores han alcanzado renombre por el hecho de ser maestros del lenguaje, atribuyéndose la autoridad de crear, más bien de inventar términos, para referir o reflejar fenómenos, no siempre nuevos. La Economía, como ciencia, no ha sido ajena a estos modos y modas. Este campo del saber humano no solo ha sido invadido por nuevos términos y conceptos, muchos de ellos arrastrados desde otras ciencias, sino sobre todo por una gran avalancha de modelos econométricos tan abstractos e ideales, que muchas veces resultan monstruosos ejercicios intelectuales, construcciones lógicas sorprendentes, pero que frecuentemente nada o poco tienen que ver con la lógica social, con la racionalidad “real” de la sociedad o de la parte de ella que se modela. Sobre la ciencia · La ciencia puede considerarse como aquel sistema de conocimientos que modifica nuestra visión del mundo real y enriquece nuestros conocimientos sobre el cosmos, nuestra cultura y nuestra imaginación. · Es por tanto también el proceso de investigación que permite obtener nuevos conocimientos, los que a su vez ofrecen mayores posibilidades de operación y manipulación de los fenómenos. · Además la ciencia ha sido considerada como fuerza productiva que propicia la transformación del mundo y por tanto como fuente de riqueza, como profesión debidamente institucionalizada, portadora de su propia cultura y con funciones sociales bien identificadas. · Por todas las razones anteriores, es un fenómeno complejo cuyas expresiones históricas han variado considerablemente. Es función de la ciencia la adquisición de conocimientos, la búsqueda de la verdad o de la teoría científica verdadera, con objetividad y rigor. El carácter verdadero o falso de las teorías científicas depende de su capacidad para descifrar el mundo en toda su dialéctica contradictoria, en toda su diversidad y siempre bajo el presupuesto del carácter relativo de los propios saberes que nos va aportando la propia ciencia. Todo esfuerzo por formular una teoría de la ciencia tiene que subrayar la naturaleza social del trabajo científico. Esa es la orientación del enfoque dialéctico materialista de la ciencia. En el polo opuesto se sitúa el enfoque internalista, cientificista, de inspiración positivista y promotor de una imagen de la ciencia que oculta sus determinismos y resonancias sociales. El enfoque social de la ciencia poco o nada tiene que ver con la tradición positivista, que centra su atención en el sistema de conocimientos formados, en la búsqueda de la verdad y la coherencia lógica del lenguaje científico, en la veracidad de los hechos comprobables, conformando frecuentemente una ciencia extrahistórica o ahistórica. La ciencia no es una entidad autónoma, determinada por sí misma, es una dimensión de un mundo real en cambio y está marcada por la sociedad en que se inserta; en sus fines y agentes, en sus modos de organización y funcionamiento, en sus resultados y usos, en los valores que refleja y comunica, así como también en los conflictos y contradicciones que porta. Por todas esas razones, la ciencia es un fenómeno sociocultural complejo, lo cual impide hablar de un condicionamiento causal, lineal y mecánico entre la sociedad y la ciencia. Ella posee sus especificidades, autonomía relativa, eficacia propia, capacidad de influencia sobre las restantes actividades e instituciones sociales. En su capacidad de penetración de la vida material y espiritual de la sociedad, la ciencia puede devenir un factor decisivo de ésta, aún cuando en el sentido epistémico estricto, sea capaz de desentenderse del marco institucional, nacional o político.

La concepción dialéctico materialista de la ciencia supone el estudio sistémico de la totalidad de las relaciones internas y externas, de las determinantes, condiciones y factores que caracterizan el fenómeno. También supone un estudio histórico concreto, de modo que puedan ser reveladas las contradicciones inherentes a una etapa definida del fenómeno y determinar las vías para superarlas. Hemos entrado al siglo XXI, envueltos en un gran foro Epistemológico91 de marcado carácter antropológico, en el que los enfoques globales, sistémicos y estructurales parecen ser sus signos más evidentes, muy pesar de las fragmentaciones, ya que se han producido cambios cualitativos significativos prácticamente en todos los campos del quehacer y saber científicos, en un contexto de global interdependencia y penetración de todos los sucesos y fenómenos materiales y espirituales. En torno al saber económico Comencemos esta reflexión con una afirmación que a primera vista pudiera parecer una perogrullada para no pocos especialistas que se mueven en el campo de las ciencias económicas, y es la siguiente: la economía política es una ciencia social, precisamente porque se encarga de estudiar el conjunto de relaciones que establecen los hombres en el proceso de producción, distribución, cambio y consumo de unos recursos siempre escasos, así como el sistema de leyes y contradicciones que son consustanciales a tales relaciones y procesos. Esta afirmación pudiera parecer para muchos sobrancera, sin embargo, podemos afirmar junto con el conocido profesor norteamericano Paul M. Sweezy92, que siempre conviene recordar que frecuentemente las cosas más evidentes son a menudo las más importantes, de ahí que a veces resulte peligroso desdeñar en un estudio cualquiera lo evidente. Desde que aparecen las primeras formas más o menos organizadas de sociedad humana, el hombre siempre intentó organizar, dirigir y sugerir en torno a los procesos y relaciones de su vida material y espiritual, desde el famoso quipu de los incas, por ejemplo, pasando por El Económico de Jenofonte, la Riqueza de las Naciones de un A. Smith o de una obra como El Capital de Carlos Marx, hasta la famosa Teoría General de la Ocupación el Interés y el Dinero de J M Keynes y el Economics de un Paul Samuelson. Él término economía tiene su origen en la combinación de las expresiones griegas eco y nom: econom. El significado de eco en griego es casa y nom significa en esa lengua ley. El uso primigenio del término economía, estuvo asociado a la administración de la casa y de la hacienda. Lógicamente que los antiguos griegos entendían por administración no solamente el aspecto material de bienes, sino también todo lo que tenía que ver con los esclavos, con la mujer y los hijos. Por supuesto era un concepto menos preciso y sin el sentido teórico como hoy lo conocemos. La economía política surge necesariamente como ciencia, en un momento histórico donde se había acumulado un buen caudal de conocimientos humanos, necesarios para ser generalizados en función de un mayor y mejor entendimiento de las relaciones socioeconómicas entre los hombres, con derivaciones de tipo político. Y esto es así precisamente porque la economía

91

La epistemología está referida al conocimiento, a la gnoseología. Puede considerarse como la doctrina del saber, es decir la teoría del conocimiento. Este término históricamente se ha empleado más en la filosofía inglesa y norteamericana que en la francesa y la alemana, aunque en los últimos tiempos su uso se ha generalizado y abarca prácticamente todos los campos del saber científico. La introducción de dicho término se atribuye al filosofo escocés james Frederick Ferrier en su obra Fundamentos de la Metafísica que dividió la filosofía en ontología y epistemología; otros autores asocian el término a Kant. 92

Ver del autor: Teoría del Desarrollo Capitalista donde mantiene esta filosofía a través del discurso que desarrolla en el libro.

política como ciencia social al fin, orienta, sugiere, es y debe ser la base teórica para las funciones micro y macro políticas fundamentalmente de los gobernantes de una nación. Posiblemente haya sido Antoine de Montchrétien quien utilizara por vez primera el concepto de Economía Política en su libro de 1615 Traicté de I’ Economie Politique, para referirse a la "Economía del Estado" en el sentido de la administración pública. También en 1755 Rousseau escribió un artículo sobre Économie Politique en la famosa Encyclopédie francesa, que más que de economía, trataba de política. Pero es necesario apuntar que el sentido moderno del término “económico”, lo desarrolla Francois Quesnay en su conocida Tableau Economique en la mitad del siglo XVIII. Por otra parte el famoso economista inglés D. Ricardo, nominó a su más conocida obra económica como Principios de Economía Política de Tributación, la que fuera publicada en 1817. En 1867 aparece la expresión economía política en el libro de Sir James Stuart Mill, Inquirí into the Principles of Political Economy, being an Essay on the Science of Domestic Policy in Free Nations, in which are particularly considered population, agriculture, trade, industry, money, coin, interest, circulation, banks, exchange, public credit and taxes. Resulta sin embargo curioso, que un economista como Adam Smith no utilizara la expresión de economía política en su obra de 1776, no obstante por su contenido, la obra del gran economista inglés, está referida al objeto de la Economía en el mismo sentido que escribieron y publicaron obras económicas los demás economistas en aquella época; al igual, por supuesto, que Carlos Marx, quien la desarrolló en su verdadera dimensión científica a partir de todo el conocimiento acumulado hasta ese momento y por demás, condicionado por el desarrollo alcanzado por el capitalismo en el siglo XIX. Pero precisamente la misma sociedad que históricamente condicionó el surgimiento de la economía política como ciencia con las funciones y objeto antes definidos, ha condicionado y estimulado también modificaciones en los enfoques y desarrollos de la misma, desvirtuando su verdadero objeto, y de cierto modo restándole su contenido social y haciéndola aparentemente no política, no ideológica. Se trata de la vieja discusión sobre la relación entre el conocimiento y el valor, entre la ciencia y la axiología. A fines del siglo XIX la expresión en cuestión, comenzó a ser sustituida por el de económica. Este es el período histórico donde la transformación del capitalismo de libre competencia en imperialismo, condicionó el surgimiento de una corriente interpretativa subjetivista de las relaciones entre los hombres y el mundo económico real. Los altos y progresivos niveles de concentración y centralización de la producción y de los capitales y la aparición de los monopolios, condujeron a mayores niveles de separación entre el productor directo y los medios de producción, entre el trabajo y su producto, por lo que se incrementa la enajenación de una parte cada vez más significativa del producto del trabajo, se multiplica el fetichismo mercantil y consecuentemente la cosificación del conjunto de relaciones del sistema. Las fuerzas productivas alcanzan un nivel cualitativamente superior, aumentando considerablemente la división social del trabajo, la socialización de la producción y por tanto también la contradicción económica fundamental del capitalismo. Se complejizan las relaciones del mercado y el proceso de realización tropieza con nuevos escollos, por la creciente complejidad y conflictividad de las relaciones y los procesos productivos. Todo esto en su conjunto, unido a los desarrollos operados en otras múltiples ciencias entre las que destacan la sociología y las matemáticas, condicionó y favoreció el hecho de que el análisis económico se moviera, cada vez con más fuerza, hacia el mercado, especialmente hacia el sujeto básico del mismo, la razón de ser éste, el consumidor, supuestamente el principal decisor de la marcha de los procesos productivos. El comportamiento del consumidor como sujeto determinante, no ya del mercado solamente, sino de la economía en general, comienza crecientemente a ser derivado de las “propensiones sicológicas”, de los “gustos” y “deseos” y de “sus necesidades”, estas últimas entendidas no

como resultado de las leyes objetivas que regulan la vida económica y las que exigiría la verdadera razón humana de su existencia, sino derivadas de la propia subjetividad del hombre y con arreglo a supuestas leyes reguladoras de la conducta de los sujetos económicos que la impulsan a realizar sus “deseos” y satisfacer “ sus necesidades” por medio de determinadas “elecciones” debido a los recursos limitados con que cuenta para tales fines. En ese mundo ordenado por cierta mano invisible, la subjetivad humana empieza a jugar un protagonismo tal, que en muchos casos la realidad y su marcha, parecen estar en la cabeza de los hombres ó a depender más de sus ideas que de sus relaciones objetivas. Los enfoques microeconómicos comienzan a ser preponderantes, con el desarrollo creciente de un significativo aparato analítico cuantificador de esos “comportamientos humanos”. Según algunos presupuestos de la sociología burguesa, son los individuos psicofísicos irrepetibles, las unidades vitales de cualquier análisis o estudio social e histórico que se realice, por tanto el estudio de esas llamadas unidades vitales, constituyen el núcleo objetal de todas las ciencias sociales, incluyendo las ciencias económicas. Por ejemplo el conocido sociólogo alemán Wilhelm Dilthey escribió “esos hechos que se llaman necesidad, trabajo, dominio, satisfacción, son de naturaleza psicofísica; son elementos constitutivos de los fundamentos de la economía política, de la ciencia del estado y del derecho, y su análisis permite, por decirlo así, entrar en el mecanismo de la sociedad”93. Según este autor las ciencias sociales no solo deben apoyarse en la psicología y la antropología, sino que éstas últimas son tan esenciales en las ciencias sociales que constituyen “la base de todo conocimiento de la vida histórica”94 Por supuesto que las ciencias económicas, especialmente la economía política, deben apoyarse en la psicología y la antropología, pero nunca asumirlas como las determinantes de su objeto de estudio; pues valdría la pena preguntarse, qué significan para Dilthey "“...necesidad, trabajo, dominio, satisfacción...”, es decir, ¿Necesidad de qué? ¿Cuáles son las necesidades vitales del hombre? ¿Cómo las puede satisfacer? ¿Cuál es, en términos epocales, la naturaleza y el carácter de las relaciones que establece el hombre para satisfacer esas necesidades ya sean materiales o espirituales? ¿Cuál es el lugar y papel del trabajo en ese proceso de satisfacción de necesidades? ¿ Qué es el trabajo?. Muchas otras interrogantes pudieran plantearse para desentrañar las relaciones que existen entre la objetividad y la subjetividad de los procesos existenciales humanos, que son ante todo, procesos de producción y reproducción de la vida material y espiritual de los hombres, de los “seres sociales”. Podemos coincidir con Dilthey, en que esos “hechos” son de “naturaleza psicofísica”, pero su esencia, siempre que la diferenciemos de “naturaleza”, y en tanto fenómeno sociohistórico, es económica, en el sentido de que en la base de las necesidades, las motivaciones y los intereses de los seres humanos, se encuentra la economía, si es entendida como proceso a la vez que como sistema, de las relaciones que establecen los hombres para producir, distribuir, intercambiar y consumir bienes y servicios creados mediante el trabajo en un inacabado proceso de intercambio “racional” con la naturaleza-otra. La historia ha demostrado que la racionalidad de estos procesos depende más del carácter del modo como los hombres interactúan entre sí respecto a la naturaleza, que a la razón humana. Max Weber por su parte, consideraba que la verdadera y definitiva racionalidad es la “occidental”, no en el sentido inmanente a la historia como pensaba Hegel, sino en tanto conocimiento y comprensión del desarrollo práctico de la historia, en tanto dominio ascendente del mundo exterior en sus múltiples facetas o lados, basada en la ley de los números y la “razón”, “significa -según Weber- que se sabe o se cree que en cualquier momento en que se quiera se puede llegar a saber que, por tanto, no existe en torno a nuestra vida poderes ocultos e

93 94

Introducción a la Ciencia del Espíritu. Revista de Occidente. 1956, pag 125. Ibidem, pag 44.

imprevisibles, sino que, por el contrario, todo puede ser dominado mediante el cálculo y la previsión”.95 Sabemos que se trata, sin embargo, de una racionalidad de cierto sentido positivista y utilitario, a tono con la llamada filosofía moral utilitarista, la que tiene sus raíces en el siglo XIX, pero que forma parte del tejido del saber de los defensores del capitalismo, que es donde según ellos, el hombre alcanza la condición de ser racional. En términos de la real humanidad ¿Es racional el capitalismo? ¿ Es un sistema de relaciones humanas que se sustenta en la razón? ¿ Qué es entonces la razón? ¿ Cuáles son las relaciones entre razón e ideología, entre razón e intereses? ¿Cuánto hay de pragmatismo en la “razón” ¿ ¿Es posible hablar de la razón pragmática en la llamada cultura occidental? No puede ser humano y verdaderamente racional un sistema social, donde los hombres, en su permanente intercambio con la naturaleza no la protejan, sino que la destruyan; de qué racionalidad se puede hablar en un sistema donde los intereses económicos y el egoísmo marcan la dinámica de las relaciones humanas; un sistema donde no se hace un uso eficiente de los recursos, en tanto se destruyen crecientemente las fuerzas productivas, especialmente el hombre como su elemento fundamental. ¿Es que acaso la propiedad privada, el aislamiento de los productores, el desigual acceso a los bienes de creación humana son racionales?. ¿Para quién es racional el carácter “natural” de la propiedad privada como si fuera un don divino, concedido solo a una parte minoritaria de los seres que Él creó a su imagen y semejanza?. La razón en el mundo moderno desplegado, no es ni puede ser la misma del siglo XVIII. Se necesitan nuevas luces y nuevos Contratos Sociales no solo en el campo de los saberes, sino sobre todo en el de los “haceres”. En el artículo Economía de dos mundos, escrito por los conocidos economistas Paul Baran y Paul M Sweezy, los autores exponen críticamente la interesante idea de cómo en el capitalismo, las relaciones entre la racionalidad parcial del sistema y la irracionalidad de todo el sistema en su conjunto, constituyen una buena base para comprender el mito en torno al capitalismo como el régimen económico más eficiente de la historia. “El creciente abismo que hay entre la racionalidad de las partes y la irracionalidad del conjunto, -señalan los autores- entre la insensatez y el carácter destructivo del propósito a que se dedica la actividad humana y la eficiencia de esa misma actividad humana, da por resultado necesariamente el desarrollo deformado de las fuerzas productivas y en particular la más importante de todas las fuerzas productivas, que es precisamente el hombre”96 A la idea anterior podemos sumar la siguiente:“Cualquier fenómeno humano, no importa el carácter que tenga, cuando se absolutiza, pierde lo que puede tener de humano y se convierte en “opio de los pueblos”, en fosilización de la inteligencia y pérdida de la eticidad, por cuanto pierde el carácter esencialmente histórico que siempre tiene todo fenómeno humano”97. Abandono de la Economía Política La economía mercantil generalizada llega en su desarrollo a tal grado de mimetismo, que hace aparecer a la más universal de las mercancías, el dinero, como un ser no social, no humano, totalmente independiente, con vida propia, como si él no fuera expresión y síntesis del trabajo social, del trabajo humano; por eso a la vista de algunos economistas, los hechos económicos muchas veces dejan de ser hechos sociales, hechos humanos, para convertirse en hechos estrictamente técnicos.

95

El científico y el político, pag 200. Tomado del Prólogo a la Edición Cubana de Economía y Sociedad, de Max Weber, pag XXXVI. Edit. Ciencias Sociales. 1971 96 Revista Pensamiento Crítico, # 11,1967, pag 40. 97 Sergio Arce ( teólogo cubano). Revista Cuba Socialista # 11, pag 53.

En pleno siglo XIX, siglo en que se conforma definitivamente el clasicismo en la economía política científica que comienza con W. Petty en Inglaterra y Pierre Boisguilleber en Francia, y que termina con C. Marx y F. Engels en Alemania, también nace y se desarrolla muy vinculada con ella la Sociología, que se inicia con el Curso de Filosofía Positiva de A. Comte y que después se desarrolla con Durkheim, Weber y Dilthey entre otros. En sus orígenes contemporáneos, ambos dominios del saber humano estuvieron tan vinculados que tanto Comte como Marx, aunque desde presupuestos metodológicos y filosóficos diferentes, los vieron estrechamente interrelacionados. Para Comte la Economía Política no era más que parte de la Sociología o de la Filosofía Social, por lo que no debía ser parcelada, separada de ella; para Marx sí la Economía pretendía ser verdadera ciencia, tenía necesariamente que apoderarse del problema social, humano, del problema ético. Con el desarrollo de la división del trabajo y la parcelación del saber humano, la Sociología y la Economía como tantas otras ciencias, fueron asumiendo tal independencia relativa, que en ciertas zonas del saber se dieron las espaldas. La Economía Política comenzó a perder sus preocupaciones y trascendencia filosófica y a ocuparse más de las cuestiones pragmáticas de la vida económica, es decir, se fue debilitando el acento que tenía en el enfoque general de las relaciones de producción (económicas, políticas, éticas, intelectuales) y reforzándose el enfoque técnico-económico, el que se profundizó con los partidarios de la Economía Matemática y de la llamada Economía Pura. Algunos autores hablan hoy día de cierta Economía Social. La Economía es social o no es. Debemos recordar que la Economía como ciencia, para serlo, tiene necesariamente que relacionar los hechos económicos con los sistemas económicos, pues aquellos son parte consustancial de éstos, debe vincular la teoría económica con los estudios históricos de la economía. Los hechos y procesos económicos deben ser vinculados con los demás hechos y procesos sociales sin trastocar los objetos concretos de cada ciencia social particular, pero sí considerando el sistema social y cultural en su conjunto, como totalidad y siempre bajo el presupuesto de que existe la economía porque existe el hombre y éste siempre se desarrolla en un contexto y una dimensión temporo-espacial concreta. Pero es importante señalar que en el campo de las ciencias sociales, entre las que se cuentan las económicas, la penetración, análisis y reflejo del objeto de estudio, supone necesariamente la abstracción. La realidad misma no está seccionada, parcelada; es el investigador quien, mediante la abstracción como proceso mental, la subdivide, la separa para su mejor estudio y comprensión. Qué es la Economía sino el estudio de los hechos y procesos económicos que ocurren permanentemente en la vida social. Vilfredo Pareto, conocido especialista en Sociología y Economía, a pesar de que sus investigaciones económicas las desarrolló en el campo de la llamada Economía Pura, reconoció en sus obras el carácter complejo e integral de la sociedad, pero consideró acertadamente que la ciencia presupone la abstracción, pues para él lo concreto real no es científico “…La experiencia demuestra que para adquirir el conocimiento, la mejor manera de lograrlo consiste en separar las partes A,B,C […] estudiándolas una a una; para después reunirlas de nuevo y tener así la teoría del fenómeno complejo. Es eso lo que hace la ciencia lógico-experimental; pero el que no está habituado a ella va al azar pasa de A a B a C y así sucesivamente”98. Para Marx, “en el análisis de las formas económicas de nada sirven el microscopio ni los reactivos químicos. El único medio de que disponemos, en este terreno ( subrayado mío R.M.G) es la capacidad de abstracción”99. 98

Vilfredo Pareto. Traité de Sociologie Générale. París 1919. Tomado de Sociología y Economía de Pablo González Casanova. Rev. Investigación Económica. México. 1955, pag 294-295. 99 El Capital. Tomo I. Prólogo de Marx a la Primera Edición, pag IX,Edit. Ciencias Sociales. Habana. 1973.

En este punto lo importante no es señalar la abstracción como una necesidad científica y capacidad humana, sino saber cómo y de qué debe abstraerse el investigador en el proceso de búsqueda de la verdad, aun con la conciencia de que ésta es siempre relativa. En Pareto encontramos cierto enfoque estructuralista del asunto, sin embargo en Marx, se despliega una total comprensión dialético-estructuralista del mundo económico real, lo que se puede comprobar en El Capital, obra en la que está plasmada su lógica de pensamiento y su método de investigación. “Marx no opera, a la manera hegeliana “deduciendo” una categoría a partir de otra. Pone al descubierto las funciones de un elemento en el seno de una estructura, o de una estructura en el seno de un sistema, y explica el orden de esas funciones[…] Por consiguiente, el objeto de la teoría económica es descubrir dichas funciones y su orden en tal o cual estructura, y mediante ello definir las categorías de la economía política y articularlas entre sí en una especie de génesis lógica ideal”.100 De lo que se trata entonces, es de tomar el objeto como un todo (por supuesto que en el campo de las delimitaciones del objeto, también es necesario la capacidad de abstracción del sujeto cognoscente) asumiéndolo en su dinámica estructural y contradictoria, y penetrando, mediante el análisis, en cada una de las partes que conforman la estructura, para poder establecer las características esenciales de cada parte, su lugar y papel dentro de la estructura y de las múltiples relaciones causales y/o funcionales entre cada una de esas partes, para luego sintetizar sobre la base de la determinación de lo típico, lo dominante, lo esencial del fenómeno. Ese camino ascencional, ese proceder ideal, tiene como instrumento básico precisamente la capacidad humana de la abstracción. Solo a través de ese proceder, se puede llegar a lo concreto pensado, al conocimiento teórico de la realidad social, de la realidad económica. “Lo concreto es concreto, ya que constituye la síntesis de numerosas determinaciones, o sea la unidad de la diversidad. Para el pensamiento constituye un proceso de síntesis y un resultado, no un punto de partida”.101 Pareto utiliza y reconoce el método lógico-experimental como el único acertado en las ciencias sociales, mientras que Marx se caracteriza por el uso del método dialéctico-histórico en sus estudios de Economía. Este nuevo método utilizado por Marx y elaborado sobre la base del análisis crítico del proceder científico que le precedió, resulta una superación dialéctica de los métodos abstracto-deductivo (utilizado por ejemplo por D. Ricardo) propio de la lógica y de las matemáticas y que se sustenta, por supuesto, en la lógica formal; y del inductivo-experimental característico de las ciencias naturales, el que a diferencia del método abstracto-deductivo, asume la verificación experimental como único criterio de cientificidad. El método desarrollado por Marx, constituye una superación dialéctica de ambos métodos, porque la razón analítica es un momento de la razón dialéctica. Debe recordarse que Marx reconoció el valor científico del método analítico-abstracto empleado por D. Ricardo en sus Principles, aún cuando señalara las debilidades científicas del mismo; justo es señalar además, que la posibilidad de que Marx pudiera elaborar el nuevo método, también estuvo condicionado por los desarrollos teórico-metodológicos alcanzados por Ricardo en su doctrina económica, y no podía ser de otra manera, ya que la razón analítica no solo es necesaria sino indispensable para cualquier intento de racionalización de la contradicción. Por otra parte también Marx asume la confirmación experimental, propia de las ciencias naturales como un escalón, un primer nivel de una objetividad más abarcadora, la objetividad histórica. En la ciencia económica como ciencia social, la comprobación experimental carece de sentido, aunque sí tiene validez el criterio de objetividad histórica en el campo de la prácticas sociales. “Se trata, 100

Maurice Godelier. Sistema, estructura y contradicción en El Capital de Marx. Revista. Pensamiento Crítico # 11, dic. 1967, pag 77. 101 Carlos Marx. Fundamentos de la Crítica de la Economía Política. Tomo I, Edit. Ceincias Sociales. La Habana. 1970, pag 38.

pues, de una nueva razón histórica, dialéctica y no formal, y un nuevo criterio de cientificidad histórico-objetivo y no verificativo-experimental. Esta doble crítica del método dialécticohistórico es lo que, a nuestro modo de ver, permite la superación tanto del empirismo como del formalismo, que son las dos filosofías sobre el método, las dos ideologías en relación a la problemática metodológica de las ciencias.”102 En 1879 el economista inglés Alfred Marshall y su esposa Mary Paley Marshall, publicaron Economics of Industry en la que plantean la conveniencia -según ellos- de abandonar la expresión “economía política”, porque la palabra “política” parece ser inadecuada, puesto que la misma refleja intereses políticos de grupos sociales en una nación y que por lo tanto la ciencia perdía su carácter como tal. Esta idea Marshall la remata en su obra de 1890 Principles of Economics, la que ha sido considerada por muchos autores, como el primer tratado moderno de Economía. A partir de este momento histórico comienza a desterrarse la expresión de economía política de las ciencias económicas y a utilizarse el término de Económica, Economía, o simplemente y cada vez con más fuerza el de teoría económica, tal vez con la única excepción de la mayoría de los economistas marxistas que siguieron siendo fieles a sus maestros Marx, Engels y Lenin. En la medida que el mundo económico real se fue universalizando en virtud de los procesos objetivos de desarrollo de las fuerzas productivas y de la división internacional capitalista del trabajo, con todos los sucesos que le son consustanciales, las nuevas expresiones y contenidos de las ciencias económicas también se fueron universalizando y sobre todo estandarizando, fenómeno favorecido, claro está, por el desarrollo alcanzado por otras ciencias, entre las que se destacan las matemáticas la psicología la sociología y tantas otras. El “perfeccionamiento” y “refinamiento” de la Economía desde finales del siglo XIX con la utilización de las “virtudes” y ventajas del cálculo diferencial y los posteriores progresos de las ciencias matemáticas, favorecieron la interpretación y representación de modelos lógicamente exactos en términos de cualidades cuantitativas, aunque sabemos que con frecuencia sucede que tales modelos, en tanto abstracciones, representaciones ideales de la realidad, tienden a tomar un carácter fetichista, o dicho de otra manera, fantástico, en el sentido de que no pocas veces, una vez realizada la abstracción a través de tales modelos económicos, se les da una existencia independiente como si representasen la esencia misma de la realidad y no una simple faceta contingente de ella; otras veces y tal vez también por las razones antes expuestas, los modelos teóricos elaborados juegan las funciones de Lecho de Procusto, cuando se trata de ajustar la realidad económico-social a tales modelos. El siglo XX fue testigo de los procesos de desarrollo y de lo que pudiéramos llamar estandarización de las ciencias económicas bajo el cuño generalizador de la Teoría Económica, en la misma medida que se multiplica la propiedad privada y aparecen nuevas formas de ésta, con lo cual se incrementa lo que algunos economistas llaman la importancia de la “elección individual” Veamos cómo un economista tan importante en la historia del pensamiento económico, como fue el caso del sueco Johan Gustav Knut Wicksell quien perteneciera a la llamada Escuela Matemática, interpreta desde el inició de este siglo la cuestión apuntada más arriba: “No es fácil –nos dice- dar una definición plenamente satisfactoria del concepto de “economía política”. En sí mismo el concepto es algo confuso [...] Literalmente, este concepto significa administración de la economía del país, o sea teoría de la administración de la economía nacional. Sin embargo,

102

J.R Nuñez Tenorio, El Método de la Economía Política. Edit. Panapo. Caracas. Venezuela. 1985, pag 19.

.

es evidente que, al menos en nuestros días, no existe país alguno donde la administración económica sea común, sino que cada individuo se ocupa de dirigir sus propios asuntos.”103 Es obvio que este autor como tantos otros, identifica el concepto de economía política con aquellas doctrinas referidas a la administración de la economía nacional y que se asocia a aquellas épocas históricas “...cuando se consideraba como atributo esencial del Estado ejercer una estrecha influencia sobre las actividades de los individuos, de modo que estos últimos disfrutaban de una libertad restringida por las orientaciones y la intervención del Estado.” 104 De aquí pudiera inferirse que el concepto de economía política depende de la mayor o menor intervención económica del Estado en una nación, lo que como sabemos no es exacto, incluso el concepto moderno de Economía que se utiliza y divulga en las academias y en la casi totalidad de los trabajos que sobre la materia se publican, en cierto sentido niega el tratamiento que a esta ciencia daban los clásicos de la Economía Política burguesa (A. Smith, D. Ricardo, los fisiócratas); pues además de que ellos fueron los fundadores, los padres de las ciencias económicas burguesas, también fueron, por razones históricas, filosóficas e ideológicas, los que de forma más coherente desarrollaron y sentaron los principios del liberalismo económico y por tanto del lugar y papel del “hombre económico” y del carácter natural de sus “opciones individuales” en el funcionamiento “racional” del sistema, oponiéndose por esas razones y de manera decisiva, a la intervención del Estado en la economía. Tendríamos que aceptar en todo caso, que cuando los clásicos denominaban sus estudios económicos como economía política, no estaban asumiendo el término en el sentido estricto de economía pública, como ha sido entendida por varios economistas posteriores a ellos. En los análisis que luego realiza Wicksell, llega a la conclusión de que las ciencias económicas deben dividirse en una parte teórica (economía pura, general o teórica); una parte práctica (economía aplicada) y una parte social (política económica o social)105 con lo que, desde nuestro punto de vista, demuestra que nunca llegó a entender el verdadero objeto de estudio de la economía política, por más que se reconozca la validez convencional de tales divisiones, si aceptamos que en última instancia la economía política, para decirlo de alguna manera, es la madre de las ciencias económicas, según el objeto definido al inicio de este trabajo y que por supuesto mientras más se desarrollan las fuerzas productivas, más se socializa la producción, se amplia el mercado y la división social del trabajo, más subdivisiones o ramificaciones se dan en el campo de las ciencias económicas; pero nada de esto niega la validez científica y práctica de la economía política, pues a ella le es indiferente la mayor o menor magnitud de la propiedad privada o de la intervención del Estado, de la amplitud de la “opción individual” o de la “libertad restringida” ya que ella “...en el sentido más amplio de esta palabra, es la ciencia de las leyes que rigen la producción y el intercambio de los medios materiales de vida en la sociedad humana.”106 A la economía política le interesa descubrir la naturaleza de las relaciones de producción; en virtud de qué leyes y regularidades cambian, y su lugar y papel dentro del conjunto de relaciones sociales de un modo de producción determinado. Desde ella y a través de ella, podemos descubrir el carácter y las relaciones esenciales de los sistemas socioeconómicos y sus contradicciones. Como acertadamente señaló Marx: “...la anatomía de la sociedad civil hay que buscarla en la economía política”107. Por eso, como que necesariamente los hombres se relacionan en el proceso de producción, distribución, cambio y consumo para utilizar los recursos siempre escasos en relación con la 103

Lecciones de Economía Política. Edit. M Aguilar, Madrid. España. 1947, pag 13 Ibidem, pag 3. 105 Ibidem, pag 7 106 Fedico Engels. AntiDuhring. Editorial Pueblo y Educación. La Habana. 1978, pag 179. 107 Contribución a la Crítica de la Economía Política, pag 11-12 104

satisfacción de sus crecientes e infinitas necesidades, la economía política nos permite descubrir el carácter y la naturaleza de la utilización y distribución de los recursos, ya sea de forma individual o social y por tanto las equidades ó inequidades que se generan en ese proceso que marca y define la «anatomía» de la sociedad civil. Recordemos nuevamente que si revisamos la literatura económica y las principales obras de los más conocidos economistas burguesas desde fines del siglo XIX hasta nuestros días, podemos observar cómo se ha dado una tendencia creciente a sustituir o abandonar el término y el contenido de la economía política por el de Ciencia Económica pero sobre todo, por el de Teoría Económica. Por muchos años en los textos y las academias que enseñan Economía, ésta ha sido definida como el estudio de las causas del bienestar material de los hombres (Marshall, Principles). (Cannan, Elementary Poilitical Economy). Esta definición tiene entre sus defectos, el hecho de que diluye su objeto, ó lo hace extensivo, quizás sin pretenderlo, hasta las ciencias naturales o algunas otras ciencias sociales, que no abarcan el objeto estricto de estudio de las ciencias económicas. Sin embargo, y emparentada con la definición anterior, el concepto más aceptado y divulgado a pesar de los diferentes matices, es el de considerar la Economía y la Teoría Económica, como el estudio del comportamiento humano, es decir la manera como los hombres deciden usar los recursos, en tanto tiene infinitas necesidades que satisfacer y medios limitados para lograrlo. Un significativo ejemplo de esta afirmación puede corroborarse en la obra del profesor inglés Lionel Robbins: Naturaleza y significación de las Ciencias Económicas, publicada por primera vez en 1932. Luego de realizar la exposición de algunas definiciones aceptadas y difundidas hasta ese momento respecto a nuestra ciencia, afirma que “La Economía es la ciencia que estudia la conducta humana como una relación entre fines y medios limitados”108 Ser pragmático no es malo, pero ser solo pragmático no es científico. Este concepto, con formales variantes, se ha convertido de uso común entre la casi totalidad de los economistas contemporáneos y aparece en los más disímiles textos de la materia en cuestión, por eso encontramos en el vórtice de “cualquier” estudio económico y condicionado además por el concepto anterior, la “racionalidad” de las mágicas ecuaciones de costo-beneficio, consumidor-productor, utilidad y tantos otros conceptos y “categorías” tales como “abstinencia”, “sacrificio”, “costo de oportunidad”, así como el uso y a veces el abuso de las conocidas “razones marginales” consideradas a partir del cálculo diferencial, con frecuencia definidos y determinados por una fuerte carga de subjetivismo de cierta intencionalidad ideológica. Por supuesto que no debemos negar la utilidad que pueden brindar esos conceptos asociados a la conducta humana, pero lo que debemos evitar es la trampa de la hiperbolización de la “razón pura” y tal vez de la “idea absoluta” al estilo hegeliano. En la década del cuarenta, el profesor marxista norteamericano Paul M Sweezy, expone coherentemente el enfoque clasista y por tanto la intencionalidad ideológica de la Teoría Económica en su obra de 1942 Teoría del Desarrollo Capitalista. En la Introducción de la misma, el autor realiza la siguiente reflexión: “Es perfectamente cierto, claro está, que aplicando o utilizando el aparato conceptual de la teoría económica, se tropieza inevitablemente con las relaciones sociales y es preciso ponerlas a discusión. El punto que nos interesa subrayar es que la construcción de este aparato conceptual está proyectada para superar cualquier juego particular de relaciones sociales” 109. Esta valoración la realiza sobre la base del análisis crítico de la propia obra de Robbins mencionada anteriormente y en la cual el economista inglés rechaza las concepciones de los clásicos de la economía política, pues las considera demasiado social y colectivas, cosa que al parecer le disgusta al profesor Robbins; por eso considera que el enfoque clásico cada vez tiene 108 109

Lionel Robbins. Obra citada, pag 39. P M Sweezy. Obra citada, pag XVIII

menos valor científico, en la medida que aumenta en la sociedad lo que él llama “elección individual”110 En la propia Introducción de la obra mencionada, P. Sweezy concluye que “...la exposición de la teoría económica es principalmente un proceso de construcción e interrelación de conceptos que han sido despojados de todo contenido especialmente social”111 Cuando por ejemplo revisamos la obra escrita de Max Weber, podemos comprobar cómo para este autor, el sabio(científico), al exponer los resultados de sus investigaciones, debe abstenerse de realizar juicios de valor. Para este eminente sociólogo alemán, la neutralidad axiológica es un imperativo de la propia lógica de la ciencia, pues de lo contrario esos resultados científicos dejarían de serlos al “contaminarse” ideológicamente. Sin embargo resulta curioso que en toda su obra, quede bien claro su posición ideológica y política en relación con la sociedad, no solo de manera implícita, sino también explícitamente. Algunos autores “olvidan” las clases sociales, sus intereses ideológicos y políticos, las diversas visiones filosóficas de los asuntos existenciales de los científicos y tantos otros elementos que hacen dudar de la seriedad científica de sus posiciones y enfoques. Sería interesante preguntarse por qué todos los economistas burgueses siempre consideran que el orden económico burgués es el único orden racional y que la propiedad privada es natural. Por supuesto que como buenos economistas burgueses, asumen las posiciones ideológicas de la clase social a la cual pertenecen, pues la construcción del aparato conceptual de las ciencias económicas que ellos representan y defienden, está “proyectada para superar cualquier juego particular de relaciones sociales”, para reflejar, modelar y actuar sobre una sociedad que parece estar ordenada y estructurada bajo el “mandato” de un orden natural y eterno; orden que se alcanza espontáneamente a través de la sorprendente “mano invisible” del reino del mercado, que no es más que el reino idealizado de la burguesía y de no pocos hombres de “siete meses” enredados en la misma trampa; casi llega a ser una suerte de fe teológica que les ha cerrado el camino al entendimiento dialéctico del mundo económico real y por tanto de su reflejo teórico científico. Si revisamos la literatura económica desde finales del siglo XIX hasta nuestros días, podemos comprobar estos hechos. Por ejemplo, para los conocidos economistas ingleses A. C. Pigou y J. Robinson, el obrero es explotado si recibe por salario menos que el valor del producto físico marginal de su trabajo. Ellos, como la mayoría, toman el concepto del lenguaje corriente, según el cual, el salario representa las cantidades de dinero pagadas al obrero en correspondencia con la productividad marginal de su trabajo, vaciando así el contenido o la relación social que expresa tal categoría y definiéndola simplemente como producto. Lo mismo sucede con otras categorías como es el caso de los llamados bienes de capital. Esta combinación conceptual no es gratuita; el concepto “bienes”, tiene sin dudas inferencias al derecho de propiedad, y “de capital”, está referido a simples activos del tipo que sean, y a la larga, es condición natural per-se de ingresos, que nada o poco tienen que ver con algún modo de producción especifico. La Teoría Económica moderna presenta las relaciones socioeconómicas como relaciones de cambio, y al mercado como el Creador o Hacedor de la armonía, y del equilibrio de los sistemas económicos, “verdad” que se sustenta “científicamente” en el principio del desarrollo natural, libre y espontáneo retomado del siglo XVIII; detrás del cual se esconde una suerte de smithianismo, en lo que respecta a la manida utilización de la llamada mano invisible que regula la vida económica de los hombres sin un plan preconcebido, y bajo un conjunto de motivos rectores que determinan la conducta humana tales como el amor a sí mismo, el deseo de libertad, el sentido de propiedad, la propensión natural al cambio, el egoísmo y el altruismo, los 110 111

Lionel Robbins. Obra citada, pag 103. P M Sweezy. Obra citada, pag, XVIII

que según esta filosofía, están armonizados de tal manera que en la búsqueda individual del bienestar, se alcanza al mismo tiempo, el bien común; esas serían en última instancia, las razones visibles de las acciones de tal “mano” reguladora. Esa racionalidad aparentemente predeterminada por la propia naturaleza humana, resulta ser la visión desfigurada de una realidad concreta: el modo de producción capitalista, donde el trabajo social asume la forma de valor, condicionado por la naturaleza de la división social del trabajo, la propiedad privada y la producción mercantil que aísla y separa constantemente al productor directo de los medios de producción y de una parte cada vez mayor del fruto de su trabajo. Los hechos empíricos y los datos estadístico corroboran, cada vez con más fuerza, esta verdad. Resulta poco serio tratar de entender la sociedad humana en sus múltiples relaciones de producción y reproducción de su vida material y espiritual como totalidad histórico-natural, interpretándola a través del prisma de la sociedad capitalista. Mientras más se mundializa o universaliza el mercado y los mecanismos y leyes que lo determinan, más miseria y “felicidad”, más desgracia y “prosperidad”, más pobreza y “progreso” reparte entre los hombres esa “misteriosa” mano invisible, la que se ha convertido en una suerte de teología existencial. Los cambios y reacomodos estructurales del sistema capitalista, tanto a escala de cada país, como tomado ecuménicamente, muestran visibles modificaciones en relación con los sistemas económicos y productivos, con la estructura de clases, el comercio mundial y las relaciones crediticias, así como en los patrones de consumo y en los valores sociales. Sin embargo las coordenadas esenciales del capitalismo como sistema histórico no se han modificado; hoy día el imperialismo es más imperial que nunca. El colonialismo sólo ha cambiado de formas y es tan agresivo y destructor como el del siglo XIX. El desarrollo de las fuerzas productivas ha llevado al capitalismo mundial al desarrollo de economías intensivas en conocimiento e información bajo los dictados del poder, sobre todo, de las grandes corporaciones transnacionales (CTN). Estos procesos son presentados y observados mayoritariamente, como procesos naturales e infinitos, como resultados de una lógica que responde a la propia naturaleza y razón humanas. Los cambios y las permanencias, es producto de la evolución social del genero humano. No es casual entonces que la doctrina de Marx, especialmente la económica, sea presentada como una doctrina extracientífica, más ideológica y belicosa que lógica, y al socialismo como un escape, un desvío temporal de la universalidad del gran paradigma teórico burgués y una “burla” a la racionalidad económica y al orden natural que no es otro, como sabemos, que el orden capitalista. El postmodernismo en las ciencias económicas actuales, con la utilización de elegantes estructuras lógicas en definiciones, apoyadas por precisiones algebraicas siempre impresionantes, en las que predominan los análisis y relaciones funcionales y no tanto causales, donde la totalidad no importa tanto, y cuando importa, siempre los análisis estarán mediados por los estudios y resultados de ciertas ramas particulares de las ciencias económicas (dígase microeconomía, marketing, administración financiera, economía de empresas o cualquier otra) frecuentemente ha conducido a varios economistas, a no aterrizar en el mundo económico real, que es sobre todo un mundo social; muchos quedan entrampados en el modelo idealizado de las apariencias y las formas, por carecer del conocimiento esencial de los sistemas económicos y de su contextualización histórica. Por supuesto que la utilización de ciertos instrumentos analíticos en las ciencias económicas, como ya hemos apuntado, es de incalculable valor para los economistas, pero la utilización de tales “herramientas” es verdaderamente racional cuando se destinan no-solo a ajustar mejor los mecanismos, sino a discutir las relaciones causales del funcionamiento del sistema; de otra manera el economista caerá, por intención ideológica, o por ingenuidad, en la trampa de la neutralidad. La utilización de tales herramientas no es tan neutral, como tampoco lo son los

conceptos y categorías económicas, como intentan demostrar no pocos académicos y textos de economía que aparecen en librerías y aulas universitarias. Hoy día se ha hecho común la idea de que disentir de la Teoría Económica dominante, o de la llamada ciencia económica convencional (aparece como ciencia neutral) se considera signo de incompetencia; de la misma manera que se considera dogmatismo, por muchos, compartir la Economía Política marxista o de otro carácter. El talentoso y reconocido economista e historiador de las ideas económicas, el mexicano Jesús Silva Herzog, publicó en el año 1956, un interesante articulo bajo el título de Homilía para futuros economistas en la Revista Investigación Económica, de México. Nuestro autor afirma en el texto que “…el economista sin preocupaciones sociales, sin un sentido social de la Economía, es un mutilado que se mueve en ámbito estrecho, sin alas en el pensamiento y sin capacidad constructiva y creadora112 Después, refiriéndose a la utilización y aplicación de la teoría que es elaborada en los grandes centros del capitalismo mundial, y como una gran advertencia a los economistas y políticos de nuestros países latinoamericanos, afirma que es preciso tener los pies bien 'hundidos en la propia tierra''. Silva Herzog defiende nuestra identidad, que por supuesto es parte de la universalidad, convencido de que la asimilación de tales teorías económicas, debe ser asumida de forma diferenciada y enriquecida a partir de nuestras propias realidades y necesidades, de nuestra propia cultura; de ahí que planteara además que "El economista nativo de un país de la periferia, sin capacidad crítica, que sigue al pie de la letra y con ufana pedantería al autor extranjero, por ilustre que este sea, se asemeja al lacayo que imitara gozoso y grotesco los finos modales de su señor"113 En cualquier caso siempre es necesario estudiar la economía en su emplazamiento histórico, en la interconexión de los fenómenos económicos de un lado y los tecnológicos, políticos y culturales del otro; lo que no siempre puede lograrse a partir de los conceptos e instrumentos analíticos de la Teoría Económica, elaborados para ser aplicados supuestamente a cualquier sistema de relaciones económicas. No se trata, por supuesto, de empequeñecer o de no reconocer los valores que contiene la Teoría Económica, porque además, tampoco es válido suponer que la Economía Política, especialmente la marxista, “lo sabe o lo puede todo” respecto a la economía y que nada tiene que aprender de aquella. Lo más importante, hoy más que nunca, es la necesidad de reconocer el carácter eminentemente social de las ciencias económicas, su papel en la búsqueda de las causas de los desajustes, desequilibrios e inequidades de la vida económica actual, de sus contradicciones y conflictos, pero sobre todo, de las posibles y reales soluciones. Las derivaciones de tipo ético y político que emanan de la realidad económica son tan evidentes, que negarlas sería mentir. Es un hecho observable que muchos economistas siguen aferrados, tras la ceguera de su ideología conservadora, al “inamovible” paradigma capitalista; otros tratan de conservar sus ilusiones liberales sobre el sustento más humanistas posible de reformar el sistema; existen por último, los que se dejan arrastrar ingenuamente por los cantos de sirenas provenientes de los grandes centros productores de teorías, doctrinas y recetas económicas, para demostrar “su competencia” como profesionales de esta ciencia. Todos esos son los que de una forma u otra, como que intelectualmente están globalizados, favorecen a su vez, la globalización de las ciencias económicas. No importa el espacio que habiten dentro del globo terráqueo, ellos son parte de cierto consenso global que desconoce o pretende desconocer que una de las consecuencias más significativas y comprobables de la globalización contemporánea (dígase capitalista) en tanto fenómeno cultural y esencialmente económico, es que profundiza las diferencias en los niveles de desarrollo entre los países ricos y pobres, y mina peligrosamente lo 112 113

Revista Investigacion Económica. Vol. XVI. Primer Trimestre # 1. Mexico 1956. Pag. 56. Ibidem, pag 57-58

que de sello identitario nos queda a los que formamos parte de un Sur, que poco o nada tiene que ver con los cuatro puntos cardinales y sí mucho con la ley de acumulación capitalista.

3.6 ¿ES LA ECONOMIA UNA CIENCIA? Una discusión de cuestiones metodológicas Víctor A. Beber- Universidad de Belgrano y Universidad de Buenos Aires. RESUMEN La principal limitación que enfrenta la Economía al igual que el resto de las ciencias sociales -y que las diferencia de las naturales- es la dificultad para llevar a cabo experimentos controlados. Ello hace extremadamente dificultosa la verificación de las predicciones y, más aún, la refutación de cualquier hipótesis. En Economía no existen, en general, experimentos decisivos. Dado un resultado econométrico, por ejemplo, basta en muchos casos la inclusión de alguna otra variable, una ligera modificación de los supuestos del modelo o del procedimiento de estimación para obtener resultados distintos y aún contrarios. Dadas las particularidades que presenta la Economía, parece poco aconsejable suponer que su carácter científico se define en función de su capacidad para utilizar los métodos y procedimientos de las ciencias experimentales. Parece más razonable profundizar en cómo satisfacer los requerimientos del método científico a partir de -y no pese a- las especificidades que presenta como ciencia social. ABSTRACT The main constraint Economics faces -as the rest of the social sciences- is the difficulty to carry out controlled experiments. This makes extremely difficult to test predictions and to reject any hypothesis. There are no decisive experiments in Economics. Given a certain econometric result it is sufficient to include another variable, or to introduce a slight change in the assumptions or in the estimation procedure to get very different or even opposite results. Given the particular characteristics of Economics it does not seem reasonable to assume that its scientific status is defined according to its ability to use the methods and procedures of experimental sciences. It seems more reasonable to analize how to satisfy the requirements of scientific methodology taking explicitly into consideration the particularities it has as a social science. INTRODUCCIÓN El objeto del presente trabajo es llevar a cabo una puesta al día de las ideas centrales en materia de metodología del análisis económico. Como ha ocurrido en la mayoría de las disciplinas científicas, la Economía se desarrolló sin que por mucho tiempo sus estudiosos se interrogaran sobre las cuestiones metodológicas. Esporádicamente, alguno de sus practicantes incursionaba en tal tipo de materia. Así Senior, Mill, Cairnes, Menger, Keynes (padre), Robbins, Hutchison y Machlup constituyen una lista no exhaustiva de algunos de los que más se preocuparon sobre el tema de cómo los economistas hacían (o deberían hacer) lo que hacían. Sin lugar a dudas, si hay un trabajo que en el último medio siglo ejerció una influencia determinante en la materia fue el de Friedman (1953). Tanto para seguidores como para detractores se constituyó en un ineludible punto de referencia en el debate metodológico en Economía. Sin embargo, sólo a partir de los '80 se desarrolló un creciente interés por las cuestiones metodológicas, reflejo, en parte, de los debates en el área de la filosofía de la ciencia. La década

se abrió, precisamente, con la obra de Blaug (1980) que instaló el falsacionismo popperiano en el centro de la cuestión metodológica en Economía. A partir de ahí la literatura sobre metodología económica tuvo un crecimiento exponencial. A ella aportaron tanto autores venidos del campo de la Economía como del de la filosofía de la ciencia. Entre estos últimos, se destaca Hausman(1992), quien llamó la atención sobre lo que denominó la esquizofrenia metodológica imperante entre los economistas que sostienen que hacen algo que es totalmente diferente de lo que, en realidad, practican . En rigor de verdad, ya Blaug (1992) había señalado dicha dualidad aunque desde una perspectiva simétricamente opuesta a la de Hausman, como veremos más adelante. Hausman señala que la adhesión al falsacionismo, ya sea en su versión original popperiana o en su corrección lakatosiana, lleva a los economistas que incursionan en cuestiones metodológicas a representar su actividad como siguiendo estrictamente dicho enfoque. Esto es, los economistas formularían teorías, obtendrían predicciones a partir de ellas y las someterían a contrastación empírica. Si el resultado es negativo, la teoría sería desechada o sustituida por otra de mayor verosimilitud. Hausman señala que la práctica de los economistas no tiene mucho que ver con este planteo. En realidad, lo que los economistas hacen -acertadamente según Hasuman es utilizar lo que denomina el método "deductivo". El mismo consiste en1: 1) Formular generalizaciones acerca de la operación de factores causales relevantes. 2) Deducir de tales generalizaciones y de las condiciones iniciales, simplificaciones, etc., predicciones concernientes a fenómenos relevantes. 3) Contrastar tales predicciones. 4)

Si las predicciones son correctas, considerar todo el conjunto como confirmado.

Si las predicciones no son correctas, comparar explicaciones alternativas que permitan dar cuenta de lo que ha fallado. Dado que los economistas trabajan con fenómenos complejos en los cuales muchas simplificaciones son necesarias y muchas interferencias pueden aparecer, parece poco racional descartar una hipótesis debido a una predicción incumplida. Frente a una aparente disconfirmación el economista aplica lo que Hausman denomina el principio del eslabón débil2: cuando una conclusión falsa depende de un número de premisas inciertas atribuya el error a la más incierta de éstas. Los economistas, enfrentados con serias dificultades para contrastar sus teorías - concluye Hausman- confían en las implicancias que surgen de los axiomas de la teoría más allá de los resultados negativos que la contrastación empírica pueda arrojar. Difícilmente una teoría sea dejada de lado debido a un resultado aparentemente disconfirmatorio. En Economía no existen, en general, experimentos decisivos. Dado un resultado econométrico, por ejemplo, basta en muchos casos la inclusión de alguna otra variable, una ligera modificación de los supuestos del modelo o del procedimiento de estimación para obtener resultados distintos y aún contrarios. Los ejemplos abundan al respecto en la literatura. No importa cuán sofisticada sea la técnica econométrica utilizada y cuán amplio y detallado sea el conjunto de datos empleado muy pocas relaciones robustas pueden obtenerse. McCloskey (1985) argumenta en la misma dirección. En realidad, dice, los economistas -al igual que sus colegas de las otras ciencias- se preocupan por persuadir a sus colegas. La persuasión en economía, sin embargo, no depende tanto de predicciones exitosas como de elementos tales como: elegancia matemática, argumentos por analogía, simetría, etc. Las proposiciones empíricas acerca de la economía real no ocupan un lugar central como ocurre en las ciencias naturales (Bloor-Bloor, 1993).

Como señalara Blaug (1992, 259), "(los economistas neoclásicos) predican la importancia de someter las teorías a contrastación empírica, pero raramente cumplen con los cánones metodológicos que declaman. La elegancia analítica, la economía de instrumentos teóricos y el más amplio alcance obtenido gracias a heroicas simplificaciones han sido premiados por sobre la predecibilidad y la significación para cuestiones de política". Ello ha llevado a Rosenberg (1992) a sostener que la Economía debe ser considerada como matemática aplicada y no como una ciencia empírica. Los datos en Economía juegan un rol totalmente distinto al que desempeñan en las ciencias empíricas. Por ejemplo, la teoría del equilibrio general -central en el análisis económico- no genera ninguna predicción útil. La Economía se asemeja, sostiene, a la geometría euclidiana3. Durante muchos siglos la geometría euclidiana estuvo sujeta a una doble interpretación: por un lado, como un sistema axiomático relativo a objetos abstractos y verdadero a priori; por el otro, como un conjunto de afirmaciones acerca de las relaciones espaciales entre objetos reales del mundo. Ahora bien, a partir de la teoría de la relatividad sabemos que, interpretada como una teoría de las relaciones de los objetos en el espacio, la geometría euclidiana es falsa. Ello no la afecta, sin embargo, en su primera interpretación, como un conjunto de verdades a priori, implícitas en los términos que se incluyen en ella. Un status similar tendría, según Rosenberg, la Economía. Pese a que hoy sabemos que en el mundo real no existen los triángulos euclidianos, la geometría euclidiana funcionó y funciona cuando se la aplica a pequeñas regiones del espacio. Del mismo modo, las leyes de oferta y demanda, por ejemplo, pueden aplicarse a problemas reales sin que ello implique que la Economía sea una ciencia empírica. La Economía estaría en una situación similar a la de la geometría euclidiana antes que la teoría de la relatividad permitiera descubrir sus errores y señalar sus límites. El campo de la discusión metodológica abarca una enorme cantidad de cuestiones. Vamos a ir analizándolas partiendo de la premisa que, como Jacob Viner dijera alguna vez, Economía es lo que los economistas hacen. O sea no vamos a partir de una definición en abstracto de qué creemos que es o debería ser la ciencia económica sino de tomar como tal lo que los economistas han hecho a lo largo del tiempo. LA PREDICCIÓN EN ECONOMÍA Friedman, en su famoso texto de 1953, instaló la predicción como criterio de demarcación en Economía. La teoría debe ser evaluada por su capacidad predictiva para la clase de fenómenos que intenta explicar, señaló. "La única prueba relevante de la validez de una hipótesis es la comparación de sus pronósticos con la experiencia"4. Sin embargo, la predicción en nuestra disciplina presenta particulares dificultades. Difícilmente pueda alcanzarse un nivel de precisión cercano al de la física, la medicina o aún la meteorología. En realidad, es mucho más defendible la predicción cualitativa –el signo del cambio- que la cuantitativa -su magnitud. Pese al uso de cada vez más sofisticadas técnicas econométricas y de más versátiles programas de computación el impacto en el mejoramiento de la capacidad predictiva ha sido escaso. Ello lleva a McCloskey a concluir que la predicción es imposible en economía. Citando a von Mises, señala que la predicción del futuro económico se encuentra más allá de la capacidad de cualquier morta. En promedio, la industria de producción de pronósticos obtiene sólo beneficios normales, apunta. EXPLICACIÓN Y PREDICCIÓN Tradicionalmente se ha sostenido que el objetivo primordial de la ciencia es la explicación. Así, por ejemplo, Nagel (1961, pág. 4) sostiene que "es el deseo de obtener una explicación...lo que genera la ciencia". Sin embargo, el acento puesto por Friedman en la predicción lleva a

preguntarse si no debe ser ésta -y no la explicación- lo que debe considerarse la nota distintiva del pensamiento científico. Una respuesta puede ser señalar que no hay diferencia entre explicación y predicción: ésta es la conocida tesis de la simetría. Enunciada por Hempel y Oppenheim (1948), sostiene que la operación denominada "explicación" implica el uso de las mismas reglas de inferencia lógica que la operación llamada "predicción". La única diferencia reside en que la explicación se produce después de los hechos y la predicción tiene lugar antes de los mismos. La explicación sería, simplemente, la predicción hacia atrás. Sin embargo, para predecir basta conque exista correlación, pero la sola correlación no garantiza una explicación del fenómeno analizado. Una cosa es decir que "si A, entonces B", y otra muy distinta explicar cómo A genera B. En la ciencia tenemos ejemplos de teorías ilustres que predicen sin explicar: la ley de la gravedad es un caso distinguido. Nos dice de qué manera los cuerpos se atraen entre sí pero desconocemos el mecanismo responsable de ello. También hay casos no menos ilustres de teorías que explican pero no predicen: la teoría darwiniana de la evolución ha sido señalada como el caso típico de una teoría que explica lo que ha ocurrido pero en absoluto predice lo que va a ocurrir. Sin embargo, aquí puede objetarse que la teoría de la evolución genera algún tipo de predicción, como, por ejemplo, que las especies nunca reaparecen. En el mejor de los casos, se trata de predicciones genéricas6, nunca específicas, como concede Rosenberg (1992, 46). También lo hace, si se interpreta "predicción" a la Friedman, donde se entiende por tal todo hecho nuevo deducido de una teoría y que previamente no era conocido, aún cuando sea un hecho del pasado. De todas maneras parece claro que explicación y predicción no son exactamente lo mismo. Si una teoría predice aporta un conocimiento nuevo. Nos permite enunciar que va a ocurrir o que debió suceder. Si, además, explica por qué, aporta un conocimiento aún mayor. De igual modo, si una teoría fundamentalmente explica, ayuda a la comprensión del fenómeno. Si, además, predice, mucho mejor. Por ello parece unilateral reducir la prueba de la validez de una teoría a su capacidad predictiva, aún en el sentido amplio en que Friedman utiliza el término. Es reducir el alcance de una disciplina científica circunscribirlo o centrarlo en la formulación de pronósticos 7. En la ciencia encontramos todo un arco de situaciones que van desde teorías que sólo explican hasta aquéllas que sólo predicen, con una gran variedad de situaciones intermedias. Convertir a la predicción en el summum bonum de la ciencia es olvidar que la función esencial de la actividad científica es encontrar respuesta a los múltiples "por qués" que el hombre se plantea. Allí donde tal respuesta no se logra, la predicción es un buen second best, pero tan sólo eso. VERIFICACIÓN Y REFUTACIÓN EN ECONOMÍA Hemos visto que, para Friedman, la validez de una hipótesis surge de la comparación de sus pronósticos con la experiencia. Ahora bien, si una teoría no predice o si sus predicciones, al ser comparadas con la información disponible, no permiten afirmar en forma categórica que aquélla ha sido refutada ni dejada de refutar, ¿cuál es el criterio de validez de una teoría?, ¿cómo elegir entre hipótesis alternativas? El propio Friedman da una respuesta a esta última pregunta. La elección entre hipótesis igualmente consistentes con la información disponible -dice- deberá ser arbitraria hasta cierto punto, aunque hay en general acuerdo acerca de que las consideraciones pertinentes son sugeridas por los criterios de sencillez y fecundidad. Si la regla general en Economía es la consistencia de la mayoría de las hipótesis con la información existente -en el sentido que raramente ésta lleva a refutar alguna hipótesis-¿debemos conformarnos con tales criterios?

La dificultad esencial que enfrenta la Economía -como el resto de las ciencias sociales- es la imposibilidad, en la gran mayoría de los casos, de efectuar "experimentos controlados". Pero aún en los experimentos controlados es posible argumentar que nunca existen refutaciones decisivas ya que siempre la verificación de una hipótesis implica someter a prueba a aquélla conjuntamente con proposiciones auxiliares. Por tanto, si la predicción no concuerda con los datos siempre es posible atribuirlo a la falsedad de alguna de estas proposiciones y dejar a salvo la hipótesis central (la llamada tesis de Duhem-Quine). Con mucha mayor razón este argumento es válido en el caso de experimentos no controlados, donde precisamente ningún dominio existe sobre las condiciones bajo las cuales el mismo tiene lugar. Por tanto, siempre existe un amplio margen para aducir que la discrepancia entre la predicción y los datos debe atribuirse a que alguna de las circunstancias bajo las cuales la hipótesis es válida no se verificaron. No existe, entonces, ningún experimento decisivo. ¿Quiere eso decir que en Economía las teorías nunca se refutan? No, pero la refutación no surge usualmente por medio de los mecanismos de verificación empírica que se estudian en los cursos de Estadística y Econometría sino por lo que yo llamo "grandes experimentos sociales". Son los "grandes eventos" a que alude Tobin (1996) los que desacreditan determinadas ideas y promueven su sustitución por otras nuevas. La Gran Depresión de los años 30, por ejemplo, desacreditó la idea que el pleno empleo de los recursos podía alcanzarse en forma automática. Ningún economista razonable pone hoy en duda en Estados Unidos, por ejemplo, el rol de la política monetaria y de la Reserva Federal en la estabilización del ciclo económico. Durante muchos años se discutió acerca del papel de la política monetaria en la generación de la inflación. Incluso se desarrollaron teorías no monetarias de la inflación. Pero los procesos de alta inflación de los años 70 y especialmente los casos de hiperinflación, como el de la Argentina, despejaron dudas acerca de la naturaleza monetaria de dichos procesos y del rol de la política monetaria en su corrección. Este es el tipo de refutación que históricamente ha operado en Economía. Pero, salvo este tipo de casos extremos, es válida la reflexión de Hahn (1987, 110) acerca de que "no es fácil encontrar una proposición en Economía que todo economista razonable concuerde en que ha sido falseada decisivamente por la evidencia". Mientras Blaug (1992, XV) sostiene que de lo que se trata es de empeñarse más arduamente en tratar de aplicar la metodología del falsacionismo popperiano en Economía, la conclusión de Hausman es la simétricamente opuesta. En efecto, Blaug alega que existe una razón epistemológica para adherir al falsacionismo: la única forma en que podemos saber que una teoría es verdadera o, al menos, no falsa, es formular una predicción de actos, estados o hechos que se siguen de dicha teoría y observar si son falsados o no. Sin embargo, ya Kuhn (1962, 128) señaló que "ningún proceso descubierto hasta ahora por el estudio histórico del desarrollo científico se parece para nada al estereotipo metodológico de la demostración de falsedad, por medio de la comparación directa con la naturaleza". "La decisión de rechazar un paradigma es siempre, simultáneamente, la decisión de aceptar otro, y el juicio que conduce a esa decisión involucra la comparación de ambos paradigmas son la naturaleza y la comparación entre ellos" (ibíd, 129). Para este autor, un cambio de paradigma es un cambio fundamentalmente de enfoque: cambian los instrumentos y los lugares de búsqueda. A su vez, para Hausman, la falta de aplicación en la práctica del falsacionismo - pese a su declamación por parte de muchos economistas- sólo corrobora que el mismo es inaplicable en nuestra ciencia. Según Hausman (1992, 1) la confianza en las implicaciones de una teoría económica deriva de la confianza en sus axiomas más que en la verificación de dichas implicaciones.

Dada la multitud de "causas perturbadoras" presentes en la economía y la dificultad de llevar a cabo experimentos controlados que permitan eliminar aquéllas, Hausman (1992, 305) entiende que poco puede aprenderse de la experiencia. Someter a prueba una hipótesis -agrega- implica derivar una predicción de un conjunto de varias proposiciones, de las cuales la hipótesis es sólo una de ellas. Uno siempre puede "salvar" una hipótesis culpando a alguna de las otras proposiciones. Por tanto, los economistas hacen bien -concluye- en depositar su confianza en las premisas. Dado que en Economía los postulados básicos son generalizaciones razonablemente bien fundadas, sustentadas en la introspección o en la experiencia diaria 8, no sería racional dejar de lado una hipótesis debido a una aparente disconfirmación, más aún teniendo en cuenta las dificultades que rodean a la verificación en Economía. Esto puede resultar sorprendente para quienes identifican la actividad científica con una secuencia consistente en la formulación de hipótesis, contrastación empírica de sus implicaciones y descarte de las que resulten refutadas. Sin embargo, Kuhn (1962, 128/9) señala que los científicos, ni siquiera cuando se enfrentan a anomalías graves y prolongadas renuncian al paradigma que los ha conducido a la crisis. Por el contrario, inventarán numerosas articulaciones y modificaciones ad hoc de su teoría para eliminar cualquier conflicto aparente. "Para que una anomalía provoque crisis debe ser algo más que una simple anomalía" (ibíd., 135). La "ciencia normal" no aspira a producir novedades importantes; justamente se concentra en resolver las anomalías que aparecen más que en poner a prueba la teoría. "Tampoco tienden normalmente los científicos a descubrir nuevas teorías y a menudo se muestran intolerantes con las formuladas por otros" (Ibíd., 53). La sujeción de los economistas a los postulados básicos de la teoría aún en presencia de resultados empíricos que la pongan en cuestión no diferiría de la defensa del paradigma que Kuhn caracteriza como la actitud propia de los científicos en los distintos campos del saber. Una teoría científica se declara inválida -remarca- sólo cuando se dispone de un candidato alternativo para que ocupe su lugar. ¿PERSUACIÓN EN LUGAR DE COMPROBACIÓN? McCloskey concuerda en que no es ni la contrastación empírica ni el éxito en la predicción lo que importa. Devenido en postmodernista tras renegar de su pasado positivista en Chicago, transformado en crítico en lugar del economista convencional que fue, convertido en mujer luego de haber sido hombre, McCloskey sostiene que la ciencia es persuación. Para este autor, la clave es la retórica. Citando a Booth (1974) recuerda que la retórica es el arte de indagar lo que los hombres creen que deben creer, en lugar de probar lo que es verdadero mediante métodos abstractos. La ciencia -según McCloskey- es el intento de persuadir a otros científicos, en nuestro caso, los economistas. Como ejemplo, McCloskey identifica 11 argumentos que se utilizan para convencer de la existencia de una ley de demanda 9. McCloskey señala que de esas 11 razones, sólo 3 son "científicas" y el resto, artísticas y literarias. Más aún -agrega- las más contundentes son de este tipo. Por ejemplo, sería muy raro -sostiene- que un profesor trate de convencer a sus alumnos de la existencia de la ley de demanda apoyándose en estimaciones econométricas. Seguramente, apelará a la introspección -¿qué harían si se duplica el precio de la carne?- o a la analogía con ejemplos reconocidos, como la suba del precio del petróleo. El producto final de la ciencia, el artículo científico, es una obra, una obra literaria, concluye.

Creo, sin embargo, que McCloskey confunde dos cuestiones: el objeto de la investigación y el informe de dicha investigación. El producto final de una investigación en Física no es un paper sino, por ejemplo, el descubrimiento del fenómeno de la reacción en cadena. Esto no debe confundirse con el artículo donde se explica cómo el impacto de un neutrón sobre un núcleo de uranio determina la formación de un núcleo compuesto, siendo posible que la concentración de energía en uno de los neutrones de dicho núcleo compuesto libere aquel neutrón, el cual, penetrando en núcleos vecinos, reinicie el ciclo que está en la base de la bomba nuclear. Del mismo modo, una cosa es la investigación de las causas del Big Bang y otra muy distinta la publicación donde el físico trata de persuadir a sus colegas de que su teoría es la correcta. Esta confusión es la que lo lleva a sostener que, dado que el producto final de la ciencia es un artículo científico y dado que éste pertenece al género literario, la economía es ciencia y literatura a la vez. Literatura en el sentido de equipararse al drama, la poesía, la novela y admitir, por tanto, el mismo tipo de estudio que estas manifestaciones literarias. De aquí su propuesta de realizar un análisis retórico de la Economía. Sin embargo, la confusión reconoce una base cierta. En Economía, el producto inmediato de una investigación es normalmente un artículo en el que el investigador trata de persuadir a sus colegas sobre sus hallazgos y conclusiones. El análisis retórico de los textos económicos permitiría estudiar los argumentos utilizados en esa tarea de convencimiento. Pero el producto final que se espera de una investigación económica no es un texto sino un nuevo conocimiento que modifique nuestro enfoque respecto de determinado fenómeno y que dé lugar a nuevas políticas respecto al mismo. Ni en Economía ni en ninguna otra ciencia el producto final de la investigación es un paper. Sería como sostener que el objetivo de la ciencia es la producción de artículos. El objetivo de la ciencia es la producción del conocimiento científico; los trabajos, informes, artículos son sólo medios para el logro de tal fin último. Pero, ¿por qué se le ocurre pensar a un economista -y no a un físico o a un químico- que el producto final de la ciencia es un artículo en el que se vuelcan sus hallazgos? Precisamente porque lo escasamente concluyente de los resultados en Economía lleva a que pase a ser determinante la capacidad de persuadir a los colegas acerca de la validez de los mismos. Para un físico, la elocuencia en la presentación de sus resultados no es demasiado importante. Basta con describir el experimento de manera que cualquiera pueda reproducirlo y así verificar sus conclusiones. Con ello estará persuadiendo a sus colegas pero seguramente ni se dará cuenta que lo está haciendo. En Economía, convencer a los colegas es quizá tanto o más dificultoso que obtener un resultado novedoso en la investigación. La tarea de persuasión requiere de un esfuerzo muy superior al de otras disciplinas por el margen de duda y ambigüedad que siempre rodea a cualquier resultado. Pero todo ello no autoriza a confundir el medio con los fines. Es cierto que quizá el éxito de la Teoría General no hubiera sido el mismo si su autor no hubiera tenido la elocuencia, vivacidad y, a la vez, la oscuridad para escribir propia de Keynes; pero permítaseme dudar que el análisis retórico de los textos económicos que McCloskey recomienda sea un adecuado sustituto de la metodología del análisis económico, tal como él propone. ¿HA AVANZADO LA TEORÍA ECONÓMICA? Hemos dicho que, salvo en el caso de lo que hemos denominado "grandes experimentos sociales", no existen refutaciones decisivas en Economía. Las teorías y modelos permanecen

disponibles en una gran "caja de herramientas" para ser utilizadas según el caso bajo análisis y el buen sentido del analista. Empero, hay quienes sostienen que la teoría económica no registra avances significativos a lo largo del tiempo. Así, F. Fisher (1989) sostiene que la teoría de los juegos no ha aportado a la teoría del oligopolio nada que no pudiera afirmarse en base a las teorías anteriores. Para Rosenberg (1994, 228), desde 1800 los avances en Economía han consistido sólo en mejoras en el rigor en la deducción, economía y elegancia en la expresión, mejor axiomatización y en pruebas de mayor generalidad, aunque sin demostrar mucha preocupación por la utilidad de los resultados; específicamente, nuestra habilidad para predecir al comportamiento del consumidor -agrega- no supera a la de Adam Smith. Para Blaug (1994, 131), el énfasis en lo formal implica que "toda correspondencia con la realidad es sacrificada en aras de la facilidad para el tratamiento analítico. El objetivo final es proveer el placer estético de un hermoso teorema, resolver ejercicios académicos que hemos construido porque tienen solución con las técnicas analíticas existentes y no proveer conocimiento sustantivo de comportamientos observables". El mismo Blaug (ibíd., 116) cita una lista de 12 innovaciones en Economía ocurridas entre 1900 y 1965, según lo publicado en Deutsch et al (1986, 374-84) en base a una consulta a prominentes economistas. Lo llamativo es el absoluto predominio de instrumentos analíticos en la lista (funciones de bienestar social, teoría de los juegos, contabilidad nacional, programación lineal, análisis de insumo-producto, econometría) antes que de avances sustantivos y la marcada interrelación entre varios de ellos. Aparentemente, existe consenso en señalar como avances la disponibilidad de nuevos instrumentos para analizar los (mismos) problemas más que nuevos resultados alcanzados. En este sentido, creo que habría una marcada diferencia con el tipo de lista que se confeccionaría en Física o en Química. En la misma dirección, McCloskey (1991) pone en duda que los físicos pudieran haber dedicado toda una generación -como se hizo en Economía- a elaborar las pruebas puramente matemáticas de la existencia, unicidad y estabilidad de una teoría vacía de contenido empírico como es la del equilibrio general; teoría que sólo permite presentar en forma rigurosa y elegante lo que Walras ya había postulado un siglo antes. EL USO DE LA MATEMÁTICA EN ECONOMÍA Esto nos lleva a la cuestión del uso de la matemática en Economía. Este es un tema que ya se discutió en los '40 y '50 pero que reaparece periódicamente. Como ya hemos anticipado, en la visión de alguien ajeno a la profesión, como el filósofo de la ciencia Rosenberg, que ha dedicado buena parte de vida académica al estudio de los métodos de la Economía, ésta es una rama de la matemática aplicada, una suerte de intersección entre una teoría puramente axiomática y la geometría aplicada. Para arribar a tal conclusión, Rosenberg (1994, 223) señala que nuestra disciplina no trata ni utiliza los datos empíricos de la manera característica de las ciencias empíricas. La persistencia de los economistas en su enfoque teórico aún en presencia de datos empíricos que lo ponen en tela de juicio probaría que no estamos en presencia de una ciencia empírica. Los economistas siguen lo que Rosenberg (1992, 231) denomina una estrategia extremal, en el sentido que postulan un sistema que procura maximizar o minimizar el valor de una variable. Esta estrategia es similar a la seguida por la mecánica de Newton.

Este enfoque, añade, hace a una teoría mucho más inmune a las posibilidades de ser falseada porque si una predicción no se cumple la única alternativa es poner en duda las hipótesis auxiliares -las que describen las condiciones iniciales- o rechazar la teoría; esto último implicaría dejar de lado la proposición que el sistema invariablemente maximiza o minimiza la variable en cuestión. En el caso de la teoría newtoniana aparentes refutaciones llevaron no a rechazar la teoría sino a explorar qué fallas podía haber en las condiciones iniciales y, efectivamente, ello llevó a descubrimientos como la existencia de Plutón y Neptuno. Los errores detectados eran atribuibles no a fallas en la teoría sino a una incompleta descripción de las condiciones iniciales. En contraste, esa misma estrategia no ha dado iguales frutos en el campo económico. Dos siglos de trabajos, añade, no han producido nada equivalente a los éxitos mencionados. La Economía –al igual que la mecánica de Newton- ha defendido el enfoque extremal de su teoría pero se ha mostrado incapaz de someter a pruebas independientes y mejorar sus proposiciones auxiliares. Pero, ¿qué hay de los éxitos de la teoría económica y su aplicabilidad a problemas prácticos como la determinación del precio por la oferta y la demanda? Para Rosenberg, se trata de un caso similar al de la geometría euclidiana. Durante milenios fue vista como la ciencia del espacio pero llamarla "ciencia" no la convierte en tal. Sin embargo, tuvo amplia aplicación en geografía, ingeniería, mecánica y astronomía. Recién en 1919, las observaciones que confirmaron la teoría general de la relatividad la pusieron en crisis. Pero en el caso de la Economía, no existe aún una ciencia que juegue el rol que la Física desempeñó para la geometría. La Física nos permite elegir entre distintas geometrías aplicadas y explicar los desvíos respecto a las observaciones registrados en cada caso. Esto no existe en el caso de la Economía. Los cosmólogos pueden utilizar la geometría euclidiana en sus mediciones siempre que la sometan a las correcciones que reflejen los efectos de la presencia de objetos masivos sobre los rayos de luz. Estos ajustes son los que en Economía no estamos en condiciones de hacer. Por tanto, entiende Rosenberg (1992, 233), la teoría económica no debe ser culpada más que lo que la geometría euclidiana puede serlo en el contexto de la astrofísica. Claro está que, interpretada como un cuerpo de axiomas, lemas y teoremas matemáticos, su capacidad para actuar como guía en cuestiones de política económica queda seriamente en duda, concluye. Una interpretación alternativa puede encontrarse en Brock y Colander (2000, 3). Tras señalar que la mayoría de los economistas realizan trabajos aplicados, señala que una profunda brecha separa los modelos formales de equilibrio general de los modelos de política aplicada. Mientras en los primeros los supuestos se eligen en función de facilitar su tratamiento analítico, en los segundos los supuestos, si bien apuntan a facilitar el tratamiento del modelo local, no dejan de lado la necesidad de lograr un buen ajuste empírico. Tal diferencia en los supuestos genera un problema de consistencia para Colander. Sobre el uso de las herramientas matemáticas, Williamson (2000, 605) advierte sobre la posibilidad que aspectos centrales de la teoría sean dejados de lado u oscurecidos por su traducción al lenguaje matemático. En el mismo sentido, Debreu (1991, 4/5) reconoce que el uso de la matemática impone determinadas condiciones. La propia elección de las preguntas a responder puede estar influenciada por el bagaje matemático del economista. La Economía puede llegar a jugar advierte- un papel secundario en dicha elección. La matemática es extremadamente demandante: exige incesantemente supuestos más y más débiles para obtener resultados más generales.

Obviamente, la ventaja que aporta la matematización de la Economía es evitar errores lógicos. Dadas las dificultades que enfrentan los experimentos en esta disciplina, la teoría económica depende críticamente del discurso lógico. En Física, la observación empírica y los resultados experimentales permiten controlar las construcciones teóricas; ello ha permitido ocasionalmente emplear razonamientos que se apartan conscientemente de los cánones de la deducción matemática. Ello no es admisible en la teoría económica, dado que la consistencia interna es la única garantía de rigurosidad. Queda, de todas maneras, planteado el interrogante de si la matematización debe considerarse una condición necesaria de todo texto económico. Dicho de otra manera, si rigor lógico es necesariamente equivalente a uso de la matemática. En tal sentido debe reconocerse que han sido textos no matemáticos los que mayor influencia han ejercido en la profesión. Valga como ejemplo la obra sobre historia monetaria de Friedman y Schwartz (1963) que hizo mucho más por la difusión de las ideas del monetarismo que muchos sofisticados modelos econométricos 10, o el caso de la propia Teoría General.

MODELOS, ANALOGÍAS Y METÁFORAS En Economía, al igual que en el conjunto de las ciencias, es usual el empleo de modelos. Nuevamente, la diferencia entre nuestra disciplina y las que no pertenecen al campo de las ciencias sociales, es la dificultad que en aquélla enfrenta la posibilidad de realizar experimentos controlados. Por ejemplo, los ingenieros utilizan modelos a escala para desarrollar y probar las propiedades, por ejemplo, de un aeroplano. Pero, luego, en el túnel del viento dichas propiedades son puestas a prueba. Hausman (1992, 76) sostiene que hacer ciencia consiste no sólo en elaborar modelos sino que también se deben ofrecer hipótesis teóricas que muestren que el modelo se aplica al mundo. De la hipótesis teórica se puede inferir lo que Hausman llama el "cierre" (closure) de los supuestos del modelo. En el cierre del supuesto se especifica el dominio al cual se aplica. Por ejemplo, el supuesto que dos cuerpos se atraen con una fuerza inversamente proporcional al cuadrado de la distancia que los separa es propio del sistema clásico de partículas. De la hipótesis teórica que el sistema solar es un sistema clásico de partículas se infiere como cierre que aquel supuesto se aplica a este sistema. A partir de la hipótesis teórica se "recuperan" los supuestos del modelo como afirmaciones acerca del mundo. Los cierres de los supuestos son proposiciones que son verdaderas o falsas. Un modelo más una hipótesis teórica general que afirme que los supuestos del modelo son ciertos para una determinada porción del mundo constituye una teoría. Gracias a la posibilidad de crear situaciones experimentales simplificadas, los cierres de los supuestos en modelos de las ciencias naturales pueden ser considerados como verdades con diferentes grados de generalidad. Ello no ocurre en Economía, donde los modelos nunca reproducen fielmente una porción de la realidad. Los modelos en Economía son siempre, en alguna medida, "irreales". Ello lleva a Hausman, siguiendo a Mill, a calificar a la Economía como una ciencia inexacta. Pero antes de adentrarnos en este tema observemos lo siguiente. Un modelo científico puede ser definido como un sistema real o imaginario cuya estructura se parece, en aspectos importantes, al sistema que se está investigando. La utilidad del modelo

reside en ese parecido con el sistema en estudio a la vez que en su condición de ser una versión simplificada del mismo. La analogía es, por ende, lo que legitima, en primer lugar, el uso de un modelo. La analogía vuelve a estar presente cuando se transfieren modelos de un campo de la ciencia a otro (de la Física a la Economía, por ejemplo). Por tanto, el razonamiento por analogía constituye una herramienta central en la construcción teórica. Ahora bien, la pertinencia de una teoría científica implica la existencia de un conjunto de principios interpretativos que la relacionen con el mundo empírico. Es la función que cumplen los "cierres" de Hausman. El método de la Economía -según Mill- consiste en tomar en consideración sólo algunos de los múltiples factores causales que operan en un determinado fenómeno: por ello, la Economía es una ciencia "inexacta". En contraposición, Mill (1843, 6.3.1) pone como ejemplo de ciencia exacta a la astronomía porque las leyes que gobiernan sus fenómenos -argumenta- han sido establecidas teniendo en cuenta el total de las causas que influyen en cada fenómeno. Las premisas de todo modelo económico son siempre "inexactas" dado que hacen abstracción de numerosos factores causales que operan a la par de los que son tenidos en cuenta. Los economistas estudian sólo las "grandes causas" de los fenómenos haciendo abstracción de las "interferencias" o "causas perturbadoras". El método de la Economía consiste en obtener deducciones lógicas a partir de tales premisas inexactas. Hausman (1992, 148) concuerda en que este método es el adecuado para todas las ciencias –como la Economía- donde existe una complejidad de factores causales. La concordancia entre las implicaciones de la teoría y los datos será sólo aproximada. Dado que los fenómenos económicos son el resultado de múltiples causas, muchas de las cuales la teoría no abarca, no puede esperarse nada mejor. LA ECONOMÍA COMO UNA CIENCIA SEPARADA Hausman considera inevitable que la Economía sea una ciencia inexacta. Los axiomas básicos de la disciplina lo son y de ellos se deducen sus implicaciones; la confianza en éstas deriva de la que merecen los axiomas más que en la contrastación empírica de las consecuencias deducidas de aquéllos. Este es, según Hausman, el método de la Economía y este autor no ve nada criticable en ello, dadas las condiciones en que se desenvuelve la disciplina. Con lo que Hausman está en desacuerdo es con lo que él llama la constitución de la Economía en una "ciencia separada", esto es en una disciplina que tiene que ver conun dominio en el cual un pequeño número de factores causales predominan. Con ello se refiere al hecho que el análisis económico considera exclusivamente los factores económicos y expresamente deja de lado los de índole sociológica o psicológica, por ejemplo, Akerlof, quien ha hecho uso en varios de sus trabajos de herramientas provenientes del campo de la Antropología, la Sociología y la Filosofía, sostiene que "los economistas teóricos, como los chefs franceses respecto a la comida, han desarrollado modelos estilizados cuyos ingredientes están limitados por algunas reglas no escritas. Así como la cocina tradicional francesa no utiliza algas o pescado crudo, los modelos neoclásicos no emplean supuestos derivados de la Psicología, la Antropología o la Sociología" (1984, 2). Según Akerlof -y Hausman- la incorporación de instrumentos y conocimientos provenientes de otras disciplinas enriquecería el análisis económico. DE LA TEORÍA A LA POLÍTICA ECONÓMICA Hutchison (1994, 27) señala, con alarma, que en los últimos 50 años se ha producido un cambio sin precedentes en el objetivo de los economistas: el interés en los problemas de política económica ha declinado significativamente. Lo que era el fin primario de la disciplina se ha visto desplazado -sostiene- por la práctica de juegos (como Hicks describió a buena parte de la

teoría económica) o por la virtuosidad técnica, en la forma de un rigor matemático vacío de contenido empírico. Blaug (1980, XXI/XXIII) coincide en que existe una tendencia creciente en la economía moderna a perseguir la teorización como un juego intelectual. Sin embargo, si los economistas -señala- están llamados a tomar posición respecto a cuestiones de política económica, la Economía debe ser ante todo una ciencia empírica; el rigor analítico debe ser balanceado con la relevancia práctica. Economía positiva y economía normativa David Hume fue el primero en distinguir entre el "ser" y el "deber ser". John Neville Keynes introdujo la distinción entre economía positiva, economía normativa y el arte de la economía. Mientras la economía positiva se ocupa de lo que es y la normativa de lo que debe ser, el arte de la economía es el puente entre ambas, utilizando los conocimientos que aporta la primera para alcanzar las metas que determina la segunda. Se sostiene habitualmente que la economía positiva es una ciencia tan objetiva como cualquiera de las ciencias físicas y que sobre sus aseveraciones no debería haber discrepancias entre los economistas. Las mismas sólo tendrían sentido en el caso de la economía normativa, afectada por juicios de valor. Sin embargo, se pasa por alto, a mi juicio, una cuestión metodológica. La economía positiva utiliza lo que Hausman llama el método deductivo. Se parte de determinados supuestos básicos y generalizaciones y, a partir de ellos, se obtienen predicciones por vía deductiva. La economía positiva trata, no de lo que es, sino de lo que sería si el mundo se ajustara a los supuestos de la teoría económica. En la medida en que se respeten las reglas de la lógica deductiva, nadie puede discutir las inferencias obtenidas. Pero variando los supuestos se llega por la misma vía a conclusiones diferentes y aún opuestas. Por ejemplo, un supuesto básico de la economía neoclásica es la existencia de racionalidad ilimitada en los agentes. Las conclusiones son, por ende, válidas para un mundo con agentes ilimitadamente racionales; para el mundo que sería bajo tal condición. En cambio, en las ciencias naturales, ningún supuesto se formula respecto a cómo deciden las partículas su comportamiento. Se describe el comportamiento observado de las mismas. La economía positiva lo que nos dice es cómo sería el mundo si -y sólo si- los consumidores fueran todos maximizadores de utilidad o las empresas maximizadoras de beneficios. O si no lo fueran pero se comportaran como tales. Es por ello que hay muchos que interpretan la teoría económica como normativa: nos dice lo que debería ser para que la conducta de los agentes sea racional, lo que las firmas deberían hacer para maximizar sus beneficios, etc. Ello hace que aún la propia economía positiva sea objeto de discusión y disenso, particularmente en cuanto a la relevancia, pertinencia y utilidad de los supuestos. Obviamente, si existiera un experimento decisivo que nos posibilitara discriminar tajantemente entre teorías la dificultad sería mínima. Una vez más, es su carencia en la mayoría de los casos lo que da un carácter distintivo a la Economía y al resto de las ciencias sociales, imposibilitando obtener refutaciones concluyentes. Por tanto, la economía positiva está lejos de ser un conjunto de conocimientos sistematizados acerca de porciones de la realidad, como suele encontrarse en las ciencias positivas de la naturaleza. Más bien, se trata -como ya se ha señalado- de un conjunto de teorías y modelos disponibles en una gran "caja de herramientas" para ser utilizados según sea el caso bajo análisis y el buen sentido del analista. Y esto es así por las particulares condiciones a que se ve sujeta la Economía –al igual que el resto de las ciencias sociales-: sus agentes son seres humanos que toman decisiones, interactúa una multiplicidad de variables y no existen -para la gran mayoría de los fenómenosexperimentos controlados.

Para Keynes (padre) la economía normativa debía examinar los criterios de lo que debería ser, esto es de lo que se considera deseable. Finalmente, el arte de la economía debía ocuparse de utilizar las herramientas y conocimientos provistos por la economía positiva para alcanzar las metas identificadas por la economía normativa. Sin embargo, esta clasificación tricotómica no prosperó. En general, se distingue entre economía positiva y normativa, entendiéndose que el análisis de metas y de medios para lograrlas es parte del capítulo normativo de la Economía. Sólo Colander (1994) ha reivindicado la división postulada por Keynes, identificando el arte de la economía con la política económica aplicada, señalando que su tarea es utilizar los conocimientos aportados por la economía positiva para generar medidas que permitan alcanzar las metas de la sociedad, teniendo en cuenta las instituciones existentes en el mundo real, así como las dimensiones política y sociológica de dichas medidas. Sea que se adopte la división dicotómica o tricotómica, lo cierto es que tradicionalmente se ha visto como una de las misiones de la economía positiva la de orientar la política económica. Y aquí es donde surge la cuestión acerca de en qué momento deben introducirse las dimensiones no económicas -políticas, sociológicas, psicológicas, etc. Hausman critica a la teoría económica el dejar fuera del análisis los factores causales no económicos, constituyendo por ello lo que denomina una ciencia "separada". Sin embargo, no parece ni tan sencilla ni tan necesaria la incorporación de factores no económicos en el campo de la teoría económica. Pero, en cambio, parece impensable formular política económica ignorando la relevancia de las variables no económicas. Una cosa es tener en cuenta, como estrategia metodológica, sólo el campo de los factores económicos en el marco de la teoría y otra muy diferente ignorar la influencia de los otros factores causales como si no existieran cuando se pretende operar sobre la realidad. Si se los ignora, la dura realidad se ocupará de poner de relieve que aquéllos siguen presentes. Sucede al respecto algo similar a lo que suele acontecer en general respecto a los supuestos de la teoría económica. Una cosa es utilizarlos para simplificar el análisis y otra considerarlos como atributo de la realidad analizada. Por ejemplo, es común advertir que del supuesto teórico de perfecta flexibilidad de precios se pasa luego a razonar como si ésa fuera una condición de la realidad a la que se pretenden aplicar determinadas políticas. O cómo se identifica el supuesto sobre la inexistencia de restricción de capital con dicha condición como un atributo necesario de la realidad económica; y así existe enorme cantidad de ejemplos similares. Del mismo modo, de la no consideración de los factores causales no económicos en la teoría se suele pasar a su no consideración en la formulación de políticas económicas con los lamentables resultados muchas veces vistos. Precisamente, la Nueva Política Económica (New Political Economy) pone de relieve la necesidad de tener en cuenta las restricciones políticas señalando que muchos criterios de "primero-mejor" son inútiles porque ignoran tales restricciones. En síntesis: no me parece errónea la estrategia de construir la teoría económica como una ciencia separada, según la calificación de Hausman; en cambio, creo que es un grave error no incorporar las variables no económicas a los análisis de política económica. Aunque el economista los ignore siguen ahí presentes ejerciendo toda su influencia. LA ECONOMÍA DEL BIENESTAR

Un lugar intermedio entre la economía positiva y la economía normativa lo ocupa la llamada economía del bienestar. Incluso hay economistas que la ubican en el plano de la economía positiva, sosteniendo que no depende de ningún juicio de valor 11. Sin embargo, aún un concepto tan simple como el de una mejora en el sentido de Pareto no está desprovisto de cierta valoración. Por ejemplo, supongamos una medida que mejore la situación del decil superior de la comunidad y deje iguales al resto. Es claramente una mejora paretiana. Sin embargo, esta alternativa más eficiente seguramente será rechazada en más de una sociedad en nombre de la equidad. El concepto de mejora paretiana tiene por detrás el supuesto que lo relevante son las situaciones absolutas y no las relativas. Si bien éste es un supuesto simplificador habitual en Microeconomía, ello no implica que las sociedades, al valorar una determinada medida de política económica, se ajusten al mismo. Todo depende de qué idea de equidad tiene la sociedad en cuestión. En segundo lugar, corresponde a la sociedad y no a la Economía decidir qué peso relativo asigna a la eficiencia y cuál a la equidad: se trata de un típico juicio de valor. Sin embargo, los economistas damos por supuesto implícitamente, que las soluciones eficientes deben tener prioridad per se. Contexto-dependencia y el realismo de los supuestos Las ideas económicas son también fuertemente contexto-dependientes. Al modificarse el entorno económico, muchas teorías quedan desactualizadas así como las políticas en ellas inspiradas. Lo que ayer resultaba exitoso, hoy lleva al fracaso. Por ejemplo, las ideas keynesianas inspiraron las política económicas de gran parte de los países occidentales desde la Posguerra hasta inicios de los '70, en lo que muchos consideran uno de los períodos de mejor comportamiento de la economía mundial. Empero, dichas políticas eran funcionales a un mundo con fuertes restricciones a los movimientos internacionales de capitales. Cuando tales restricciones quedaron mayormente sin efecto, el esquema keynesiano dejó de tener aplicabilidad. Tasas reales de interés negativas o cercanas a cero, por ejemplo, no son compatibles con el libre flujo del capitales. No es que en un período las hipótesis se vieron confirmadas y más tarde fueron refutadas, sino que los supuestos del modelo lo tornaron inaplicable al modificarse la realidad. Paradójicamente, es un claro ejemplo de cómo el desajuste entre los supuestos de una teoría o de un modelo y la realidad pueden invalidar las conclusiones de política que a partir del mismo se obtienen. Si bien, por definición, todo modelo supone un cierto grado de irrealismo en sus supuestos -en el sentido de precisamente tratar de simplificar la realidad apartándose de ella- su ámbito de aplicabilidad está condicionado por dichos supuestos. La ley de la caída de los cuerpos enunciada por Galileo contiene, entre otros supuestos, el de que el cuerpo cae en el vacío. Si la aplicamos a la trayectoria de una bala de cañón, encontraremos que la misma se comporta en consonancia con dicha ley. Pero si intentamos aplicarla a una pluma que cae en la atmósfera, veremos que la ley no se cumple: la ausencia de vacío la torna inaplicable en este caso mientras que es irrelevante para la bala de cañón. Algo similar ocurre en Economía: un modelo construido bajo el supuesto de una economía cerrada probablemente sea de poca utilidad en una economía abierta. Lo mismo sucede cuando se pretende aplicar modelos basados en el supuesto de la competencia perfecta a mercados fuertemente concentrados. Por ello es de extrema importancia marcar los límites de validez de todo modelo o teoría económica. El contexto también ejerce su influencia en las preguntas que los economistas se plantean y aún en el tipo de respuestas que formulan. Del mismo modo que las ideas keynesianas surgieron en un mundo preocupado por el problema de la desocupación, las ideas

sobre las fluctuaciones económicas de la Nueva Macroenomía Clásica difícilmente hubieran recibido alguna atención en aquel contexto socio-económico.

CONCLUSIONES El hecho que el objeto epistemológico de la Economía sea marcadamente diferente del de las ciencias naturales induce a pensar que el enfoque metodológico también debería serlo. Un autor tan en las antípodas del posmodernismo como Alan Sokal -famoso por su artículo paródico plagado de citas absurdas pero auténticas de célebres intelectuales de tal corrientesostiene, en conjunto con J. Bricmont que "las ciencias sociales tienen sus propios problemas y sus propios métodos" 12. Y señalan a la economía neoclásica como ejemplo del uso de métodos simplistas pero supuestamente "científicos" para resolver problemas muy complejos 13: se parte de una conjunto de ideas -señalan- que poseen una cierta validez en un ámbito dado y, en lugar de intentar verificarlas y pulirlas, se extrapolan más allá de todo límite razonable. La principal limitación que enfrentan las ciencias sociales -y que las diferencia de las naturaleses la dificultad para llevar a cabo experimentos controlados. Ello hace extremadamente dificultosa la verificación de las predicciones y, más aún, la refutación de cualquier hipótesis. En todo caso, la refutación surge por la vía de lo que hemos denominado lo "grandes experimentos sociales", que desacreditan y sepultan determinadas ideas. Esta restricción sustancial es la que lleva a que pase a ser determinante la capacidad de cada autor de persuadir a sus colegas acerca de la validez de sus hallazgos. No se necesita coincidir totalmente con la postura de McCloskey para rescatar este aspecto característico de la ciencia económica. Tampoco se requiere coincidir totalmente con Rosenberg para aceptar que la tendencia de la Economía ha sido alejarse de las características y pautas de una ciencia empírica -incluida la Física- y mimetizarse crecientemente con la matemática. Dadas las particularidades que presenta la Economía, parece poco aconsejable suponer que su carácter científico se define en función de su capacidad para utilizar los métodos y procedimientos de las ciencias experimentales. Parece más razonable profundizar en cómo satisfacer los requerimientos del método científico a partir de -y no pese a- las especificidades que presenta como ciencia social. Creo que nuestra ciencia se encuentra en un punto en el cual necesita repensarse a sí misma. ¿Cuáles son sus objetivos? ¿Cuál debe ser su metodología? ¿Cuál es su status en el mundo de la ciencia? ¿Cuáles son los rasgos que necesariamente debe tener para ser considerada una actividad científica y, al mismo tiempo, cuáles son las particularidades que le impone el hecho de no pertenecer al mundo de las ciencias naturales -al que ha tomado tradicionalmente como modelo- sino al de las ciencias sociales? De las respuestas a estas y otras preguntas similares dependerá sin duda el desenvolvimiento futuro y el rol que en el concierto del pensamiento científico pueda jugar la Economía. NOTAS 1 Hausman(1992, 222). 2 Ibid., 207

3 No es el primero en establecer un paralelo con la geometría. Por ejemplo, Mill (1836) remarcaba que "las conclusiones de la Economía Política ...como las de la geometría...son sólo verdaderas bajo ciertas suposiciones" (págs. 325-6). 4 Friedman (1953, 50) (énfasis mio). 5 McCloskey (1998, 151). 6 Predicciones que nos dicen que cierto cambio va a ocurrir alguna vez y en algún lugar pero sin decirnos cuándo, dónde y cuánto. Rosenberg (1994, 217). 7 "La meta final de una ciencia positiva es el desarrollo de una 'teoría' o hipótesis' que genere pronósticos válidos y significativos" (Friedman, 1953, 47). 8 Por ejemplo, la maximización de utilidad por los consumidores o del beneficio por las empresas. 9 El ejemplo no es el más feliz porque precisamente la función de demanda es uno de los casos precisamente donde mayor éxito han tenido las estimaciones econométricas. 10 Summers (1991). 11 Véase Archibald (1959, 320-1). 12 Sokal y Bricmont (1999, 206).

13 Ibid., 210.

3.7 CIENCIA E HISTORIA EN ECONOMÍA Javier Iguiñez Echevarria (PUCP) "Se dice que aquellos que pueden, hacen; mientras que los que no pueden discuten metodología. " 1

Introducción En las anteriores partes del curso hemos apuntado a establecer los objetivos. Participar con creatividad y gusto en la actividad productiva, lograr las cosas necesarias para vivir bien y cada vez mejor, compartir con los demás dichos bienes, alejar de nosotros las restricciones económicas que nos impiden ser más plenamente libres y humanos son algunos de los objetivos estudiados. Estos objetivos suponen dejar atrás las dificultades para subsistir, satisfacer sin gran sacrificio nuestras necesidades, reducir el impacto negativo sobre la vida que proviene de la escasez son algunas de las maneras como, en economía, formulamos el camino para lograr aquellos objetivos. A continuación debemos establecer los métodos de los que nos valemos para entender la realidad y para proponer cambios que conribuyan a lograrlos. El tema metodológico central a lo largo de los tres últimos siglos ha sido el de la ciencia. La adhesión a los estilos de la ciencia ha sido el movimiento dominante. Sólo recientemente, eso se esta relativizando algo.

A.- La clasificación neoclásica: ciencia, arte y ética 1.- La “filosofía de la economía”

Uno de los autores fundacionales que se preocupó más por establecer el status científico de la teoría económica fue Leon Walras. Recorramos su manera de jerarquizar el estudio de los distintos aspectos de la disciplina. Para empezar señaló que "Hemos de distinguir entre la ciencia, el arte y la ética. Se trata, en otras palabras , de trazar un esquema de la filosofía de la ciencia en general , para así llegar a la filosofía de la economía política y social en particular."1 Para lograrlo, "Lo primero en tener en cuenta es que los fenómenos que se producen en el mundo pueden clasificarse en dos categorías: unos tiene su origen en el juego de las fuerzas de la naturaleza que son ciegas e ineluctables; los otros se originan en el ejercicio de la voluntad del hombre que es una fuerza cognitiva y libre.1 De ahí deriva los tipos de ciencia de la siguiente manera: "Los efectos de las fuerzas naturales serán, por lo tanto, el objeto de lo que se llamará ciencia natural pura o ciencia propiamente dicha. Los efectos de la voluntad humana serán objeto, en primer lugar, de un estudio de lo que se llamará ciencia moral pura o de historia, y después , de un análisis que tendrá otro nombre, bien arte como veremos enseguida, bien ética."1 Esta manera de clasificar campos y métodos de estudio está siendo relativizada en las últimas décadas. 2.- Cuestionamientos contemporáneos Uno de los críticos de una mirada demasiado científica de la disciplina es Amartya Sen quien señala lo siguiente: “Mantendré que la naturaleza de la economía moderna se ha visto empobrecida sustancialmente por el distanciamiento que existe entre la economía y la ética.”1 En efecto, si desde un punto de vista científico la economía pretende, por ejemplo, explicar y, más aún, predecir acontecimientos las consideraciones morales pueden ser importantes en la medida en que influyen sobre lo que los agentes económicos deciden. Pero esta es una de la múltiples razones, la más científica, para introducir la problemática ética en economía. Otra es, por ejemplo, la relativa a los fines mismos de la actividad económica. Otra más, que ya hemos visto en un capítulo anterior es la que se refiere a la manera de vivir en el mundo de las relaciones económicas y no tanto a los resultados de la actividad económica. En este capítulo vamos a concentrarnos en el diálogo entre la ciencia y la historia como maneras de entender la realidad y de proponer los cambios que nos parecen adecuados. 3.- ¿Matemáticas contra historia? a) Matemáticas: ¿condición de ciencia experimental? Otro de los cofundadores de neoclasicismo, William S. Jevons fué tan tajante como Walras al señalar lo siguiente: "Estoy de acuerdo ... en admitir que la investigación histórica es de gran importancia en las ciencias sociales. Pero en vez de convertir nuestra actual ciencia de la economía en una ciencia histórica, destruyéndola totalmente en el proceso, preferiría perfeccionar y desarrollar lo que ya poseemos, y al mismo tiempo, erigir una nueva rama de la ciencia social sobre un fundamento histórico. Esa nueva rama de la ciencia es, sin lugar a dudas, una porción de lo que Herbert Spencer llama sociología, la ciencia de la evolución de las relaciones sociales."1 Jevons continua delimitando el campo de la economía de la siguiente manera: “Pero como todas las ciencias físicas tienen sus bases más o menos obviamente en los principios generales de la mecanica, así todas las ramas y divisiones de la ciencia económica deben estar impregnadas por ciertos principios generales. Es la investigación de dichos principios, a la búsqueda de la mecánica del propio interés y la utilidad que este ensayo ha sido dedicado".1 El autor ya había indicado antes que "The theory of economy, thus treated, presents a close analogy to the science of statical mechanics..."1 De lo anterior, Jevons da un salto que restringe mucho el campo de la profesión económica. La economía debe tratar de cantidades y, por lo tanto, de cambios cuantitativos. "I contend that all economic writers must be mathematical so far as they are scientific al all, because they treat of

economic quantities, and the relations of such quantities,..."1 Estamos así ante una exigencia de rigor que es incuestionablemente importante pero, a la vez, ante una restricción que deja de lado aspectos importantísimos, esenciales a la economía moderna: el cambio cualitativo, la innovación de productos y procesos, los saltos al vacio de las empresas cuando acometen aventuras comerciales y tecnológicas. Es, en realidad, un salto de paradigma pues no es lo mismo la física que la matemática y es a ésta a la que, finalmente, parece querer Jevons que la economía se acerque lo más posible. No sólo es asunto de Jevons, para Walras, por ejemplo, "...pure theory of economics is a science which resembles the physico-mathematical science in every respect. This assertion is new and will seem strange; but I have just proved to be true...”1 El problema es que eso aleja a la teoría económica de la realidad pues, como el mismo Walras recuerda: "El método matemático no es un método experimental; es un método racional”1 Ciencia no es igual a matemáticas; ésta es uno de los instrumentos de aquella. b) Límites de la matemática y valor de la historia Un eminente economista John Hicks, Premio Nobel, ha tratado de situar a la economía en un campo más complejo y rico. Para ello recuerda que el cambio cualitativo es lo principal de los procesos económicos y que, por lo tanto, "... los problemas económicos más característicos son problemas de cambio, de crecimiento y regresión, y de fluctuación. El grado en que pueden reducirse a términos científicos es bastante limitado, porque en un proceso económico están ocurriendo cosas nuevas a cada paso, cosas que no ocurrieron antes; a lo sumo se trata de cosas que se asemejan bastante a lo que ya ocurrió." Más aún, en respuesta a Jevons señalará que "A medida que la economía se aleja de la estática, se asemeja menos a la ciencia natural y más a la historia".1 La teoría económica es definida como una disciplina de frontera: "La economía está en la frontera de la ciencia y en la frontera de la historia. Está en la frontera de la ciencia, porque puede utilizar métodos científicos o cuasi-científicos; pero no va más allá de la frontera, porque las experiencias que analiza no pueden ser repetitivas. Si una teoría científica es buena, es buena ahora, y pudo haber sido buena hace mil años; pero los aspectos de la vida económica que necesitamos seleccionar para elaborar teorías útiles pueden ser diferentes en tiempos diferentes. La economía se ubica en el tiempo, y por lo tanto en la historia, de una manera que la ciencia no lo hace."1

B.- El ahora, el pasado y el futuro Siguiendo nuestra búsqueda del campo de los procedimientos intelectuales propios de la economía nos parece que la historia real puede olvidarse en cierto sentido cuando a) aquello de lo que se trata es el ahora y b) estamos ante un proceso estrictamente repetitivo. Sin embargo, y para la economía las decisiones más importantes son las que hay que tomar ahora. También podemos aceptar que hay rasgos de la realidad que, con cierta aproximación, se repiten y permiten un análisis independiente del tiempo en el que ocurren. Claro, el análisis del cambio en la naturaleza de los asuntos, esto es, cualitativo, será algo muy difícil de entender para los economistas. 1.- El ahora, momento privilegiado de la economía El futuro nos interesa en economía porque influye en las decisiones ahora y es igual con el pasado. En este mundo que cambia tanto, y todo es urgente, las decisiones a tomar ahora son las más importantes y ahí tiene la economía su mayor sentido. Las tomadas en el pasado se tomaron, las que se tomarán no siempre se pueden adelantar cuando es espera que la vida cambie significativamente. La economía es una disciplina concentrada en el presente. Esa es una de sus fuerzas. A la vez, como mostraremos a continuación, tal concentración la lleva a fragilidades que es necesario tomar en cuenta con humildad. Tomar decisiones ahora puede ser demasiado pronto y no como se solía decir, y a veces sucede, demasiado tarde. Como señala un

pensador del tema del tiempo refiriéndose a los economistas “Todo lo que recae sobre la condición humana tiene lugar en el ‘ahora,’ sea en el impacto de los acontecimientos o en las relaciones determinantes cuyas estructuras no pueden tocar el tiempo y sus rupturas. Algunas formulaciones desaparecen el futuro empleando la técnica conjunta de descontar en el tiempo (time discounting) y el cálculo de probabilidades para reducir todos los momentos de decisión a un presente que abarca todo.” 1 Es posible relacionar esta valoración del presente con otros cambios históricos en la humanidad. Dentro de un análisis histórico del significado del tiempo en la vida humana se sugiere, por ejemplo, que el ahora es especialmente importante en estos tiempos modernos. “La gente percibe que el ‘tiempo vuela’. La velocidad del tiempo ha hecho del esfuerzo de planificar el futuro obsoleto, si es que no imposible. Del mismo modo, el ahora, así como la necesidad de consumirlo exhaustivamente han resultado reinando absolutamente. ‘Hacer’ tiempo y no ‘desperdiciarlo’ se han convertido en una obsesión. La gente es aplastada por los ritmos y programas impuestos sobre ellos por toda clase de redes, en el trabajo y fuera de el. La necesidad de administrar adecuadamente el tiempo es internalizada, como lo son todas las reglas sociales más importantes. Se ha convertido en un imperativo. Los individuos deden ajustar su propio comportamiento al ‘tiempo’ esablecido por el grupo al cual pertenecen (Elias 1989a, 135)” 1 Pero la economía se siente cómoda en esta época. Es natural que si el ahora es importante, las decisiones a las que real o supuestamente ayuda la economía adquieren mayor importancia que cuando es el interés en el futuro el que manda.1 2.- Razón e imaginación El futuro no sólo no se conoce, es en un cierto sentido inconocible. Un razón es que pueden haber muchos imponderables pero también porque en el futuro, cuando tengamos que tomar decisiones, ya nuestro propio conocimiento de la realidad habrá cambiado. La razón, por lo tanto, no es el único criterio de nuestra conducta. La imaginación es igualmente importante cuando nuestras expectativas sobre el futuro influyen en nuestras decisiones actuales. Al imaginar el futuro para tomar nuestras decisiones hoy estamos, de hecho y sin quererlo, imaginando lo que en ese momento sabremos sobre cómo ver la realidad y que ahora no sabemos. En la práctica, imaginamos la realidad futura con las herramientas que hoy tenemos para conocer la realidad de hoy. Como señala Wickers: “La razón ocupa su lugar, por supuesto, en la conciencia conogscitiva humana y en la búsqueda de conocimiento. Pero, como Shackle ha observado, nosotros razonamos acerca de lo que conocemos. ‘La razón puede ser la única guia de conducta cuando la novedad es eliminada y todo es conocido.’ (1972, 96). Se puede añadir que nosotros razonamos acerca de lo que ya conocemos o de lo que imaginamos posible. Lo conocido es maleable por las leyes de la razón. De ahí se sigue que el inconocible mañana, y los misterios que oculta a nuestro reconocimiento son visibles, no por nuestra razón sino por nuestra imaginación. Es sobre lo que nuestra imaginación hace visible, dentro de lo que entendemos que son los límites de lo posible, que nuestra razón tiene su campo. Si razonamos sobre lo que conocemos, es nuestra imaginación la que eleva a la conciencia las posibilidades inherentes a lo que no conocemos. Es en este importantísimo punto que la economía ha emergido a la madurez metodológica. ‘Imaginación y razón, ha dicho Shackle, ‘son las dos facultades que nos hacen humanos.’ Pero, como él lo indica ‘el analista económico ha optado por la Razón… El asume que los seres humanos persiguen su interes aplicando la razón a sus circunstancias. Peo no se pregunta cómo ellos conocen cuales son sus circunstancias. (1972, xii)”1

La tésis de Wickers es que la razón y el tiempo no se adecuan mutuamente y que, incluso, son antagonistas. “Razón y tiempo son antagonistas. La relevancia de est es aclarada por el argumento de Lachman sobre la posibilidad de predicción en economía. ‘Tiempo y conocimiento están juntos [belong together]… La imposibilidad de la predicción en economía se sigue del hecho de que el cambio en la economía está ligado al cambio en el conocimiento y el conocimiento futuro no puede ser obtenido antes de su tiempo. Tan pronto como permitimos que el tiempo de extienda, debemos permitir que el conocimiento cambie, y el conocimiento no puede ser visto como una función de alguna otra cosa.” ‘Time and knowledge belong together... The impossibility of prediction in economics follows from the fact that economic change is linked to change in knowledge, and future knowledge cannot be gained before its time. As soon as we permit time to elapse we must permit knowledge to change, and knowledge cannot be regarded as a function of anything else. (Lachman 1959, quoted in Shackle 1972, ix; see also Hutchison 1977, 10, 145, 166)’”1 Esto es relevante incluso en el proceso de una toma de decisión, mientras se la toma. “Conforme pasa el tiempo, o incluso en el proceso de la toma de decisiones, los recursos epistémicos y las capacidades del individuo han cambiado. El conocimiento se acumula.”1 3.- El presente: información incompleta Sobre el presente el problema central está en la imposibilidad de utilizar toda la información disponible. Pero no es meramente una imposibilidad ‘fisica’, de una especie de limitación del disco duro, la que cuenta. No sólo es imposible en ese sentido sino que tampoco conviene intentar conocer todo lo posible sobre el presente. La inconveniencia proviene del costo de la información, del creciente costo de añadir información. La racionalidad limitada es un término que alude a este problema y consiste en la necesidad de tomar decisiones con información siempre incompleta. 4.- El futuro: riesgo e incertidumbre El futuro es importante en la toma de decisiones. Al respecto, la economía maneja o alude a dos situaciones. El término riesgo y el término incertidumbre deben ser distinguidos para aclarar las soluciones al problema del desconocimiento del futuro y los importantes problemas remanentes. Como indicó el profesor Georgescu-Roegen: “Riesgo describe la situaciones en las que el resultado no es conocido pero ese resultado no representa una novedad. Incertidumbre se aplica a casos en los que la razón por la que no podemos predecir el resultado es que el mismo evento no ha sido observado nunca en el pasado y, entonces, puede suponer una novedad.” 1 5.- El pasado: regularidades y cuestión de interpretación El pasado es la herramienta principal de la teoría económica. Pero cualquier suceso del pasado no nos es igualmente útil a los economistas. Cada cosa de las millones que ocurren en cada instante y lugar, puede ser o no seleccionada como importante para nuestros objetivos. Además, para detectar algo es importante que haya sucedido más de una vez, que se repita. Descubrir regularidades que a simple vista no se registran fácilmente supone mirar mucho y de maneras originales. Las cosas que suceden una sola vez no sirven para predecir y nos son totalmente inútiles para nuestros esfuerzos científicos. Las regularidades observadas en el pasado son las que nos ayudan a predecir el futuro. Es en el pasado que encontramos las regularidades empíricas que apostamos seguirán vigentes en el futuro. Esa vigencia es la apuesta principal del economista y, especialmente, del econometrista. Pero lo útil de ese pasado no se detecta sin esfuerzo. Unas veces no logramos detectar los hechos relevantes. Muchas veces miramos el pasado buscando sucesos que no han ocurrido. A

veces forzamos los hechos para que se parezcan a los que buscamos y los bautizamos con el nombre de lo que buscábamos. Una vez descubiertas verdaderamente las evoluciones que nos parecen repetirse las “vemos” sin dificultad. Es necesario aprender a ver el pasado. Y esa mirada depende no sólo de lo que ha ocurrido, sino también de lo que nosotros hemos entendido que nos dice lo que registramos que ha ocurrido. Toda “realidad” descubierta es interpretada de muy distintas maneras. En muchas se han visto, y al mismo tiempo, fuerzas de la naturaleza, acciones divinas, efectos de la actividad humana, accidentes. El tipo de interpretaciones que más nos interesa a los economistas es la que permite establecer relaciones de causalidad que nos remitan a algún factor influyente sobre lo que nos preocupa y sobre el que podemos actuar. De ese modo, el pasado se convierte en un asunto práctico, herramienta para el diseño de la política económica y condición de eficacia en nuestro esfuerzo por depender menos de circunstancias negativas que no controlamos. 6.- Tiempo histórico y tiempo lógico En economía usamos el tiempo de varias maneras. Una es la propia de los modelos dinámicos y la otra es la que usan los historiadores cuando relatan lo acontecido basándose en concatenaciones de hechos diversos y no necesariamente conectados. En el primer caso, estamos ante un tiempo ‘lógico’ y en el segundo de un tiempo ‘histórico’. “Cuando en un argumento económico se dice que el tiempo es ‘lógico’, capaz de movimientos hacia atras y hacia adelante se han entendido dos cosas. Primero, las construcciones lógicas, o modelos que buscan capturar el significado de los acontecimientos económicos ofrecen explicaciones de las realidades económicas…. En segundo lugar, … cuando yo digo que el tiempo puede ir hacia atrás o hacia adelante, quiero decir que en el tiempo hipotético los datos pueden ser cambiados para que el sistema y sus movimientos puedan ser inspeccionados en diferentes fases de su desarrollo.” 1 En efecto, el atractivo de los modelos es que buscan explicar más que describir un hecho y que uno puede volver al pasado todas las veces que quiera para revisar la relación que tenían entre sí los distintos aspectos de aquella realidad. El historiador no puede hacer eso de la misma manera. Simplemente, no está en sus manos reproducir el acontecimiento que estudia. 7.- Tiempo y conocimiento perfecto El uso del tiempo histórico es incompatible con la noción de conocimiento perfecto de las alternativas que tenemos ante nosotros. Cuando ya sabemos entre qué escoger ya es muy tarde. “For Choice, as Shackle has argued in a number of works (1938, 1969, 1972, 1979), is not the selection of present or known objects or facts. When an object or outcome is known, it is too late to choose.” 1 “El futuro no puede ser conocido antes de su tiempo. Y es la imposibilidad de ser conocido que hace que el futuro obstruya los intentos de los economistas de lograr ordenadas formulaciones del significado de elecciones y decisiones en economía. La ignorancia colerea todos nuestros intentos de actuar racionalmente, y el pensamiento económico necesita acomodar cuidadosamente la realidad de nuestra inevitable ignorancia del futuro en la construcción de sus criterios sobre las decisiones y elecciones.” 1 ¿Estamos ante un nuevo nihilismo? 1 8.- La concreción fuera de lugar El riesgo de los modelos es que nos pueden llevar a creer que cuando los manipulamos, estamos ante la realidad de las cosas, ante las cosas tal y como ocurren.

“No doubt our sister discipline of philosophy, along with that of mathematics, indulges very much in games in that necessary sense. But if it is a game playing we set out to enjoy, let us be clear that we are playing games, and let us not fall prey of what an earlier economist Fritz Machlup, referred to as the fallacy of misplaced concreteness (1958).”1 9.- La comunidad de los razonables (racionales) La dificultad de los economistas, y la de muchos otros profesionales de un campo determinado del saber, para compartir experiencias los lleva a tratar demasiado entre ellos. Los tecnicismos se convierten en un vocabulario que se utiliza en esferas de la vida alejadas de la economía. Esto trae consigo un problema de comunicación que empobrece a la disciplina pues la hace inmune a apreciaciones que no vengan ‘formateadas’ en el lenguaje ‘correcto’. "Technical economists, like people in other disciplines, write mainly for one another. ... In part it is to save resources; but in part it reflects something larger and common to all human interchange. I still find it revelatory that all communication is predicated on something like a common conception of the world. It presumes a background of shared experience. What is uttered makes no sense unless we have an understanding of what has not been spoken. Something of this shared experience would seem to be missing in economics. ... This absence of shared experience has been costly. It has retarded progress in the subject because people misunderstand what others try to say, and this prolongs debates that should have, for the time being, been put to rest."1 Ese diálogo es de todos modos muy importante porque facilita el rigor, entendido como la coherencia interna en los razonamientos. La necesidad de una vigilancia entre economistas fué indicada con ironía por Joan Robinson "El estudio de la economía no tiene por objeto la adquisición de un conjunto de respuestas preparadas para los problemas económicos, sino aprender a no dejarse engañar por los economistas."1 El riesgo de una relación muy extrecha es que sea excluyente, poco interdisciplinaria y que se escape fácilmente la novedad.

C.- La ciencia de la reproducción La mera observación de las estadísticas muestra que el proceso económico no “explota” fácilmente y no se destruye pasando a ser algo irreconocible, que las fluctuaciones tienen cierta regularidad y que hay situaciones que, hasta cierto punto por supuesto, se parecen mucho a otras ya vividas. Claro está esto se aplica más a ciertos asuntos que a otros. Es más, sabemos también que mientras unos aspectos de la realidad cambian mucho otros mantienen sus características ya conocidas. No hay, pues, cambio o continuidad. Hay cambio y continuidad simultáneamente y de varias maneras. A veces un cierto aspecto cambia y otro no; otras, un aspecto empieza a cambiar pero por un tiempo se lo puede tratar como si no lo hubiera hecho. Es necesario precisar a qué nos estamos refiriendo cuando argumentamos sobre la naturaleza esencialmente cambiante del proceso económico. Evidentemente cuanto más largo sea el periodo que analizamos más riesgosa es la tarea del economista. Sin ir al extremo de la siguiente cita, debemos, sin duda, ser cautelosos al respecto. “En la economía, las situaciones en las que se toman decisiones son, generalmente, no repititivas, y comparaciones intertemporales largas se hacen sospechosas de perder sentido. Cada momento histórico tiene su propia característica, su propia historia, su propia herencia y su propia estructura de conocimiento.”1 En realida, como indicamos en capítulos anteriores, cuando a los mejores economistas se los coloca ante la pregunta sobre qué se sabe sobre asuntos de largo plazo y sobre procesos complejos la respuesta

es “poco”. Desde esa modestia hay que asumir los retos de la disciplina. Por el momento, debemos analizar las herramientas que han mostrado especial utilidad. Una de ellas es el modelo matemático. Los modelos son especialmente útiles cuando queremos entender una situación en la que sospechamos que no ha habido algún cambio cualitativo importante o cuando la novedad no afecta de manera crítica las regularidades en las que estamos interesados. Son estas situaciones estrucurales las que motivan la reacción de quienes son críticos del orden social vigente. Cuanto más se quiere cambiar algo, más sensible se es a la continuidad y más continuidad se detecta. Por el contrario, quien está satisfecho con el orden en que vive ensalza la continuidad y define como cambios importantes a pequeños acontecimientos que no alteran ese orden. La mirada sobre lo que es cambio y lo que es continuidad no es independiente del grado de adhesión que suscita el momento que se vive. En cualquier caso, sea para mantener el orden o sea para cambiarlo, es importante detectar la existencia de dicho orden, de sus reglas de reproducción. 1.- Modelos a) ¿Qué son? El modelo es una herramienta para razonar sobre la realidad. No es una manera de argumentar sobre cómo habría que razonar; una especie de reflexión de ‘segundo piso’, de metateoría. Con evidente ironía Krugman espeta lo que pusimos al comienzo de este capítulo. Ciertamente, hay más profesores de metodología que investigadores en economía, pero es útil ser concientes de aquello que los modelos pueden darnos y lo que no les debemos pedir. Un modelo es un modo de organizar un conjunto de elementos escogidos de la realidad con nuestros criterios y con todos los pros y contras de los indicadores utilizados. Es una manera de economizar esfuerzo mental, de simplificar las cosas, de abstraer. b) ¿Qué (no) pedirle a un modelo? i) (Novedad) Pero es más que eso. Aún así hay que estar seguros de qué les podemos pedir y qué no debemos intentar con ellos. Los modelos no pretenden enfrentar el problema de la novedad. "... Pedir que un modelo nos enseñe n nuevas cosas es establecer una exigencia muy grande. La mayor parte de los modelos no la alcanzarán. Generalmente nos basta si nuestros ejercicios con modelos reproducen cosas conocidas o enfilan nuestra atención hacia parámetros importantes.” 1 La desconfianza en la física como campo de inspiración para la economía es creciente. En realidad, la propia física no le da hoy la misma importancia que en el pasado al Primer Principio de la Termodinámica (Nada se crea, nada se destruye, todo se transforma) y sólo sigue siendo relevante para problemas muy localizados y cada vez relativamente menos significativos. Por eso, como dice Krugman: “Es desafortunado que para muchos de nosotros la imagen de una campo de actividad científica exitoso sea la física básica.”1 ii) Concreción Es decisivo saber qué se quiere y, también, que nuestros objetivos correspondan con problemas reales y no sólo imaginarios. "Si uno se mantiene firme en el propósito de juzgar las teorías, no por su belleza intrínseca, ni por el grado en respaldan (o refutan) ideologías, sino por su utilidad como medios de explicación, es preciso clasificarlas de acuerdo con los tipos de problemas (de problemas reales) que pretenden responder."1 iii) Pertinencia

A veces se especula con modelos sobre situaciones distintas a las que preocupan a la población y, sobre todo, distintas a las de ese momento y, por lo tanto, en buena medida mal imaginadas. En efecto, hay momentos de la economía que no se ‘dejan’ modelar fácilmente. Las crisis, los momentos extraños, las revoluciones tecnológicas están entre esos. Con la ironía que lo caracterizaba Keynes arremete contra ese tipo de análisis. “Los economistas se ponen a ellos mismos una tarea demasiado facil si en medio de una situación tempestuosa sólo nos pueden decir que cuando la tormenta amaine el océano será de nuevo plano.”1 c) Conocimiento e ignorancia. Los economistas en un cierto sentido son como quien saca conejos de un sombrero. Se trata del ejercicio del saber partiendo de la ignorancia y reconociendo que ésta no desaparece del todo. Refiriéndose a los modelos, Krugman indica que “Queremos pensar que deben ser maneras de extraer conocimiento de la ignorancia.”1 Una ignorancia es la que se deriva de la necesidad de abstraer. “La construcción de modelos en su etapa inicial supone la evolución de la ignorancia tanto como del conocimiento; y alguien con una intuición poderosa, con un sentido profundo de las complejidades de la realida, puede muy bien sentir que desde su punto de vista más es lo que que pierde que lo que se gana.”1 En efecto, al seleccionar unos aspectos de la realidad uno deja fuera de la mirada a otros que podrían explicar mejor lo que sucede y, al perderlos de vista, uno puede estar añadiendo ignorancia. El supuesto es que posteriormente se gana en conocimiento al sistematizar ciertos aspectos de la realidad y sus relaciones. “El ciclo de pérdida de conocimiento antes de que sea vuelvo a ganar parece ser un inevitable componente de la construcción de modelos formales.” 1 Justamente, en el proceso de construcción de modelos que dan lugar a argumentos contraintuitivos, esto es, contrarios al sentido común, hay una pérdida del conocimiento que se creia tener y, luego, se añaden aspectos no considerados antes que enriquecen indudablemente nuestra comprensión de la realidad y le hacen un nuevo lugar a aquello que conocíamos antes. Un ejemplo claro de esto es el paso de la concepción de que el sol daba vuelta alrededor de la tierra a la contraria. Las relaciones descubiertas, como el hecho de que un doble movimiento alrededor de uno mismo y alrededor del sol se nos aparezca como un simple movimiento del sol alrededor nuestro son más elegantes, desde un punto de vista científico, cuanto menos observables a simple vista sean. El sentido común, el ‘a simple vista’, no es siempre una buena guía para los científicos. Pero no hay que exagerar, el sentido común dice mucho en muchas circunstancias de la vida diaria. Para los agricultores, marinos o veraneantes sigue bastando el cálculo del tiempo que disponen entre la ‘salida’ del sol y su ‘ocultamiento’ de nuestra vista. No se pierde mucho suponiendo que él se mueve. 2.- Modelos y metáforas La metáfora es un término que ha surgido o se usa en un campo determinado y su uso se traslada a otro. La idea es sugerir comparaciones o analogías. “La cerveza es rica” no quiere decir que es millonaria pero se pretende indicar que es agradable como se supone que es la riqueza. “En el atardecer de la vida...” es una expresión que alude a una etapa de la vida que se asemeja o asocia con una fase del día y que quizá trae consigo ciertas sensaciones. Alguna conexión tiene que haber entre lo que se pretende “describir” y aquello que se usa de apoyo terminológico. Los poetas lo hacen mucho, pero todas las disciplinas recurren a eso, incluídas las ciencias. El “fluído”eléctrico no tiene nada que ver con el fluído pero da una idea aproximada y, para ciertos objetivos, útil. (No para todos. Es grave intentar detener el fluído tapandolo con la mano). Un modelo es, en cierto sentido, una metáfora. La realidad económica es vista como un conjunto de relaciones entre variables que tienen características similares; por ejemplo, como las que hay entre las piezas mecánicas de un motorcito simple. Las variables se “mueven” en una dirección y como las bielas de un motor influyen en el movimiento de otras variables, como los cilindros. Las

semejanza de los modelos y los aparatos mecánicos no es accidental. Los modelos suelen ser “mecánísticos”, como diría Georgescu-Roegen, gran crítico de todos los modelos que no introducían evolución, novedad.1 Por eso, la crítica de Krugman a los que no operan con modelos tiene sus límites. El rango de asuntos que se pueden tratar con ellos no es suficiente para dar cuenta de muchos problemas que no pueden esperar a las matemáticas y a los economistas para ser enfrentados. El problema no está en la necesidad de abstraer, esa necesidad es reconocida por todos, todo lenguaje abstrae y el común también. "There are many intelligent writers in economics who are able to convince themselves and sometimes large numbers of other people as well - that they have found a way to trascend the narrowing effect of model building. Invariably, they are fooling themselves. If you look at the writing of any people who claim to be able to write about social issues without stooping to restrictive modeling, you will invariably find that their insights are based on the use of metaphor. And metaphor is, of course, a kind of heuristic modeling technique. In fact, we are all builders and purveyors of unrealistic simplications. Some of us are selfaware: we use our models as metaphors. Others, including people who are indisputably brilliant and seemingly sophisticated, are sleepwakers: they unconsciously use metaphors as models."1 Pero Krugman expresa algo muy sentido en la profesión. Los estudios que no expliciten sus modelos, aunque no estén formulados matemáticamente tienen menos legitimidad profesional que aquellos que sí ponen de relieve el tipo de abstracciones que hacen y la relación entre las variables que escogen como cruciales para entender el problema. 3.- Legitimidad teórica y modelos. Los modelos son a tal punto un lenguaje de los economistas que la legitimidad de un razonamiento teórico se pone en cuestión si no los incluye. Esto es materia de debate permanente en la profesión. Por ejemplo, recientemente a propósito de las contribuciones de los economistas del desarrollo en los 40s y 50s hubo un interesante debate del que ya hemos sacado algunas notas. Unas más servirán a nuestro propósito en esta parte. Siguiendo con Krugman: "...the crisis of high development theory in the late 1950s was neither empirical nor ideological: it was methodological. High development theorists were having a hard time expressing their ideas in the kind of tightly specified models that were becoming the unique language of discourse of economic analysis."1 Sin embargo, no hay consenso total en este campo. Refiriéndose a las razones por la cuales ciertos planteamientos no lograron hacerse un sitio en la corriente principal de la teoría económica hay quienes, contra la argumentación de Krugman sobre la gran importancia de los modelos, dicen que el problema de fondo no es la forma de presentar las argumentaciones, en este caso con modelos, sino que tambien hay un problema entre los economistas para incluir su propia experiencia. Volvemos así al tema de la Razón y la Experiencia que vimos antes. "Did these messages fade just because they were stated in the wrong idiom? Krugman's view is that the dearth of formalized arguments in Strategy doomed it to obscurity. One cannot dismiss this point out of hand, since economists obviously are influenced by neat little models. The other side of the coin is that they tend to reject ideas presented in the conditional mode, drawing on personal observations and practical lore - forms of argument that Hirschman never disdained. However, it may be that Krugman gives the profession's attachment to its intellectual playthings too much weight. The simple truth is that by the 1970s Strategy no longer fit the spirit of the times. A neoclassical reaction against the worldview of Schumpeter, Paul Rosenstein-Rodan, Nurkse, Hirschman, and company was well under way by then."1

Como vemos, también hay economistas que desconfían de los modelos y, en algunos casos, los consideran juguetes que pueden usarse al capricho del diseñador. En general, los autores mencionados en la última cita trataron sobre temas para los cuales la economía basada en modelos no estaba preparada. Había mucho análisis de cambios cualitativos, de alteración de estructuras, de asuntos como el subempleo, las instituciones y otros que no eran considerados tratables con rigor. Prefirieron analizar cosas que consideraron importantes a aquellas que eran más fáciles de manejar con modelos pero que no lo eran tanto. 4.- "Ciencia normal" y confirmación de teorías. El problema no está sólo en la realidad que hay que analizar, en si está sometida a cambios cuantitativos con los que nos sentimos más cómodos o a cualitativos que nos desconciertan; también está de por medio la naturaleza del propio investigador, su necesidad de reconocimiento profesional por sus pares. Para ello es siempre menos arriesgado confirmar lo que otros han hecho que aventurarse en territorios desconocidos. "A simple reason scientists (social and otherwise) are rarely self-critical to the point of engaging in self-subversion is that they invest much self-esteem and even identity in the findings and propositions for which they have become known. In their further work, they are likely to explore, along Kuhnian 'normal science' lines, all those domains in which their original findings can be confirmed. In this way, much confirmatory evidence will be accumulated and resistance against self-subversion will mount."1 El debate entre Krugman y Taylor fué grabado e impreso de la siguiente manera. Puede servir de un primer resumen de estos puntos. "'The Macedonian army performed well when they had an Alexander the Great in charge,' Krugman remarked, 'but the Roman army was good at management no matter who was in charge.' Models are 'systems that work,' he continued, and 'don't require brilliant people to constantly reinvent them.' Krugman then underlined the 'Kuhnian' view that intellectual succession requires not just negative evidence but also a well-formulated alternative theory. 'You overestimate a 200year tradition,' Taylor suggested. 'You underestimate consistency of method,' Krugman replied."1 El problema no acaba ahí. Los nuevos modelos introducen críticas a una de sus principales características esto es, el carácter repetitivo de ciertos fenómenos y a uno de sus principales usos: el de predecir el futuro en base a las regularidades observadas. Se considera, cada vez más, que los hechos fortuitos cuentan y que la reducida capacidad predictiva de la profesión puede ser entendida con las herramientas de la propia disciplina. Arthur, profesor de Stanford establece que la combinación de ‘historia’ entendida como la importancia del pasado en el presente y futuro y ‘accidentes’ dificultan la predicción.

D.- El cambio y la economía Cuando miramos procesos más amplios y largos las herramientas económicas no son tan útiles. Por ejemplo, en asuntos propios de la ecología la cosa cambia. “The economy should not be seen as a circular or spiral flow of exchange value, a merry-go-round between producers and consumers, but rather as the one-way entropic throughput of energy and materials.”1 En estos temas la mirada es distinta porque el modelo convencional sobre la economía produce bienes y los consume. Sin embargo, no toma en cuenta que las materias primas no son consumidas y que, más bien, son devueltas al medio ambiente como desechos. El circuito, entonces no incluye la obtención de recursos de la naturaleza y su devolución posterior. El sistema económico no es, pues, completamente cerrado como sugieren los modelos económicos. La segunda ley de la termodinámica indica que la energía contenida en el producto es menor

que la contenida en los insumos; los materiales se degradan entrópicamente hablando, esto es, tienen un desorden mayor y son una fuente de energía menor que la original. La segunda ley de la termodinámica indica que la energía contenida en el producto es menor que la contenida en los insumos; los materiales se degradan entrópicamente hablando, esto es, tienen un desorden mayor y son una fuente de energía menor que la original. Hay desechos. Algo similar sucede con los desempleados y, más aún, los desmoralizados que ya ni buscan trabajo. No entran en los modelos. Tampoco entran las empresas que han quebrado. Para la economía se desvanecen. La máquina del movimiento perpetuo no es adecuada para los sensibles al problema energético y ecológico, y tampoco para los que se interesan en los invisibles derrotados por la competencia económica.

CIENCIA Y DESARROLLO: EL PAPEL DE LA CIENCIA ECONÓMICA

Adolfo Figueroa Setiembre, 2001 (PUCP) RESUMEN ¿Cuál es la relación entre ciencia y desarrollo? A responder esta pregunta se dirige este trabajo. En general, las ciencias afectan el desarrollo a través de la ingeniería. El primer mundo se dedica a desarrollar las ciencias y el tercero a aplicarlas a sus problemas de desarrollo, es decir, a la ingeniería. Esta división del trabajo les parece a todos muy natural y eficiente. Sin embargo, este regla puede funcionar bien para las ciencias que, como la física y la química, son ahistóricas. El trabajo argumenta que la ciencia económica ha contribuido poco al desarrollo debido precisamente a esta regla. La historia de las políticas económicas en el tercer mundo es la historia de los fracasos de los gobiernos para generar desarrollo. Este fracaso se refleja en la falta de convergencia entre el primer mundo y el tercer mundo. Una nueva teoría del desarrollo capitalista, que toma en cuenta el peso de la historia, y que explica la convergencia, se presenta en este trabajo. Las políticas que emergen de esta teoría son muy distintas a las que se ha aplicado hasta ahora.

CIENCIA Y DESARROLLO: EL PAPEL DE LA CIENCIA ECONÓMICA ¿Cuál es el estado actual de la ciencia económica? Este trabajo intenta responder esta pregunta. Ciertamente, la pregunta es demasiado amplia para darle respuesta en un solo texto. Aquí he delimitado el campo de análisis a sólo dos temas. El primero se refiere al campo del método en la economía. ¿Cuál es la metodología que siguen los economistas en sus investigaciones? A juzgar por la mayoría de las publicaciones, los economistas utilizan principalmente dos métodos. Unos utilizan el método deductivo. A partir de unos supuestos determinan las relaciones que deben existir entre las variables que analizan. El uso intensivo de las matemáticas ha significado que esas derivaciones lógicas sean realizadas con mucho rigor. De estas relaciones así deducidas se pasa usualmente al campo de las aplicaciones. Se supone, implícitamente, que si la derivación es lógicamente correcta, la relación propuesta debe ser también empíricamente cierta. Otro grupo de trabajos que aparece en la literatura es de tipo más bien empírico. Dada una base de datos, los economistas derivan relaciones estadísticas entre las variables observadas. El uso intensivo de la econometría ha significado que la derivación de esas relaciones sean también realizadas con mucho rigor. De estas relaciones estadísticas así obtenidas se pasa usualmente a la causalidad. Se supone, también implícitamente, que los datos pueden contar su verdad por sí solos.

Así se identifica posiblemente seducidos por la sofisticación de los métodos econométricos utilizadoσ correlación o asociación con causalidad. Y con base a esos resultados se pasa usualmente al campo de las aplicaciones. En este caso, los economistas utilizan el método inductivo. Esto es lo que los economistas usualmente hacen. Pero, ¿qué dice la metodología de la ciencia? Los filósofos de la ciencia han hecho la distinción entre lo que dice la ciencia y lo que en realidad hacen los científicos. Esa distinción la utilizo en este trabajo. Presento, entonces, la lógica de la investigación científica en la ciencia económica. Pero eso me ha obligado a discutir esa lógica en las ciencias en general. De este modo, puedo mostrar si la economía puede cumplir con esos requisitos. La cuestión de si la economía es una ciencia aparece muy a menudo. Aquí intento darle una respuesta clara. Este tema se trata en las secciones 1 y 2. El segundo tema se refiere a un problema central que la economía debe explicar. Este es el problema de la falta de convergencia entre los países del primer mundo y los del tercer mundo. A pesar de una mayor integración económica en la economía mundial, a pesar de una mayor globalización, tal convergencia no se da. Los países del tercer mundo no se están acercando al primer mundo en el nivel de desarrollo económico; es decir, ni en términos del nivel del ingreso per capita ni en el grado de igualdad. La falta de convergencia es el tema

*Trabajo preparado para la Serie Artes, Ciencias y Humanidades: El estado de la Cuestión que publicará próximamente la Pontificia Universidad Católica del Perú, bajo la coordinación del Prof. Orlando Plaza. Quiero agradecer a mis estudiantes por sus continuas preguntas sobre los temas que aquí presento, también a Orlando Plaza por sus apoyo y sugerencias, y a Juan Carlos Carbajal por traducir del inglés un texto que vengo preparando sobre los fundamentos de la ciencia económica y que constituyen las secciones 1 y 2 de este texto.

económico más importante de nuestro tiempo. Tiene implicancias para la convivencia mundial y hasta para la paz mundial. Esta falta de convergencia constituye, a la luz de las teorías económicas convencionales, una paradoja. El crecimiento del ingreso per capita depende de la acumulación de capital y de la tecnología. Los países del primer mundo para sostener su crecimiento deben generar nuevas tecnologías. Pero los países del tercer mundo sólo tienen que adoptar y adaptar esas nuevas tecnologías. Por lo tanto, hay mucho espacio para el crecimiento rápido en el tercer mundo. En realidad el tercer mundo debería mostrar un crecimiento más rápido de su ingreso en comparación al primer mundo. Esto es, se debería dar la convergencia. Pero la realidad es otra. Las teorías convencionales enfrentan dificultades para explicar este fenómeno. La raíz del problema es el supuesto de la ontología universalista en la ciencia económica. El proceso económico debe tomar la misma forma en las sociedades capitalistas. Presento, por eso, una teoría que supone que el capitalismo toma distintas formas que implican diferentes formas de funcionamiento. Esta es la teoría de la inclusión-exclusión. De esta manera, intento mostrar que la economía no puede tener proposiciones de validez universal. Y también puedo explicar el problema de la convergencia. Las secciones 3 y 4 presentan esta discusión. La sección 5 se dirige a discutir la situación de la ciencia económica en el tercer mundo. La distinción entre ciencia e ingeniería, y entre ciencia económica e ingeniería económica, sirve para este fin. El papel de la ciencia en el desarrollo económico es el tema central de la

sección. Expongo aquí los retos que hay que vencer para lograr el desarrollo de la ciencia económica —anterior al de la ingeniería económica. El presente trabajo pretende ser accesible a un público amplio, no sólo a los economistas. El lector no encontrará ni matemáticas ni econometría. Pero la discusión que presento de la ciencia.5 y de la economía intenta tener el rigor lógico que se espera en este tipo de trabajos. Espero haberlo logrado. Quiero agradecer a Orlando Plaza por la invitación que me hizo para producir este trabajo, así como por sus valiosas sugerencias. También agradezco a Juan Carlos Carbajal por la traducción del inglés que generosamente hizo de un material que vengo preparando sobre los fundamentos de la ciencia económica y que constituye la base de los secciones 1 y 2. 1. SOBRE LA LÓGICA DE LA INVESTIGACIÓN CIENTÍFICA La ciencia es una empresa humana que busca producir conocimiento. Pero ¿qué es ciencia y cómo se llega al conocimiento científico? Los filósofos de la ciencia se ocupan de dar respuesta a estas preguntas. Ellos han desarrollado teorías del conocimiento, donde el conocimiento científico es visto como un sistema lógico. Popper, Lakatos y Kuhn son considerados los principales filósofos de la ciencia de nuestro tiempo. Consideraré que sus trabajos son complementarios y por lo tanto reducibles a una sola teoría, la cual puede ser denominada la teoría estándar del conocimiento. Debido a que la teoría es un sistema lógico general, no siempre es operacional. Este es el caso de la teoría del conocimiento. Para hacerla operacional, se necesita introducir un conjunto de supuestos auxiliares que sean lógicamente consistentes con la teoría. Así la teoría se transforma en un modelo. El modelo es entonces un sistema lógico que contiene reglas prácticas para acercarse al conocimiento científico. En este trabajo presentaré un modelo particular de la teoría estándar del conocimiento, que lo llamaré la metodología alfa-beta. El conocimiento en las ciencias fácticas en general será discutida a la luz de esta metodología. Se discutirá luego la ciencia económica. Los científicos muestran desacuerdos. El origen de esos desacuerdos es variado. En algunos casos se debe a las diferencias en la teoría del conocimiento que utilizan, o en el modelo particular de la teoría del conocimiento que han adoptado, y también a las diferencias en la teoría científica que utilizan. Debido a que en este trabajo presentaré una nueva teoría económica sobre el funcionamiento del capitalismo, parece apropiado presentar de manera explícita la metodología científica que utilizaré. De esta manera, quienes estuvieran en desacuerdo con mis conclusiones podrán identificar las fuentes del desacuerdo. Por lo tanto, debe quedar en claro que esta sección no intenta discutir los problemas de la epistemología en general. Tampoco intenta dar normas sobre lo que los científicos deben hacer. Eso sería un absolutismo inapropiado. Hay que distinguir, entonces, entre la lógica de la.6 investigación científica y la lógica que subyace al comportamiento de los científicos. “Ciencia es lo que los científicos hacen” es una definición común que ignora esta diferencia. 1.1 La ciencia como el estudio de procesos La ciencia comúnmente se define como un conjunto de proposiciones que (a) son formuladas ordenadamente, (b) establecen relaciones entre objetos, y (c) son verdaderas. El ordenamiento de las proposiciones debe ser lógico —antes que taxonómico o lexicográfico.

Debe obedecer los requerimientos de un sistema lógico, lo que incluye un conjunto finito de proposiciones primarias, o axiomas, y las reglas de inferencia para deducir una proposición de otra. La ciencia es entonces el uso de silogismos. Las relaciones entre los objetos pueden referirse a dos tipos de objetos: mentales y fácticos. En el primer caso, las relaciones se dan entre ideas, lo que deriva en las ciencias formales. En el segundo, las relaciones se establecen entre elementos del mundo real. Esto deriva en las ciencias fácticas. ¿Cuál debería ser el criterio de verdad para alcanzar el conocimiento científico? La respuesta a esta pregunta depende del tipo de ciencia. En una ciencia formal, el que las proposiciones estén libres de contradicciones lógicas internas es condición necesaria y suficiente. En las ciencias fácticas, los criterios requieren algo adicional. Por supuesto, las proposiciones deben ser lógicamente correctas. Pero en este caso, ello sólo es condición necesaria. Debe haber también consistencia entre teoría y realidad. Esta consistencia puede ser accidental o sistemática. La ciencia está interesada en esto último. El estudio de la naturaleza del conocimiento científico, con especial referencia a sus límites y validez se denomina epistemología (del griego episteme: conocimiento). Considérese a la epistemología como una teoría del conocimiento, es decir, como un sistema lógico. Como cualquier teoría, para ser operacional debe ser transformada en un modelo del que se puedan derivar ciertas reglas prácticas para acercarse al conocimiento. En este trabajo utilizaré la teoría estándar del conocimiento, aquélla que se debe a los trabajos de los filósofos de la ciencia Popper, Lakatos y Kuhn, y desarrollaré un modelo particular de esta teoría. Las ciencias fácticas buscan entender realidades complejas. Buscan descubrir relaciones sistemáticas en realidades complejas. Sin embargo, no todo aspecto de la realidad puede ser sujeto de conocimiento científico, sino únicamente aquellos fenómenos que pueden ser representados en la forma de un proceso. Para ser comprendidas, las realidades complejas deben ser reducidas a un proceso abstracto..7 ¿Qué es un proceso? Es una serie de actividades, de una duración determinada, encaminada a un fin y repetida período tras período. En un proceso existen elementos que ingresan —los elementos exógenos— y elementos que salen, que son el resultado del proceso —los elementos endógenos. El Gráfico 1.1. ilustra el concepto de proceso, en donde el segmento t0-t1 representa la duración del mismo, X representa el conjunto de elementos exógenos e Y el conjunto de elementos endógenos.

X

to

t1

Y

tiempo exógeno

mecanismo

endógeno

Gráfico 1.1. Una representación diagramática de un proceso

En un proceso existe también un mecanismo subyacente por el cual los elementos exógenos afectan a los elementos endógenos. Lo que sucede al interior del proceso —el mecanismo de interacción entre los elementos que intervienen— no puede ser observado (como se indica en el Gráfico 1.1 por medio del área sombreada). Si fuera observado, el interior del proceso podría ser considerado como un proceso en sí mismo, con elementos endógenos y exógenos y un interior inobservable; y así podríamos retroceder en una regresión continua. En última instancia, debe existir algo escondido detrás de las cosas que observamos. La ciencia busca entonces descubrir estos elementos subyacentes. Dado que un proceso se repite período tras período, las relaciones entre los elementos endógenos y los exógenos pueden ser continuamente observadas empíricamente, lo que da lugar al surgimiento de relaciones sistemáticas o regularidades. La ocurrencia de regularidades en un fenómeno real es condición necesaria para que éste sea sujeto de investigación científica. Un mundo caótico —en el que las regularidades estén ausentes— presenta dificultades serias para ser sujeto de investigación científica, a menos que se pueda transformar el proceso correspondiente en uno que sea determinístico. De este mundo no me voy a ocupar en este trabajo. Los elementos endógenos del proceso constituyen el objeto de estudio de la ciencia respectiva, en tanto que los elementos exógenos y los mecanismos de interacción entre éstos y aquéllos son establecidos, ambos, mediante supuestos. La reducción de la realidad a un proceso abstracto es entonces realizada mediante supuestos, esto es, mediante la construcción de una teoría. En una realidad compleja existen muchos elementos exógenos y muchos mecanismos de interacción entre elementos endógenos y exógenos que intervienen en su funcionamiento. Es en este sentido que la realidad es compleja. Por consiguiente, una teoría toma en cuenta únicamente algunos mecanismos y algunos elementos exógenos, aquellos que se supone son los factores esenciales que influyen en los elementos endógenos de la realidad. El resto de elementos exógenos es ignorado en tanto se supone que ellos son circunstanciales, anecdóticos. Por necesidad lógica, se necesita de una teoría para transformar o reducir la realidad a un mundo abstracto. Para sustituir el mundo real por otro abstracto, una teoría necesita ser un sistema de relaciones lógicamente correcto, en tanto se supone que el mundo real funciona bajo esta lógica.114 Los supuestos de una teoría no necesitan justificación, son arbitrarios. Si tuvieran que justificarse, se necesitaría otro conjunto de supuestos, y estos a su vez necesitarían otros, y así sucesivamente; por tanto, estaríamos retrocediendo en una regresión continua. La abstracción es reduccionismo, pues la realidad se reduce a sus elementos supuestamente esenciales. Pero los supuestos se eligen como parte de un algoritmo para llegar al mejor conjunto de supuestos, es decir, a la mejor teoría. Si los supuestos iniciales fallan se les abandona y reemplaza por otros. En las ciencias fácticas, una teoría es un conjunto de supuestos acerca de las fuerzas y motivaciones que subyacen a los hechos observados. Una teoría no es, por tanto, directamente observable. Es un sistema lógico, libre de inconsistencias lógicas internas.

114

La antigua proposición acerca de que la tierra es un plato que reposa en el caparazón de una tortuga gigante no es un argumento lógico si no se nos dice sobre qué descansa la tortuga. Alguien pretendió resolver este problema diciendo ... sobre otra tortuga. Esta proposición por tanto no puede llegar a ser una teoría.

El objetivo de las ciencias fácticas es establecer relaciones de causalidad, esto es, determinar qué causa qué. La causalidad es lo que hace a la ciencia útil; le otorga a las personas poder para alterar la realidad. Las relaciones de causalidad indican el efecto de los cambios en los elementos exógenos sobre los elementos endógenos. Por lo tanto, la causalidad se deriva lógicamente de una teoría. Pero, entonces, las relaciones de causalidad deben ser observables. ¿Qué es observable (medible) y qué no lo es en un proceso abstracto? Esta es una cuestión central en la ciencia porque la ciencia busca explicar hechos observados con base a factores no observados. No podría darse una explicación de un hecho observado con base a otro hecho observado. Esta última relación empírica es, más bien, una relación de causalidad que sólo tiene sentido lógico a la luz de una teoría.

Los elementos endógenos de un proceso deben ser observables, por lo que son los elementos del análisis empírico. Así estos elementos constituyen las variables endógenas, en el sentido de que sus variaciones son observables. Los elementos exógenos que toman parte de un proceso pueden ser separados en dos categorías: observables y no observables.

Aquellos que son observables pueden definirse como las variables exógenas. Como se mencionó líneas arriba, el mecanismo de interacción es inobservable. De allí que la causalidad se refiera a las relaciones entre las variables exógenas y las variables endógenas que han sido establecidas por la teoría. En términos de la ordenación lógica de las proposiciones, el concepto operacional de la ciencia que se utiliza en este trabajo se basa en la definición dada por Georgescu-Roegen (1971). Esta definición es la siguiente: ciencia es un conjunto de proposiciones alfa y beta, tal que las proposiciones beta son derivadas lógicamente de las proposiciones alfa, y ninguna proposición alfa puede ser derivada de otra proposición alfa. Así, los fundamentos de la ciencia vienen dados por sus proposiciones alfa. El conjunto de proposiciones alfa constituye la teoría. Es el conjunto de supuestos o axiomas que se establece para comprender la realidad. Las proposiciones beta se obtienen de las alfa por inferencia lógica. Las proposiciones beta muestran las relaciones lógicas entre las variables exógenas y endógenas. Por lo tanto, las proposiciones beta indican las implicancias empíricas de la teoría. Si la teoría es una buena aproximación de la realidad se debería observar ciertas relaciones particulares en el mundo real. El conjunto de proposiciones alfa se establece de manera arbitraria, pues son los supuestos, pero el conjunto de proposiciones beta ya no puede ser arbitraria. Las proposiciones beta, aunque lógicamente correctas, pueden ser empíricamente falsas. Teoría y causalidad pueden ser expresadas en correspondencia con estos dos tipos de proposiciones: la teoría corresponde a las proposiciones alfa y la causalidad a las beta. Las relaciones de causalidad son, entonces, lógicamente derivadas de la teoría. Las proposiciones beta tienen contenido empírico, predicen relaciones empíricas particulares entre las variable exógenas y las endógenas. Una proposición beta es una proposición empíricamente refutable; esto es, en principio puede ser empíricamente falsa. Una buena teoría es aquélla que puede dar lugar a proposiciones beta que pudiendo ser empíricamente falsas, cuando son contrastadas con la realidad, resultan ser consistentes con los datos de la realidad. Si una teoría da lugar a proposiciones beta que nunca pueden fallar empíricamente, esta teoría es una tautología, inútil para el conocimiento científico.

Los efectos —positivos o negativos— de las variables exógenas sobre cada una de las variables endógenas son derivados de la teoría. Las relaciones causa-efecto toman la forma de proposiciones beta. En consecuencia, para cada variable endógena existirá una relación causal; así, habrá tantas proposiciones beta como variables endógenas contenga el sistema teórico. En las ciencias fácticas, la teoría es entonces un conocimiento a priori, un artificio lógico, que nos permite arribar al conocimiento científico. Si no hay teoría, no puede haber conocimiento científico. Pero la teoría necesita confirmación empírica. El conocimiento a priori necesita una confirmación a posteriori. ¿Por qué? Porque los supuestos fueron establecidos arbitrariamente. Si en esta confrontación teoría y realidad son inconsistentes, es la teoría la que pierde (no la realidad); esto es, queda demostrado que la selección arbitraria de sus supuestos fue errónea. Aún cuando una teoría es un sistema lógicamente correcto, puede ser empíricamente falsa. El conjunto de proposiciones alfa no puede ser sujeto de análisis empírico, pero sí lo pueden ser las proposiciones beta. Así, la confrontación empírica de una teoría puede realizarse sólo de forma indirecta, a través de las proposiciones beta. Esto es posible porque las proposiciones beta tienen un contenido empírico, predicen una relación particular entre las variables endógenas y exógenas, predicen relaciones de causalidad. Son estas predicciones empíricas de la teoría las que pueden o no coincidir con la realidad. Cuando esta consistencia se da, se dice que la teoría explica la realidad. El mundo abstracto de la teoría coincide con el mundo real. El mundo real se puede comprender, en lo esencial, a partir del mundo abstracto de la teoría. A causa de su papel empírico, las proposiciones beta excluyen los elementos exógenos inobservables del proceso. ¿Por qué? Porque asumiendo cambios apropiados en los elementos exógenos inobservables siempre se puede hacer coincidir a la teoría con la realidad. Al introducir elementos exógenos inobservables, una teoría se vuelve inmortal. Lo que se necesita, como teoría, es un conjunto de proposiciones de las cuales una proposición refutable pueda derivarse. Las proposiciones beta son, según su construcción lógica, proposiciones empíricamente refutables. Por esta razón, las proposiciones beta incluyen únicamente variables observables. El problema epistemológico de establecer la relación de causalidad de una teoría y su confirmación empírica queda resuelto mediante las proposiciones beta.. ¿Cómo se lleva a cabo esta confrontación? Esto se discute en la siguiente sección. Pero antes, un problema epistemológico adicional debe ser al menos planteado. El proceso abstracto presentado se refiere únicamente a una parte de la realidad. Un proceso es siempre una representación parcial de la realidad. Por consiguiente, una ciencia fáctica tiene que ver con un aspecto particular de la realidad. Pero el conocimiento científico requiere unidad de conocimiento —un único mundo abstracto, una unidad ontológica. ¿Cómo podrían todas las ciencias empíricas generar un conocimiento agregado consistente, esto es, una unidad en el conocimiento? Este problema epistemológico no ha sido aun resuelto. Recientemente Edward Wilson, un biólogo de la Universidad de Harvard, ha discutido el tema y ha argumentado que la unidad del conocimiento puede lograrse reduciendo todas las ciencias fácticas a las leyes de la física porque los organismos vivientes y las organizaciones sociales funcionan como si fuesen máquinas (Wilson 1998). Una solución alternativa podría provenir de una división del trabajo coordinada entre las ciencias fácticas: lo que es exógeno en determinada ciencia será endógeno en otra. Todas las ciencias fácticas serían complementarias. La unidad del conocimiento se establecería entonces a través de la consolidación lógica de las relaciones causales establecidas en cada ciencia. Todas las variables endógenas en el sistema de las ciencias dependerían de las variables exógenas del ahora único mundo abstracto. El problema de la unidad del conocimiento podría también surgir al interior de una misma ciencia. Como se sabe, la física enfrenta el problema de la unidad del conocimiento. La teoría de

la mecánica cuántica (el mundo de lo pequeño) no es consistente con la teoría de la relatividad (el mundo de lo grande). El desarrollo reciente de la teoría de las cuerdas intenta reconciliar esta inconsistencia (Hawking 1988). En economía, la teoría micro-económica muestra, en muchos aspectos, inconsistencia con la teoría macro-económica. La moderna Teoría de Equilibrio General intenta reconciliar estas inconsistencias (Figueroa 2001a). 1.2. La metodología alfa-beta en las ciencias fácticas La metodología de las ciencias fácticas se refiere al sistema lógico que sirve de guía en las decisiones para aceptar o rechazar teorías. La metodología es el conjunto de reglas para aceptar o rechazar teorías. Con base a las proposiciones alfa-beta se desarrolla aquí una metodología particular. Dado que una teoría necesita hacer abstracciones, algunos de los elementos que influyen en las variables endógenas son dejados de lado, por lo que los datos empíricos difícilmente pueden calzar a la perfección con las proposiciones beta. De allí que las pruebas empíricas tengan que referirse, por necesidad lógica, al grado de bondad de la aproximación. Es lógicamente incorrecto esperar que una proposición beta —derivada de una teoría, de una abstracción de la realidad— sea consistente con todos los casos observados. La consistencia empírica sólo puede darse con los casos generales o típicos. Así, se requiere del análisis estadístico para aceptar o rechazar una proposición beta. Encontrar una sola observación en la que la prueba falle es insuficiente para rechazar una proposición beta, en tanto el valor estadístico de una observación es nulo. Esa observación podría responder a un error o a una desviación de la norma. El test debe ser, entonces, estadístico. Es la relación entre los valores promedios de las variables lo que cuenta. En consecuencia, debe establecerse una distinción entre error y falla en el proceso de aceptación o rechazo de una proposición beta. Debe también establecerse una distinción entre los fenómenos que son investigables y los que no lo son. El criterio aquí propuesto para esta distinción es establecer si un fenómeno puede ser representado como un proceso o no. Si puede ser representado, entonces el fenómeno es investigable y conocible; de otro modo no lo es. Así, no toda pregunta interesante es investigable. Si las proposiciones beta se ajustan bien a los datos empíricos, puede decirse que la teoría es consistente con la realidad. No podemos decir que la teoría es verdadera. Esto es así porque las mismas proposiciones beta podrían derivarse de otra teoría. No hay una relación de uno a uno entre las proposiciones alfa y las proposiciones beta. Por tanto, la aseveración acerca de que una teoría “explica” la realidad tiene un significado muy preciso: sus proposiciones beta son consistentes con los datos empíricos. Si los datos empíricos no coinciden con las proposiciones beta, la teoría es simplemente falsa. En este caso, se formula una nueva teoría y el algoritmo continúa. Esta regla de iteración, basada en la acción conjunta de las proposiciones alfa y beta, será denominada la metodología alfa-beta. La interacción continua entre la teoría y los datos empíricos es la piedra angular de la esta metodología. La lógica de la metodología alfa-beta muestra consistencia interna. Un fenómeno real que ha sido representado mediante el uso de la teoría en un proceso abstracto —donde existe repetición y donde ocurren regularidades en las relaciones empíricas— y donde la teoría ha dado origen a.13 proposiciones empíricamente refutables es susceptible de análisis estadístico y, consecuentemente, de investigación científica.

La metodología alfa-beta está representada en el Gráfico 1.2. A partir de un conjunto de proposiciones teóricas a1, se obtiene lógicamente un conjunto de proposiciones empíricamente observables b1 (indicado mediante la flecha doble), el que debe ser sujeto de análisis estadístico (indicado mediante la flecha simple). La flecha doble indica el procedimiento lógico; la flecha simple señala el procedimiento operacional, la actividad a realizar. El análisis estadístico (señalado mediante el símbolo ») implica la búsqueda de una conformidad estadística entre las proposiciones beta y el conjunto disponible de datos empíricos B. Si la relación β1 = B resulta estadísticamente válida, entonces a1 es consistente con la realidad. Si β1 ≠ B, entonces a1 es falso y debe desarrollarse una nueva teoría a2, continuándose así con el algoritmo.

α1 ⇒ β1 → [ β1 ≈ B ] Si β1 = B, a1 es consistente con B y explica la realidad Si β1 ≠ B, a1 es falso y no explica la realidad . Entonces, α2 ⇒ β2 → [ β2 ≈ B ] Si … (el algoritmo continúa)

Gráfico 1.2. La metodología alfa-beta Dado un tamaño cualquiera de la base de datos en el vector B, una teoría resulta falsa si una sola proposición beta es falsa. El rechazo de una sola proposición beta es suficiente para rechazar la teoría. Así, una teoría es empíricamente consistente con la realidad si y solo si no hay ninguna proposición beta que sea falsa. Siendo B un vector de información empírica, su tamaño aumentará con la disponibilidad de información (debido a nuevos datos y nuevos instrumentos de medición), y dará lugar a nuevas pruebas estadísticas sobre la validez empírica de la teoría. Las teorías son falsables, pero no son verificables, excepto por la inferencia lógica utilizada en la derivación de las proposiciones beta que sí puede ser verificada. Cuando se confrontan empíricamente varias teorías a la vez, dado el vector de información B1, algunas de ellas resultarán falsas y otras resultarán consistentes. Con nueva información B2, algunas de las teorías del último grupo serán falsas y otras consistentes. Así sucesivamente. Aquéllas que sobreviven a todos los procesos de confrontación serán las teorías aceptadas. Y reinarán hasta que una nueva información disponible conduzca a la aparición de inconsistencias. Una proposición beta es una proposición sintética: puede ser o verdadera o falsa, en términos estadísticos. Una buena teoría es fácilmente identificable: aun cuando sus predicciones podrían haber resultado descalificadas por la observación empírica, éstas han sido confirmadas. Una teoría necesita ser empíricamente refutable; en principio, una teoría debe ser mortal. Si una proposición no es susceptible de generar proposiciones refutables, no puede convertirse en teoría. Se necesita falsar una teoría, es decir, contrastar sus proposiciones beta con los datos de la realidad de forma que exista la posibilidad de refutarla.

Este es el principio de falsación (the principle of falseability) que estableció Popper, la línea divisoria entre ciencia y no ciencia (Popper 1959). “Los hombres mueren cuando los dioses lo determinan” es un ejemplo de una proposición que no genera predicciones refutables. Este tipo de proposición es una tautología, inservible para la investigación científica.2 La metodología alfa-beta implica que una teoría está sujeta a continuas confrontaciones con la realidad. La buena teoría es aquella que ha sobrevivido a numerosos intentos de refutación. 2Los curanderos son particularmente buenos en el uso de proposiciones no refutables en su trato con personas enfermas: Si tienes fe, sanarás. Cuando una de las personas se lamenta de no estar mejorando, el curandero responderá No tuviste fe en mi medicina. Los curanderos nunca fallan. Aceptar teorías es siempre una decisión provisional, pero su rechazo es definitivo. Las proposiciones beta nos dicen lo que hay que observar para refutar una teoría (no sólo para confirmarla). Este procedimiento elimina cualquier posibilidad de estratagemas inmunizadoras que salvaguarden a la teoría de la refutación empírica.

A partir de la metodología alfa-beta, debe quedar en claro que los datos por sí mismos no pueden explicar fenómenos reales; éstos no pueden producir relaciones de causalidad. Producirán correlación estadística, pero esto no es causalidad. No existe una ruta lógica desde la información empírica hacia la causalidad. Ésta última requiere una teoría subyacente, dado que las variables exógenas y las variables endógenas vienen de la teoría. No puede existir entonces un “test de causalidad” que a partir de la información empírica establezca que las variables A son la causa de los cambios en las variables Z.3 La realidad puede ser explicada sólo a la luz de una teoría. La teoría es un artificio lógico creado para producir conocimiento científico. La teoría es una necesidad lógica para la búsqueda del conocimiento científico. No hay escapatoria a esta conclusión: si no hay teoría, no hay conocimiento científico; más aún, si no hay abstracción, no hay teoría. También debe quedar en claro que una teoría, por sí sola, tampoco puede explicar la realidad; necesita generar proposiciones empíricamente falsables —las proposiciones beta. Construimos teorías para que sean empíricamente confrontadas con los datos de la realidad, no para creer en ellas, y menos aun para defenderlas. La teoría es el siervo, no la reina. La pregunta relevante es entonces si la teoría construida funciona o no. Más aún, debido a que un mismo beta se puede derivar de varias teorías, el conocimiento científico requiere la confrontación empírica de varias teorías a la vez, esto es, requiere de un programa de investigación. Un ejemplo sencillo puede ilustrar la metodología alfa-beta. Suponga una Figura F que no es observable por el investigador. Considere la siguiente teoría 1: “la Figura F es un cuadrado”. De serlo, entonces sus dos diagonales deberían ser iguales (una proposición beta). Si la información estadística muestra que lo son, la teoría es consistente con la realidad. Sin embargo, el investigador no puede afirmar que la Figura F es un cuadrado, dado que esta evidencia es también consistente con la teoría 2, que establece: “la Figura F es un rectángulo.” Las teorías 1 y 2 siguen siendo consistentes con esta información. Suponga que la información inicial hubiese sido otra. El dato muestra que las diagonales no son iguales. En este caso, las teorías 1 y 2 son inequívocamente falsas. En este caso, el investigador tendría que desarrollar otra teoría, digamos la teoría 3, que establece que “la Figura F es un rombo.” Esta teoría es ciertamente consistente con esta información. Realmente, no hay una secuencia particular implícita en la metodología alfa-beta. El programa de investigación podría empezar de observaciones empíricas, de asociaciones estadísticas, o de la construcción de una teoría (un mundo puramente abstracto). Lo que es importante es seguir la lógica del método, es decir, el algoritmo indicado.

Puede ocurrir que las proposiciones beta no puedan ser derivadas directamente de las proposiciones alfa debido a que éstas son proposiciones muy generales. En este caso, se requiere transformar las proposiciones alfa en un conjunto de proposiciones operacionales, que permitan derivar de ellas proposiciones beta. Este conjunto de proposiciones se llama el modelo de la teoría. 3El así conocido “test de causalidad de Granger” recibe un nombre inapropiado. Debería llamarse “test de secuencialidad de Granger”, dado que prueba si cambios en una variable consistentemente preceden los cambios en alguna otra, donde el número de rezagos del test es arbitrario.

Un modelo teórico es un conjunto de supuestos que incluye las proposiciones alfa y un subconjunto de supuestos auxiliares consistentes. La consistencia se refiere a que los supuestos.16 auxiliares no pueden contradecir los supuestos básicos de la teoría. Una teoría es entonces una familia de modelos, donde el conjunto de proposiciones alfa constituye el elemento común de toda la familia. Un modelo debe ser asimismo un sistema lógico, libre de inconsistencias lógicas internas. En consecuencia, los supuestos auxiliares no pueden ser arbitrarios. Si en una ciencia dada, el conjunto de proposiciones alfa no es directamente operacional, se necesita introducir un conjunto de supuestos auxiliares y consistentes adicionales para hacer la teoría refutable. La lógica de la construcción de los modelos es falsar la teoría. En el Gráfico 1.2, considere que a1 y a2 sean dos modelos de la teoría a. El algoritmo de falsación es aplicado entonces a estos modelos. Si el primer modelo es rechazado, el segundo ingresa a la prueba, y así sucesivamente. Para que una teoría sea falsa, todos los modelos de la familia deben fallar. El algoritmo requiere, por tanto, que el número de modelos sea finito; esto es, se requiere que el número de supuestos auxiliares sea limitado. Si todos los modelos fallan, la teoría es empíricamente falsa y es necesario construir una nueva teoría. De la metodología alfa-beta se sigue lógicamente que el conocimiento científico es siempre provisional. Cualquier teoría exitosa tendrá una vida temporal, hasta que aparezca nueva evidencia empírica que descalifique sus predicciones, o hasta que una teoría superior aparezca, o hasta que nuevos instrumentos de observación sean desarrollados, o hasta que un nuevo criterio de conocimiento científico sea establecido. Como modelo de una teoría del conocimiento, la metodología alfa-beta es acorde con la teoría estándar del conocimiento, es decir, aquélla desarrollada por los más importantes filósofos contemporáneos de la ciencia, como Popper, Lakatos y Kuhn. Incorpora el principio del falsacionismo como criterio para aceptar o rechazar una teoría, que se deriva del principio de la demarcación de Popper: cualquier proposición que en principio no puede ser refutable está fuera del dominio de la ciencia (Popper 1959). También sigue la metodología de Lakatos, en tanto se basa en el uso de programas de investigación científica para someter a la prueba empírica teorías rivales (Lakatos 1978). Kuhn es más conocido como historiador de la ciencia. Sin embargo, en su renombrado libro Las estructura de las revoluciones científicas también trató acerca de cuestiones epistemológicas. Allí señaló: “Muchas de mis generalizaciones son acerca de la sociología o la psicología social de los científicos; aún así, algunas de mis conclusiones forman parte de la lógica o la epistemología tradicional.” (Kuhn 1970, p. 8). Su metodología incluye a la de Lakatos, pues propone establecer “cual, entre dos teorías rivales, se ajusta mejor a los hechos.” (p. 147). También.17 incluye el falsacionismo de Popper, al que sólo le añade la necesidad de algún criterio de graduación de la falsación: ¿cuántas veces debe fallar una teoría para ser rechazada? De acuerdo con la metodología alfa-beta, es suficiente la falla estadística de una proposición beta, y solo una vez, para rechazar una teoría que pretende explicar cierta realidad. (Una vez que

se demuestra que las dos diagonales son diferentes, no hay necesidad de pruebas adicionales para rechazar la teoría que establecía que la Figura F es un cuadrado.) Esta comparación igualmente muestra que, en lo que respecta a la lógica del conocimiento en las ciencias fácticas, Popper, Lakatos y Kuhn tienen puntos de vista complementarios, antes que opuestos. Aquí tenemos una teoría del conocimiento. La metodología alfa-beta puede entonces considerarse un modelo particular de esta teoría. Como señala Blaug, algunos epistemólogos han exagerado el así llamado problema DuhemQuine: la imposibilidad de poner a prueba, conclusivamente, cualquier teoría científica. El argumento es que la introducción de supuestos auxiliares y condiciones ceteris paribus hacen posible que cualquier teoría pueda librarse de la refutación. El método de Popper intenta resolver este problema: “No es la falsabilidad lo que distingue la ciencia de la no ciencia en Popper; lo que demarca a la ciencia de la no ciencia es la falsabilidad unida a reglas metodológicas para evitar... estratagemas inmunizadoras” (Blaug 1992, p. 19). En la metodología alfa-beta, estas reglas incluyen la introducción de supuestos auxiliares consistentes. Estos supuestos, por tanto, no pueden disminuir el grado de falsabilidad de una teoría, sino que por el contrario lo incrementan. La condición ceteris paribus está claramente definida en la metodología alfa-beta. Solamente las variables exógenas (observables) son consideradas variables explicativas. Los elementos exógenos inobservables no son considerados en el proceso de falsación, pues harían inmortal a la teoría. Por lo tanto, “todo lo demás constante” en un proceso de falsación sólo podrá significar que algunas variables exógenas son mantenidas fijas de acuerdo al diseño experimental. Para ser claros, la metodología alfa-beta no usa la metodología del verificacionismo, que se basa en la selección de los datos empíricos con el fin de confirmar la teoría. En este caso el investigador busca datos para confirmar la teoría, no para refutarla. 115 También descarta el interpretacionismo, puesto que éste hace a las teorías inmortales. La metodología alfa-beta también excluye el uso del aplicacionismo —trabajo empírico dirigido a explicar un fenómeno utilizando la teoría— ya que parte del supuesto de que la teoría explica la realidad en cuestión. También descarta el empirismo, en tanto las asociaciones estadísticas per se (coeficientes de correlación y análisis de regresión multivariada y cualquier otra técnica sofisticada de asociación) no pueden generar causalidad; ésta solo se deriva de un sistema lógico, de una teoría. El post modernismo ha tenido alguna influencia en la metodología, sobretodo en la metodología de la economía, a través del uso de la retórica. Bajo esta metodología “todo vale”. Una teoría puede ser defendida sobre la base de la persuasión, esto es, usando algunas piezas de evidencia, casos históricos, sentido común, y más aún la teoría misma. La metodología alfa-beta no usa la retórica.

115

El físico Richard Feynman se refiere a este problema como falta de integridad científica. Alguna vez le dijo a sus estudiantes: “Si están llevando a cabo un experimento, deben reportar todo lo que crean que lo invalida – no sólo lo que creen que es favorable a la teoría. ... La idea es tratar de dar toda la información que ayude a otros a juzgar el valor de su contribución; no solamente. la información que

encamina el juicio en una dirección particular o en otra. ... De lo que estoy hablando no es únicamente una cuestión de no ser deshonesto, es más una cuestión de integridad científica, lo que está en otro nivel” (Feynman 1985, p. 341).

En cuanto a las pruebas estadísticas, la metodología alfa-beta requiere que éstas se basen en pruebas no paramétricas. El análisis estadístico convencional está basado en una teoría estadística paramétrica, la que ¾como cualquier teoríα se basa en supuestos. Dichos supuestos, entonces, pueden ser empíricamente falsos. Sería necesario probar la validez empírica de esta teoría estadística. Esto, a su vez, requeriría otras pruebas estadísticas, lo que nos llevaría hacia atrás en una regresión continua. Probar estadísticamente la validez de las pruebas estadísticas constituye una imposibilidad lógica. El rechazo de una teoría a partir del uso de estadística paramétrica puede ser el resultado de fallas en los supuestos de la teoría estadística subyacente y no en los supuestos de la teoría bajo observación. La falsación requiere el uso de métodos estadísticos no paramétricos para evitar este problema de la doble prueba. En suma, la epistemología vista como teoría del conocimiento nos brinda la posibilidad de contar con una lógica del conocimiento científico. Para ser operacional, esta teoría debe ser transformada en un modelo. A partir de éste se ha obtenido un conjunto de reglas para aceptar o rechazar teorías en las ciencias empíricas. La metodología alfa-beta es un modelo particular de la teoría estándar del conocimiento. Establece un conjunto de reglas útiles a ser aplicadas cuando se realiza una investigación científica. Los científicos pueden decidir seguir una metodología que se base en una teoría del conocimiento o pueden decidir utilizar cualquier otra metodología. Existe, entonces, una distinción entre las reglas de la metodología científica y la lógica que guía las acciones de los científicos. 1.3. La lógica de los científicos La historia de la ciencia puede decirnos lo que los científicos han estado haciendo. Los trabajos de Kuhn (1970) y Galison (1997) intentan describirnos y darnos explicaciones sobre el comportamiento general de los científicos. Los cambios en los paradigmas (teoría-metodología dominante en un periodo dado) provienen, según Kuhn, de procesos sociales y políticos, mientras que para Galisson provienen de innovaciones en la tecnología de las mediciones empíricas. Así, la aparición del primer telescopio significó una revolución en la física. Se puede decir que en el falsacionismo es comúnmente aplicado en la física, al menos esto es lo que se puede deducir del famoso libro de Hawking (1988). Este libro puede ser presentado en términos de las proposiciones alpha-beta. En la física, al parecer, las teorías son empíricamente refutadas y nuevas teorías reemplazan a las anteriores. Como resultado, Ptolomeo, Copérnico, Galileo, Newton y hasta Einstein han ido muriendo teóricamente. No en el sentido de que sus teorías fueron totalmente erróneas —pues algunas de las proposiciones beta de estas teorías fueron consistentes con la realidad—, sino en el sentido de que las nuevas teorías tienen un mayor número de proposiciones beta empíricamente consistentes, incluyendo las antiguas. Las nuevas teorías son superiores. Pero el algoritmo continúa hasta el presente. Los físicos modernos continúan en su intento de refutar teorías, como es el caso de Prigogine (1996) sobre la irreversibilidad del tiempo. En biología, la metodología de la falsación es aparentemente menos usada. Mayr (1991) muestra que teóricamente Darwin todavía vive. Esto ocurre a pesar de lo que el biólogo Wilson (1998) nos confiesa: “Las teorías científicas ... son construidas específicamente para ser dejadas de lado si se demuestra que son equivocadas, y si es así, cuanto más rápido ocurra, mejor será. ‘Cometan sus errores rápidamente’ es una regla para la práctica científica. Concedo que con frecuencia los científicos se enamoran de sus construcciones. Lo sé, me ha pasado. Ellos invierten toda una vida tratando vanamente de apuntalarlas. ... En ese caso —como el economista Paul Samuelson alguna vez bromeaba— de funeral en funeral, la teoría avanza.” (p. 52).

En psicología, el artículo de Horgan “Por qué no ha muerto Freud”, aparecido en Scientific American, es una revelación de las complicaciones de esta disciplina, en la que el efecto placebo (un elemento exógeno inobservable) convierte a las teorías en inmortales (Horgan 1996). La metodología de la economía se discutirá en detalle más adelante. Pero es claro que en economía Smith, Ricardo, Marx, Walras, Keynes y Lucas mantienen su vigencia teórica, a pesar de que sus teorías son contradictorias entre si. La teoría de Kuhn predice que en cada ciencia, en un período dado, habrá una teoría dominante —el paradigma. Su teoría busca explicar los cambios en esos paradigmas. Las observaciones mencionadas muestran que, por el contrario, en la mayoría de las ciencias la predicción empírica de la teoría de Kuhn —el que varios paradigmas o teorías no puedan coexistir— parece no sostenerse. ¿Por qué hacen los científicos lo que hacen? Esta es una pregunta para ser contestada teóricamente. ¿Por qué coexisten “investigadores Kuhnianos” (quienes operan bajo un paradigma dado) e “investigadores Popperianos” (quienes buscan refutar paradigmas)? El comportamiento de los científicos puede, consecuentemente, ser sujeto de investigación científica también. Los historiadores de la ciencia han debatido este asunto, pero – creo yo – sin haber aplicado un método científico en su investigación. Por ejemplo, no hay en el libro de Kuhn una teoría y su correspondiente falsación sobre el comportamiento de los científicos. Hay todavía una cuestión adicional: ¿qué hacen los no científicos para obtener conocimiento? Considérese la proposición de Popper: “todos los organismos vivientes son capaces de resolver problemas, aquellos problemas que surgen con la vida misma” (Popper 1993). ¿Cómo hacen estos organismos para resolver sus problemas? “Todos los organismos vivientes usan teorías y la corroboración empírica para solucionar sus problemas,” añade Popper. Los que usan teorías falsas pagan el costo de su extinción. Esta puede ser la base de la selección natural. La proposición de Popper implica que una ameba, un hombre de la calle, y un científico usan teoría para resolver problemas. Lo que distingue al científico es que su metodología para eliminar teorías falsas es más desarrollada: es elaborada conscientemente, no está basada en instintos.116 Por esto la ciencia necesita una metodología explícita, impersonal, lógica y perfectible. La metodología alfa-beta es una forma particular de presentar dicha metodología. Como resultado, se puede establecer una diferencia entre el conocimiento científico y el conocimiento simple, aquél de los organismos vivientes. Ciertamente, la proposición de Popper es refutable; es una teoría. Si esta teoría fuese consistente con los datos, es decir, si realmente todos los organismos vivientes construyen sus teorías para sobrevivir y actuar, podría afirmarse que “no hay nada más práctico que una buena teoría.” Si los organismos vivientes actúan de acuerdo a sus teorías, la tarea de los científicos es descubrir estas teorías. La metodología alfa-beta sirve para esta tarea. Por iteraciones, el científico es capaz de construir un mundo abstracto lo suficientemente parecido a aquél en el 116

La otra diferencia es que mientras las teorías de la ameba se construyen en el organismo de la ameba, el científico puede formular sus teorías mediante el lenguaje. Puede de este modo trasladar sus teorías fuera de su organismo. Así, el científico puede estudiar a todos los organismos, inclusive a su propia especie, como en las ciencias sociales. En este caso, el científico tendrá que ser el etólogo de su propia especie.

que opera y se adapta el organismo viviente. La física no enfrenta este problema. Los átomos no pueden aprender a comportarse de modo distinto. Esta es tal vez una de las razones que hacen de la física la ciencia más desarrollada. Pero es una ciencia distinta, y una más sencilla.117 1.4 Ciencia e ingeniería en las ciencias naturales En las ciencias naturales la aplicación del conocimiento a las cosas prácticas y útiles para la vida se hace a través de la ingeniería. La utilidad de una ciencia se expresa en la ingeniería. Cuanto mayor el grado de conocimientos en las ciencias naturales, mayores son las posibilidades de desarrollo de la ingeniería. Aunque ciertamente se puede considerar que existe una interacción entre ciencia e ingeniería, la hipótesis básica que utilizaré aquí es que el desarrollo de la ingeniería depende del desarrollo de las ciencias naturales, y no al revés. Por ejemplo, los casos de la ingeniería civil, industrial, minera y electrónica constituyen aplicaciones de la física. Los casos de la ingeniería agronómica y forestal, están vinculadas al desarrollo de la biología. La medicina es en cierto sentido también ingeniería, pues se funda en la biología y en la química. En un periodo dado, en las ciencias naturales existe una teoría dominante, el “paradigma” de Kuhn. ¿Cómo se puede reconocer el paradigma? Considero que una manera práctica de reconocer un paradigma teórico es mirar el contenido de los textos de enseñanza. Una teoría se convierte en paradigma cuando ingresa en los textos de enseñanza, es decir, en la industria de la educación. La teoría se acepta y se enseña de manera masiva con la ayuda de los textos, sean escolares o universitarios. En el caso de la enseñanza universitaria de las cie ncias naturales, los textos producidos en los países del primer mundo también se utilizan en la enseñanza en todos los países del tercer mundo. Y a nadie se le ocurriría cuestionar esta forma de enseñanza. Las ciencias naturales son consideradas universales. De manera implícita, se supone que existe una ontología universalista en las ciencias naturales: cada uno de los procesos físicos, biológicos y químicos operan de la misma manera en todas partes. Y para el tercer mundo parece más económico utilizar el conocimiento que ya ha sido desarrollado en el primer mundo y buscar más bien el desarrollo de la ingeniería. La hipótesis de la ontología universalista en las ciencias naturales explica por qué en el tercer mundo existe tan poco desarrollo de las investigaciones en las ciencias naturales, y por qué sus universidades desarrollan principalmente las escuelas de ingeniería. 2. LA ECONOMÍA COMO CIENCIA La economía es una ciencia, una ciencia social. Estudia un proceso particular: el proceso 117

Luis Alvarez, un físico americano, Premio Nobel de física en 1968, dijo en el discurso dirigido a los universitarios la tarde de su premiación, “la física es la más simple de todas las ciencias. Sólo parece difícil porque los físicos hablan entre ellos en un lenguaje que la mayoría de las personas no entiende – el lenguaje de las matemáticas. Lo que hace simple a la física es que cuando ocurre un cambio en un sistema que proviene del exterior, como por ejemplo inyectarle calor, podemos predecir fácilmente que todo se elevará de temperatura. ... Pero en el caso de un sistema infinitamente más complicado, como la población de un país en desarrollo como la India, nadie puede hasta ahora decir qué cosa hay que inyectarle para mejorar las condiciones existentes” (The Nobel Foundation 1969, “1968 Nobel Prize for Physics – Luis Alvarez”, LBL Library Home page: http://www.library.lbl.gov)..22

económico. Éste es definido como el proceso de producción de bienes y su distribución entre los distintos grupos sociales que forman las sociedades humanas. La economía busca establecer las variables exógenas que explican el resultado de la producción y distribución en sociedades humanas particulares. Una teoría económica debe incluir entonces un conjunto de supuestos sobre las fuerzas y motivaciones que subyacen a los hechos observados en la producción y distribución en estas sociedades.

2.1. La metodología alfa-beta en la economía La metodología alfa-beta se propone tener validez en todas las ciencias empíricas. Pero tiene algunas particularidades en el caso de la economía. Primero, la ciencia económica supone que la naturaleza del problema económico es similar en todas las sociedades. Todas enfrentan el mismo problema de escasez, esto es, los bienes deben ser producidos, pero su producción es costosa en términos de recursos escasos. Mientras que los recursos son limitados en cantidad e imponen límites a la oferta de bienes, las necesidades humanas para estos bienes son ilimitadas. Este es el problema económico. Para resolverlo, se supone que cada sociedad establece las reglas bajo las cuales debe operar el proceso económico. Así, pues, la economía no puede pretender tener una teoría universal, válida para todas las sociedades humanas. La economía supone que todas las sociedades varían en el tiempo y en el espacio, y que las sociedades difieren en cuanto a la tecnología de producción, la dotación de recursos y las instituciones que utilizan. El sistema económico debe tener instituciones, entendidas como reglas del juego económico y organizaciones. También la economía supone que los agentes económicos tienen una lógica que subyace a su comportamiento, es decir, tienen una racionalidad económica. Esta lógica no es la lógica general, no es la meta teoría que se utiliza en las matemáticas o en la lógica del conocimiento científico (presentado en la sección anterior). Es una lógica que siguen los actores sociales, un supuesto sobre las motivaciones que guían sus acciones, y que los lleva a actuar de manera consistente y haciendo evaluaciones entre fines y medios. Se supone que los agentes económicos actúan no de manera emocional, sino de manera racional, que ellos calculan las consecuencias de sus decisiones y pueden dar lugar a comportamientos que muestren ciertas regularidades. Estos elementos no pueden ser independientes uno del otro. Por ejemplo, la racionalidad económica de los agentes tendría que ser consistente con el contexto institucional en el que operen; asimismo, las organizaciones tendrían que ser consistentes con las reglas de juego. Un sistema económico existe si, y sólo si, la consistencia entre el todo y las partes existe. Dadas estas peculiaridades, la ciencia económica debe construir un proceso económico abstracto. La economía contiene dos tipos de proposiciones alfa: universales y específicas a cada sociedad. Las proposiciones alfa universales se utilizan en la construcción de cualquier sociedad abstracta. Las proposiciones universales serán denominadas postulados, para indicar que ellas constituyen el núcleo de la economía.118 Estos postulados son: 118

El término axioma es demasiado rígido para ser usado cuando se espera que las proposiciones jueguen un rol de instrumentos en la construcción de teorías bajo iteración. El término postulado parece ser mejor, más flexible. Supuesto es un término aún más flexible y será usado en este libro cuando se trate de teorías económicas determinadas.

α0 (1). El postulado de la función de producción. Dado un estado de conocimiento tecnológico en la sociedad, la cantidad producida de cualquier bien depende de la cantidad de recursos usados como insumos. Los bienes no se producen de la nada. α0 (2). El postulado de escasez. Todas las sociedades buscan resolver el problema económico: los recursos para la producción de bienes son limitados, en tanto que las necesidades humanas por estos bienes son ilimitadas. El fin del proceso económico es la producción y distribución de bienes. α0 (3). El postulado institucional. Para resolver el problema económico, todas las sociedades buscan establecer un conjunto de reglas y organizaciones para llevar a cabo el proceso económico. α0 (4). El postulado de racionalidad. El comportamiento individual está guiado por una racionalidad económica que es consistente con la tecnología, la dotación de recursos, y el contexto institucional de la sociedad en la cual el individuo vive. El resto de proposiciones alfa serán propias de cada sociedad. Una sociedad abstracta k puede ser representada por la teoría j de la siguiente manera: Ekj = (α0, αkj, βkj) En este vector, el primer conjunto alfa es supuesto como universalmente válido, mientras que el segundo es específico a la sociedad k. El primer conjunto implica que, en cualquier sociedad, la producción y distribución de los bienes dependen de la dotación de recursos, de la tecnología y de las instituciones. El segundo conjunto incluye supuestos específicos a la sociedad k, de forma tal que da lugar al surgimiento de las proposiciones beta, esto es, proposiciones con contenido empírico. El conjunto beta es también propio de la sociedad k. En segundo lugar, una teoría económica es una familia de modelos. Esto es así dado que las proposiciones alfa no son lo suficientemente precisas como para derivar proposiciones beta. Una teoría económica puede no ser operacional pues contiene proposiciones generales, las que se encuentran en el dominio de las intuiciones. Se requiere introducir entonces un conjunto de supuestos auxiliares consistentes. De esta manera se logra transformar la teoría en proposiciones operacionales, procedimiento éste que da lugar a los diferentes modelos de la teoría. En un modelo, las proposiciones alfa se combinan con supuestos auxiliares para formar proposiciones empíricamente refutables, esto es, proposiciones beta. Un modelo nos ayuda a comprobar la consistencia lógica de la teoría. Sin embargo, el principio de falsación enfrenta ahora un problema, puesto que lo que se pone a la prueba empírica es un modelo de la teoría, no la teoría misma. Como señala Lakatos, el conjunto de modelos es el cinturón protector de la teoría. La refutación de una teoría implica falsar todos sus posibles modelos. Ciertamente, el principio de falsación requiere que el número de modelos en una teoría sea finito. En tercer lugar, la derivación de las proposiciones beta en economía está basada en el supuesto de que el estado de equilibrio exista en el proceso económico. Se dice que una situación de producción y distribución está en equilibrio si, dadas las restricciones que enfrentan las personas, ninguna de ellas es capaz de alterar tal situación; más aun, si esto fuera posible, nadie querría hacerlo. En el proceso económico, la noción de equilibrio se refiere a un sistema estático o a un sistema dinámico. En el primer caso, el modelo supone que las interrelaciones entre las variables endógenas son contemporáneas, mientras que en el sistema dinámico estas interrelaciones son intertemporales.

Bajo un sistema estático, el concepto de equilibro implica la repetición de los mismos valores de las variables endógenas, período tras período, mientras los valores de las variables exógenas permanezcan constantes. En un sistema dinámico, en cambio, el equilibrio implica una determinada trayectoria temporal de los valores de las variables endógenas, mientras los valores de las variables exógenas permanezcan constantes. En un sistema dinámico, el solo paso del tiempo genera movimiento en los valores de las variables endógenas, lo que no sucede en un sistema estático. Se puede suponer que el proceso económico tome la forma de un sistema estático o de un sistema dinámico. El equilibrio en un sistema estático puede ser estable o inestable. Es estable cuando el valor de la variable endógena regresa espontáneamente a su posición de equilibrio cada vez que se encuentre fuera de éste (el ejemplo intuitivo es la posición de una bola en el fondo de una taza); de otro modo, el equilibrio es inestable (el ejemplo es la posición de la bola en la cúspide de una taza volteada). En un sistema dinámico, dadas las relaciones intertemporales entre las variables endógenas, y dadas las condiciones iniciales, los valores de equilibrio de las variables endógenas de hoy determinan sus valores de equilibrio de mañana y éstos los del periodo siguiente, y asísucesivamente. En el equilibrio dinámico, entonces, las variables endógenas describen una trayectoria en el tiempo. Las variables endógenas se mueven a pesar de que las variables exógenas permanecen fijas. Se puede mostrar que el equilibrio dinámico es una secuencia de situaciones de equilibrio estático, siempre y cuando se consideren los periodos en forma discreta (Hicks 1985). Así, el equilibrio en un sistema dinámico es estable cuando el correspondiente equilibrio estático en cada período de la trayectoria intertemporal sea estable. Si las condiciones de equilibrio en un sistema estático son satisfechas, y si este equilibrio es estable y único, el método de la estática comparativa puede ser usado para derivar las proposiciones beta; de modo similar, en el caso de un sistema dinámico, el método de dinámica comparativa puede ser usado para tal fin (Samuelson 1947). Cambios en las variables exógenas trasladarán la situación de equilibrio a una nueva posición en el sistema estático, y trasladarán la trayectoria de equilibrio a una nueva en el sistema dinámico. De este modo, comparando las situaciones de equilibrio, uno puede determinar el efecto de una variable exógena sobre las endógenas, es decir, se puede derivar las proposiciones beta. En ausencia del concepto de equilibrio, la causalidad no podría establecerse. Dado que la economía busca explicar la producción y la distribución en sociedades humanas, la noción de equilibrio debe aplicarse a todo el sistema económico. La economía debe establecer las condiciones teóricas para este equilibrio. Esto puede hacerse usando el método del equilibrio general. Sin embargo, partes de la economía pueden estudiarse por separado, estableciendo las condiciones teóricas de equilibrio. Esto se define como el método del equilibrio parcial. Aun el comportamiento de individuos que conforman un grupo social particular puede ser sujeto de análisis económico, estableciéndose las correspondientes condiciones teóricas de equilibrio. Esto se define como el método del equilibrio microeconómico. ¿Pueden ser estos métodos aplicados independientemente? No. El principio de unidad de conocimiento es un requerimiento no sólo para la agregación de las ciencias empíricas, sino también para cada ciencia empírica. Así, las tres formas de equilibrio en economía deben ser lógicamente consistentes entre si. Como sistema lógico, una teoría económica sólo puede expresarse en términos de equilibrio general. Cuarto, la evaluación empírica de una teoría económica proposiciones beta y los datos empíricos— requiere el uso experimentación controlada es rara vez posible en economía. estadístico debe realizarse sobre información generada en

—la consistencia entre las de pruebas estadísticas. La Por el contrario, el análisis experimentos naturales, no

controlados. Así, la falsación implica el uso de una muestra grande de observaciones. Una única observación es inútil. La prueba estadística tiene que basarse en un test no-paramétrico, de modo de evitar el problema del doble test: el de la teoría misma y el de la teoría de la inferencia estadística. El test paramétrico hace supuestos (la teoría estadística) sobre la relación entre los datos obtenidos de una muestra y los datos de la población. Esta teoría estadística tendría que ser sometida a la prueba empírica, para lo cual se requeriría otro test que necesitaría hacer supuestos sobre la inferencia, y así sucesivamente iríamos en continua regresión. Pero aún más, la estadística es una ciencia formal, de modo que sus proposiciones no son empíricamente falsables. Recientemente se ha desarrollado la economía experimental donde los agentes económicos son sometidos a juegos grupales con el fin de simular comportamientos. Si se utilizara esta información para falsar teorías se llegaría al mismo problema del doble test. Se tendrían que hacer supuestos (la teoría ...?) sobre la relación entre los datos obtenidos de una muestra en un mundo artificial y los datos de la población del mundo real. Si el análisis estadístico muestra consistencia entre las proposiciones beta y la información empírica, puede decirse que la economía real funciona como si fuera el sistema abstracto que se construyó con la teoría. De otro modo se concluirá que el modelo falla. Si todos los modelos lo hacen, entonces la teoría falla. ¿En qué sentido es la economía una ciencia social? En un doble sentido: no solamente porque se refiere al estudio de las sociedades, sino también en el sentido de que sus proposiciones teóricas se refieren a agregados de individuos, no a individuos. La razón es que las teorías económicas son abstracciones de sociedades y personas reales. De modo que si la teoría hierra al explicar una única sociedad, la teoría no falla. Si la teoría hierra al explicar el comportamiento de un único individuo de una sociedad dada, tampoco falla. La principal tarea de una teoría económica es la explicación del comportamiento agregado, bien de sociedades, bien de individuos. Debido al uso de abstracción en la generación de una teoría, las pruebas empíricas deben ser, por eso, estadísticas. Esta propiedad de la economía no plantea mayores problemas cuando muchos individuos participan en un proceso económico. El comportamiento general de este grupo será entonces factible de ser sometido a la prueba estadística. Si un individuo singular es un agente importante de todo el proceso económico (el gobierno de una sociedad o el monopolista en una industria de una economía de mercado), la economía puede no ser capaz de explicar este comportamiento particular. Para poder evaluar estadísticamente una teoría de este tipo de comportamiento, tendrían que observarse muchos gobiernos y muchos monopolistas. Con todo, habría gobiernos o monopolistas sin teoría. El mismo problema se aplica al análisis de la sociedades. Una teoría económica puede explicar el comportamiento general de un grupo de sociedades, pero no de cada sociedad. Una teoría económica puede explicar el comportamiento de un grupo de individuos, pero no de cada individuo. La observación de que la persona X fuma y no tiene cáncer, no refuta la teoría de que la nicotina produce cáncer, que se supone es válida en términos generales. La observación de que una expansión en la oferta monetaria en el país Y no genera inflación, no refuta la teoría de que mayor cantidad de dinero en una economía genera inflación, lo que también se supone es válida en términos generales. Es muy posible entonces encontrarse con sociedades sin teoría, o individuos o agentes económicos sin teoría. Puede ocurrir asimismo que exista más de una teoría que explique una realidad social. La relación entre teoría y realidad no necesariamente es de uno a uno. Como sabemos, este es un problema clásico en la física. La luz, considerada una onda, actúa en algunos casos como

partículas. La luz actúa como si fuera onda y partícula al mismo tiempo. (El planeta tierra, considerado esférico, puede algunas veces considerarse plano, sobre todo para distancias cortas). Que aspecto de la luz (o la tierra), o que faceta de la luz (o de la tierra) se observa varía con las circunstancias. En economía puede existir más de una teoría para una realidad social. ¿Se comporta una sociedad específica o un agente económico específico como la teoría predice? Esto es otra cuestión empírica. Aquí la prueba empírica es sobre la sociedad o el agente, no sobre la teoría. No obstante, el test debe ser estadístico. Se necesitan muestras grandes de observaciones del comportamiento de la sociedad o del agente. Si, en este caso, la prueba estadística falla, la conclusión es que la sociedad o el agente particular no se comportan como la teoría supone. La teoría en sí no es puesta en cuestionamiento. En quinto lugar, la política económica es el “producto final” del conocimiento científico en economía. Si no hubiera política económica, la economía sería una ciencia estéril. ¿Hay alguna forma lógica para obtener proposiciones de política económica? Una teoría válida, esto es, una teoría que ha cumplido con el proceso de falsación y ha sido aceptada, debería ser la base para la política económica. Las teorías que no hayan sobrevivido el proceso de refutación o que nunca hayan estado bajo éste, no serán de ayuda. Pero tener proposiciones beta empíricamente comprobadas no es suficiente para establecer proposiciones de política económica. No hay una línea lógica desde la teoría económica hasta la política económica. La razón para esto es que la causalidad no implica una relación única entre variables exógenas (los medios de la política económica) y variables endógenas (los fines). Solamente si la teoría tuviera dos variables, una endógena y una exógena, podría la política económica desprenderse directamente de la teoría. Esto es poco común. Las teorías económicas establecen relaciones de causalidad entre muchas variables —endógenas y exógenas. Adicionalmente, no todas las variables exógenas pueden ser usadas como medidas o instrumentos de política económica. En este caso general, el formulador de política enfrenta varios objetivos y varios instrumentos; así, el diseño de la política económica se torna mucho más complejo. Son necesarios entonces juicios de valor para seleccionar medios y fines. Pero estos juicios de valor no pueden derivarse lógicamente de una teoría. Esto es consistente con la famosa sentencia de Hume: “no se puede deducir el deber ser a partir del ser.” En la ciencia, proposiciones deontológicas no pueden ser lógicamente derivadas de proposiciones ontológicas. En suma, la economía cumple con los requisitos para ser una ciencia fáctica. La compleja actividad económica puede ser reducida conceptualmente a un proceso abstracto: el proceso económico. Las variables endógenas fundamentales son la producción de bienes y su distribución entre los miembros de la sociedad. Las variables exógenas dependen de la teoría económica que se utilice. De cada teoría se puede derivar proposiciones beta, es decir, proposiciones empíricamente refutables. Esta conclusión, de que la economía es una ciencia, puede ser sorprendente para muchos. Paul Samuelson ha popularizado a través de su famoso texto introductorio la idea de que hasta de un loro se puede hacer economista, sólo hay que enseñarle a decir “oferta y demanda”. Tres críticas serias que intentan cuestionar el carácter científico de la economía son: (a) la economía no puede utilizar la experimentación controlada para refutar sus teorías; (b) la economía no puede predecir los hechos del futuro; (c) no se puede ser objetivo en las apreciaciones sobre la situación económica de un país. La primera crítica se despeja simplemente reconociendo que el criterio de validez de una teoría es estadístico —relaciones entre los valores promedios de las variables endógenas y exógenas, en lugar de relaciones determinísticas— y eso no requiere experimentos controlados. Si el

criterio fuese la capacidad de controlar el experimento, la astronomía no se hubiera desarrollado tanto. La segunda crítica se elimina reconociendo la distinción que debe hacerse entre predicción y pronóstico. En efecto, la ciencia económica no puede pronosticar, no puede determinar los valores que tomarán las variables endógenas en el futuro. Pero esto ocurre en todas las ciencias. La ciencia sólo puede predecir: dado los valores de las variables exógenas puede determinar el valor de las variables endógenas. Pero la ciencia no tiene capacidad para saber cuáles serán los valores de las variables exógenas en el tiempo; si quisiera conocerlo, necesitaría de otras variables exógenas para hacerlo, y así entraríamos en una regresión continua. La tercera crítica no tiene que ver con la ciencia económica, sino con el comportamiento de los economistas. La siguiente sección trata sobre este tema.

2.2. La lógica de los economistas ¿Cuál es la metodología que usan los economistas? En su famoso libro The Methodology of Economics or How Economists Explain, Blaug argumenta que, en la práctica, los economistas rara vez buscan refutar sus teorías. Ciertamente, los economistas están atareados masivamente con trabajo empírico, pero una gran parte de este trabajo usa la metodología del verificacionismo, concluye Blaug (1992)..30 Yo podría añadir que una parte importante de la investigación empírica busca directamente la aplicación de una teoría, lo que se ha denominado aplicacionismo aquí. Esto podemos encontrarlo en los libros de texto de economía. Una vez que se ha presentado una teoría, sigue inmediatamente una sección en donde dicha teoría es dirigida a “aplicaciones del mundo real, de modo que pueda verse a la teoría en acción.” Esta metodología supone que la teoría es consistente con la realidad, en lugar de someterla primero al proceso de falsación. Si en la aplicación la teoría no ajusta correctamente con los datos, usualmente se introducen cambios en algunos factores no observables (preferencias, expectativas, probabilidades) para reconciliar a la teoría con los hechos. La teoría no es desafiada con el aplicacionismo; por el contrario se la defiende. En general, los economistas usan la retórica. Esto significa que ellos se apartan de la metodología de la ciencia. En vez de ello usan el arte de la argumentación. Cualquier elemento es considerado válido para defender la teoría, incluida la teoría misma, pues ésta es tomada como una verdad. Cuando los economistas defienden una teoría, ellos sostienen implícitamente, que sus teorías no pueden ser erróneas; luego, si la realidad no coincide con la teoría, ¡algo debe estar mal con la realidad! ¿Por qué buscan los economistas defender una teoría antes que refutarla? Este problema pertenece al campo de la psicología social o la sociología, no a la epistemología. Podría pertenecer también al campo de la economía, en tanto exista una racionalidad económica detrás de este comportamiento. Por ejemplo, si sus salarios dependieran de las teorías que practican, los economistas escogerían y defenderían aquélla que les otorga la retribución máxima. La metodología de la economía debe estar bien integrada a la filosofía de la ciencia. Pero este no es el caso. Rappaport sostiene que parte de esta desconexión se debe al reducido número de filósofos que se dedican a la metodología de la economía. “El hecho es que un número escaso de personas con formación filosófica se ha molestado en aprender algo de economía, por lo que no están en posición de decir nada razonable sobre metodología económica” (Rappaport 1999, p. 450). En realidad los filósofos no son científicos, son lógicos. (Popper y Kuhn, por ejemplo, fueron primero físicos y luego filósofos) Su contribución al avance de la ciencia es ayudar al desarrollo

de las reglas del conocimiento científico, esto es, la lógica de la investigación científica. Los economistas podrían aplicar el método iterativo no solo a las relaciones teoría–evidencia, podrían inclusive sopesar las reglas usadas en este proceso. Los economistas podrían entonces discutir la generación de nuevas reglas del conocimiento con los filósofos. 2.3 La economía como ingeniería La concepción de que economía es ingeniería es muy aceptada. En un artículo preparado para una conferencia cuyo tema era examinar si la economía estaba llegando a ser una ciencia dura, el conocido autor de textos de microeconomía Hal Varian (1989) sostiene que es un error comparar a la economía con la física, una mejor comparación sería a la ingeniería; de igual manera, es un error comparar economía a la biología, una mejor comparación sería a la medicina. Y como no puede existir una epistemología para la ingeniería, la economía no necesita de la filosofía de la ciencia. Economía es aplicación de la teoría económica a problemas de política económica. Economía es pura ingeniería. El argumento de Varian tiene un problema lógico. No puede existir ingeniería sin una ciencia que la sustente. Economía no puede ser ingeniería pura. En realidad, su argumento es que la ciencia económica es deductiva, y una vez creada la teoría hay que utilizarla sin necesidad de pasar por el proceso de su falsación. Su visión es que la economía no es una ciencia fáctica. La ingeniería económica se sustenta en la teoría económica (la teoría neoclásica). Esta metodología deductivista es de aceptación general entre los economistas. Así lo prueban los datos de la realidad. Veamos. La economía se enseña a escala planetaria a través de los textos producidos en los países del primer mundo. En la industria de la educación universitaria, los textos de economía se llaman usualmente “manuales”, y son presentados como tales. El paradigma teórico que sustenta la ingeniería es la teoría que se presenta en el texto universitario. Como mencioné arriba, una teoría se convierte en paradigma cuando ingresa a los textos universitarios. La enseñanza de la economía en el tercer mundo deja de preocuparse por la ciencia para convertirse en pura ingeniería. El objetivo de la economía es, según estos textos, la política económica. La ingeniería económica es la política económica y viceversa. De los paradigmas incorporados en los textos se extraen implicancias de política económica para cualquier realidad económica. Esta solución parece ser eficiente. Para los países pobres es más barato utilizar el conocimiento ya creado en el primer mundo y aplicarlo a sus problemas particulares en lugar de desarrollar su propia ciencia económica. Implícitamente, se acepta que la ontología universalista de las ciencias naturales también se aplica a la economía. Pero, todo esto es contrario a los fundamentos de la economía presentados aquí. En efecto, en las próximas secciones mostraré que la ciencia económica no puede imitar la relación ciencia-ingeniería que se da en la física; aún más, tampoco la biología parece tener validez universal. 2.4. Resumen de la metodología alfa-beta Las realidades complejas, para poder ser estudiadas, deben ser reducidas a un proceso abstracto. El proceso es la categoría apropiada de análisis en las ciencias empíricas. Los supuestos (proposiciones alfa) acerca de los elementos endógenos y exógenos de este proceso, y acerca del mecanismo de sus interacciones, pueden ser claramente establecidos en un proceso. Asimismo, las relaciones de causalidad (las proposiciones beta) emergen lógicamente de la teoría. La lógica del conocimiento científico puede ser expresada mediante la metodología alfa-beta. Esta lógica se puede resumir en los siguientes términos. Un fenómeno real es transformado en un proceso abstracto usando las proposiciones alfa. Dado que este proceso se repite período tras

período, las relaciones entre los elementos endógenos y los elementos exógenos pueden ser observadas empírica y continuamente, mostrando ciertas regularidades. Estas regularidades son sujeto de comprobación estadística. La falsación de la teoría se hace de modo indirecto, a través de la confrontación de proposiciones beta con la información empírica. El test debe estar basado en métodos estadísticos no paramétricos a fin de evitar el problema de la doble test: primero sobre los supuestos de la teoría bajo investigación, y luego sobre los supuestos del método estadístico usado. Si la teoría falla, una nueva teoría es construida, y el algoritmo se aplica. La interacción entre las proposiciones alfa, las proposiciones beta y la evidencia empírica, es la piedra angular de esta metodología. La metodología alfa-beta es consistente con el falsacionismo, la metodología propuesta por los más renombrados filósofos de la ciencia, Popper, Lakatos y Kuhn. La metodología alfa-beta nos permite remontar el problema señalado por los críticos al falsacionismo, quienes proponen la imposibilidad de evaluar conclusivamente cualquier teoría científica —crítica conocida como el problema Duhem-Quine. La economía tiene que ver con el estudio de la producción y distribución de bienes en sociedades particulares. La producción y la distribución pueden ser representadas como un proceso abstracto: el proceso económico. De este modo, la metodología alfa-beta puede ser aplicada a la economía. Hay algunas peculiaridades en esta aplicación. Primero, las proposiciones alpha incluyen teorías universales y también particulares a cada sociedad. Segundo, la falsación de las teorías se lleva a cabo a través de modelos. Una teoría es una familia de modelos. La falsación requiere que el número de modelos sea finito. En tercer lugar, el concepto de equilibrio es esencial para la falsación. En general, los economistas no siguen las reglas del falsacionismo. El comportamiento de los economistas, al igual que el de los científicos en general, es sujeto de explicación teórica desde la psicología, sociología o economía. Se establece así una distinción lógica entre lo que la ciencia económica puede hacer y lo que los economistas realmente hacen. La proposición “Economía es lo que los economistas hacen” —como reza el conocido dictado de Jacob Viner— es contraria a la lógica del conocimiento. 2.5. El estudio científico del capitalismo contemporáneo La economía mundial actual se compone de economías capitalistas con distinto grado de desarrollo. Esta coexistencia, en un mundo crecientemente interconectado o globalizado, constituye una paradoja. A la luz de las teorías convencionales, los países deberían tender a igualarse en sus niveles de desarrollo económico. No es esto lo que se observa. No hay convergencia en los niveles de desarrollo económico entre los países del primer mundo y los del tercer mundo. Este es el problema económico fundamental de nuestro tiempo. A explicar esta paradoja he dedicado mis últimos trabajos (Figueroa 2001 y 2001a). Ciertamente, en esta tarea hice uso de la metodología alfa-beta. Aquí haré un resumen de los principales hallazgos solamente. En el presente estudio deseo, más bien, establecer el papel de la ciencia en las diferencias observadas en el nivel de desarrollo económico entre los países del primer mundo y los del tercer mundo. Este efecto estaba contenido en mis trabajos anteriores, pero sólo de manera implícita. 3. EL PROBLEMA DE LA CONVERGENCIA La evidencia empírica muestra que, comparado a los países desarrollados, los países del tercer mundo tienen no sólo un nivel de ingresos inferiores sino también un menor grado de igualdad económica y social. Los países del tercer mundo operan con muy pocos derechos y mecanismos

institucionales de protección social en comparación al primer mundo. Como consecuencia, la proporción de la población que vive en condiciones de pobreza —para una línea de pobreza dada— es también mucho mayor en el tercer mundo. Así mismo, la evidencia empírica muestra que estas diferencias entre ambos grupos de países se mantienen a través del tiempo. No hay convergencia ni en el ingreso medio ni en el grado de igualdad. Con respecto a lo primero, en una muestra de 100 países se encontró que no había correlación entre las tasas de crecimiento del ingreso per capita en el periodo 1960-1990 y el nivel del ingreso per capita de los países de 1960 (Barro y Sala-i-Martin 1995). La nueva base de datos del Banco Mundial muestra, por otro lado, que el grado de desigualdad entre las regiones del mundo y entre países no ha cambiado mucho. La muestra incluye 120 países para el periodo 1950-1995 (Deininger and Squire 1996). Esta constancia empírica es sorprendente. Los cambios que han ocurrido en las economías han sido importantes en ese periodo y, sin embargo, la desigualdad se ha mantenido prácticamente inalterada. Los países que eran inicialmente más igualitarios han continuado en esa situación, y los países que eran inicialmente más desiguales también han continuado así. Estos resultados estadísticos muestran que, en cuanto a su grado de desigualdad, los países no cambian mucho de posición relativa de un quinquenio a otro, ni de una década a otra. En el largo plazo, los grados de desigualdad de las naciones muestran una alta viscosidad. Este resultado empírico sugiere que los países que, en el proceso de desarrollo capitalista, “nacieron más igualitarios” tienden a mantenerse en esa condición, mientras que los países que “nacieron más desiguales” también tienden a mantenerse en esa condición. La desigualdad es, entonces, una característica estructural de los países. Para utilizar la distinción que nos permite el castellano, se puede decir que unos países son más desiguales que otros, y no que están más desiguales que otros. Una consecuencia de la falta de convergencia es que la brecha entre los grupos pobres de cada país (e.g. 30% inferior de la distribución) y los grupos ricos dentro del mismo país (e.g. 1% superior de la distribución) tiende a mantenerse. También tiende a mantenerse la brecha entre los grupos pobres de los países del tercer mundo y del primer mundo (e.g. 30% inferior en cada caso), así como entre aquéllos y los ricos del primer mundo. Las brechas de desigualdad y de pobreza en el mundo no parecen dar señales de cerrarse. La pobreza relativa, es decir, la desigualdad es un fenómeno persistente. ¿Por que existen y subsisten estas disparidades? La paradoja viene del hecho que en un mundo cada vez más globalizado, donde la información circula a costos cada vez menores, incluida la información sobre las nuevas tecnologías, esas brechas deberían tender a cerrarse. Los países del tercer mundo se encuentran en una situación ventajosa para adoptar y adaptar las nuevas tecnologías que se producen en el primer mundo y tienen así un amplio espacio para crecer; aún más, pueden crecer más rápidamente que los países industrializados, pues es más fácil copiar que producir nuevas tecnologías. Los grupos pobres en cada país del tercer mundo también enfrentan las mismas posibilidades y la misma paradoja. Dado que la mayoría de los pobres son auto-empleados, ellos pueden adoptar y adaptar las nuevas tecnologías que se están introduciendo en el sector moderno de sus respectivos países. La evidencia empírica mostrada arriba indica que este proceso no se está dando. Los países desiguales continúan siendo desiguales y, como consecuencia, la pobreza no se está reduciendo. La pregunta obvia es, ¿por qué? ¿Dónde están los factores limitantes, los cuellos de botella? ¿Dónde se producen los bloqueos?

CUARTA UNIDAD: LA METODOLOGÍA DE LA ECONOMÍA 4.1 LA METODOLOGÍA CIENTÍFICA: ASPECTOS GENERALES Y PREVIOS En este apartado analizamos algunos conceptos de interés como los de hipótesis, leyes, teorías y modelos que creemos necesarios definir y dejar claro desde un principio, pues aunque cada corriente metodológica suele proporcionar una definición particular, la esencia es la misma. Su comprensión nos parece imprescindible, pues jugarán un papel fundamental, tanto en las aportaciones de los distintos filósofos de la ciencia como en nuestra propia disciplina. Entendemos por hipótesis científicas aquellos supuestos que son contrastables. Algunas hipótesis científicas darán lugar a leyes, que son enunciados confirmados por la realidad y que se supone reflejan objetivamente una parcela de la misma. Las leyes se sistematizan en teorías, éstas a veces están basadas en simplificaciones y abstracciones de la realidad denominadas modelos. Una teoría es un sistema de hipótesis que se supone proporciona un explicación de la realidad. Cualquier teoría es una abstracción, a partir de la abstracción podemos llegar a un nivel de simplicidad a través de la que podemos analizar los hechos reduciendo las complejidades del mundo real. Frente a una simple unión de conocimientos, una teoría tiene como mínimo un doble objetivo, por un lado, persigue sistematizar el conocimiento explicando las relaciones empíricas a partir de las hipótesis. Por otro, intenta incrementar el conocimiento, generando nuevas proposiciones contrastable con la realidad. Además, las teorías pueden también facilitar la predicción de las consecuencias de algunos acontecimientos. A título ilustrativo, vamos a tratar de identificar los rasgos que definen a estos elementos en el terreno económico utilizando las definiciones de Lange y de Castañeda. Para Lange (1966, pág. 99): “Las teorías económicas especifican las condiciones en que las leyes abstractas son verdaderas, y se enlazan de forma determinada. Las condiciones especificadas en una teoría económica se conocen con el nombre de hipótesis, y a una serie de estas hipótesis, referentes a un aspecto determinado de la actividad económica, se le suele llamar modelo económico teórico”, Para el profesor Castañeda (1968, pág. 56), “La teoría Económica, al abordar el estudio de un determinado conjunto de cuestiones, introduce los supuestos de simplificación necesarios para dejar únicamente los rasgos fundamentales, con los que construye el esquema teórico que somete al razonamiento deductivo, en su caso bajo formulación matemática, para sacar como consecuencia las conexiones existentes entre los elementos considerados y analizar también los distintos resultados compatibles con los supuestos admitidos”. Cómo se ha indicado, las teorías tratan con representaciones simbólicas de la realidad y están basadas en modelos. Para el profesor Bunge, las teorías se refieren a un sistema que tratan de explicar y contiene modelos que son “representaciones idealizadas del mundo real” (Bunge, 1985, pág. 420). Hayek (1963) nos proporciona una definición más completa de modelo, viniendo a decir que un modelo es una representación formal de una teoría en la cual ciertos elementos constituyen abstracciones, mientras otros son ignorados con la finalidad de intentar proporcionar una descripción simplificada de los aspectos más sobresalientes del fenómeno elegido. Los modelos comprenden estructuras, cada una de las cuales es una caracterización bien definida de lo que se pretende explicar. Una teoría sobre el funcionamiento de un sistema, lleva ligado uno o varios modelos que intentan reflejar las principales relaciones del sistema que se

consideran relevantes en el contacto de la teoría. Por tanto, las teorías no son modelos, sino que incluyen modelos. En la ciencia económica, gran parte de los esfuerzos de los economistas han consistido en elaborar modelos genéricos que sean aplicables con validez general a los diversos sistemas concretos, a este tipo de modelos expuestos en forma matemática, los denominamos “modelos económicos”. Como se deduce de este párrafo, el modelo no describe el mundo económico real, sino una simplificación del mismo, en palabras de Koutsoyiannis: “ Es el primer paso par comprender la gran complejidad del mundo económico” (Koutsoyiannis, 1985, pág. 21) Un modelo económico representa un sistema compuesto por un conjunto de conceptos y de relaciones que quedan especificadas por estimación. Proporcionan previsiones que una vez comparadas con la realidad pueden ser útiles para la mejora del modelo. Generalmente, se consideran dos procedimientos par la construcción de modelos: Establecer hipótesis sobre la realidad, en función de las teorías existentes acerca del fenómeno que se trata de estudiar. A través de un procedimiento intuitivo, y de acuerdo con los hechos, formular las hipótesis. El modelo lo podemos construir con diferentes niveles de agregación, detalle y complejidad según cual sea su objeto. Generalmente, los modelos se construyen con dos finalidades: Explicación o descripción de las características y comportamiento de las variables económicas que intervienen en el ámbito económico. Predicción o capacidad de pronosticar los efectos de los cambios en algunas magnitudes de la economía. La validez de un modelo se puede juzgar sobre la base de diversos criterios: su capacidad predictiva, la coherencia y realismo de los supuestos, la cantidad de información que proporcionan, generalidad y simplicidad, no habiendo acuerdo sobre qué características del modelo son las más importantes. Así, para Friedman es la capacidad predictiva el atributo más importante que puede poseer el modelo, mientras que para Samuelson es el realismo de los supuestos y el poder explicativo lo fundamental. Una vez construidos los modelos, deben ser contrastados con la evidencia empírica, esto es, susceptibles de ser ratificados o refutados cuando se los confronta con los datos. A este respecto, como nos explica Pulido (1993, pág. 35), la economía ha desarrollado modelos específicos para su aplicación a sistemas reales concretos, los econométricos. Estos modelos deberán basarse necesariamente en un modelo económico general más o menos formalizado y completarse con los aspectos particulares propios del sistema en estudio. Para concluir, diremos que los modelos en general juegan un papel fundamental en economía puesto que permiten las representación de teorías mediante la simplificación de la realidad. Como argumenta Anisi (1988, pág.. 15): “La utilidad de los modelos es indiscutible, puesto que difícil es encontrar una argumentación económica que no se apoye en algunos de ellos”. Una vez analizados estos conceptos es preciso aclarar con mayor precisión qué entendemos por contrastar una hipótesis o una teoría. En este sentido, una vez que se han construido las hipótesis o las teorías con la finalidad de explicar o predecir determinados fenómenos, hemos de proceder a su contrastación, entendiendo por tal el proceso según el cual éstas se ponen en contacto con los hechos para tratar de determinar la adecuación o no de ellas respecto a los mismos. En consecuencia, un requisito fundamental es que el enunciado hipotético esté formulado de forma que haga posible su contrastación. Bunge (1985) se refiere a la contrastación empírica y la contrastación teórica. Así, una hipótesis o teoría será “empíricamente contrastable” cuando, junto con datos empíricos, implica proposiciones

sugeridas por experiencias controladas, a su vez, una experiencia controlada está diseñada con ayuda de otras ideas científicas y puede ser examinada empíricamente, en cambio, una hipótesis o teoría se dirá que es “teóricamente contrastable” cuando se pueda compararla con hipótesis o teorías empíricamente contrastables. La contrastación de hipótesis suele ser más simple que la de las teorías, ya que en el primer caso se trata de un solo enunciado, mientras que en el segundo nos enfrentamos con un sistema de enunciados. Como en las hipótesis suelen aparecer conceptos teóricos, no observacionales, la contrastación de aquellas ha de hacerse, por lo general, de manera indirecta o, en otras palabras, es preciso derivar de ellas un enunciado de carácter observacional que es el que se contrastará directamente. La contrastación indirecta se puede enfocar desde esta otra perspectiva, la hipótesis se integra en un modelo interpretativo de la realidad y, como tal, no se refiere a la experiencia si no es a través del modelo, esto es , indirectamente. En consecuencia, el referente inmediato de la hipótesis es la descripción ideal de la realidad, no la realidad misma. Estas reflexiones conducen a las dos consecuencias importantes referentes a la contrastación de las hipótesis: 1. La contratación indirecta de las hipótesis exige el uso de reglas de inferencia. Se precisa, pues, de ciertas técnicas lógicas que vinculen a los enunciados hipotéticos desde el punto de vista de la confirmación o refutación. 2. Las hipótesis no se contrastan nunca aisladamente ya que lo normal es que las hipótesis se relacionen entre sí. Ello significa que,, inevitablemente, al tratar de contrastar una hipótesis lo haremos simultáneamente con aquellas otras que guardan alguna relación lógica. Para concluir, especificaremos como indica Bunge (1985), que existe una clara distinción entre el contraste de una hipótesis y de una teoría: “mientras las hipótesis deben enriquecerse con los datos para ser contrastadas, las teorías deben ser enriquecidas con datos y con hipótesis adicionales...” 4.2 EL PENSAMIENTO Y EL MÉTODO ECONÓMICO. En el terreno de la metodología más conveniente para nuestra ciencia, puede observarse asimismo una evolución en la postura mantenida por los principales economistas a lo largo del tiempo. Además, las recomendaciones de los economistas en el terreno metodológico reflejan en cierta medida las corrientes dominantes en la filosofía de la ciencia en cada momento histórico. Siguiendo a Blaug (1992), cabe distinguir fundamentalmente dos corrientes metodológicas entre los economistas : la primera es el verificacionismo, y sus representantes viven en el siglo XIX y principios del XX. La segunda podría denominarse falsacionismo - porque recoge las ideas popperianas - y abarca desde el decenio de 1930 hasta la actualidad. La Economía, a semejanza de las demás ciencias, tuvo su origen, en investigaciones particulares de fenómenos dignos de atención que plantearon problemas de diversa índole. Durante mucho tiempo estuvo limitada al estudio de cuestiones especiales a los que se les intentaba dar una explicación por factores específicos y aunque se presentía la existencia de interdependencias estructurales, no eran contempladas en su globalidad. El fenómeno central de la economía nacional, en sí mismo, permaneció en buena medida desconocido, o bien oscurecido por los conocimientos prácticos instintivos. Aunque mucho antes del siglo XVIII se había especulado ya sobre la naturaleza del proceso económico, fueron los fisiócratas, en la década de 1760, los que dieron un paso decisivo para el progreso de nuestra ciencia. François Quesnay y sus discípulos no consiguieron poner en marcha una escuela continuada de pensamiento económico, pero merecen ocupar un lugar destacado en la historia de la ciencia social por muchas razones. Su clasificación de los

miembros de la sociedad como “agricultores”, “artesanos”, y “terratenientes” introdujo la idea de que la estructura fundamental del orden social está formada por clases que se definen de acuerdo con sus papeles y estatus económicos. Esto se convirtió, con algunas modificaciones, en una característica básica de la economía clásica ortodoxa y de las grandes teorías sociales de Karl Marx y Friedrich Engels. La tesis fisiocrática de que el sector agrícola de la economía produce un “excedente” introdujo una idea que, de nuevo con modificaciones, desempeño un papel importante en los modelos ricardiano y marxiano , como veremos en este trabajo, en el análisis económico “neoclásico” que sustituyó a finales del siglo XIX y principios del XX al modelo ricardiano. Los fisiócratas, aunque no abogaron por el laissez-faire como una política general, consideraron los sistemas económicos regidos por “leyes”, análogas a las que controlan los fenómenos naturales. La característica más destacada del modelo fisiocrático, la concepción de la economía como un flujo circular de gastos e ingresos, no la utilizaron los economistas clásicos. Aunque asomaba al fondo en la literatura económica del siglo XIX, centrada en el funcionamiento del sistema monetario, no reafloró destacadamente como un paradigma analítico hasta la década de 1930, en que empezó a desarrollarse de un modo sistemático la subdisciplina de la “macroeconomía”119. Pero una interpretación analítica de la totalidad del proceso económico solo aparece con los trabajos de los autores clásicos, destacando entre ellos los de A. Smith, D. Ricardo, Malthus y J.S. Mill. Con el nombre de Economía Clásica se designa la elaboración doctrinal de un grupo de economistas que expusieron sus teorías entre finales del siglo XVIII y principios del XIX120. Durante este periodo, y mediante la decisiva aportación de estos autores, la economía va a recibir por primera vez y de forma satisfactoria, un tratamiento sistemático, que la acabará constituyendo en un cuerpo organizado de conocimientos, en una ciencia. En este periodo del pensamiento económico aunque existieron diferencias entre las ideas de los miembros de la escuela clásica, en general sostuvieron principios que incluían la creencia en la libertad natural (laissez faire) y la importancia del crecimiento económico como medios para mejorar la condición de la existencia del hombre. Los economistas clásicos recogieron de los fisiócratas el interés investigador por el producto neto pero, a diferencia de estos, entendieron que la agricultura no era la única actividad productiva, la industria también generaba excedente. De tal forma, se puede decir que una vez establecida por los fisiócratas la idea de la producción como base de la Ciencia Económica, serían, entre otros, Smith, Ricardo, Say y Malthus, quienes dieron el primer paso hacia el actual orden de ideas ocupándose de cortar el cordón umbilical que unía originariamente la noción de producción – y a la clasificación de las actividades en productivas e improductivas- al mundo físico. Lo anterior permitió cifrar el progreso mediante la simple multiplicación de mercancías con independencia ya de los procesos que les habían dado origen, y ensalzar las cualidades productivas de la industria capitalista. Adam Smith (1723-1790) hoy considerado como el padre de la Economía, dio a la Economía Política su estructura moderna. Estructura que le fue revelada, a su vez, por las etapas iniciales de la Revolución industrial. De ahí que se idolatrara la ciencia y la técnica, a la vez que el trabajo se elevaba a la categoría de un valor supremo. Sin embargo, para Adam Smith, cuya obra estaba todavía impregnada de “resabios” fisiocráticos, la agricultura seguía siendo la 119

GORDON (1985) pág.585. Se extiende aproximadamente desde la aparición de la Riquea de la sNaciones en 1776 hasta la muerte de John Stuart Mill en 1873. 120

actividad productiva por excedencia al confluir en ella las cualidades productivas de la tierra y del trabajo. Smith consideraba que la esencia de la riqueza era la producción de bienes físicos solamente y esto le llevó a distinguir entre trabajo productivo y trabajo improductivo121. Según esta distinción, el trabajo productivo es el que produce un bien tangible que posee un valor de mercado. El trabajo improductivo, por otra parte, se traduce en la producción de cosas intangibles, como los servicios prestados por los artistas o profesionales, mantenidos con una parte del producto anual del trabajo de los demás. El “error capital” de la fisiocracia es, según Adam Smith, considerar a los artesanos, fabricantes y mercaderes como una clase de gentes improductivas e infecundas. Smith no considera el trabajo como posible productor de materia, sino de valor (de cambio), categoría ésta eminentemente social pues sólo se concibe como fruto de relaciones entre individuos. Smith planteó el problema del valor dándole a esta palabra un doble significado: unas veces expresan la utilidad de un objeto particular –“valor en uso”- y otras veces la capacidad de comprar otros bienes que confiere la posesión de tal objeto – “valor en cambio”-. Considerando, a su vez, que las cosas que tienen un gran valor en uso, frecuentemente apenas tienen valor en uso122. Smith resolvió el problema en su época limitándose a dejar de lado el valor de uso y preconizando un valor de cambio que era una versión de lo que llegaría a conocerse como la “teoría del valor trabajo”. Según esta, el valor de cualquier posesión se mide, en definitiva, por la cantidad de trabajo por la cual puede ser cambiada123. Por lo tanto, se puede establecer, tras el giro que acusó el pensamiento con los llamados economistas clásicos, la coexistencia en los fisiócratas de dos niveles de análisis que hoy se muestran conceptual y metodológicamente muy diferenciados, alejados incluso. Uno que trata de acrecentar las riquezas orientando la gestión de recursos desde una perspectiva física y que como corolario aprecia los resultados atendiendo a su valor vital o utilitario concreto. Otro el que trata de hacerlo razonando en términos monetarios y de valores de cambio. El primero domina en los fisiócratas, en la medida en que la riqueza inmobilidaria ocupa para ellos todavía un lugar prioritario, mientras que con Adam Smith se opera un desplazamiento definitivo hacia el predominio de la riqueza mobiliaria, imponiéndose también en consecuencia, el segundo de estos niveles y buscando acrecentar ya las riquezas mediante la simple explotación de los valores de cambio y de la plusvalía. El dinero es, por supuesto, la medida más común del valor, pero Smith era igualmente consciente de los defectos de las medidas monetarias, dado que el valor del dinero cambia con el tiempo. Así, se esforzó por distinguir cuidadosamente entre precios reales y precios 121

Otra reminiscencia fisiocrática también observable en Ricardo y Marx EKELUND, R.B. y HEBERT, R.F. (1991)

122

123

29 Esta idea de que lo que se compra con dinero o con bienes se adquiere con trabajo parece que la tomó de su amigo David Hume (1711-1776), aunque la misma idea había sido expresada por su predecesor William Petty (1623-1687). El enigma de la diferencia entre valor de uso y valor de cambio tardaría en resolverse otro siglo o más, hasta que, en uno de los triunfos secundarios de la teoría económica, se descubrió el concepto de utilidad marginal. Según éste, el factor determinante es la necesidad o uso menos urgente, o marginal.

nominales. Para Smith, el trabajo, como las mercancías, tiene un precio real y un precio nominal. Mientras que su precio real consiste en la cantidad de las cosas necesarias y convenientes de la vida que se entrega a cambio de él, su precio nominal es la cantidad de dinero. El salario era, en general, el coste de atraer al trabajador a su trabajo y de mantenerlo para que siguiera desempeñándolo124. Adam Smith fue el primero en destacar la importancia económica del fenómeno de especialización de las funciones productivas, lo que designó con el nombre de división del trabajo. Joseph Schumpeter ha observado que para Adam Smith la división del trabajo “es prácticamente el único factor del progreso económico”. Smith concluyó que la división del trabajo comporta ventajas derivadas del aumento de la habilidad y destreza del trabajador, del ahorro de tiempo y de la posibilidad de introducir maquinaria que incremente la productividad. El fenómeno de la división del trabajo está condicionado por la dimensión del mercado: a medida que se extiende el mercado se incrementa la división del trabajo. Esto arguye a favor de un área de libre comercio lo más vasta posible, que proporcionaría la máxima eficiencia posible al trabajo. En los años subsiguientes a la muerte de Smith, surgieron tres grandes figuras que refinaron y ampliaron su obra; se trataba de tres autores casi exactamente contemporáneos, a saber, un francés, Jean-Baptiste Say (1767-1832) y dos ingleses, Thomas Robert Malthus (1766-1834) y David Ricardo (1772-1823). Los tres, pero Malthus y Ricardo en particular, presenciaron el vigoroso florecimiento de la Revolución Industrial, y, perfeccionando la obra de Smith, trataron que la ciencia económica se desarrollara en consonancia con este enorme cambio. Con ellos llegó la teoría económica correspondiente al orden industrial. La principal aportación de J. B. Say (1767-1832) en su Tratado de Economía Política, publicado en 1803, fue su ley de los mercados. La ley de Say sostiene que la producción de bienes genera una demanda agregada efectiva (es decir, realmente gastada) suficiente para comprar todo los bienes ofrecidos. Por lo tanto, nunca puede originarse en el sistema económico una superproducción generalizada. En términos algo más moderados, esta ley viene a expresar que el precio de cada unidad de producto vendido genera unos ingresos bajo la forma de salarios, intereses, beneficios o rentas de la tierra, suficientes para comprar dicho producto. En consecuencia, nunca puede ocurrir una insuficiencia de la demanda, que es la otra cara de la moneda de la superproducción. La ley de Say prevaleció triunfante hasta la gran Depresión. Sólo en esas circunstancias pudo ser refutada por John Maynard Keynes, quien sostuvo y argumentó influyentemente, que podía haber (y entonces había en efecto) una insuficiencia de la demanda. David Ricardo (1772-1823) fue la mente capaz de llevar a su plenitud la mayor parte del cuerpo doctrinal que, pasado el tiempo, recibiría el nombre de economía clásica. “Lo que aseguró el lugar de Ricardo en la historia de la Economía fue su capacidad de construir un sistema analítico general que generaba conclusiones fundamentales, basadas en unos relativamente pocos principios básicos. Su sistema era un monumento al proceso del razonamiento deductivo”125. Hay que esperar a David Ricardo para que se inviertan por completo los antiguos planteamiento sobre la génesis de las riquezas y del valor. En sus Principios de economía 124

“Sobre esta base, David Ricardo formularía la ley de bronce de los salarios, según la cual la clase trabajadore percibe la remuneración mínima indispensable para su supervivencia”, GALBRAITH, J.K. (1993) pág. 80. 125 EKELUND, R..B. y HÉBERT, R.F. (1991) pág. 155.

política y tributación, publicado en 1821, sostiene que las fuerzas naturales no añaden nada de valor a las mercancías, sino que, por el contrario, lo merman y rebate la idea de Smith de que la agricultura era más productiva que la industria. Se suele caracterizar la teoría del valor de Ricardo como una teoría del “coste real”, en la que, el trabajo es el factor (empírico) más importante. El problema central planteado en los Principios... era ver cómo se producen los cambios en las proporciones relativas de la renta correspondientes a la tierra, al trabajo y al capital, y el efecto de estos cambios sobre la acumulación de capital y el crecimiento económico. La determinación de la renta era una parte integral de este problema. Pero toda la teoría de la distribución de la renta tiene que descansar en una teoría del valor y Ricardo procedió a modificar la teoría del valor de Smith para su propio uso. Entre los factores que determinan el valor de una mercancía, Ricardo cree que el primero es la utilidad. Si una mercancía no fuera útil en absoluto, es decir si no pudiera contribuir a nuestra satisfacción, carecería también de valore de cambio. Sin embargo: “la utilidad no es la medida del valor de cambio aunque es algo absolutamente esencial al mismo”126. Una vez establecida la necesidad de los productos “intercambiables”, advierte luego que su valor proviene, ya sea de su escasez, o de la cantidad de trabajo necesaria para obtenerlos. Para Ricardo, la relación entre valor y tiempo de trabajo empleado en la producción era una relación bien simple: cualquier aumento de la cantidad de trabajo debe elevar el valor del bien sobre el que se ha aplicado, así como cualquier disminución debe reducir su valor, constituía una auténtica contribución a la Economía. Aunque Ricardo nunca modificó esta posición básica, sin embargo, añadió varias cualificaciones necesarias para hacer más realista la teoría. La primera excepción a la regla anterior, que se permitió, fue en el caso de los bienes no reproducibles; son bienes cuyo valor está determinado tan sólo por su escasez. Ningún trabajo puede aumentar la cantidad de dichos bienes y, por tanto, su valor no puede ser reducido por una mayor oferta de los mismos, (por ejemplo una pintura de Renoir). No obstante, consideraba que estos bienes representaban tan sólo una pequeña parte de todo el conjunto de bienes que diariamente se intercambiaban en el mercado; constituyendo los bienes reproducibles, cuyo valor de cambio estaba recogido por el trabajo incorporado a los mismos, el caso general. Las cualificaciones más importantes de la teoría del valor trabajo se hicieron respecto al papel y a la importancia del capital, que se trata como trabajo “indirecto” o “incorporado”. Aquí, Ricardo distinguió entre capital fijo y circulante. El capital circulante “perece rápidamente y tiene que ser reproducido con frecuencia”, mientras que el capital fijo “se consume lentamente”. Por tanto, el valor aumentará a medida que aumente la proporción entre el capital fijo y el capital circulante y a medida que aumente la duración del capital. Ricardo reconoció, por lo tanto, dos maneras en las que el capital afecta al valor de los bienes: 1.- El capital utilizado en la producción constituye una adición al valor del producto. 2.- El capital empleado por unidad de tiempo tiene que ser compensado(al tipo de interés corriente). Desde un punto de vista analítico, Ricardo basó el valor en los costes reales de trabajo y capital. Su teoría difería de la de Smith en que excluía la renta de los costes. Pero desde el punto de vista empírico, Ricardo sostenía que las cantidades relativas de trabajo utilizadas en la producción son los principales determinantes de los valores relativos. En sus Principios...., elabora en primer lugar una tipología de rentas y de su modo de determinación: salario, renta y beneficio, que aparece aquí como un residuo. 126

RICARDO, D. (1821) pág. 19.

El beneficio desempeña un papel central, ya que de el depende la tasa de ahorro, la tasa de acumulación y por tanto el crecimiento del producto. En situación de maximización de beneficio y libre movilidad del capital, asegura la igualación tendencial de las tasas de beneficio en toda la economía, “ley” establecida por Ricardo. Para explicar cómo se establece el reparto y cómo evoluciona cuando el producto total aumenta, divide la economía en dos ramas y muestra cómo las fuerzas que operan en la agricultura sirven para determinar el reparto en la industria. Su análisis parte del funcionamiento del sector agrícola, considerando la tasa de salario independiente de la productividad. El excedente agrícola será la suma de la renta de los propietarios terratenientes y de los beneficios de los capitalistas agrarios; la tasa de beneficio sobre el capital vendrá determinada por la relación de los beneficios con los salarios. A continuación estudia las relaciones entre el sector agrícola y el resto de la economía, y el equilibrio en su conjunto. La existencia de un excedente agrícola permite al sistema desarrollar actividades de carácter industrial, viniendo medida la tasa de beneficio en la industria y la tasa de salario monetario por las condiciones de producción de los bienes salariales, siendo enteramente independiente de las condiciones de producción de los bienes de lujo127. En cuanto a la dinámica y evolución del sistema, Ricardo distingue “reproducción simple” de “reproducción ampliada”. En el caso de que una fracción del excedente se utilice productivamente, el sistema verá crecer su capacidad productiva. Como, por hipótesis, los propietarios terratenientes consumen toda su renta (la renta) en bienes de lujo, la capacidad de expansión del sistema se basa totalmente en el modo de utilización del beneficio, fuente y móvil de la acumulación de capital. Este es un progreso decisivo en el análisis de los fisiócratas128. Aunque apunta el papel de las mejoras en las técnicas agrícolas, no desarrolla su impacto. Sometida al beneficio, la acumulación de capital depende de la diferencia entre productividad marginal en la agricultura y tasa de salario. Para examinar sobre esta base la dinámica de su sistema, supuesto en un estado de equilibrio natural, Ricardo aísla, entre el conjunto de los fenómenos en juego, el proceso de acumulación, y demostrará así la “ley de gravitación de los beneficios” y la marcha hacia el “estado estacionario”. La ley de gravitación de los beneficios es razonada muy sintéticamente así: a medida que progresa la acumulación de capital, el número de trabajadores empleados, Si bien los fisiocrátas no desarrollan el análisis en términos de reproducción ampliada, si tienen el mérito, reconocido por Marx, de descubrir el papel del excedente económico y de sus detentadores en el proceso deaucmulación de capital. las producciones, el volumen de los salarios distribuidos y el de las rentas aumenta regularmente, al igual que el precio del bien numerario y la tasa de salario natural expresada en moneda mientras que los beneficios totales aumentan hasta cierto punto, luego disminuyen y la tasa de beneficio disminuye constantemente. El progreso se detiene cuando la tasa de beneficio alcanza un valor umbral que permite exactamente la reproducción del sistema de manera idéntica. Este alcanza entonces el “estado estacionario” (tasa de crecimiento nula). ¿Es irremediable esta conclusión?. En absoluto. Ricardo señala dos factores susceptibles de retrasar su aparición, factores que intervienen, de una manera u otra, sobre la ley de los 127

Puede verse una formulación matemática del modelo ricardiano en Pasinetti, L. (1974) pp 13 a 36. En Quesnay, la evolución del sistema está totalmente controlada por la clase de los propietarios terratenientes. 128

rendimientos decrecientes que junto al mecanismo malthusiano de la población son determinantes para estas conclusiones. Los dos factores son el progreso técnico en la agricultura y el comercio exterior. Ambos van a quebrar el alza en el coste de los bienes de subsistencia. Abandera los intereses de los capitalistas frente a los propietarios terratenientes al defender la importación libre de productos agrícolas de subsistencia para mantener bajo el precio de los mismos. Adquiriendo el trigo producido a coste inferior en el exterior (al menos a coste “comparado” inferior) a cambio de productos manufacturados que no tienen que sufrir la ley de los rendimientos decrecientes se puede acrecentar el fondo de salarios sin recurrir a procedimientos costosos que pesarían sobre los beneficios. El modelo construido por Ricardo constituye un sistema coherente de notablerigor lógico129. Basado en hipótesis claramente especificadas, basa su análisis en dos clases fundamentales: capitalistas y trabajadores. Al hacer esto, pone en evidencia el proceso de acumulación y la racionalidad del sistema basado en la función del beneficio así como en la naturaleza del salario. La dinámica del sistema ricardiano reposa en la acumulación de capital que interviene como el factor determinante de un proceso complejo de evolución del sistema social. De ese proceso que engendra crecimiento, Ricardo establece y diferencia el control del mismo de sus beneficiarios e inserta el proceso social en el sistema ecológico que tiende a dominar a través de la ley de los rendimientos decrecientes en la agricultura. Una llamada de atención a los límites de una acumulación incontrolada, algo presente en otros clásicos además de Ricardo, luego olvidado y de indudable modernidad. El modelo ricardiano pone de manifiesto algunos de los problemas de su tiempo. La necesidad de beneficios suficientes para la acumulación de capital que debe apoyarse en un excedente agrícola importante y poco costoso desprendido de la tasa de salario de subsistencia evidencia el conflicto entre propietarios terratenientes y capitalistas industriales, vieja y nueva clase dirigente. El análisis ricardiano se apoya en cuatro “leyes”, cada una de las cuales trata de representar un elemento esencial de lo real, constituyendo otros tantos modelos que no han dejado de ser criticados: ? la ley de los rendimientos decrecientes ? la ley de la población de Malthus ? la ley de los mercados de Say ? la ley de la acumulación La propia toma de partido de Ricardo, su lucha por el desarrollo del capitalismo industrial, le hace subestimar ciertas deficiencias del mismo como sus insuficiencias en lo que concierne al equilibrio (criticado por Malthus) o a su falta de visión en cuanto al carácter contingente del sistema (criticado fundamentalmente por los marxistas). Como escribe en el prólogo a la primera edición de los Principios: “Si se reconociera que los principios que juzgo verdaderos lo fuesen realmente, a otros escritores más hábiles que yo corresponderá llevarlos hasta todas las consecuencias importantes”130. La primera contribución de Thomas Robert Malthus (1766-1834) clérigo, escritor y profesor de historia y economía política así como observador de la recesión causada por las guerras napoleónicas, fue la ley que a su criterio regía el crecimiento demográfico, influyendo además en la determinación de los salarios. En la primera edición del Ensayo sobre el principio de la población (1798) Malthus presentó su “ley de la población”. La población, cuando no es controlada, se incrementa geométricamente; las disponibilidades alimenticias sólo se incrementan, como mucho, aritméticamente. La persistencia de esta asimetría, según Malthus, 129 130

ROSIER, B. (1975) pp.102 y ss. RICARDO, D. (1821) pág.16.

significaba que el incremento demográfico será limitado por la oferta de alimentos, a menos que aparezcan antes otras limitaciones. La segunda contribución de Malthus131 contenida en su obra Principios de economía política, publicada en 1820, es el desarrollo de su teoría de la insuficiencia de la demanda efectiva para mantener el pleno empleo. Si una persona sólo puede vender su trabajo, el empresario no lo contratará si no produce un valor mayor que el que recibirá, es decir, será preciso que el empresario pueda conseguir un beneficio. Dado que el trabajador no puede comprar otra vez el producto total, otros deben hacerlo. El beneficio no puede volver a los trabajadores porque en una economía de libre empresa y propiedad privada, la producción y el empleo cesan si desaparecen los beneficios. El pleno empleo sólo podrá mantenerse si la inversión es suficientemente elevada como para absorber el excedente. ¿Quién consumirá el excedente? Los trabajadores no pueden, o los beneficios desaparecerán. Los capitalistas tienen la posibilidad de consumir sus beneficios, pero no suelen hacerlo. El gran objeto de su vida es amasar una fortuna, y están tan ocupados en sus negocios que no pueden dedicarse a consumirla. El gasto de los terratenientes es el medio mejor de superar el estancamiento, dado que la renta de la tierra es un excedente diferencial, su gasto se añade a la demanda efectiva sin añadirse al coste de producción. Otras formas de rentas –salario, interés y beneficio- incrementan el poder adquisitivo, pero elevan también los costes de producción, y los costes deben permanecer bajos si el país pretende mantener una posición competitiva en los mercados mundiales. Mientras Malthus se mostraba favorable al consumo improductivo por parte de los propietarios de la tierra se opuso al mismo si era financiado por el gobierno. Los funcionarios, soldados, marinos y todos aquellos que viven de los intereses de la deuda nacional, suponen impuestos cada vez más elevados que pueden frenar el crecimiento de la riqueza. El análisis de Malthus deja todavía muchos cabos sueltos, pero es mérito suyo: 1. Haber señalado, por primera vez, que no es tan evidente, como creía Smith, la equivalencia entre ahorro e inversión. 2. Que la potenciación de la demanda es una de las posibles soluciones al difícil problema de las depresiones económicas. 3. Que una de las dificultades con las que se enfrenta una “política anticrisis” es que existe antagonismo entre potenciación de la demanda y encarecimiento de los costes. La aportación de Karl Marx (1818-1883) es importante no sólo por los resultados de sus investigaciones económicas, poniendo al descubierto las leyes del desarrollo de la sociedad capitalista, sino fundamentalmente, porque aporta un nuevo método de análisis para el estudio de los fenómenos sociales y económicos, una nueva interpretación de la historia y del mundo que va a tener unas importantes repercusiones en una gran parte de los autores posteriores. En su esquema de pensamiento, Marx adopta la dialéctica hegeliana del cambio, pero invirtiendo su orden (dialéctica materialista). Mientras que para Hegel la Razón o la Idea es la única realidad existente y el cambio real solo cobra sentido en el avance de esta idea a través de una cadena de transacciones dialécticas –tesis, antítesis, síntesis-, para Marx es la realidad la que explica el movimiento de todo lo demás, ideas, instituciones, etc. De acuerdo con el materialismo histórico, todos los sistemas económicos y sociales, incluyendo el capitalista, son transitorios. Des esta manera, la historia puede entenderse como una sucesión 131

ROSIER, B. (1975) pp.122y ss.

de distintos sistemas económicos: salvajismo, barbarie, esclavismo, feudalismo..., que desembocan finalmente en el capitalismo. La lucha de las clases emergentes contra las dominantes, y las propias contradicciones internas de las formas de producción de estos sistemas que surgen de su propio desarrollo, acarrean sus crisis y la superación por otros nuevos, más ricos y complejos. Esto no significa un esquema rígido e inamovible ya que la historia no queda explicada como una sucesión rígida y predeterminada de los modos de producción, es decir, no se cree que cada sociedad tenga que vivir necesariamente la misma secuencia de etapas, cada una de las cuales fuera el resultado de la anterior y condición necesaria de la siguiente. En su obra central de análisis económico, “Critica de la economía política” o “ El Capital”, cuyo primer volumen se publica en 1867, Marx estudia el proceso productivo y la circulación y distribución de las rentas, empleando un método macroanalítico globalizador que había sido olvidado por los autores clásicos. Formula una teoría del valor-trabajo que le permite introducir los preceptos centrales de “plusvalía” y “explotación”. El origen de esta plusvalía se encuentra en el excedente de trabajo –única fuente de valor- incorporado a una mercancía que es apropiado por el capitalista. El sistema de precios también contribuye a la distribución de la renta a favor de los capitalistas. Con todo ello, las clases obreras se ven abocadas necesariamente a una pobreza creciente, mientras la riqueza se concentraría cada vez más. Lo que identifica al sistema capitalista no es la circulación del dinero o de las mercancías, no la propiedad privada de los medios de producción, sino el hecho de que el propietario de dichos medios se encuentra en el mercado con los trabajadores o proletarios que no pueden sino vender su fuerza de trabajo: la compra y venta del trabajo es lo que diferencia a esta sociedad de otras donde se daban vínculos de servidumbre o esclavitud. Marx analiza el proceso de acumulación de capital (conversión de plusvalía en nuevo capital), a partir de la definición y características de las mercancías (valor de uso y valor de cambio). La circulación de mercancías es el punto de arranque del capital. La producción de mercancías y su circulación desarrollada, el comercio, forman las premisas históricas en que surge el capital. El capitalista intercambia dinero por recursos productivos y mercancías y éstas por dinero, obteniendo al fin una diferencia positiva o plusvalía. Lo que hace aumentar el valor de las primeras compras es el trabajo incorporado a las máquinas y primeras materias. Este trabajo incorporado tiene también un valor, el tiempo de trabajo necesario para su producción, o para la producción de los medios de subsistencia, y no sólo los imprescindibles para vivir, sino también los considerados socialmente como aceptables en función del grado de bienestar de la sociedad. El valor de la mercancía producida va a tener tres componentes: el capital constante (material y maquinaria usado), el capital variable (capital invertido en la compra de la fuerza de trabajo) y la plusvalía. Siguiendo a Marx132 , la plusvalía va a depender (o es la expresión) del grado de explotación del trabajador. Marx distingue entre trabajo necesario (parte de la jornada de trabajo en la que el trabajador produce el valor de su fuerza de trabajo y obtiene con ella sus medios de subsistencia) que sería el equivalente a su salario, y el trabajo excedente. La plusvalía (p) guarda con el capital variable (v) la misma proporción que el trabajo excedente con el trabajo necesario. La cuota de plusvalía (p/v) nos da la expresión exacta del grado de explotación de la fuerza de trabajo por el capital o del obrero por el capitalista. La plusvalía producida depende de la magnitud del capital variable y del grado de explotación de la fuerza de trabajo. Como, por otra parte, la cuota de plusvalía depende de la relación entre la jornada de trabajo y el tiempo necesario, los dos métodos que existen para aumentar el grado de explotación son: 1. Prolongar la jornada de trabajo y 2. Disminuir el tiempo necesario (empleo de nuevas técnicas). 132

SWEEZY, P. (1942) pp. 71 y ss.

La máquina acorta el tiempo de trabajo necesario, pero puede eliminar puestos de trabajo, por lo tanto, el empleo de maquinaria por el capitalista implica una contradicción: con un capital dado, hace que aumente uno de los factores de la plusvalía (la cuota de ésta), disminuyendo el otro factor (el número de obreros empleados). El aumento de la composición técnica del capital camina pareja a la disminución de la masa de trabajo. Al producir capital, la población obrera produce también, en proporciones cada vez mayores, los medios para su propio exceso relativo, formando un contingente disponible dispuesto siempre a ser explotado a medida que lo reclamen las necesidades variables del capital, presionando sobre los obreros activos, que se ven obligados a someterse a sus imposiciones. Gran parte de la obra de Marx está dedicada al estudio y la crítica de los trabajos de diversos autores anteriores: Petty, Davenant, Sismondi, Smith, Malthus y sobre todo Ricardo, recomponiendo sus teorías como una fase preparatoria para la suya. Con respecto a Ricardo, le criticó el confusionismo, por lo demás común a todos los clásicos, al no ser capaces de distinguir entre los conceptos trabajo y fuerza de trabajo y llega, por tanto, a los de plusvalía y explotación. Para Marx, la baja tendencial de la tasa de ganancia es consecuencia del progreso técnico, al variar la composición orgánica del capital, en tanto que para Ricardo es el resultado de una insuficiencia de progreso técnico. A pesar de coincidencias con Ricardo, Sismondi (1773-1842) es considerado como un auténtico precursor de Marx. Malthus y Sismondi (que publican, uno y otro, sus Principios de economía política en 1819) “descubren en la crisis económica de 1816, en la que Ricardo sólo ve un acontecimiento excepcional, un fenómeno inherente al nuevo sistema económico”133. Marx profundiza en esa idea. Se siente atraído por Sismondi (en cuyas teorías ya se esboza el concepto de plusvalor) que se declaraba “impresionado por el número de manufacturas que sin esperar las necesidades y la demanda del público, vuelcan en el mercado productos que superan infinitamente las posibilidades de comprar de ese público”. El elemento de progreso que incorpora Marx es la diferenciación en la producción entre un sector de bienes de consumo y otro de bienes de producción, los cuales son objeto de una demanda específica por parte de los capitalistas en función de los beneficios. Esto le permite concluir que la crisis no vendrá tanto de la insuficiencia de capitales como de sus excesos en relación a la demanda solvente. Es el problema de la “realización del producto” en Marx. Y escribe “llega un momento en que el mercado parece demasiado estrecho para la producción”. Al tratar el desencadenamiento y desarrollo de la crisis distingue una causa profunda, enraizada en el carácter del modo de producción, de una causa inmediata: el resultado de la superinversión provocará una caída de la tasa de beneficio, que puede acentuarse por la propia tendencia decreciente de la misma. La crisis de sobreproducción juega un papel regulador junto con la tasa de beneficio y la movilidad del capital. “Para los economistas clásicos ortodoxos, la tarea principal de la teoría económica era la elaboración de un modelo de desarrollo económico y el uso de ese modelo para identificar los tipos de política pública que fomentaban el desarrollo y los que lo retrasaban. Para Marx y sus seguidores, la finalidad de las teorías económicas es poner al descubierto el mecanismo a través del cual actúa el capitalismo como sistema de explotación y demostrar que el capitalismo, como todos los sistemas económicos que le precedieron, genera inevitablemente fuerzas que llevan a su destrucción y sustitución”134 Cómo ya se ha observado, la visión de los clásicos sobre el crecimiento se basaba en las previsiones demográficas de Malthus y la teoría de los rendimientos

133 134

ROSIER, B. (1975) pág. 104. GORDON (1995) pág. 594.

decrecientes de Ricardo, Malthus y West. Según estos, el incremento demográfico y los rendimientos decrecientes conducirían a una mayor presión de los salarios de subsistencia en detrimento de los beneficios y la acumulación de capital, lo que conduciría inevitablemente al estado estacionario, cuya llegada sólo podría ser retardada propiciando la acumulación del capital (progreso técnico) y favoreciendo el comercio internacional. La preocupación por la acumulación de capital les llevo a plantearse el problema de la distribución, y éste, a su vez, a la teoría del valor. El método defendido por la Escuela Clásica provoca discrepancia en un grupo de economistas alemanes que, ante lo que ellos consideraban una excesiva abstracción y universalidad en la formulación de las leyes económicas, reclaman la necesidad de afrontar la comprensión de los fenómenos económicos no solo a través del simple razonamiento abstracto sino con la perspectiva que da el conocimiento histórico. En torno a este pensamiento germina en el decenio de 1840 lo que habría de conocerse como escuela Histórica Alemana, con las obras de Friedrich List (1789-1846) y Wilhelm Roscher (1817-1894), extinguiéndose con la primera guerra mundial a la muerte de Gustav Schmoller (1838-1917)135. Los economistas de la escuela histórica insistieron en la importancia de estudiar la economía desde una perspectiva histórica, como parte de un todo integrado, asumiendo un enfoque evolucionista en su estudio de la sociedad. La sociedad está en constante cambio. Por tanto, la doctrina económica adecuada para un país en un periodo determinado puede serlo para otro país u otra época. Criticaba las características de abstracción, deductividad, falta de realismo y tendencia histórica de la metodología clásica. Frente a la universalidad e inmutabilidad que los clásicos otorgan a los principios y leyes económicas, resultado de la supuesta inmutabilidad de las instituciones y conductas del individuo, los históricos postulan la relatividad y la variabilidad de las leyes económicas. Ello les lleva, por ejemplo, a defender el laissezfaire y el libre comercio para Inglaterra pero no para Alemania. Con su defensa de la investigación empírica los economistas históricos suscitaron la inquietud de muchos de sus contemporáneos, promoviendo el estudio de aspectos que habían quedado relegados durante la etapa clásica. Si bien, es verdad que no lograron culminar la formulación de las leyes que rigen el desarrollo económico, ni definir el método histórico para la investigación económica, consiguieron, eso sí, el papel en el desarrollo de la historia, anticipándose en este sentido al pensamiento de Marx. Con ellos se produjo, por lo demás, un profundo proceso de discusión de los planteamientos metodológicos. La defensa del sistema clásico provino de un sector ligeramente desplazado con respecto a la corriente central de la ciencia económica. Se trataba del utilitarismo. Situado en la herencia histórica de la economía política del siglo XVIII, fundado como sistema de pensamiento por Jeremy Bentham (1748-1832)136.Y revisado por John Stuart Mill (18061873) el utilitarismo aporta un enfoque que se ha extendido principalmente en la Teoría Económica, la ciencia política y la filosofía moral, campos en los que aparece como una de las grandes corrientes que presiden los desarrollos actuales. Como teoría analítica, se basa en los siguientes supuestos. En primer lugar, el indivualismo metodológico, que implica una toma de partido por la autopreferencia o el criterio de cada uno es quien mejor puede decidir sobre sus propios intereses, y una consideración de que los deseos de todos los individuos tienen la misma dignidad. En segundo lugar, la capacidad racional de los individuos de ordenar sus preferencias y fijar sus objetivos y de elegir los medios adecuados para conseguirlos. 135 136

OSER, J. Y BLANCHFIELD, W.C. (1980) La expresión utilitarian (utilitario) fue usada por primera vez por Jeremy Bentham hacia 1780.

Toda la obra de J.S.Mill (1806-1873) es una tentativa de construir una concepción ética del utilitarismo a partir de la crítica del primer sistema de pensamiento benthamiano. Mill sistematiza gran parte de las ideas posteriores a Ricardo tanto en Inglaterra como en Francia. Distingue, como los clásicos entre un valor temporal y un valor permanente o natural. El primero depende de la demanda y de la oferta, y el segundo del coste. A propósito del coste hay una distinción en Mill importante: la oferta de algunos bienes puede ser ampliada indefinidamente sin que ello comporte un aumento del coste. Para estas mercancías la demanda no tendría ninguna influencia cuantitativa sobre el valor. Habría mercancías cuya oferta podría ampliarse indefinidamente con sucesivos aumentos de coste. Mill recoge las ideas de Say y de Senior, y define primero el coste como la suma de los gastos de los empresarios para preguntarse después qué es, en última instancia el coste de producción y dar un concepto de coste “real” como suma de trabajo, abstinencia y riesgo del empresario. Pero la forma como estos elementos del coste real dan lugar en el mercado a los precios que se han de pagar por las mercancías no es llevado muy lejos por Mill137. En The Principles of Political Economy138, Mill establece el laissez-faire como, uno de los principios secundarios derivados del principio de la utilidad, aunque con excepciones suficientemente numerosas para que en él haya podido percibirse un precedente de la teoría de los fallos del mercado en que más tarde se apoyaría la teoría económica del bienestar. Según Mill, hay intervenciones del Estado necesarias (leyes sobre la propiedad y los contratos, administración de justicia, policía, impuestos) e intervenciones facultativas, entre las cuales algunas son legítimas y otras erróneas porque deben realizarse de un modo autoritario. El paso del tiempo quitó la razón a los clásicos en sus predicciones sobre el estado estacionario y a los marxistas en su visión sobre el desarrollo del capitalismo, lo que impulsó a nuevos planteamientos en el ámbito económico, como fue el caso de la revolución marginalista, a cuya sombra nace, en el último tercio del siglo XIX, la escuela neoclásica139 con la aparición simultánea e independiente de los trabajos de Schumpeter140, en su Historia del análisis económico, acepta la continuidad de los neoclásicos, señalando que mantienen la misma “visión” que los clásicos del proceso económico y del progreso hacia el que éste ha de apuntar141, lo que no quita que reconozca y enumere las diversas aportaciones neoclásicas al aparato analítico de la ciencia económica que la hicieron ganar en precisión y en coherencia interna. 137

NAPOLEONI, C (1956) pp. 1592 y ss. Una de las principales contribuciones de John Stuart Mill a la historia de la disciplina que cultivó fue la que aportó como autor de lo que podría considerarse razonablemente como el primer libros de texto de economía plítica. Su obra Principles of Political Economy fue efectivamente utilizada con ese fin, y su sobresaliente calidad literaria no ha tenido rival hasta ahora. 139 Marginalistas y neoclásicos no son, sin embargo, términos qu se solapen: el marginalismo rebasa a Keynes y llega hasta nuestros días. En este periodo se internacionaliza el ámbito de la teorización ecnómica que hasta entonces había quedad prácticamente restringido a Inglaterra, creándose escuelas como la de Lausana (cuyas figuras más representativas fueron Walras y Pareto), la Austriaca (J.B. Clark, C. Menger, Bohm-Bawerk) y la Sjueca (K. Wicksell, G. Gassel, E.F. Heckscher y B. Ohlin). W.S. Jevons (1835-1882), Karl Menger (1840-1921) y León M. E. Walras (1834- 1910) entre 1871 y 1874. 138

140

Para Schumpeter, Walras es el economista más grande en el terreno de la teoría pura, la suya es la única obra que soporta una comparación con los logros de ls Física Teórica. La concepción del equilibrio general de Walras sintetiza muchos atibos clásicos sobre la idea de interdependencia en Ëconomía, esto es, la idea de que los fenómenos económicos están interrelacionados, de forma que los precios no son arbitrarios sino que pueden expresarse como un sistema de ecuaciones, cuyas incógnits –los precios- se determinan de forma simultánea. 141 Como señala Marshall en el prólogo a la primera edición de sus Principios – que pasaron a sustituir a los antiguos Principios de J. S. Mill como acreditado compendio del saber económico de la época- “la ciencia

Esta ganancia en precisión y coherencia aparecía asegurada por el continuo recurso al análisis matemático, que ofrecía una apariencia de ruptura con las obras de los economistas clásicos. Pero tal ruptura es más formal que otra cosa, pues el mismo método de investigación empleado por los neoclásicos muestra una continuidad hacia el pasado de esta ciencia. Se abandona la teoría del valor-trabajo por una teoría subjetiva del valor (utilidad marginal), haciendo de las apreciaciones subjetivas la base del establecimiento de los precios relativos. Para un neoclásico, lo que da valor a un producto (o servicio) no es la satisfacción total proporcionada por su posesión y uso, sino la satisfacción y el goce –la utilidad-procedente de la última y menos deseada adición al consumo de un individuo dado. Lo mismo sucede con los costes marginales por el lado de la oferta. Suponiendo la homogeneidad de la fuerza de trabajo y omitiendo las diferencias de habilidad y diligencia, el salario era fijado por el valor de la contribución del último trabajador disponible a la producción y los rendimientos. De este modo nadie podía pedir una remuneración superior a su contribución marginal a la empresa. Los excesos en materia de procreación podían incrementar la oferta de trabajadores y disminuir el rendimiento marginal, que de este modo era susceptible de caer a niveles de subsistencia. A su vez, el interés del capitalista se explicaba en forma similar: quedaba establecido por la última y menos rentable unidad de inversión. Tendría lugar un equilibrio entre el rendimiento marginal del capital y el incentivo necesario para atraer al ahorrador individual. Se separaba del interés el beneficio, que compensaba el riesgo. El análisis neoclásico intenta demostrar que el libre juego de los mercados (el de trabajo, el de bienes, ...) pretende maximizar las preferencias de los agentes teniendo en cuenta la limitación de los recursos de partida disponible. Este análisis es a la vez descriptivo –en la medida que considera la organización social ordenada alrededor de los mercados-, y normativo, toda vez que al libre funcionamiento de estos mercados permite obtener el “óptimo social”. Vemos, pues, que el centro de la atención del análisis neoclásico está constituido por el mercado, en el seno del cual los agentes económicos realizan las operaciones, definidas como la maximización de sus preferencias bajo la limitación que supone la escasez. En este contexto, es lógico que la Economía fuera definida como “la ciencia que estudia las condiciones que debe satisfacer la conducta humana para conseguir un placer máximo con un costo mínimo en forma de penosidad”142 Entre los precursores del marginalismo destaca, por su profunda visión del sistema económico Alfred Marshall (1842-1924). Sus Principios de Economía, publicados en 1890, fueron, en un sentido significativo, una cota en el desarrollo de la disciplina de la Economía, constituyendo quizá el manual más relevante durante la primera parte del siglo actual. Con dicho libro captó el espíritu académico de la época económica es, y debe ser, una disciplina de lento y continuo crecimiento”.Sintetizando los análisis clásico y neoclásico del coste y de la utilidad, produciendo una sólida maquinaria para el análisis económico143. Marshall fue mucho más que un simple sintetizador. Su método de equilibrio parcial se utilizó como un elemento que homogenizaba las diferentes ramas de la teoría. El uso del tiempo conceptual, que se encuentra en el corazón de su método, constituía una contribución densa y 142

143

NAPOLEONI, C. (1968) pág. 650.

Cierto número de autores importantes contribuyó al corpus del análisis microeconómico neoclásico antes de la publicación de la obra clásica de Marshall. Cournot, dupuit, Jevons y Walras, por mencionar sólo a quienes realizaron las aportaciones más fecundas, se anticiparon a los intereses de Marshall.

original a la teoría y a la política económica moderna. Además de numerosos descubrimientos teóricos, Marshall no dejó nunca de tocar un concepto “recibido” sin ampliarlo o mejorarlo. Para Marshall todos los métodos científicos han de ser utilizados por el economista y no existe ningún método de investigación especial que pueda llamarse con propiedad método de la Economía, sino que cada uno de los conocidos debe utilizarse cuando corresponda, ya sea aisladamente o en combinación con otros. No obstante, Marshal pone énfasis en la inducción y se muestra desconfiado con el método exclusivamente abstracto. Esta posición metodológica le lleva a valorar positivamente, aunque con matices, la aportación de la Escuela Histórica Alemana 144. El fondo de la teoría marshalliana del valor es que toda cantidad de una cierta mercancía tiene un precio de demanda y un precio de oferta; el primero es aquel precio en correspondencia del cual el mercado está dispuesto a absorber dicha cantidad; el precio de oferta es aquel por el cual los productores ponen a disposición del mercado dicha cantidad. De aquí se obtienen las curvas de oferta y demanda, siendo la cantidad efectivamente cambiada aquella que iguala ambos precios. Pero lo que determina la demanda es la utilidad y lo que fija la oferta es el coste. El coste es para Marshall la suma de todos aquellos sacrificios que toda producción comporta: el implícito en el trabajo y el que lleva consigo el aplazamiento del consumo necesario para la formación de capital (la abstinencia de Senior, en Marshall es la espera). El precio de oferta de una determinada cantidad de bienes es exactamente la remuneración conjunta que es preciso ofrecer para que se efectúe aquella suma de sacrificios necesaria para la producción de dicha cantidad. Por lo tanto, las causas últimas del valor son la utilidad que tienen todos los bienes para satisfacer las necesidades y los sacrificios que es preciso aceptar para tener la disponibilidad de estos. La teoría del valor de Marshall puede así considerarse como la expresión más rigurosa y completa de la línea teórica de J. S. Mill145. Marshall sostiene que el ideal es ir hacia el estudio del sistema económico como un organismo que evoluciona en el tiempo histórico –a la manera de los institucionalistas americanos-. Si bien no se niega el valor de la contribución neoclásica a la economía proporcionando una explicación rigurosa de la determinación de los precios en el equilibrio estacionario de largo plazo, tampoco debe ignorarse el limitado propósito de esta clase de análisis y su alejamiento de los problemas prácticos. Marshall tuvo desde un principio la esperanza de atraer a las cuestiones económicas a jóvenes con formación matemática. Aspecto este que no se produce hasta la década de los 30, cuando de la mano de miembros como Sraffa, Kaldor y Keynes, las matemáticas se utilizan profusamente. En este sentido hay que constatar que los estudios de la teoría del capital de la Escuela de Cambridge son modelos básicamente matemáticos. La influencia marshalliana provoca un renacimiento de la economía monetaria, un creciente interés de los problemas macroeconómicos, inexistente en los primeros marginalistas. Representantes de este resurgir monetario son Knut Wicksell (1851 1926) e Irving Fisher (18671947). En los inicios del siglo XX la ciencia económica cobra un reconocido prestigio, fundamentado en la solidez y coherencia de su estructura teórica. Se pueden ordenar los diferentes autores económicos estableciendo cuatro líneas de desarrollo: ? el institucionalismo ? la economía del bienestar ? la competencia imperfecta ? el crecimiento económico 144 145

MARCHANTE MERA, A y MARTÍNEZ SANCHEZ, J.M (1994) MARCHANTE MERA ,A Y MARTÍNEZ SANCHEZ, J.M (1994)

En lo que se refiere a los institucionalistas, podemos señalar que se trata de una corriente de pensamiento económico iniciada en Estados Unidos por Thortein Veblen (1857-1929) a fines del siglo XIX, que prácticamente se ha circunscrito a economistas de esta nacionalidad con algunas ramificaciones en Gran Bretaña146. Fueron unánimes en su rechazo del utilitarismo hedonista, así como del método abstractodeductivo de los neoclásicos. En vez de buscar leyes generales de la economía introduciendo en el razonamiento hipótesis irreales, tienden a intensificar los estudios empíricos en especial la investigación acerca de las instituciones de cada sistema económico. Propugnan, por consiguiente, al igual que los pensadores de la escuela histórica alemana, el método empíricoinductivo. Fue precisamente a las universidades alemanas, a donde se dirigieron un gran número de estudiante norteamericanos interesados en las ciencias sociales en la séptima y octava década del siglo pasado. La escuela histórica alemana promovía la utilización de instrumentos empíricos del análisis como la estadística. Como señala Velarde, “ el contacto comenzó por medios variadísimos, pero algunos datos concretos informan por qué los intelectuales del joven país se interesan especialmente por la corriente germana de pensamiento”, señalando a continuación diversas causas afectas a la necesidad del desarrollo de una metodología y obtención de unos datos estadísticos de carácter económico, por cuanto “las teorías abstractas y las tradiciones históricas sin duda tienen su papel y su lugar adecuado, pero los estadísticos son los ojos del hombre de Estado, capacitándole para vigilar y escudriñar con visión clara y comprensiva la completa estructura y economía del cuerpo político”147. El institucionalismo es ante todo una corriente de pensamiento no convencional. Se concentra en el problema básico de organización de la economía como un sistema, incluyendo en él al mercado. Mientras que la economía ortodoxa se centra en los problemas de asignación de recursos, distribución de la renta, determinación de los niveles de renta, empleo, precios y crecimiento, el institucionalismo estudia el recíproco impacto mutuo de la organización económica en los problemas de asignación de recursos y de crecimiento. Otra crítica que recibió la escuela neoclásica vino de la mano de aquellos economistas que trataron de hacer una valoración global de las consecuencias de una política económica basada en el laissez faire, dando pie a lo que hoy conocemos como teoría del bienestar. Dentro de su argumentación está la valoración de los servicios que la ciencia económica rinde, como tal, al hombre inserto en la sociedad y no al individuo abstracto del modelo neoclásico. Como indican Oser y Blanchfield, “la economía del bienestar no es un sistema de ideas diferenciado y unificado. Se trata más bien de una corriente de pensamiento que interesa tanto a economistas de distintas escuelas como a otros que no pertenecen a ninguna” 148 . Nombres de posturas muy distantes pueden incluirse en esta corriente de pensamiento, entre ellos J.A. Hobson (1858-1940) A. Pigou (1877-1959) 149 y J.M: Clark (1847-1938). Surge en los años 1920 y 1930 un grupo de economistas preocupados por establecer un esquema interpretativo que reuniese todos los diversos grados de competencia que se presentaban en la realidad: desde el monopolio hasta la competencia perfecta. A pesar de que algunos autores los tratan como una desviación del enfoque marginalista, “... del conjunto de proposiciones ahora publicadas que, 146

Entre sus más importantes representantes podemos incluir, además del ya mencionado T. Veblen, a J.R. Commons A su vez, seguidor de Veblen puede considerarse a W. C. Mitchell, desarrollando una aproximación a la teoría de los ciclos económicos. 147 VELARDE, J. (1964) 148 OSER, J. Y BLANCHFIELD, W.C. (1980) pág. 435 149 “Arthur C. Pigou fue el pionero en adoptar la expresión Welfare o bienestar enteoría económica (Wealth and Welfare, 1912) y autor sobre todo de The Economics of Welfare, 1920”, COLOMER, J: M. (1987) pág. 80.

aunque no entran en una discusión de la teoría marginalista del valor y la distribución, han sido elaboradas, sin embargo, para servir de base a una crítica de tal teoría”150 . Se puede considerar como indicador de esta corriente a P. Sraffa (1890-1983), quien en 1926 sentó las bases para una revisión de los conceptos de competencia hasta entonces vigentes E. H. Chamberlin (1899-1967) aportó su teoría de la competencia monopolística, llegando a la conclusión de que en condiciones de competencia imperfecta, el precio y el volumen de producción de equilibrio son más alto y más bajo, respectivamente, que los correspondientes a una situación de competencia pura. No debemos olvidar dentro de este enfoque a J. Robinson, discípula de Marshall e influida por las ideas de Marx, que intentó dar una nueva explicación a las teorías de la explotación de la mano de obra basándose en los principios marshallianos. Notable fue, sin duda, su tratamiento sobre el monopolio. La evolución de la realidad económica obligó a los economistas a enfrentarse con el problema de buscar una explicación teórica al hecho evidente de las perturbaciones y desajustes del proceso económico. Pero surge la dificultad de cómo construir una teoría del ciclo a partir de unos supuestos (clásicos, marginalistas) que negaban la posibilidad de las fluctuaciones económicas. La teoría del crecimiento propuesta por J.A. Schumpeter (1883-1950) tiene su raíz en el modelo de equilibrio walrasiano, modelo que sólo es válido para una economía estacionaria pero que Schumpeter modificó dando cabida a los factores dinámicos, procurando de este modo explicar cual es el comportamiento dinámico de un sistema económico hasta que alcanza y se mantiene en equilibrio. Los resultados obtenidos de este análisis le permitieron realizar una interesante valoración de la totalidad del sistema económico capitalista. Schumpeter al construir una teoría del crecimiento económico, nos brinda por añadidura una teoría del ciclo: la introducción de la innovación y la entrada de los primeros competidores en el campo constituyen la fase de prosperidad, con altos beneficios y expansión del mercado, mientras que el descenso de estos beneficios a causa de la avalancha de competidores constituye la fase de caída y depresión. Como señala Gabriel Tortella, “el logro intelectual de Shumpeter es muy considerable, porque consigue integrar elementos que antes de él parecian inasimilables: la teoría estática marginalista queda engarzada como una teoría del crecimiento por un lado, y una teoría del crecimiento capitalista se integra, por otro, en una teoría de los ciclos. Esto es algo que ni Marx ni Keynes lograron plenamente”151. El inconformismo latente acerca de la realidad de la teoría clásica y neoclásica se decanta hacia un proceso de maduración intelectual cuya cabeza principal es J.M. Keynes (1883-1946). Su revolución consistió más bien en un cambio de perspectiva que traería una visión más general y realista del problema económico. En su Teoría general de la ocupación, el interés y el dinero, publicada en 1936, Keynes considera que enseñanzas de la teoría clásica engañan y son desastrosas si intentamos aplicarlas a los hechos reales, ya que sus postulados sólo son aplicables a un caso especial que no se correspondía con la situación económica real. Queremos centrar este comentario en una de las cuestiones más relevante del autor, como es el tratamiento de las insuficiencias de demanda efectiva. Ya hemos comentado en páginas anteriores que éste fue uno de los problemas que Ricardo no supo detectar. Era algo que Malthus había apuntado en sus “Principios... “ en 1820 afirmando que “... el principio del ahorro, llevado al exceso destruiría el móvil de la producción”. Para Ricardo, el ahorro estaba ligado a los capitalistas y, por consiguiente, significaba lo mismo que acumulación de capital. Además era muy socorrido para él acudir a la reconocida autoridad de Say, quien había 150 151

SRAFFA, P. (1959) pág. 13. TORTELLA,, G. (1980)

afirmado que toda producción engendra su propia demanda. Esto dio lugar a una controversia entre Malthus y Ricardo en la que predominó la teoría más fuerte. Un siglo después, en la cumbre de su entusiasmo por Malthus, pudo exclamar Keynes: “Si Malthus y no Ricardo hubiera sido el tronco del que brotó la ciencia económica del siglo XIX cuánto más sabio y rico sería hoy el mundo”152 . El principio básico que durante tanto tiempo permaneció oculto puede expresarse en forma concisa de la manera siguiente: entre los rasgos que diferencian la sociedad industrial de la agrícola existe uno que obliga a distinguir entre capacidad productiva y producción efectiva. Capacidad productiva no significa producción, sólo significa producción potencial. Para que pueda haber una producción efectiva, tiene que existir una demanda efectiva. En tanto exista capacidad ociosa que pueda utilizarse, las fluctuaciones de la demanda engendrarán fluctuaciones de la producción, mientras que los precios permanecerán más o menos inafectados. Sólo cuando la demanda rebase el nivel de utilización plena de la capacidad, el aumento de la demanda puede causar un incremento de los precios. El proceso de creación de renta seguirá, pero los aumentos de la misma lo serán sólo en valor monetario, porque en términos reales la producción no puede sobrepasar la capacidad productiva. Por lo tanto, al perder la variación de los precios su influencia como mecanismo tradicional de respuesta, otro mecanismo de respuesta entra en uso. A las variaciones de la demanda, los productores responden variando la producción. En otras palabras, ante la proposición de Say de que “toda oferta crea su propia demanda”, Keynes planea que “la demanda engendra renta”. Esto tiene una implicación muy seria. Las variaciones de la producción suponen modificaciones en la utilización de la capacidad productiva existente y estancamiento. Una situación familiar a Keynes, que vive las secuelas de la Gran Depresión y oye a los profesionales de la tradición mantener que podía remediarse el paro reduciendo los salarios monetarios 153 . La sencillez del principio de la demanda efectiva nos lleva a preguntarnos porqué tarda tanto tiempo en manifestar su presencia. Ya se ha comentado en páginas anteriores que la cuestión fue apuntada, tanto por la izquierda ricardiana (Sismondi) como por Marx o por aquellos economistas preocupados por el estudio de los ciclos económicos (Tugan-Baranoswski o Rosa de Luxemburgo). Estos autores, cuyas ideas en este campo se recogen bajo el título de teorías del subconsumo (o de la sobreproducción) se vieron rebatidos por la teoría económica establecida: a comienzos del siglo XIX tomarían la forma de una simple enunciación de la ley de Say; a comienzos del XX bajo la forma más sofisticada de un planteamiento de equilibrio general en el que se consideran como dados los recursos totales y la competencia determina los precios de equilibrio, de modo que éstos conducen a la eliminación de excedentes o déficit en todos los mercados. A la gran mayoría del pensamiento oficial en Economía le resultaba impensable en los primeros 20 años de nuestro siglo que pudiera darse una situación de equilibrio con paro involuntario. Creencia que les lleva en Inglaterra en 1929 a oponerse a un programa de obras públicas con el argumento de que esto no podía tener otro efecto que el de aumentar el desempleo. Las circunstancias en la década de los 30 eran favorables al cambio en el esquema de pensamiento. Dos economistas procedentes de mundos y formación muy diferentes Kalecki154 desde Polonia partiendo de las ecuaciones de reproducción marxista y Keynes desde Inglaterra rebelándose contra Marshall, llegan independientemente a análogas conclusiones sobre el problema de la demanda efectiva.

152

PASINETTI, L. (1983) pág. 59. KALECKI, M. (1973). Ver el prólogo de J. Robinson 154 Pued consultarse su demostración en “las ecuaciones de reproducción marxista y la moderana economía” (KALECKI, M.) en Marx and contemporary scientific thought (Publicaciones del Consejo Internacional de Ciencias Sociales, 1969). 153

La Teoría General del Empleo, publicada en 1936, podemos formularla de manera sencilla y rigurosa. Keynes, una vez definido el proceso básico de creación de la renta por la demanda efectiva, pasa a preguntarse qué es lo que determina la demanda efectiva. A la manera de los clásicos, distingue dos grandes grupos de agentes: consumidores y productores. La demanda efectiva será la suma de la demanda de bienes de consumo ( C -) y la de bienes de Inversión ( I ). Por tanto Y=C+I Y necesitamos una teoría del consumo y una teoría de la inversión. El consumo lo hace depender de la renta. C=C(Y) Respecto de la inversión, Keynes opina que no depende para nada de la renta, en contraste con la teoría tradicional que no diferencia entre demanda de bienes de consumo y demanda de bienes de inversión. Para aquel, la inversión es función de la rentabilidad decreciente esperada de la misma (E) y del tipo de interés ( i ). I = I ( E, i ) Al introducir i, Keynes piensa que, por una serie de razones (transacción, precaución y especulación). I = i ( L, M ) siendo L la función de preferencia por la liquidez decreciente ( la demanda monetaria ) y M la cantidad de dinero emitida por la autoridad central. En conclusión, dada la función de consumo, la tabla de eficiencia marginal del capital y la función de preferencia por la liquidez, y la oferta monetaria (exógena) las cuatro ecuaciones anteriores determinan las cuatro incógnitas Y, C, I, i. La novedad del planteamiento con respecto a teorías anteriores es que muestra que no hay razón por la que el nivel de renta nacional tenga que acabar siendo precisamente el que corresponde a la plena utilización de la capacidad productiva y al pleno empleo de la fuerza de trabajo. La demanda para consumo depende de la renta y la demanda para inversión (determinada con independencia de la renta) se suma simplemente al consumo. Cuando se deja al sistema operar por sí mismo será un puro azar que se logre el pleno empleo. Habrá un equilibrio entre oferta agregada y demanda agregada, pero es un equilibrio con paro. La importancia práctica de este análisis es que además de apuntar un gran problema del sistema capitalista sugiere su remedio. Manipulando matemáticamente155 el sistema de ecuaciones anterior podemos llegar a una relación que nos indique cual es el incremento en el flujo de renta neta por unidad incremental de inversión, o sea, el multiplicador keynesiano. Por tanto no hay necesidad de que el aumento de la demanda efectiva provenga de la inversión. Cualquier incremento autónomo de la demanda efectiva originará precisamente los mismos efectos multiplicadores. Por consiguiente, si la inversión corriente es demasiado baja para dar lugar a la plena ocupación, el Estado puede actuar a través del gasto público. Un elemento de la concepción general de Keynes es su racionalismo abstracto: “ Dos elementos fundamentales de la concepción de Keynes sobre la naturaleza del conocimiento económico deben ser destacados: pragmatismo y racionalismo. Keynes no está preocupado en problemas de fundamentos del conocimiento económico ni por la elección de un gran sistema teórico con vocación de universalidad y permanencia, susceptible de ir siendo desarrollado a lo largo de 155

HANSEN, A. (1976) pág. 80 y ss.

lustros y siglos, porque no cree que se tipo de costructo teórico sea útil ni acaso, posible: pero, por otra parte, su mperativo de conocimiento racional conduce, inevitablemente, a una metodología deductiva”156. Siguiendo a Pasinetti157, podemos decir que el método de análisis de Keynes viene a ser básicamente el de Ricardo. La indicación más representativa en este sentido se encuentra en la manera directa de presentar Keynes sus supuestos. Como Ricardo, siempre busca lo esencial, selecciona las variables que considera más relevantes. La consecuencia característica de este procedimiento metodológico es que de Keynes surge, como de Ricardo un sistema de ecuaciones de tipo causal, en oposición al sistema de ecuaciones simultáneas completamente interdependientes. Contra la actitud común ente los teóricos del marginalismo de que “todo depende de todo”, Keynes (como Ricardo) asume como tarea el especificar qué variables son suficientemente interdependientes para estar mejor representadas por relaciones simultáneas, y qué variables muestran tal dominante dependencia en una dirección, y tan escasa en la dirección contraria, que se representan mejor por relaciones de dirección única. Otros rasgos de clara ruptura en los métodos keynesianos respecto a la tradición marginalista surgida 60 años antes son el empleo de variables macroeconómicas, la división de los agentes en grandes categorías (consumidores y empresarios ) y el propósito de determinar el tipo de interés ( y por tanto la distribución) fuera del campo de la producción. La existencia de desempleo era incompatible con el equilibrio clásico, ya que toda oferta creaba su propia demanda. Con la llegada de la teoría keynesiana se demostró la posibilidad de que esa incompatibilidad no existiera. Con objeto de justificar la incapacidad del capitalismo liberal para funcionar sin situaciones prolongadas de desempleo laboral Keynes apeló a la existencia de rigideces en los mercados y especialmente en el funcionamiento del mercado de trabajo. Así mismo destacó la incidencia determinante de las expectativas sobre la demanda de inversión y sobre el desenvolvimiento de los ciclos económicos. Es importante destacar que uno de los objetivos preponderantes de Keynes fue la lucha contra el desempleo, y que éste se podía atacar con medidas de política económica tendentes a incrementar el nivel de demanda agregada y, por tanto, de la renta nacional. En definitiva, Keynes establece una política económica para resolver los problemas de la sociedad postindustrial basada en una política anticíclica y redistributiva, cuya herramienta principal es el déficit presupuestario. La Teoría General de Keynes ha sido y es motivo de fuertes controversias que estimularon de manera inevitable la evolución del pensamiento económico. Muchos autores siguen la línea keynesiana en sus escritos económicos, así podemos citar, entre otros, a J. R. Hicks158, que a través del análisis IS-LM pone de manifiesto la impotencia de las políticas económicas para eliminar los problemas que acechan a la economía: inflación y empleo. El estudio del crecimiento y desarrollo económico desde la perspectiva keynesiana se debe principalmente a R. Harrod y E. D. Domar, en cuyos modelos de crecimiento tratan de establecer las condiciones que determinan una tasa estable del crecimiento equilibrado de la renta.

156

RUBIO DE URQUIA, R. (1990). PASINETTI, L. (1974) pág. 59 y ss. 158 “En 1934, Hick y R.G. D. Allen (1904-1983) emprendieron una completa revisión de la teoría del valore en términos de cálculo. Hicks amplió después la nueva microeconomía neoclásica, en 1939 (Valor y capital), para incluir consideraciones dinámicas y monetarias. Su rigurosa presentación matemática de los componentes clave de la teoria económica llegó a ser con el tiempo un elemento estándar de la práctica moderna”. EKELUND, R..B. y HEBERT, R.. F.(1991) pp. 624-625. 157

En esta línea de la teoría del crecimiento, aunque con puntos de vista diferentes al keysianismo, podemos situar a R. Solow, que en 1956 presentó las alternativas al keynesianismo en este aspecto proponiendo los modelos neoclásicos de crecimiento económico. Solow recibe críticas de J. Robinson y N. Kaldor, inspiradas en la concepción kaleckiana del ciclo económico, a quienes debemos los modelos postkeynesianos de crecimiento. Este tipo de modelos se fundamenta en un intento de conciliación entre las teorías de Keynes y Marx159. Frente a la corriente de pensamiento económico keynesiano surge una escuela de economistas liberales, cuyos rasgos más generales, en opinión de Martinez- Echevarría160 , son los siguientes: ? Un claro predominio del enfoque microeconómico o individualista de la Ciencia Económica. ? Un importante papel del dinero en la actividad económica. Podemos destacar, como economistas más representativos de esta tendencia liberal, a L. Mises, F. A.Hayek (1899-1992) y M. Friedman, siendo este último el más vivo representante de la actuación económica a través de la teoría monetaria, en fuerte polémica con los keynesianos, defensores de las medidas de política fiscal. La polémica suscitada entre ambas visiones de la economía sólo puede ser aminorada mediante la evidencia empírica, pero hasta el momento no ha existido la prueba que manifieste que una es superior a la otra. Con todo, la crisis actual de la Economía es un hecho que no admite discusión. El motivo se dice que estriba en que las teorías ortodoxas han dejado de funcionar, lo que implica dar por hecho que en algún tiempo funcionaron, como se sugiere cuando se afirma que el éxito de la postguerra fue una consecuencia directa de las teorías keynesianas. Sin embargo, las técnicas de estimulación de la demanda a través del gasto público ya habían sido preconizadas, tanto en el campo teórico como en el práctico, antes de que se hubiese publicado la Teoría General. Por otro lado, las tareas de reconstrucción de postguerra hubieran procurado de cualquier modo el pleno empleo, aún cuando no hubiera existido una teoría al respecto. A partir de los años ochenta cobra actualidad la llamada economía de la oferta, ante el fracaso que las políticas de demanda habían manifestado para solucionar los problemas generados por la variación de los precios relativos en las décadas precedentes. En síntesis, sostiene que el nivel y la tasa de crecimiento de la producción pueden incrementarse significativamente mediante políticas diseñadas para promover una aumento de la eficiencia económica, una menor regulación, un incremento de la oferta de trabajo y unos mayores niveles en la formación de capital (ahorro e inversión). Desde esta nueva perspectiva, adquiere gran importancia la influencia que la política fiscal puede ejercer sobre la oferta de factores de producción y sobre la capacidad de crecimiento de la economía. Miembros destacados de esta corriente son : A. B. Laffer, y B. Bartlett ente otros. Por otro lado, se han reconsiderado las premisas de la macroeconomía tradicional en lo que a las expectativas de los agentes económicos se refiere, introduciéndose así en el análisis económico el concepto de expectativas racionales. Muchos economistas se han visto muy atraídos por la teoría de las expectativas racionales, apartándose de lo que Okun, Tobin, Modigliani, Solow y Samuelson llamarían postkeynesianismo ecléctico. Las críticas de Robert Lucas161, Tom Sargent y Robert Barro han encontrado oídos receptivos162. 159

MARTÍNEZ-ECHEVARRÍA, M.A. (1983) pág. 303. MARTÍNEZ-ECHEVARRÍA, M.A. (1983) pág. 362. 161 R.E. Lucas ha sido distinguido recientemente como premio Nobel de Economia 1995 por “haber desarrollado y puesto en práctica la hipótesis de las previsiones racionales que transformaron radicalmente las bases de análisis macroeconómico y la visión de la economía” en palabras de la Academia de Ciencias, que destaca, de esta forma, a R. E. Lucas como el economista que ha tenido mayor influencia en el campo de la investigación y la previsión macroeconómic con base estadísitica desde los años setenta. 160

Como afirma J. L. Raymond, la racionalidad de las expectativas supone que si los individuos cometen errores en sus previsiones, estos se limitan a los puramente inevitables, de suerte que sus expectativas se forman aprovechado, de forma completa y eficiente, la información disponible. En contra de la hipótesis tradicional sobre expectativas que consideraban que los agentes económicos las formaban a través del mecanismo “ad hoc”163 . Hasta las propias políticas discrecionales de estabilización fueron blanco de la crítica no ya por ineficaces, sino por considerarlas una fuente importante de inestabilidad económica. Las políticas económicas sistemáticas, esperadas y entendidas no pueden generar efectos reales, ya que los agentes económicos racionales, al anticiparlas, reaccionan de modo que las compensarán y neutralizarán. En opinión de L. A. Rojo, “la hipótesis de expectativas racionales señala acertadamente las perturbaciones que la variabilidad de las políticas de estabilización pueden provocar en el comportamiento de las economías al generar confusión en los agentes y desviar la atención respecto de la naturaleza de alteraciones cuya solución a través de lentos ajustes de carácter real puede resultar entorpecida en consecuencia164. Según Samuelson, “a las expectativas racionales los datos empíricos de los años ochenta les han sido casi tan poco favorables como al monetarismo. Los decididos esfuerzos del gobernador Volcker y otros directivos del banco central de la Reserva Federal por supeditar la política monetaria al control de la inflación / y de la estanflación) han tenido un coste en desempleo, producción perdida y beneficios perdidos que coinciden muy de cerca con las estimaciones anteriores de Okun, Tobin, George Perry y Robert J. Gordon, y que han sobrepasado con mucho las esperanzas de los seguidores de Lucas-Sargent, que esperaban irracionalmente estabilizaciones de bajo coste del tipo de la que impuso Schachts en 1923 para acabar con la hiperinflación alemana”165.

3. 2. 1. El verificacionismo Los economistas clásicos de fines del s. XVIII y principios del XIX – considerados por muchos como los primeros economistas científicos - no discutieron en detalle las cuestiones metodológicas, pero puede decirse que, en general, abogaron por la utilización del método inductivo en economía, que a la sazón estaba proporcionando tantos éxitos en las ciencias naturales. La obra de Adam Smith, ciertamente, recoge e integra influencias diversas – el empirismo de Locke, el liberalismo y altruismo de Hutcheson, la idea fisiocrática de orden natural (JiménezRidruejo, 1987) - y, quizá en parte por este hecho, su metodología resulta una compleja mezcla de muchos factores (cadenas de razonamientos, disgresiones históricas, ejemplos ilustrativos, etc.) pero, en último término, puede calificarse de inductiva. El economista inglés, asimismo, aboga porque las hipótesis obtenidas deban ser sometidas a verificación de manera que, cuando este proceso proporciona resultados favorables a las tesis provisionales, el resultado es un conjunto sistemático de conocimientos166.

162

Estas críticas han debilitado un tanto las afirmaciones del monetarismo, deseinflando los males reales que puedan seguirse de la fluctuación de la oferta de dinero. 163 RAYMOND, J. L. (1986). 164 ROJO, L.A. (1982) pág. 68. 165 SAMUELSON, P. A. (1989) pág. 10. 166 La profundidad del pensamiento de Smith, la complejidad de algunas de sus ideas más destacadas como la de interés propio, por ejemplo - y la aparente contradicción entre las tesis de algunas de sus obras (como la Teoría de los sentimientos morales frente a La riqueza de las naciones) conllevan que un análisis exhaustivo de su pensamiento exceda con creces el propósito de estas líneas. Véase Hollander, 1973.

David Ricardo, en cierto contraste a Smith, empleó en mayor medida la deducción y la modelización abstracta en sus obras. Su muerte, en 1823, da lugar a un debate tanto sobre la validez del sistema ricardiano, como - por primera vez de modo explícito - sobre cuestiones metodológicas. Una figura que se destaca en este momento histórico es Nassau Senior, que en 1827 publica Introductory Lecture on Political Economy y en 1836 Outline of the Science of Political Economy. Senior establece una distinción entre la economía como ciencia y como arte, de modo que la primera de estas vertientes sería lo que hoy se considera economía positiva mientras que la segunda correspondería a la economía normativa. También afirma Senior que la economía descansa en algunas proposiciones muy generales, que son resultado de la observación y de las cuales se obtienen determinadas conclusiones. Estas proposiciones pueden resumirse en el deseo de maximización de la riqueza con el mínimo esfuerzo posible, el principio malthusiano de que la población crece más rápidamente que los medios de susbsistencia, y la existencia de rendimientos decrecientes en la agricultura (Blaug, 1992). Se observa así que, de alguna manera, el método deductivo va tomando carta de naturaleza entre los economistas. John Stuart Mill, cuyas contribuciones principales en este aspecto se encuentran en su ensayo On the Definition of Political Economy ; and on the Method of Investigation Proper to it (1836), su obra metodológica A System of Logic (1844) y, finalmente, su famoso libro Principles of Political Economy (1848) toma estas ideas y las replantea de modo más cuidadoso. Primeramente, y después de aconsejar el uso de la inducción para las ciencias no sociales (cf. Jiménez-Ridruejo, 1987, para un análisis en detalle de esta cuestión) recomienda que la economía emplee el método deductivo ya que, en esta disciplina específica, el empleo del método inductivo se vería perjudicado por la concomitancia de varias causas que afectan a un mismo fenómeno. En particular, el economista debe comenzar su investigación a partir de premisas psicológicas, a las que se llega por introspección ; a continuación es necesario elaborar una teoría a partir de las premisas, y finalmente las teorías deben contrastarse mediante procedimientos empíricos. Es paradójico recordar en este punto que sus famosos Principles of Political Economy (1848) no siguen un único procedimiento sino que combinan tanto los métodos abstractos como el recurso al manejo de datos y la inducción. La segunda contribución que es necesario destacar de Stuart Mill es su concepto de homo oeconomicus. Las ideas principales en este sentido son las siguientes. En primer lugar, Mill reconoce que existe una parte de la conducta humana donde la obtención de riqueza no es el principal objetivo. Ahora bien, existen otros departamentos de los asuntos humanos donde la adquisición de riqueza es el fin principal : la economía se ocupa de esta segunda categoría, de modo que hace abstracción de todas las pasiones y motivos humanos excepto el deseo de riqueza y la aversión al trabajo. El hombre así descrito es, como afirma Blaug (1992), un hombre ficticio, y el propio Mill es consciente de que la esfera económica es sólo una parte de la conducta humana ; no obstante, recomienda que la economía proceda a abstraer y trabajar con ese hombre ficticio, que busca obtener “la mayor cantidad posible de riqueza con el mínimo posible de trabajo y autonegación” (1967, p. 323). John Elliot Cairnes, por su parte, hace hincapié en que la economía política es una ciencia hipotético-deductiva ; es más, para Cairnes, el empleo de una metodología de estas características por parte de una ciencia indica su madurez. Hay que recordar, en este punto, que la principal aportación de Cairnes, Character and Logical Method of Political Economy, se publica en 1875, momentos en los que estaba vigente la controversia entre los historicistas y los deductivistas. El autor inglés apoya a estos últimos al afirmar que la economía debe basarse en premisas reales, hechos indudables sobre la naturaleza humana y el mundo - que se obtienen no por inducción sino por introspección - como, por ejemplo, el deseo de obtener riqueza con el mínimo sacrificio, o el principio malthusiano sobre la población (obsérvese la coincidencia con las proposiciones en que Senior apoya la economía, como se dijo más arriba).

Cairnes admite, asimismo, que la verificación sólo se puede llevar a cabo de modo imperfecto dentro de la economía - fundamentalmente debido a la imposibilidad de obtener un paralelo empírico al ceteris paribus teórico - pero propugna que verificar ayuda a corroborar el razonamiento deductivo. En efecto, el autor inglés no considera la verificación como un test de las hipótesis con el fin de averiguar si son verdaderas o falsas sino, más bien, como un método para establecer las fronteras de aplicación de las teorías. Si una determinada teoría se ha deducido correctamente, será cierta. Si se observan discrepancias entre los hechos y las teorías, en cambio, podrá atribuirse a causas perturbadoras que oscurecen la teoría y muestran que se ha aplicado de modo incorrecto, pero la teoría en sí será cierta si se ha obtenido con rigor mediante el proceso deductivo. Estas ideas habían sido apuntadas ya por Stuart Mill, pero se expresan con más contundencia por Cairnes. Resulta pertinente, en este punto, hacer una referencia a una idea en la que los tres autores mencionados (Senior, Stuart Mill y Cairnes) coinciden : la búsqueda de la máxima riqueza con el mínimo esfuerzo posible como uno de los principios impulsores del hombre. La coincidencia no es accidental, sino que responde a la influencia que en la Inglaterra del s. XIX ejercía la corriente filosófica del utilitarismo. 4.3 El utilitarismo y la racionalidad. Gran parte del cuerpo de conocimientos que existe en economía, dentro del paradigma neoclásico pero también en el seno de la macreconomía contemporánea, se apoya sobre el supuesto de que el hombre es racional. No se pretende aquí analizar en detalle esta cuestión, que ha dado lugar a muchos estudios por parte de economistas y no economistas (cf. por ejemplo Hargreaves Heap, 1989), pero sí pueden apuntarse algunas ideas que ayudan a entender el papel destacado que el supuesto de racionalidad ha ocupado y ocupa en la teoría económica (para un análisis más amplio de la introducción de la racionalidad en Economía cf. Schumpeter, 1971). La idea del individuo como ser racional está presente ya en la tradición clásica y en las filosofías griega y medieval, pero este concepto experimenta una transformación como consecuencia del desarrollo del inmanentismo a partir de Descartes en el s. XVII : la racionalidad del hombre pasa a ocupar un papel tan preponderante que no sólo se le supone capaz de conocer una ley - lo que podría denominarse ley natural - sino que es su propia razón la que crea esa ley. Además, la filosofía inmanentista conlleva la pérdida del sentido teleológico que imperaba en la ética aristotélico-tomista. En el s. XVIII la ética iusracionalista sigue progresando en esta idea, ahora con los nuevos matices que le proporciona la Ilustración y, en concreto, una confianza aún mayor en la razón humana. En el contexto de la ética se observa un proceso reduccionista, por el que la ética se vacía progresivamente de sentido : en él colaboran, aunque de modo diverso, tanto Kant - para el que la ética no es una ciencia sino sólo una conducta práctica - como Hume y su guillotina : el deber ser no puede deducirse del ser. Junto a ello, el individualismo filosófico del siglo XVIII da lugar al individualismo psicologista (Boland, 1982), donde las variables exógenas y la base de las teorías son los estados psicológicos del individuo. Pero a pesar de que Hume separa radicalmente en el plano teórico el deber ser del ser, el iusnaturalismo racionalista, en el fondo, acaba confundiendo el deber ser con un ser ficticio y reduciendo la ética a psicología, de modo que no se distingue entre la prescripción y la descripción en la conducta del hombre. Esa psicología, además, a la que se reduce la ética, es muy rudimentaria, como expone brillantemente Schumpeter : “La psicología realmente usada [...] fue siempre psicología individual, introspectiva, y del tipo más primitivo, pocas veces dotada - si es que lo estuvo alguna vez - de más que unas simples hipótesis acerca de las reacciones de la psique individual. Este procedimiento se llamaba empírico [... ]. No tenía nada de “experimental” ni de inductivo, y en realidad no era muy realista, pese a las declaraciones programáticas, los gritos de guerra y las invocaciones a Francis Bacon”. (Schumpeter, 1971, p. 167)

El empleo de esta psicología origina, en último término, conceptos de hombre peculiares : totalmente egoístas (Hobbes), totalmente altruistas (Hutcheson y Shaftesbury), o el tipo moral caracterizado magistralmente en la literatura de la época por literatos como Charles Dickens, Oscar Wilde o Henry James : culto, refinado, egoísta, amable y cínico. Si el ser humano se describe de esta forma, se plantea entonces la pregunta siguiente : ¿qué es lo bueno para el hombre ? Apelar a un imperativo categórico, conocido por introspección, es impensable para un seguidor del empirismo, por lo que la escuela inglesa del utilitarismo, encabezada por Bentham167, propone una solución de tipo hedonista: la felicidad para el hombre se encuentra en el bienestar, entendido como diferencia entre placer y dolor. Este planteamiento permite, además, obtener la relación entre valores individuales y valores sociales puesto que el utilitarismo postula, en cuanto a los agregados sociales, el principio de felicidad máxima para el mayor número posible de personas168. El paso siguiente es calificar como útil a todo lo que confiera bienestar al hombre. La influencia considerable que el utilitarismo ejerció en la teoría económica elaborada en el s. XIX facilitó que el supuesto de racionalidad, entendido como maximizar el placer y minimizar el dolor, se introdujera paulatinamente en la economía hasta ser descrito con todo detalle por Stuart Mill en su caracterización del Homo Oeconomicus, como se dijo más arriba. Posteriormente alcanzó un enfoque más formalizado gracias a la teoría de la utilidad marginal, asociada a nombres como Jevons, Edgeworth, Sidgwick, Wicksteed o Marshall. Si al supuesto de racionalidad se añade la hipótesis adicional de información perfecta, se llega a uno de los pilares de la economía neoclásica, el individualismo metodológico (cf. Boland, 1982) donde los agentes son optimizadores e idénticos entre sí, porque actuar consiste en calcular la alternativa que maximice la satisfacción y, automáticamente, elegirla. 4.4 John Neville Keynes En el decenio de 1880 se produjo el enfrentamiento metodológico entre Menger y Schmoller conocido como Methodenstreit (cf. Landreth y Colander, 1989, p. 270 y ss. o Recktenwald, 1977, p. 277 y ss. para una descripción). Básicamente, el primero los valores suprapersonales, con la excepción del bien de la sociedad. Y, teniendo en cuenta esa filosofía de los humanos valores ¿en qué podía consistir ese bien de la sociedad, sino en la suma total de todas las satisfcciones que los individuos obtienen de la realización de los esquemas hedonísticos de preferencia ?” (Schumpeter, 1971, p. 169) abogaba por el método hipotético-deductivo en la economía, mientras que el segundo representante de la Escuela Histórica alemana - era más partidario de emplear procedimientos inductivos y el recurso a la evidencia histórica. Neville Keynes, cuya obra principal es The Scope and Method of Political Economy (1891), intenta ofrecer una visión conciliadora de ambos métodos, pero en realidad su aportación muestra una orientación mayor hacia el primero de ellos. El autor inglés resume la tradición anterior - fundamentalmente representada por Senior, Mill y Cairnes - en los siguientes puntos : 1. Puede establecerse una distinción entre economía positiva y normativa, y es conveniente que esta diferencia aparezca como nítida para los economistas : “El intento de fusionar las 167

Para entender el influjo del utilitarismo en la Economía es interesante recordar que Bentham era amigo del padre de Stuart Mill, James Mill, y que pasaba algunos veranos en casa de estos, como describe el propio Stuart Mill en su Autobiografía (1986) 168 Puede ser interesante recoger nuevamente una cita de Schumpeter : “La razón había eliminado todos

investigaciones sobre lo que es y lo que debería ser probablemente nos impida dar una respuesta clara y sin sesgos a las dos cuestiones” (Neville Keynes, 1891, p. 47, la cursiva es de la autora). 2. Los acontecimientos económicos pueden ser aislados, al menos hasta cierto punto, de otros hechos históricos (contrariamente a la postura de la escuela histórica, que pensaba que ambos tipos de episodios eran inseparables). 3. El procedimiento metodológico correcto de la economía consiste en partir de algunos hechos fundamentales sobre la naturaleza humana. Neville Keynes sostiene que el punto de partida de las teorías debe ser fundamentalmente la observación, pero afirma que también puede ser útil, en este sentido, la introspección (como ya señalaran Stuart Mill y Cairnes) ; esta última aseveración plantea un problema gnoseológico, ya que Keynes considera la introspección como una fuente de obtención de ideas que, a su juicio, puede calificarse de empírica. Este modo de caracterizar la introspección, a su vez, puede justificarse en la tradicional resistencia de los empiristas ingleses a admitir la existencia de ideas innatas, lo que implícitamente apunta a que las ideas que radican en el entendimiento de algún modo tienen su origen en la experiencia sensible - más en concreto, en los episodios ordinarios que acontecen al hombre -. Blaug (1992), no obstante, cuestiona que esta fuente de conocimiento se considere empírica ya que la introspección dificilmente puede someterse a comparaciones interpersonales. 4. Con respecto al concepto de Homo Oeconomicus, Neville Keynes destaca cómo el uso de esta noción en la literatura ha sido confuso y ambiguo. Para Stuart Mill y Cairnes se trata de una simplificación hipotética y por tanto ficticia, mientras que para Senior, que mantiene una posición más cercana a la del utilitarismo, se trata de un postulado de contenido más real. Neville Keynes se sitúa más bien en la tradición de Senior y, en cierto modo, da un paso más al afirmar que el comportamiento económico que busca el propio interés domina en la realidad a los motivos de altruismo y benevolencia. Para Stuart Mill, por lo tanto, el economista elabora sus teorías como si el hombre fuera egoísta, mientras que para Neville Keynes el economista trabaja sabiendo que el hombre es egoísta. 5. El método adecuado para la economía debe finalizar con la observación empírica relativa al cumplimiento de la teoría. Ahora bien, los contrastes de las teorías permiten determinar sus límites de aplicación pero no invalidarlas: si un test, aparentemente, contradice una teoría, el investigador debe ser consciente de que ese resultado sólo pone de manifiesto que la contrastación de la teoría se ha aplicado de modo incorrecto. Los puntos anteriores sintetizan la posición metodológica que prevalecía entre los economistas en el siglo XIX. Esta postura se consolida aún más con el economista que, habitualmente, se considera el último verificacionista : Lionel Robbins. 4.5 El método de Marx La contribución de Marx a la economía se puede considerar como síntesis de las corrientes intelectuales dominantes de la época, la economía política inglesa, la filosofía alemana y el socialismo francés. Para Schumpeter (1982, pág. 446), la interpretación económica de la Historia es la aportación de mayor importancia y el rasgo diferenciador de la obra de Marx: “Su teoría es evolucionista en un sentido en que no lo ha sido ninguna otra teoría económica, la teoría marxista intenta descubrir el mecanismo que por su mero funcionamiento, y sin la ayuda de factores externos, transforma cualquier sociedad dada en otra sociedad”. De la concepción materialista de la historia de Marx pueden destacarse los siguientes puntos básicos: ? Todas las manifestaciones culturales de la sociedad civil son, en última instancia función de su estructura de clases. ? La estructura de clases de una sociedad está determinada principalmente, y en última instancia, por la estructura de la producción.

? El proceso social de la producción presenta una evolución inherente en sí misma. Sintéticamente, el método de Marx lo podemos descomponer en tres etapas: ? Una primera, de abstracción, mediante la que se aíslan los elementos esenciales del proceso económico ? Una segunda, denominada de concretización progresiva, con la cual, en el curso del desarrollo, se introducen elementos cada vez más particulares del proceso económico. ? Una tercera etapa, de verificación, consistente en confrontar los resultados obtenidos con el proceso económico real. Siguiendo estas etapas, “El Capital” representa una progresión que va de la abstracción inicial hacia grados cada vez más concretos de la realidad, con el fin de conocer el mundo de los fenómenos económicos, demasiado complejo para ser conocido directamente. Resumiendo, su aportación metodológica se puede concretar en los siguientes puntos: 1. Sentó las bases de un método dinámico de investigación y de explicación. 2. Estableció los cimientos de un método de investigación y explicación total. 3. Renovó el método histórico al formular una ley de corte típicamente historicista, fundada en el materialismo dialéctico Katouzian describe con las siguientes palabras el método de Marx (1982, pág. 46): “El método de Marx era una combinación de teoría y hechos, de lógica e historia. No era ni un especulador puro ni un puro empirista”. 4.6 El Ultraempirismo La obra de Terence Hutchinson “ el significado y los postulados básicos de la Teoría Económica”, publicada en 1938, es uno de los primeros intentos de introducción del criterio metodológico de la falsabilidad en la economía. Uno de sus objetivos fundamentales fue conducir a la economía hacia una línea más empírica (Pheby, 1988, pág. 33). Como punto más importante de su aportación a la metodología podemos destacar en Hutchinson su división de las proposiciones metodológicas en tautológicas y empíricas, estas últimas serían las plenamente contrastables, las tautológicas con las que están enunciadas de tal forma que son imposibles de contrastar. Hutchinson tendió a señalar la mayoría de las proposiciones económicas como tautológicas. Para Blaug (1985), la distinción entre tautologías y simples definiciones es fundamental en economía, puesto que de esta forma se separaría entre aquellas proposiciones que son simplemente definiciones disfrazadas y aquellas, que aunque en principio son contrastables, están formuladas de forma que deliberadamente impiden su contrastación. Hutchinson ofrece un consejo metodológico y es que la investigación científica en economía se dedique exclusivamente a las proposiciones empíricamente contrastables, si bien no se manifiesta de forma clara respecto a la exigencia de contrastabilidad sobre los supuesto sobre las predicciones de teoría económica. La prescripción metodológica de Hutchinson hace que sea calificado de “ultraempirista”, acusación que niega demostrando que muchas de sus afirmaciones sobre la importancia de la contrastación no se refieren a los supuestos sino a las proposiciones finales de la economía. En opinión de Blaug (1985), Hutchinson estaba convencido de que el trabajo empírico en economía puede ser tan útil en la contrastación de supuestos como en las implicaciones teóricas, a pesar de su negación a aceptar el calificativo de ultraempirista. Como se ha observado, Hutchinson sigue la corriente de moda en la década de los treinta en el ámbito de la metodología, la línea neopositivista del Círculo de Viena. Frente al apriorismo o

deductivismo de Robbins, este autor ofrece buscar de forma sistemática la contrastación empírica de las hipótesis y teorías económicas 4.7 Lionel Robbins En 1932 Lionel Robbins publicó su controvertido Essay on the Nature and Significance of Economic Science, contribución muy relevante en la historia de la metodología económica. Si bien la obra se encuadra dentro de la tradición verificacionista, como se dijo más arriba, también es cierto que puede calificarse de ecléctica, ya que refleja la influencia que Robbins recibe de distintos autores y corrientes, como los economistas austríacos. Se resumirán a continuación algunas de las ideas apuntadas en el Ensayo que se consideran más destacadas 169 . En el capítulo 4 del Ensayo Robbins se centra en el método que debe emplear la economía y critica con contundencia tanto el inductivismo como el monismo metodológico. El economista británico se muestra partidario, más bien, de las ideas de Senior y Cairnes : en particular, aboga por el empleo de un procedimiento deductivo en economía y por el dualismo en la metodología utilizada por las ciencias naturales y sociales. Robbins defiende que el procedimiento inductivo no es acertado para la elaboración de la teoría económica ya que : “La coincidencia en el tiempo de ciertos fenómenos puede sugerir que ahí hay una cuestión que debe ser resuelta. Pero esta coincidencia, por sí misma, no implica una relación causal” (Robbins, 1932, p. 73). No hay nada que indique que la Historia se vaya a repetir, al contrario, “si existe algo que muestre la Historia, al igual que la lógica más elemental, es que la inducción histórica, sin la ayuda del juicio analítico, es la peor forma de profecía” (Ibídem p.74). El paso siguiente es defender el empleo de la deducción para construir teorías: “Las proposiciones de la teoría económica, al igual que en el resto de las teorías científicas, son obviamente deducciones a partir de una serie de postulados ; y los principales postulados son supuestos sobre hechos de experiencia simples e indiscutidos en relación con la forma en la cual la escasez de los bienes, el objeto de nuestra ciencia, aparece en el mundo de la realidad” (Ibídem p. 78). El economista, por tanto, trabaja a partir de hechos de experiencia sobre el hombre y la realidad, y a continuación aplica la deducción ; la validez de una teoría procede, por consiguiente, de su derivación lógica de las premisas de que parte. Esta validez, no obstante, se ha cuestionado en algunas ocasiones: para los historicistas y los institucionalistas - corrientes que Robbins considera tan semejantes que afirma de modo lapidario que “la única diferencia entre el institucionalismo y el historicismo es que el historicismo es mucho más interesante” (Ibídem, p. 88) -, las leyes económicas dependen en gran medida de las circunstancias institucionales e históricas vigentes en un lugar y momento del tiempo determinados, lo cual les resta generalidad. Para Robbins, ese argumento es una falacia puesto que el procedimiento deductivo, si está convenientemente aplicado, dota a las teorías de los adecuados niveles de generalidad ; es cierto, no obstante, que Robbins insiste en la conveniencia de apoyar las diversas teorías en postulados subsidiarios que capten los matices peculiares de determinados casos concretos. El economista inglés también critica el monismo metodológico que preconizaba el Círculo de Viena, y él aboga porque las ciencias naturales y sociales empleen metodologías diferentes. En particular, Robbins destaca cómo la economía es una rama del saber donde no se produce la uniformidad que existe en las ciencias naturales ; en primer lugar, debido a que la subjetividad del individuo tiene un papel importante - recuérdese que Robbins estaba influido por la escuela austríaca y en particular por Hayek - y para Robbins la conducta humana es intencional, y no sólo la mera repetición de procesos deterministas ; en segundo lugar, la complejidad de la realidad impide que las condiciones iniciales permanezcan invariables en distintas situaciones. 169

Varias de estas nociones se desarrollan con más detalle en Robbins (1934) y se han comentado ya en Sanchez-Robles (1994).

Y esta falta de uniformidad merma la eficacia de los procedimientos puramente empíricos. En cualquier caso, admite que los métodos empíricos pueden ser útiles, como ya se apuntó más arriba, como punto de partida que sugiera la existencia de un problema o como forma de contrastar la aplicabilidad de determinadas conclusiones. En este punto conviene recordar que, en los últimos años de su vida, Robbins reconoció haber prestado poca atencion al problema de la contrastación de las teorías, y de hecho se mostró favorable al empleo de procedimientos de falsación en el quehacer científico, pero estas ideas no se recogieron en su obra de 1932, porque el Ensayo se publicó “antes de que la estrella de Popper se hubiera alzado en nuestro horizonte. Si hubiera conocido entonces esta exposición pionera del método científico, esta parte del libro se hubiera escrito de manera diferente”. (Robbins, 1971, p. 149). La interrelación entre economía y psicología es otro de los temas que Robbins analiza en el Ensayo y, sin embargo, se trata de un aspecto no excesivamente investigado por los autores que han analizado la contribución del economista británico (para un análisis de esta cuestión cf. Sanchez-Robles, 1994). Las preguntas básicas a este respecto pueden formularse de la siguiente manera : la teoría económica ¿se apoya en una determinada idea de hombre ? Si es así, ¿cuál es esta idea o cuál debería ser? Robbins defiende taxativamente que la respuesta a la primera pregunta es afirmativa, puesto que, como se decía más arriba, debido a la influencia de la escuela austríaca, considera que la subjetividad del individuo ostenta un papel destacado en Economía. Con respecto al segundo interrogante es oportuno mencionar que, en la época en que se escribe el Ensayo, está en boga la corriente psicológica behaviorista, y algunos economistas defienden que la escuela citada puede proporcionar un punto de partida válido para la Economía en cuanto a la idea de hombre que esta última debe adoptar como premisa. El behaviorismo consistió básicamente en una reacción contra la visión del hombre excesivamente intelectualista que prevaleció a partir de Descartes. Los autores behavioristas - el principal de los cuales es Watson - niegan el papel de la introspección : para ellos la psicología debe ocuparse sólo del comportamiento externo del hombre ; de esta forma, a su modo de ver, se eliminan perniciosos conceptos metafísicos en la explicación del ser humano porque la atención se concentra en la respuesta a los estímulos. Robbins, no obstante, discrepa de esta idea, ya que en la economía se manejan conceptos que no son observables, como los de indiferencia, preferencia, elección o expectativas, entre otros, de modo que adoptar la psicología behaviorista como fundamento de la Teoría Económica dejaría a esta última incompleta. El deseo de basar la Teoría Económica en una psicología behaviorista, en definitiva, es una rémora de las posturas empiristas y monistas en cuanto a metodología científica, de las que Robbins discrepa de modo rotundo. Una alternativa al empleo de premisas behavioristas es que el economista elabore él mismo una teoría general del comportamiento del hombre170 . Tampoco es esta una posición acertada para Robbins : el economista no necesita elaborar él mismo una teoría psicológica que pueda emplear posteriormente en sus deducciones analíticas, sino sólo trabajar a partir de las aportaciones elaboradas por otros, de manera análoga a como toma en préstamo de las matemáticas o la estadística los conceptos de derivada o desviación típica. “El psicólogo debe explicar por qué alguien prefiere A a B, mientras que el economista sólo tiene que asumir que estas diferencias existen. [...]. El (el psicólogo) desea saber por qué existen 170

Las aportaciones de Gary Becker, que se encuadran dentro del llamado imperialismo económico, irían en esta línea.

y a que ley del equilibrio psíquico o genético deben atribuirse. Nosotros, por el contrario, deseamos saber simplemente que existen para descubrir, en nuestro propio campo y de acuerdo a las leyes de nuestra propia ciencia, cuáles son las implicaciones de su existencia”. (Robbins, 1934, p. 99, cursiva de la autora) Está claro, por tanto, que la economía no puede desligarse totalmente de la psicología, ya que el economista, en ocasiones, deberá partir de conceptos psicológicos para elaborar teorías ; ahora bien, Robbins defiende que la Teoría Económica mantiene una cierta independencia y autonomía frente a los principios psicológicos que subyacen a las distintas contribuciones, que asegura la validez de las conclusiones de la primera incluso en los casos en que la psicología en que se apoya sea errónea. Ejemplifica este punto con el caso de la teoría del valor, que se construyó por algunos - Jevons, Edgeworth y Gossen, fundamentalmente - sobre la base de principios hedonistas, que no eran sin embargo vitales para la teoría puesto que otros economistas, como Menger, pudieron alcanzar las mismas conclusiones partiendo de supuestos diferentes. “Los ribetes hedonistas de la obra de Jevons y sus seguidores eran incidentales a la estructura principal de una teoría que - como su desarrollo paralelo en Viena mostró - puede presentarse y defenderse en términos no hedonistas en absoluto (Robbins, 1932, p. 85, la cursiva es de la autora). Esta conclusión es, a mi modo de ver, destacable, y podría incluso considerarse como un antecedente de la famosa tesis de la irrelevancia de los supuestos, que Friedman desarrolla con más profundidad y contundencia años más tarde. Aunque las posiciones metodológicas de Robbins y de Friedman son diferentes, pueden encontrarse similaridades entre ambas aportaciones en lo referente a esta cuestión, ya que en último término tanto Robbins como Friedman afirman que partir de supuestos poco realistas no priva de legitimidad a las conclusiones de los modelos económicos. A su vez, esta proposición dota de un grado mayor de legitimidad y aceptabilidad a la Teoría Económica, cuyas implicaciones pueden aceptarse por distintas escuelas de economistas, aun cuando las visiones respectivas del hombre mantenidas por estos últimos sean diferentes. Las aportaciones de Gary Becker, que se encuadran dentro del llamado imperialismo económico, irían en esta línea.

4.8 La aparición del falsacionismo en economía : Hutchinson y Samuelson. A partir de la década de 1930 pueden apreciarse los primeros rasgos que denotan la influencia del falsacionismo en el campo de la metodología económica. La figura pionera a este respecto es el británico Hutchinson. Terence Hutchinson, que había estudiado en Cambridge, dio clase ente 1935 y 1938 en la Universidad de Bonn, y allí tuvo ocasión de familiarizarse con las ideas del Círculo de Viena. Su obra The Significance and Basic Postulates of Economic Theory (1938) es una crítica de carácter positivista al ensayo de Robbins de 1932, fundamentalmente en dos aspectos: considera inadecuado el uso de la introspección para obtener los postulados de que parten las teorías, y aboga por un grado de utilización mayor de los procedimientos empíricos en economía. Puede considerarse, en fin, como un cambio de tendencia respecto a la metodología verificacionista anterior y como la introducción explícita de la aportación de Popper en la metodología económica. Hutchinson afirma que la diferencia fundamental entre la ciencia y la no ciencia radica en que las proposiciones de la primera deben “ser concebiblemente capaces de ser sometidas a contraste empíricos o ser susceptibles de ser reducidas - por deducción lógica o matemática - a proposiciones contrastables “ (Hutchinson, 1938, p. 9-10)

A continuación, el autor inglés realiza una clasificación de las proposiciones que pueden encontrarse en la economía. Hutchinson clasifica las proposiciones básicamente en tautológicas y empíricas. Las tautológicas no prohíben ningún estado de la naturaleza, mientras que las empíricas prohíben al menos algún estado concebible de la naturaleza. Las proposiciones de la primera categoría no tienen contenido empírico, pero pueden ser útiles en la ciencia para enlazar varias proposiciones empíricas. A la vez que afirma que la mayor parte de las proposiciones en Economía se encuadran en la primera de estas categorías 171, Hutchinson recomienda que los economistas procuren ceñirse a las segundas, puesto que son éstas las potencialmente falsables. Escribiendo su tesis doctoral : Samuelson tomó el concepto de operacionalismo y lo introdujo en el campo de la economía. Para Samuelson, el núcleo de la actividad de los economistas debe ser la elaboración de teoremas operacionalmente significativos, que define como “hipótesis relativas a los datos empíricos, que concebiblemente pueden refutarse, aunque sólo sea en condiciones ideales” (Samuelson, 1948, p. 4). En último término, como se observa en la definición anterior, la idea de teorema operacionalmente significativo coincide con la de teoría falsable. Samuelson suaviza en cierta medida los requerimientos a las aportaciones científicas, no obstante, porque precisa que una teoría debe ser capaz, por lo menos, de predicciones cualitativas, aunque no sea capaz de realizar consideraciones cuantitativas172. Otra de las aportaciones más destacadas en este ámbito del economista norteamericano es la formulación del principio de correspondencia, en virtud del cual el análisis del comportamiento dinámico puede proporcionar conocimiento sobre la estática comparativa del modelo. Su tratamiento en detalle excede los objetivos de estas páginas, por lo que no se profundizará más en esta noción. Si se observa la similitud entre las contribuciones de Hutchinson y Samuelson, no es extraño que Machlup (1978) dirigiera sus críticas a la aportación del economista norteamericano, de igual modo a como lo hizo con el autor británico. Machlup muestra la dificultad que supone reemplazar gran parte de los conceptos teóricos que se emplean en Teoría Económica tanto por definiciones operacionales como, en último término, por construcciones empíricamente contrastables. Samuelson afirma, asimismo, que la ciencia debe elaborar no tanto una explicación de la realidad como una descripción de ella. Caldwell (1994) atribuye esta postura al deseo de evitar consideraciones metafísicas en la economía, que aspiren a proporcionar explicaciones últimas de los fenómenos. No obstante, Samuelson no estaba excesivamente familiarizado con la filosofía de la ciencia del siglo XX y sus aportaciones sobre la explicación científica, de modo que no pudo hacer una defensa del descriptivismo lo suficientemente persuasiva como para causar un impacto apreciable en la profesión. Además, pocos años más tarde, una de las contribuciones metodológicas más importantes del siglo XX, el ensayo de Friedman, acaparó la atención de los profesionales de la economía.

171

Una idea de Boland (1982, p. 15) puede aclarar esta cuestión : Boland argumenta que la teoría económica neoclásica no puede calificarse de inductivista porque en el contexto histórico en que se elaboró - fines del siglo XIX y principios del XX - la fe en la física de Newton y en las posiblidades de la inducción se estaba ya tambaleando. De otra parte, se ha destacado más arriba que los economistas del siglo XIX aconsejaban un procedimiento deductivo en la elaboración de la Teoría Económica. No 172 Una teoría debe establecer, por ejemplo, que la inversión está negativamente correlacionada con los tipos de interés, aunque no se pueda especificar con precisión la magnitud de la elasticidad correspondiente.

4.9 Milton Friedman y la metodología de la economía positiva En 1953 Milton Friedman publica el artículo The Methodology of Positive Economics, una de las obras clave en la metodología económica de este siglo, puesto que ejerce gran influencia sobre los economistas y resulta muy controvertida. Es un trabajo difícil y complejo, que adolece de cierta ambigüedad, y que ha llevado a la siguiente afirmación: “En el ensayo de Friedman se puede encontrar cualquier posición metodológica que se quiera encontrar” (Dennis, 1986). Como se verá más tarde, esta afirmación es cuando menos injusta, porque da a entender que Friedman incurre en contradicciones lógicas, lo cual no es cierto, pero sí refleja la sensación de vaguedad que experimentan algunos economistas cuando leen el trabajo. La razón de esta imprecisión puede ser que Friedman no buscaba llevar a cabo una teorización metodológica de carácter especulativo - no es un filósofo de la ciencia - sino, más bien, proporcionar soluciones concretas a determinados problemas173. No se pretende aquí un análisis exhaustivo de los puntos tratados en esta obra, pero sí se comentarán algunas ideas relevantes que pueden resultar de interés para esta panorámica histórica. Con objeto de captar mejor la postura del economista norteamericano será útil efectuar una somera referencia a las escuelas o autores que le influyen en mayor medida. En primer lugar, Friedman se forma en dos prestigiosas universidades norteamericanas : Chicago y Columbia. En la primera de ellas aprende a dar importancia a la coherencia lógica de las teorías ; en la segunda, a la estadística. La combinación entre teoría y contrastación empírica, ciertamente, representa un rasgo característico de su actividad académica. A su vez, este planteamiento de síntesis entre especulación y contrastación es similar al de Alfred Marshall, de quien el propio Friedman se considera heredero en el ámbito intelectual. En el terreno de la filosofía, Friedman recibe un considerable influjo del pragmatismo norteamericano, donde destacan nombres como el de John Dewey o William James174. Esta corriente de pensamiento, en síntesis, sostenía lo siguiente: 1. El objetivo de la ciencia es dominar y controlar la naturaleza. 2. La experiencia debe ser el modo válido de alcanzar el objetivo anterior. El punto de partida de las hipótesis debe ser la evidencia empírica; el punto de llegada es también la realidad porque es necesario contrastar las implicaciones de la teoría. Es más, la validez de la teoría depende de los resultados que proporcione. En concreto, una teoría será correcta si predice adecuadamente. 3. La validez de una teoría, en último término, deriva del consenso entre los investigadores en cuanto a su utilidad, y no de que la teoría sea verdadera o falsa (estas son categorías que ya no se consideran relevantes). En particular, no debe rechazarse una teoría porque sus supuestos no sean realistas. Es este un punto clave en la posición de Friedman, como se verá más tarde. En segundo lugar, Friedman recibe de Popper la idea de que proceder a la contrastación de una hipótesis permite su falsación, en lugar de su verificación, como se defendía en el pasado. Finalmente, Friedman recoge asimismo la tradición del Círculo de Viena que, como se recordará, poseía una concepción caracterizada por el positivismo y el monismo metodológico. A continuación se expondrán ciertas reflexiones sobre algunas de las ideas apuntadas en el ensayo de 1953.

173

Recuérdese que para el pragmatismo - corriente que ejerce un considerable influjo sobre Friedman - el punto de partida de las hipótesis es la evidencia empírica. De ahí que el problema de la inducción esté latente en el planteamiento de Friedman. 174 En estos términos respondía a una entrevista : “I was more interested in doing Economics than in writing about how Economics should be done” (Hammond, 1992, p. 230).

4.10 El instrumentalismo y el problema de la inducción. En opinión de Boland (1997), el ensayo debe considerarse básicamente como “el argumento de un instrumentalista a favor del instrumentalismo” (Boland, 1997, p. 22). Evidentemente, la primera tarea necesaria en este punto será definir el instumentalismo. Para Boland, “los instrumentalistas consideran que el status de veracidad de las teorías, hipótesis o supuestos es irrelevante desde el punto de vista práctico siempre y cuando las conclusiones que lógicamente se sigan de ellos tengan éxito” (Boland, 1997, p. 21, más adelante se precisará el término éxito). Los instrumentalistas no son necesariamente convencionalistas: estos últimos argumentan que la verdad de una teoría se alcanza por convención, y acuerdan criterios que proporcionen ese tipo de verdad, como la aproximación a la realidad o la bondad de un ajuste, por ejemplo. Para los instrumentalistas, en cambio, es irrelevante que una teoría sea verdadera o falsa, por lo que es innecesario convenir en criterios que proporcionen el status de verdadero. En último término, la postura instrumentalista ofrece una salida al problema de la inducción175 , problema del cual Friedman es plenamente consciente ; como se dijo más arriba, la inducción no garantiza que la afirmación general o conclusión que se obtiene a partir de la observación de casos particulares sea necesaria o lógicamente verdadera (porque la inducción no es un procedimiento que argumente y establezca la veracidad de las conclusiones en términos lógicos, a diferencia de la deducción, aunque este punto no es mencionado por Friedman). Con otras palabras, partir de premisas válidas no garantiza - no es condición suficiente para - obtener conclusiones válidas en el contexto de un procedimiento inductivo porque no existe una lógica inductiva, al contrario de lo que postulaban los verificacionistas del s. XIX : en el contexto de un método hipotético deductivo, partir de premisas válidas sí asegura obtener conclusiones válidas. Puesto que la inducción no proporciona esa garantía, es necesario buscar una alternativa que permita establecer que una teoría - en lenguaje de Friedman - es válida176. Esta vía alternativa, para Friedman, es el acierto en las predicciones: el criterio último para juzgar la validez de una teoría es la conformidad de sus predicciones con la experiencia. Esta argumentación de Friedman puede interpretarse, en una primera aproximación, a la luz de la visión pragmática que Friedman posee de la ciencia : la ciencia es un instrumento teórico orientado a solucionar problemas reales (en particular la Teoría Económica debe orientarse a la Política Económica). ¿Cómo saber si la teoría va a servir en la práctica en la solución de los problemas o, en otras palabras, que ha alcanzado una comprensión suficiente del fenómeno que permita manejarlo y controlarlo ? Para Friedman el modo más convincente de asegurarse de que la teoría entiende los fenómenos es demostrar que es capaz de predecir: la aportación keynesiana, por ejemplo, reuniría los requisitos de simplicidad y fecundidad – requisitos deseables en las teorías, como se apuntará más adelante - pero sus predicciones no se han confirmado por la experiencia (la curva de Phillips a largo plazo o a corto plazo en presencia de expectativas racionales y políticas anticipadas es vertical), por lo que ese fracaso sugiere que no se han identificado los factores cruciales (en el ejemplo anterior, las expectativas de inflación) y, por consiguiente, que no se entiende bien el fenómeno. El objetivo de una teoría, de este modo, presenta dos vertientes que a su vez se hallan íntimamente relacionadas: de una parte, descifrar el significado del mundo real y reconocer sus 175

Recuérdese que para el pragmatismo - corriente que ejerce un considerable influjo sobre Friedman - el punto de partida de las hipótesis es la evidencia empírica. De ahí que el problema de la inducción esté latente en el planteamiento de Friedman. 176

El uso por Friedman de las expresiones validez de una teoría o éxito de una predicción es un tanto confuso. Siguiendo a Boland (1997), entiendo que para Friedman una teoría o hipótesis es válida o una predicción tiene éxito cuando no son inconsistentes con la evidencia empírica. Debe insistirse en que, en el contexto del instrumentalismo, no tiene sentido hablar de la veracidad de la teoría.

elementos clave ; de otra, predecir. Es pertinente, en este punto, citar la definición de economía que proporciona Friedman : “La Economía en cuanto ciencia positiva es un cuerpo de generalizaciones a título experimental acerca de los fenómenos económicos, que puede usarse para predecir las consecuencias de los cambios en las circunstancias que la rodea “ (Friedman, 1953, p. 41). De otra parte, la idea de que el éxito en las predicciones es el requisito exigido en la validez de una teoría puede apoyarse, asimismo, en la tesis de la simetría entre la predicción y la explicación que ya estableciera el Círculo de Viena. En efecto, si explicar es equivalente a predecir - la única diferencia es que la primera operación se realiza a posteriori y la segunda a priori - se sigue que una teoría que es capaz de predecir hechos futuros puede también explicar hechos pasados empleando los mismos mecanismos y conexiones entre los episodios. A tenor de la definición anterior pueden enumerarse las siguientes notas que posee la ciencia : 1. Es un conjunto de generalizaciones, que deben ser coherentes desde el punto de vista lógico. 2. Posee un carácter provisional. 3. Busca desentrañar las claves del fenómeno. 4. Su finalidad es proporcionar predicciones sobre el comportamiento futuro, de manera que debe especificar hipótesis contrastables. El realismo de los supuestos. Una de las contribuciones del ensayo que suscitó una polémica mayor fue la referente al realismo de los supuestos. El contexto histórico de la cuestión es el siguiente: en los años 194648 se habían publicado en la American Economic Review algunos artículos que argüían que los supuestos de maximización por parte de las empresas eran irrealistas, ya que las firmas desconocen la posición exacta de sus curvas de ingreso marginal y coste marginal. A éstos se sucedieron otros trabajos que aspiraban a rebatir este planteamiento, de modo que se genera un debate en torno a lo que puede considerarse uno de los cimientos de la teoría económica neoclásica. Friedman responde a la polémica afirmando, en síntesis, que es irrelevante que los supuestos de la teoría sean realistas o no ; lo importante, como se apuntó antes, es que la teoría sea capaz de predecir. Es conveniente transcribir algunos párrafos originales de la obra para entender mejor el punto de vista del economista norteamericano. “En la medida en que es posible decir que una teoría realmente tiene “supuestos” y en la medida en que su “realismo” puede juzgarse independientemente de la validez de las predicciones, la relación entre el significado de una teoría y el “realismo” de sus “supuestos” es casi la opuesta a la sugerida por la opinión que estamos criticando. Se comprobará que hipótesis verdaderamente importantes y significativas tienen “supuestos” que son representaciones de la realidad claramente inadecuados y, en general, cuanto más significativa sea la teoría, menos realistas serán los “supuestos” ( en este sentido). La razón es sencilla. Una hipótesis es importante si “explica” mucho a través de poco, esto es, si abstrae los elementos comunes y cruciales de la masa de circunstancias concomitantes, ya que su verdadero éxito demuestra que son irrelevantes para los fenómenos que deben explicarse “ (Friedman, 1953, p. 19, el entrecomillado es del autor). El hecho de que el realismo de los supuestos sea irrelevante puede fundamentarse, a su vez, (como hace Boland, 1997) en que Friedman no basa la validez de las conclusiones en los mecanismos lógicos tradicionales, el modus ponens y el modus tollens puesto que, como ya se dijo, Friedman es consciente de que no existe una lógica inductiva o, mejor dicho, que la inducción no observa las leyes de la lógica. En este punto es preciso realizar una breve disgresión para aclarar los términos modus ponens y modus tollens. Se trata de dos mecanismos argumentativos empleados en lógica. La argumentación modus ponens implica que si los supuestos son verdaderos, la conclusión es

verdadera. Con otras palabras, “pasa la verdad hacia adelante” de los supuestos a las conclusiones. La argumentación modus tollens implica que si la conclusión es falsa, alguno de los supuestos será falso, es decir “pasa la falsedad hacia atrás” de las conclusiones a uno o varios de los supuestos. Ahora bien, emplear ambos procedimientos en sentido contrario da lugar a sendas falacias. Así, la falacia de afirmar el consecuente consiste en argumentar que si la conclusión es verdadera el supuesto es verdadero, lo cual no es necesariamente cierto porque “la verdad no se puede pasar hacia atrás” (Boland, 1997, p.16). De modo similar, se incurre en la falacia de negar el antecedente cuando se argumenta que si los supuestos son falsos, la conclusión es falsa, lo cual no es siempre así porque “la falsedad no se puede pasar hacia adelante” (Boland, 1997, p.16). Puesto que la verdad no se puede pasar hacia atrás, (falacia de afirmar el consecuente) las conclusiones verdaderas no requieren supuestos verdaderos. Los supuestos verdaderos no son una condición necesaria para la validez de las conclusiones. La siguiente pregunta que surge es si un supuesto inadecuado dará lugar a una conclusión inadecuada o, en otras palabras, si un supuesto falso es una condición suficiente para la falsedad de la conclusión. La respuesta nuevamente es negativa, porque responder afirmativamente sería emplear el modus tollens en sentido contrario al correcto (falacia de negar el antecedente). Con otras palabras, el uso de supuestos inadecuados no genera necesariamente conclusiones inadecuadas. De los dos últimos argumentos se sigue la conclusión de la irrelevancia del realismo de los supuestos : para obtener conclusiones válidas no son necesarios supuestos válidos. Los supuestos falsos, por su parte, no generan necesariamente conclusiones falsas. Es irrelevante, por tanto, que los supuestos sean realistas o irrelistas. Finalmente, puede argumentarse asimismo que el empleo del modus ponens en la dirección correcta no es un procedimiento fructífero para la ciencia. El modus ponens no es aplicable porque los científicos proceden mediante la búsqueda, no de supuestos correctos, sino de predicciones que tengan éxito. Friedman ha defendido que el realismo de los supuestos no es necesario para que la teoría prediga correctamente. Pero, además, de la cita anterior también puede inferirse que la falta de realismo no sólo no es un obstáculo para la ciencia sino que puede ser una ventaja. La teoría más acertada será la que explica y predice más con menos: ese menos hace referencia a los supuestos, que deben captar las relaciones económicas esenciales pero ser sencillos, de modo que no se pierdan en la maraña de detalles accesorios. Si son sencillos, necesariamente serán representaciones simplificadas de la realidad, lo cual previene al investigador contra la tentación de elaborar representaciones 1 :1 de la realidad, que sería poco operativo. La consecuencia de este argumento es que, en alguna medida, los supuestos serán falsos, pero la falsedad es una ventaja. La clave del argumento estriba en el trade-off entre realismo y simplicidad: el atributo crucial que debe poseer una teoría es el de captar lo esencial; este objetivo se alcanza mejor si una teoría goza de más simplicidad (y por tanto, obviamente, de menos realismo). En este sentido, falsedad de los supuestos no significa falsedad lógica o epistemológica sino un alejamiento del descriptivismo exhaustivo177 : lo que Friedman parece sugerir es que los supuestos son descriptivamente falsos. En el contexto del cuerpo de conocimientos que suscitó la polémica, la teoría neoclásica de la empresa - como se indicaba más arriba - es cierto que los empresarios no calculan el punto de corte entre coste marginal e ingreso marginal para determinar la cantidad óptima ofrecida de modo que se maximicen beneficios, pero aunque los 177

El supuesto de competencia perfecta, por ejemplo, no significa que las empresas sean idénticas sino que la similitud entre ellas es más importante que sus diferencias.

agentes no actúen realmente así, suponer que lo hacen es útil y produce resultados que se observan en la práctica178. Finalmente, para Friedman los supuestos ofrecen una utilidad adicional : especificar las condiciones en las cuales la teoría será aplicable.

4.11 El carácter provisional de las teorías. Es necesario tener en cuenta en este punto, asimismo, que Friedman está notablemente influido por el falsacionismo popperiano : la evidencia empírica puede refutar una hipótesis pero no probarla, de manera que la ciencia posee siempre un carácter provisional. “La hipótesis se rechaza si sus predicciones se contradicen frecuentemente (o más a menudo que las predicciones de una hipótesis alternativa) ; se le concede gran confianza si ha sobrevivido a muchas oportunidades de ser contradicha. La evidencia de los hechos nunca puede probar una hipótesis, solo puede dejar de desaprobarla, no rechazarla, que es lo que generalmente queremos decir cuando afirmamos, algo inexactamente, que la hipótesis se ha confirmado por la experiencia” (Friedman, 1953, p. 9). La afirmación “La hipótesis se rechaza si sus predicciones se contradicen frecuentemente” puede explicarse argumentando que, en este punto, Friedman emplea implícitamente el procedimiento modus tollens para eliminar las teorías que generen predicciones menos acertadas (Boland, 1997, p. 23). A continuación Friedman plantea un problema potencial para el economista: la elección entre hipótesis alternativas, una vez que todas ellas han mostrado su consistencia con la evidencia empírica. A su juicio existen dos criterios adicionales que sirven de ayuda en la discriminación entre teorías alternativas : 1. Sencillez : una teoría es sencilla cuando menor es el conocimiento inicial necesario para hacer una predicción dentro de un campo determinado de fenómenos. 2. Fecundidad : una teoría es tanto más fecunda cuanto más precisas son las predicciones que resultan, mayor es el área dentro de la cual la teoría ofrece predicciones y cuanto más líneas de investigación futura sugiere. 4.12 Economía positiva y normativa Con objeto de cerrar estas consideraciones, se constatará que Friedman acepta la distinción ya clásica entre economía positiva y economía normativa y se muestra favorable al monismo metodológico en lo que respecta a la economía positiva. En primer lugar, y de modo coherente con su posición instrumentalista, el economista norteamericano acota el campo de la economía positiva, de modo que esta se circunscribe a aquellos temas susceptibles de ser el objeto de la Política Económica. En segundo lugar, Friedman admite que la objetividad es más difícil de alcanzar en la Economía que en otras ciencias debido a que la Economía, en última instancia, versa sobre un cierto tipo de relaciones humanas, pero este hecho no conlleva una distinción fundamental de la Economía con otras disciplinas de carácter más experimental. Una consecuencia de esta postura,a la que ya se ha aludido, es que el punto de partida en la construcción de hipótesis debe ser la evidencia empírica - de igual modo que ocurre en las ciencias experimentales - y no la introspección.

178

Obsérvese que, como ya se ha apuntado, la conclusión es similar - aunque la argumentación sea distinta - a la que alcanzaba Robbins al defender que la economía presenta cierta autonomía frente a la psicología subyacente.

4.13. Críticas al Ensayo de Friedman. El trabajo de Milton Friedman fue objeto de numerosas críticas (la aportación clásica al respecto es Boland, 1979). Se citarán aquí algunas de estas. Koopmans (1957) mantiene una posición inductivista que contrasta con el instrumentalismo de Friedman. No comparte la tesis de este último sobre la irrelevancia del realismo de los supuestos, puesto que, para Koopmans, la observación permite obtener (por inducción) premisas que son verdaderas ; a continuación, la lógica aplica el argumento modus ponens de forma que la verdad de las premisas genere conclusiones también verdaderas. Con otras palabras, para Koopmans es posible establecer la validez de una teoría con independencia de sus aplicaciones, punto en el que ya se ha argumentado que Friedman mantiene la postura opuesta. Rotwein (1959) mantiene una posición similar a la de Koopmans, pues argumenta que la ciencia se basa en premisas verdaderas que, a su vez, se construyen por inducción a través de la observación. Las visiones de Koopmans y Rotwein pueden ser calificadas de ingenuas (Boland, 1997), ya que no captan las claves del ensayo de Friedman ; de una parte, la defensa del instrumentalismo : para Friedman la discusión no se establece ya en términos de teorías verdaderas o falsas sino útiles o inútiles. De otra parte, está latente el problema de la inducción, que es precisamente lo que Friedman intenta soslayar con su alternativa instrumentalista. Machlup (1978) argumenta que la contrastación de teorías en el campo de la economía difícilmente lleva a conclusiones definitivas, básicamente por dos razones. En primer lugar, porque la predicción siempre se lleva a cabo sujeta a la ocurrencia de determinadas condiciones ; si no es posible verificar el cumplimiento de estas condiciones, el test no tiene capacidad para falsar la teoría. En segundo lugar, en el caso en que las predicciones de un suceso se establecen en términos probabilísticos, cualquier resultado del test es consistente en sentido estricto con la predicción, a no ser que el experimento se lleve a cabo un número muy elevado de veces : en este sentido las contrastaciones “poseen en mayor grado el carácter de ilustraciones que de verificaciones [...]. Y esto implica que nuestros tests no pueden ser lo suficientemente convincentes como para compeler a la aceptación”. (Machlup, 1978, p. 155). En opinión de Blaug (1992), sin embargo, en la posición de este autor existe una cierta contradicción ; de la cita anterior se sigue que los economistas deberían procurar obtener numerosos contrastes de sus teorías, tan precisos como sea posible. Sin embargo, Machlup tradicionalmente ha restado importancia a los contrastes de las teorías que se han llevado a cabo, pero sin especificar qué tipo de argumento él consideraría una refutación de una teoría. Como se dijo más arriba, concretar en qué contexto y en qué condiciones se refuta una teoría es una recomendación del mismo Popper, que debe llevarse a cabo por los seguidores del falsacionismo sofisticado. La crítica más conocida al ensayo de Friedman es probablemente la exteriorizada por Samuelson (1963) que denomina sarcásticamente malabarismo F a la tesis de la irrelevancia de los supuestos. Para Samuelson el irrealismo de los supuestos no debe considerarse un mérito de una teoría sino, más bien, un demérito. Las teorías deben, en su opinión, describir la realidad recuérdese que uno de los rasgos de la posición metodológica de Samuelson es su defensa del descriptivismo -, pero Samuelson no ofrece argumentos lo suficientemente convincentes para demostrar que el descriptivismo es superior al instrumentalismo como postura metodológica (cf. Blaug, 1992). Una crítica más fundamentada es la siguiente : Friedman no es excesivamente cuidadoso en establecer una diferenciación entre los distintos tipos de supuestos, las condiciones iniciales, hipótesis auxiliares y condiciones de contorno (Archibald, 1959) y entre supuestos auxiliares y

supuestos generativos179 (Melitz, 1965). La tesis de la irrelevancia de los supuestos podría matizarse en mayor medida, por tanto, atendiendo al caso particular de cada uno de estos tipos. Para Boland (1997), asimismo, en la aportación metodológica de Friedman tampoco existe una distinción clara entre supuestos, hipótesis, teorías y modelos. Este es un punto importante para un defensor del inductivismo puesto que distintas categorías epistemológicas poseen, a su vez, distintos grados de validez que les confiere la inducción en cada caso. Friedman resuelve la cuestión, no obstante, recurriendo nuevamente a criterios pragmáticos: una afirmación es un supuesto porque se decide así por el economista correspondiente ; el supuesto de una teoría puede - y de hecho muchas veces lo es - ser una conclusión de otra teoría. En suma, no considera excesivamente relevante y útil el deseo de precisar los términos en esta cuestión. Boland (1997) sostiene que la mayor parte de las críticas expuestas aquí - y otras similares (cf. Boland, 1997 o Blaug, 1992) son irrelevantes porque no acometen la tarea realmente crucial, la valoración del instrumentalismo. En efecto, la posición de Friedman es lógicamente correcta dentro del contexto del instrumentalismo. Por tanto, la única crítica efectiva a su posición será la que cuestione la legitimidad del instrumentalismo como postura metodológica, desde una posición metodológica diferente que muestre que el carácter de verdad o falsedad de las teorías no puede sustituirse por el de útil o inútil. Esta tarea, sin embargo, todavía no parece haberse acometido. 4.14 Corrientes metodológicas heterodoxas. Se apuntarán a continuación algunas ideas sobre dos escuelas de pensamiento que, en cierto modo, quedan fuera del mainstream economics : el institucionalismo y la economía austríaca180. Entre los institucionalistas se encuentran autores de generaciones diversas, como Veblen, Commons, Mitchell, Galbraith o Myrdal. En general se caracterizan por emplear un escaso grado de abstracción en sus construcciones teóricas y por centrarse en el conjunto de relaciones que caracterizan el sistema económico. Habitualmente desconfían de conceptos propios de la economía ortodoxa como equilibrio, comportamiento racional o información perfecta, y analizan en mayor medida el comportamiento de los grupos bajos la influencia de los hábitos o las instituciones. No aspiran tanto a elaborar proposiciones contrastables como a comprender la realidad económica. Para Blaug, las aportaciones de esta corriente consisten en una combinación de “hechos, generalizaciones de bajo nivel, teorías de alto nivel y juicios de valor en una narrativa coherente, que se mantiene unida por un conjunto implícito de creencias y actitudes que el autor comparte con sus lectores” (Blaug, 1992, p. 110). El producto final carece del rigor y la estructura lógica que permitiría la falsación de sus conclusiones. La economía austríaca contemporánea, por su parte, está asociada a nombres como Hayek, Mises o Kirzner. En general, puede considerarse una alternativa al empirismo en cuanto que hacen énfasis en el conocimiento a priori: el punto de partida de las teorías son ciertas proposiciones sobre la acción humana (Hargreaves Heap, 1989). En este sentido continúan la tradición de los aprioristas, como Senior o Cairnes. Hacen énfasis en el subjetivismo de que está empapada la economía, al elaborarse sobre la noción de hombre, por lo que desconfían del monismo metodológico (recuérdese que estas ideas se encontraban ya en Robbins, quien, como se apuntó, se vio notablemente influido por Hayek). De otra parte, argumentan que la validez de una teoría descansa en su coherencia lógica, y no en el grado de acierto de las predicciones. En particular, Von Mises destaca que el procedimiento adecuado para garantizar la veracidad de una proposición es la razón, y no la evidencia empírica ; presenta cierta desconfianza hacia los métodos econométricos. Hayek, en cambio, no es tan apriorista como Mises puesto que admite 179

Los supuestos auxiliares acompañan a las hipótesis teóricas para asistir en la deducción de sus consecuencias lógicas. Los supuestos generativos se usan para derivar de ellos las propias hipótesis. 180 Por limitaciones de espacio no se cubren aquí otras escuelas como el marxismo y el materialismo histórico postmarxiano. A este respecto puede consultarse la obra de Jiménez-Ridruejo (1997).

un papel subordinado y auxiliar para la econometría. Los modernos austríacos, en general, también sostienen que la economía debe analizar los procesos que conducen al equilibrio, más que las propiedades finales del equilibrio. Estas breves pinceladas sobre otras corrientes metodológicas alternativas a la corriente más extendida quedaría incompleta sin una mención a McCloskey. Básicamente, McCloskey argumenta que lo que persuade de la validez de una teoría no es la contrastación empírica sino la retórica usada por los economistas para convencer. Define el término retórica como “el estudio y la práctica de la expresión persuasiva, una alternativa a la epistemología filosófica desde los griegos” (McCloskey, 1987). Para McCloskey los economistas no emplean la retórica oficial o metodología tradicionalmente aconsejada, que denomina modernista (y que básicamente coincide con las tesis de Friedman expresadas más arriba). Esta esquizofrenia entre las recomendaciones metodológicas y la práctica de los economistas es, sin embargo, deseable para McCloskey, puesto que los procedimientos modernistas serían perniciosos y detendrían el avance de la economía. En opinión de McCloskey los economistas, en realidad, usan argumentos literarios para persuadir a la comunidad científica de sus teorías. Ejemplos de estos recursos literarios son los siguientes : virtuosidad en el empleo de las matemáticas, argumentos de autoridad, empleo de economías de juguete (simplificaciones excesivas), analogías y, por fin, el uso y abuso de los modelos, que McCloskey califica de metáforas (McCloskey, 1983) . La crítica de McCloskey es, sin duda, ingeniosa y en muchos casos acertada, pero la ausencia de una propuesta metodológica seria le hace incurrir en un relativismo (Hargreaves Heap, 1989) que, en cierto modo, recuerda al de Feyerabend y que no proporciona a los científicos pautas de conducta en su tarea investigadora. 4.15 La corriente metodológica dominante En la actualidad, aunque no existe un acuerdo total entre los economistas respecto a cuál sea la metodología apropiada para nuestra ciencia, sí puede hablarse de algunas ideas en las que coinciden los integrantes del mainstream economics. (Una buena exposición de estas ideas, tal y como se aceptan por la mayor parte de los economistas puede encontrarse en Lipsey, 1991). Como se verá, la contribución de Friedman ha ejercido una notable influencia en la visión mantenida por el grupo dominante de economistas. 1. Existe una única ciencia, la Economía, con una doble vertiente, positiva y normativa181 ; ambos aspectos están estrechamente conectados. Las proposiciones positivas se refieren al ser, a los hechos ; las proposiciones normativas hacen referencia al deber ser, de modo que descansan sobre jucios de valor filosóficos, culturales o ideológicos. Tanto las proposiciones positivas como las normativas son susceptibles de análisis y discusión racional, pero existe una diferencia en cuanto a los métodos que puede aplicárseles; así, la mayor parte de las proposiciones positivas son contrastables, por lo que, en último término, su grado de validez puede determinarse acudiendo a la evidencia empírica. Las proposiciones normativas, en cambio, no son susceptibles de contrastación empírica. Es cierto que, en la práctica, la diferencia entre ambos tipos de proposiciones no es totalmente nítida, y a veces el análisis de la evidencia empírica se mediatiza por los juicios de valor del economista pero, en general, se considera que la distinción entre ambas categorías es útil y ayuda al avance de la ciencia. De otra parte, el hecho de que sea muy difícil aislar totalmente la evidencia de los juicios de valor, en opinión de Lipsey (1991), no impide que pueda existir una ciencia basada en

181

No se pretende entrar en detalle en esta cuestión ; para una discusión amplia sobre la distinción entre economía positiva y normativa y su evolución histórica, cf. Blaug (1992) p. 113 y ss.

hipótesis positivas contrastables, la denominada Economía Positiva, ni tampoco obliga a los economistas a evitar cualquier referencia a proposiciones normativas. 2. Las exigencias del positivismo lógico de principios de siglo, a tenor de las cuales cada proposición e hipótesis debía ser positiva y contrastable, se ha suavizado en alguna medida. En la actualidad se admite que dentro de la economía pueden existir proposiciones positivas no contrastables, pero las conclusiones elaboradas sí deben ser contrastables : “Todo lo que un economista positivo pretende es que sus teorías den lugar a algo positivo y contrastable” (Lipsey, 1991, p. 21). A su vez, este requisito se desprende de la noción predominante de ciencia, que se trata a continuación. 3. Una rama del saber goza del estatuto de ciencia si es capaz de someter sus conclusiones al contraste que ofrecen los hechos del mundo real : este es el atributo fundamental que diferencia el saber científico del no científico. Es patente, en este punto, la influencia de la aportación de Popper. 4. En cualquier caso, es preciso considerar con cautela las posibilidades limitadas de la contrastación empírica, y evitar de este modo caer en el peligro de un falsacionismo ingenuo (admitir que una sola contrastación puede refutar una teoría) que el propio Lipsey preconizaba en la primera edición inglesa de la obra. La evidencia empírica no es capaz de verificar (debido al problema de la inducción, como se dijo más arriba) ni tampoco de refutar definitivamente una hipótesis : la refutación definitiva no es posible, porque nunca existirá la certeza de que el contraste por el que aparentemente se niega la validez de una teoría está libre de error182. Esta postura es la denominada falsacionismo sofisticado (Blaug, 1992, p. 106). 5. La discriminación entre teorías rivales se lleva a cabo también en función de la evidencia empírica : “Aunque no se pueden probar ni refutar las teorías de manera definitiva, se puede utilizar el análisis estadístico, primero, para establecer la probabilidad de que las observaciones sean consistentes con una determinada teoría; segundo, para establecer el balance de probabilidades entre dos teorías en competencia y, en tercer lugar, para medir las relaciones cuantitativas entre estas variables que alguna teoría sugiere que están relacionadas” (Lipsey, 1991, p. 46). Pueden proporcionarse varios ejemplos que corroboran esta afirmación. Así, por ejemplo, Sala i Martín (1994) atribuye el gran dinamismo que en la actualidad goza la Teoría del Crecimiento a la atención que los investigadores prestan a la evidencia econométrica, que ha dado lugar a un volumen ingente de literatura empírica. Algunos de los manuales más recientes, después de exponer determinadas teorías, comentan artículos en los cuales esas teorías se someten a contrastación (un caso paradigmático es el libro de Romer, 1996), o bien parten de la exposición de algunas regularidades empíricas (Blanchard y Fischer, 1989). Y en el ámbito de aquellas teorías difíciles de someter a contrastación por mecanismos econométricos convencionales, como la Teoría del Ciclo Real, se han diseñado procedimientos alternativos, como la simulación o la calibración183. 6. Existe una interacción entre la evidencia empírica y el razonamiento deductivo en la elaboración de la teoría económica. Las teorías descansan sobre supuestos, y en lo referente al 182

“Dado que son seres humanos los que efectúan las comprobaciones, y dado asimismo que los seres humanos pueden equivocarse, siempre es posible que surja una evidencia aparentemente en conflicto con la teoría debido a que nuestras observaciones han incorporado algún error” (Lipsey, 1974, p. 15). 183

Básicamente la calibración consiste en dar valores a los parámetros relevantes, simular el comportamiento del modelo y comparar las semejanzas y divergencias del modelo con la economía real, en cuanto al comportamiento de las variables fundamentales.

realismo de los supuestos, en general, se aceptan las aportaciones de Friedman ya descritas. En el desarrollo de la teoría se presta una cuidadosa atención a su estructura lógica y rigor deductivo, de modo que en las contribuciones de los economistas puede encontrarse un grado de complejidad matemática cada vez mayor184. En los últimos años ha crecido la polémica sobre la conveniencia de que el contenido matemático de la teoría económica sea tan elevado (cf. por ejemplo Grubel y Boland, 1986 ; para una excelente sátira, cf. Leijonhufvud, 1973). 7. Se acepta comúnmente que el comportamiento humano carece del determinismo que se encuentra en el comportamiento del mundo inanimado. En cualquier caso, existe un notable grado de estabilidad en la conducta del hombre que favorece la capacidad predictiva de las teorías y, además, la Ley de los Grandes Números hace posible que un conjunto de individuos responda de la manera prevista a un determinado estímulo, aun cuando algunos de los individuos del grupo respondan de manera anómala. 8. La postura de Lakatos sobre la evolución histórica de la ciencia se acepta entre muchos economistas, y los conceptos claves de su análisis se han aplicado profusamente al campo de la economía (ya se apuntó un ejemplo en páginas anteriores). 4.16 Algunas conclusiones preliminares. De lo dicho anteriormente pueden realizarse las consideraciones siguientes, que se ofrecen a modo de conclusión de estas páginas. En general, resulta muy extendida la Filosofía de la Ciencia que propugna Popper. Su énfasis en los principios de inspiración socrática, a los que se aludió más arriba (principio de falibilidad, principio del diálogo racional, y principio de acercamiento a la verdad con ayuda del debate) parecen especialmente adecuados para la buena marcha del saber científico. Por lo que respecta al ámbito de la economía, puede ser interesante puntualizar más algunos aspectos: En primer lugar, el objetivo de la ciencia en general, y de la Economía en particular, debe ser el de formular las preguntas adecuadas sobre la realidad objeto de estudio, de manera que las respuestas a estas preguntas proporcionen un conocimiento cada vez más completo de esa realidad. Esta afirmación puede resultar obvia o innecesaria ; el caso concreto de la Teoría Económica, sin embargo, hace pensar que, en ocasiones, el objetivo de los economistas parece ser no tanto formular y responder estas preguntas cuanto demostrar su virtuosismo en el manejo de técnicas matemáticas o econométricas cada vez más complejas y sofisticadas. La utilización de las Matemáticas o la Econometría en la Teoría Económica, son sin duda necesarias, pero sería deseable apostar por un uso más equilibrado de las mismas, que no olvide su papel como medio - y no como fin - de responder a las cuestiones relevantes. En segundo lugar, y respecto al método idóneo para la Teoría Económica, parece adecuado sugerir que debe emplearse tanto la inducción como la deducción. En efecto, el punto de partida de muchas teorías ha sido y es la observación inductiva desde un conjunto de regularidades empíricas existentes en la realidad. A partir de ahí, el empleo y análisis de los modelos mediante la deducción permite centrar la atención en la pregunta que, en ese momento, quiere responderse. Finalmente, el contraste empírico de la teoría permite falsarla o aceptarla de modo

184

En la práctica se observa a veces una aparente contradicción en lo descrito en los puntos 5 y 6. Es cierto que la teoría económica puede ser acusada en ocasiones de buscar más la belleza formal y la complejidad matemática de los modelos que en proporcionar explicaciones coherentes de los hechos observados. De todas formas, y aunque esta idea es discutible, el hecho de que la evidencia empírica cada vez ocupe un lugar más relevante en la economía parece ser consistente con la práctica de un número creciente de economistas.

provisional - en la línea de las recomendaciones de Popper - en tanto no sea sustituída por otra teoría alternativa y más acorde con la evidencia empírica. Los instrumentos apropiados para llevar a cabo las tareas mencionadas con el rigor que requiere el conocimiento científico son, en muchos casos, las Matemáticas para la formalización y desarrollo del modelo, y la Estadística y Econometría para la primera y última fases del proceso (captación de regularidades empíricas y contrastación, respectivamente). No obstante, el empleo de técnicas cuantitativas y analíticas cada vez más especializadas debe iluminar al economista en su búsqueda de respuestas a los interrogantes que se le plantean, pero no confundirlo o distraer su atención de esas cuestiones fundamentales. La introducción del monismo metodológico sería probablemente perniciosa para la economía, ya que las ciencias sociales difieren de las naturales en aspectos que inciden en la investigación de modo crucial. El sustrato cambiante de la economía, debido a la circunstancias históricas que fácilmente se modifican, introduce una complejidad mayor en el estudio de los fenómenos (inestabilidad de los parámetros, problemas en la predicción) que no invalida el análisis cuantitativo pero sí aconseja una cierta prudencia en su interpretación. El diálogo con distintos investigadores, el trabajo en equipo y la crítica constructiva de otros expertos en las diversas materias son, asimismo, notablemente enriquecedores para el científico, que puede y debe beneficiarse de la ayuda de sus compañeros mediante una actitud abierta a comentarios y sugerencias.