SCIENTIA IN VERBA octubre 2018 [1, 1 ed.]

El objetivo de esta revista es, principalmente, el de la divulgación del conocimiento científico y el filosófico desde d

566 54 24MB

Spanish Pages 121 Year 2018

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

SCIENTIA IN VERBA octubre 2018 [1, 1 ed.]

Table of contents :
Inverse problems.Capítulo 1.
Mario Augusto Bunge
Pag. 4-14
El valor de la filosofía
Antonio Diéguez
Pag. 15-21
Expulsando fantasmas de la máquina de
la memoria y la reducción
Diego Alonso Becerra
Pag. 22-33
El valor de la ciencia
Gustavo Esteban Romero
Pag. 34-37
La confianza debilitada en la ciencia
Sergio Barrera
Pag. 39-46
En defensa de las reglas
Juan Antonio Negrete
Pag. 47-51
Elogio a la discriminación
Caleb S. Medina
Pag. 52-56
Teoría de las descripciones de Russell
Nicolás Pérez
Pag. 57-64
La insoportable levedad del test de Turing y la filosofía del minotauro
Manuel Corroza Muro
Pag. 65-74
Sobre una confusión elemental en filosofía de la ciencia
M.Janou Glaeser
Pag. 75-78
Entre la materia y la verdad
Johnny Jaramillo
Pag. 79-83
Las pseudoproposiciones
Arturo Espinosa
Pag. 84-86
Fundamentos conceptuales de la biología de la cultura
Angelo Fasce
Pag. 87-108
Entrevista a Juan José Sebreli
Matt suarez Holze y Facundo Guadagno
Pag. 109-119
Acerca de Scientia in verba Magazine
Pag.121

Citation preview

Scientia in verba ISSN: 2619-2586 (En línea)

S

Textos exclusivos del volumen: Inverse problems de Mario Bunge (Cap.1)

MAGAZINE Vol. 1 PRIMERA EDICION Octubre del 2018

Entrevista con Juan José Sebreli

Ciencia y racionalidad en tiempos de imposturas Nombre de la editorial distribuidora o autor / editor: Nullius in verba site. En directorio de Editores y Proveedores de material bibliográfico y documental de la Biblioteca Nacional de Colombia.

1

Página legal EDITORES nullius in verba site Sergio Barrera +57 319 721 98 66 Diseño gráfico Julián Camilo Cruz DIRECCIÓN EDITORIAL: CALLE 64H No 71-38,El PASEO. BOGOTÁ

ISSN: 2619-2586 (EN LINEA)

LINK REPOSITORIO HTTP:// NULLIUSINVERBASITE. COM/REVISTA-SCIENTIAIN-VERBA-PDF/

PUBLICACION WEBSITE

www.nulliusinverbasite.com

Si le interesa publicar algún escrito en nulliusinverbasite o Scientia in verba magazine, y

La revista digital Scientia in verba Magazine, es una publicación periodica trimestral. Está orientada a publicar producción intelectual através de textos argumentativos de diversos autores, adscritos a la filosofía y la investigación científica en general. Dirigida a investigadores, docentes, estudiantes y comunidad académica en general, además, a cualquier persona interesada en las temáticas de la filosofía y la ciencia. Su grupo editor responsable está conformado por Sergio Barrera Rodriguez y Julian Camilo Cruz Bohoquez. Con dirección editorial en: Calle 64h # 71-38 Barrio el paseo. BOGOTÁ, y telefonos de contácto: +57 3197219866 / +57 3104857568.

contribuir con la apropiación social del conocimiento, envíenos su artículo al siguiente correo:

[email protected] ZURC DESIGN (DISEÑO GRÁFICO)Zurc Ilustración

https://www.facebook.com/ ZurcArtfp/

@ZurcArtfp

Todos los artículos contenidos en esta revista cuentan con autorización formal de cada uno de los autores participantes invitados, por medio escrito, vía email. Donde los mismo, aceptan voluntariamente la reproducción de sus ensayos como contenido de la revista Scientia in verba Magazine. Se precisa que los derechos de autor surgen desde el momento en que se crea cada obra, respondiendo al criterio normativo autoral, que establece que desde el mismo momento de creación nace el derecho de autor, el cual posee el autor mismo, y no se requieren formalidades para la constitución del mismo. Primera Edicion © Scientia in verba magazine Bogota, Colombia

2

Tabla de contenido Inverse problems. Capítulo 1.

La confianza debilitada en la ciencia

Mario Augusto Bunge

Sergio Barrera

Pag. 4-14

Pag. 39-46

El valor de la filosofía

En defensa de las reglas

Antonio Diéguez

Juan Antonio Negrete

Pag. 15-21

Pag. 47-51

La insoporrtable levedad del test de Turing y la filosofía del minotauro Manuel Corroza Muro Pag. 65-74

Fundamentos conceptuales de la biología de la cultura Angelo Fasce Pag. 87-108 Entrevista a Juan José Sebreli

Sobre una confusión elemental Matt suarez Holze y en filosofía de la Facundo Guadagno ciencia Pag. 109-119 M.Janou Glaeser

Expulsando fantasmas de la máquina de la memoria y la reducción

Elogio a la discriminación Caleb S. Medina

Entre la materia y la Acerca de Scientia verdad in verba Magazine

Diego Alonso Becerra

Pag. 52-56

Johnny Jaramillo

Teoría de las descripciones de Russell

Pag. 79-83

Pag. 22-33 El valor de la ciencia Gustavo Esteban Romero

Nicolás Pérez Pag. 57-64

Pag. 75-78

Pag.121

Las pseudoproposiciones

Arturo Espinosa Pag. 84-86

Pag. 34-37

3

INVERSE PROBLEMS CAPÍTULO 1 The concept of a problem MARIO AUGUSTO BUNGE

4

FOREWORD Although to live is to face problems, the general concept of a problem has been significantly understudied. So much so, that the publication of George Polya’s (1945) delightful How to solve it caused quite a stir. And, although the concept in question is philosophical because it is deep and occurs across fields, from mathematics to politics, no philosophers have produced any memorable studies of it. My own contribution (Bunge 1967), was hardly noticed. Moreover, the word ‘problem’ is absent from most philosophical reference works. There are plenty of texts on particular problems such as those of evil and induction, but none on the general concept of a conceptual problem – as though it were not a problematic concept. Worse, we are seldom taught that doing original mathematics, science or technology is to wrestle with original problems. Nor have we been told that the hardest problems are likely to be inverse, in that they go from effect to cause, or from design to implementation, or from conclusion to premises – as in diagnosing disease from symptoms, looking for a westward passage from Europe to Asia, and designing public policies to face social issues: Premises Forward ↓ ↑Inverse Conclusions where forward reasoning = deductive or rigorous, and inverse reasoning = tentative or plausible. The existence of this significant gap in the philosophical literature justifies the publication of the present study.

THE CONCEPT PROBLEM

OF

A

Conceptual problems or issues are knowledge gaps that can be handled in a promising fashion. For instance, a big open problem in current biomedical research is to find the causes and effective treatments of Alzheimer’s disease – clearly an inverse problem, since working on it takes reserchers from observable symptoms, such as behavioral and cognitive deficits, to unobservable cellular or molecular processes, such as protein misfoldings and mutations. A scientific approach to this problem is likely to rely on recent studies of brain degeneration, and the efficiency of the proposed treatment will be estimated on the strength of experiments and statistical analyses. Whoever solves this problem is sure to earn a Nobel Prize. Incidentally, this prize is awarded for original findings or theories, not for improved data or computations, much less for debunking myths. Furthermore, arguably all the Nobel Prizes in the “hard” sciences have been awarded for solving big inverse problems. Scientific and technological investigators are often asked to rate research projects submitted by colleagues. Such ratings presuppose clear criteria on the worth of research. And this is an inverse problem, since it goes from the sketch of a conclusion to the hypotheses, data and methods likely to be used in the course of the investigation in question. All too often, such valuations are hampered by the vulgar conception of the scientific method according to which it boils down to the sequence Observe – collect data – draw conclusions. But this is a cartoon of the scientific method, since every research problem consists in handling some problem or cluster of problems. Further, in any discipline observation is guided by ideas about what traits are worth being observed – for example, the concentrations of some neurotransmitters rather than the color of an assistant’s lab coat. A more realistic conception of scientific research is this:

1.1 Conceptual problems 5

Background – problem – conjecture – observation – conclusion – evaluation. Sometimes scientific theories initiate experimental research projects. For example, gravitational waves were first detected in 2016 because Einstein had conjectured their existence one century earlier.

1.2 PROBLEM STATEMENT Problems arise and are stated and discussed in some context or against some background knowledge rather than in a vacuum. In other words, we begin every inquiry in the midst of the body of knowledge where the gap occurs and which supplies some of the very concepts occurring in the problem statement. Thus, someone with a physics background is able to state some physical problems, but maybe not research problems in genetics or even in the history of physics. In daily life we are called to undertake practical tasks, pieces of work that involve one’s whole being. In the present work, by contrast, we shall be concerned only with the idea of a conceptual problem detached from our circumstances. Our subject will then be located on the rarefied plane of abstractions, and thus far above the noisy fray studied by the psychologists and sociologists of knowledge. Edmund Husserl’s (1931: 28) famous contention, that his phenomenology is presuppositionless, is false because merely stating a problem in any field presupposes some of the related fields. For example, Husserl’s definition of ‘phenomenological reduction’ involves such tricky terms as ‘nature’, ‘experience’, ‘consciousness’, and ‘pretend’, every one of which evokes several fields. True, we expound formal logic as the rootless discipline, or the first science, but nobody deny that historically it evolved in close contact with legal thinking and later with mathematics. We pretend that logic is the science that follows from nothing, just to emphasize that the logical principles are conceptually self-sufficient, even though

we accept them because they work in practical reasoning – a virtuous circle. In other words, pure reason and real existence are the foci of a virtuous circle, or rather ellipse, formed by two arcs: the Cartesian or rationalist Cogito, ergo sum, and the Aristotelian or empiricist Sum, ergo cogito. The full ellipse symbolizes the ratioempiricist synthesis. In sum, there are no radical or absolute beginnings: every start happens in medias res. In particular, serious work in any field is heteronomous or indebted to other fields, whereas fraud, in particular pseudoscience, is autonomous or selfsufficient. For example, alchemy makes no use of chemistry, and computational psychology is independent of cognitive neuroscience. Beware of isolates other than the universe as a whole. In the conceptually advanced fields, which by definition contain formalized theories, some problems can be stated and handled in mathematical terms. This feature not only narrows vagueness, which facilitates rational debate and enhances testability, but also makes it possible to access the vast fund of mathematics. Mathematization not only facilitates problem resolution: it may also generate fresh problems, such as those of finding formal similarities as well as invariances under coordinate changes. In sum, every non-trivial problem is a component of a whole cluster of interdependent issues, among them the philosophical presuppositions common to all scientific inquiries, such as the philosophical assumptions of the reality and knowability of the outside world. If these assumptions are removed, the gates to fiction are opened.

1.2 LOGIC OF PROBLEMS In all fields we find problems of many kinds, in particular problems of knowing, planning, forecasting, doing, valuing, and communicating. Regardless of the kind or nature of a problem, the following aspects of it may be distinguished: (a) the problem itself regarded as an item on a par with data, commands, rules, and emotional utterances (the epistemological aspect); (b) the act of questioning (the psychological aspect),

6

and (c) the expression of the problem by a set of declarative, interrogative or imperative sentences in some language (the linguistic aspect). Ideas of three kinds are involved in discussing any problem: the background or antecedent, the generator, and the solution in case it exists. Consider the problem “Who is the boss here?” It presupposes that there is a boss rather than a collegial governing body; it is generated by the propositional function “x is the boss;” and it induces a solution of the form “c is the boss”, where c names a specific individual or group. (Remember that a propositional function is a formula containing at least one free variable, and which becomes a proposition when its variables are assigned definite values.) Every problem arises and is posed against some bakground constituted by the antecedent knowledge, in particular the specific presuppositions of the problem. The presuppositions are the statements that are somehow involved but not questioned in the statement of the problem or the inquiry prompted by it. Furthermore, every problem may be regarded as generated by a definite set of formulas. We call generator of a problem the propositional function which yields the problem in question upon application of the operator “?” one or more times. Finally, every problem induces a set of formulas – the solution to the problem – which, when inserted into the problem’s statement, convert the latter into a set of statements with definite truthvalues – true, false, or half-true. In other words, our initial problem is “Which is the x such that x is the boss?,” or (?x)Bx for short. The generator of this problem is Bx, and its main presupposition is “Some x are Bs”, or (∃x)Bx”, whereas the solution’s form is Bc, where c names the inquirer. From a logical point of view, then, we have the following sequence: (1) presupposition (∃x)Bx; (2) generator Bx; problem (?x)Bx; (3) solution Bc. At first sight a question such as “is p true?” does not fit the preceding schema, for it is generated

by p itself, which is supposed to be a proposition, not a propositional function. Yet clearly “?p” may be reworded as “What is the truth-value of the function V at p?”. In symbols, “(?v)V(p) =v”, where V maps propositions p into their truth-values v. If the latter are just truth (or +1) and falsity (or -1), V degenerates into the ordinary valuation function – the original question will not have been modified by the preceding restatement. But if V is allowed to take further values within those bounds, as in the case of the factual sciences, then clearly the new formulation of the problem is more general than the unsophisticated “Is p true?,” which presupposes that a proposition can be just true or false. In any case, truth-value questions presuppose some theory of truth or other, and they are questions about the possible values of a function.

1.3 Problem forms The blanks occurring in the statement of a problem may be individual variables or predicate variables. In the question “Who discovered America?,” generated by the propositional function “D(x,a), the unknown is the individual variable x. In contrast, a problem such as “What does c look like?” directs us to search for the cluster P of properties, perhaps so far unknown, that make up the manifest properties of the individual c. We shall symbolize this question form as “(?P)Pc. The questions asking for the value(s) of one or more individual values may be called individual values problems, whereas the ones asking for the values of one or more predicate values may be called functional problems. We postulate that every elementary problem is of either of these two kinds. What about the problem form “Does the individual c have the property represented by the predicate P,” in which no variable is in sight? Actually the value is there but hidden: It is the proposition “c has the property P.” Indeed, the given problem is generated by the function “The truth-value of the statement “c has the property P

7

is v”, and the solution to the problem consists in finding the precise value of v. Therefore the explicit formulation of the problem is: “What is the truth-value of the proposition “c has the property P”? All the problems concerning universality and particularity or someness can be regarded as questions about the truth-values of the corresponding statements. Thus, the question “Are there gravitons?” can be restated as “Is it true that there are gravitons?” and, more precisely, “What is the truth-value of the assertion that there are gravitons?” (The reader may rightly suspect that here we are skirting the question whether ∃ should be read as “there exists” or rather “some”. Such as ax Likewise, “Is everything material changeable?” is equivalent to “Is it true that ‘everything material is changeable’ is true?”. And what about “What is P,?” where ‘P’ denotes a predicate constant such as “spin” or “vector potential”. Here too a variable is missing and must be dug up in order to complete the question. In fact, what is being asked is “Which are the poperties P of A, or “(?P)(PA)”, where ‘P’ stands for a cluster of predicates of order higher than A. And this is a functional problem, the answer to which is constituted by a set of statements predicating definite properties of A – for instance, that A is symmetric in one or more coordinates. A moral we extract from the above cases, all of them characterized by the seeming absence of certain vaiables, is clear: Do not let yourself be misguided by ordinary language, and always dig for the variable(s). Note also that the question mark ?, which we are handling as a primitive term, always bears on an unknown or variable. Further, “?” does not bind the variable on which it acts: merely asking a question does not answer it. Only the answer, i.e. the solution, will be free from unbound variables. The following Table 1.1 lists some typical elementary problems. This table is meant to be illustrative, not exhaustive.

Table 1.1 Elementary problem forms. Problem kind

Question

Individual Which-problem Which is (or are) the x such that Ax?

Form

Solution form

(?x)Ax

x = c, d, …

At what place is (?x)[Ac ⇒ Bc=x] x = d the c such that Ac? Why-problem Which is the p such that q because p? (?p)(p ⇒q) p=c Whether-problem What is the truthvalue of p? (?v)[V(p)=v) v=a Functional How-problem: How does c, which is an A, happen? (?P)[Ac ⇒ Pc] Where-problem

What-problems Which are the properties of c? (?P)Pc Which are the properties of the property A? (?P)PA

8

1.4 Formation rules A single unknown occurs in each of the problem forms listed in Table 1.2, but none in the answers. This characerizes the well-defined, definite, or determinate problems, in contrast with the ill-defined, indefinite, or indeterminate ones. The latter have indeterminate answers, that is, solutions involving free variables. A determinate question has a single answer with no unknowns, but the answer may consist of a combination of statements. For example, the question (?x)(x2 – x =0) consists of two members, namely the roots 0 and 1 of the equation. In contrast, the problem (?x)(x2 – x + y =0) is indeterminate because the variable y remains free even after fixing x. But it can be rendered determinate either by assigning y a definite value or by prefixing to it a quantifer or a question mark bearing on the second variable. In fact, (?x)(x2 – x + y = 0 is a determinate question with an answer consisting of infinitely many ordered pairs . In short, a determinate problem has a single answer with no free variables, which can be either single-membered as in the case of “What is the value of y = x3 for x:= 0.001,? or many-membered, as in the case of “Which are the social classes in the USA?” (:= is the assignment symbol, not to be confused with the identity symbol =.) Definite answers can be gotten provided definite questions are asked. For instance, the question “How long is this rod?” will have a single answer on condition that ‘this’ is an unambiguous name in the given context, and that the reference frame, the length unit, the temperature and the pressure are specified. Likewise, “Where is c?” is not quite determinate, for a name (in this case c) does not individualize anything save in a context; we must specify the cluster of properties A that individuate c, and ask accordingly “Where is the c such that c is an A?, or “Given that c is an A, where is c?”. Assuming that position can be specified by an ordered n-tuple of coordinate values, the form of the question, once completed, would be “(?n)(An ⇒Bn). In short, all of the variables occurring in the statement of a problem should be displayed

explicitly in order to ensure its determinteness, unless the context makes it clear what the values of such variables are. The preceding informal remarks may be summarized in the folowing Definition 1.1 The statement of a problem is well formed if and only if it satisfies the following formation rules: Rule 1.1 The generator contains as many variables as unknowns. Rule 1.2 As many questions as varibles are prefixed to the generator. Rule 1.3 Every elementary well-formed problem has either of the following forms: (x?)(. . . x. . .) , (?P)( . . .P. . .), where x is the individual variable and P the predicate variable in the generator. Rule 1.4 Every non-elementary well-formed problem is a combination of well-formed elementary problems. When the problem arises in a context dominated by equations, an additional condition is usually added to those that define a well-defined problem, namely that the number of unknowns must not exceed that of conditions. However, this requirement did not deter some ancient Greek and Arabic mathematicians from working on Diophantine equations, such as ax + by = c, which violate the said condition.

1.5 Problems combinations Let us elucidate the meaning of the expression ‘problems combination’ occurring above. Call π(x) an elementary individual problem, and π(P) an elementary functional problem. The two problem forms can be subsumed under a single one by abstracting from the variable type, i.e., by introducing the concept v of variable tout court, as in π (v) = (?v)Gv, where G(v) is the problem generator.

9

Let now (?v1)Gv1and (?v2)Gv2 be two elementary problems that we wish to combine, such as “Where did that doctor study?” and “What is the specialty of that doctor?” If we intend to solve either problem, we write π(v1,v2) = π(v1)vel π(v2); and if we plan to solve both problems at a stroke, we write π(v1,v2) = π(v1) et π(v2). In the first case we face a disjunctive problem, and in the second a conjunctive one. The solution to a disjunctive problem will be the disjunction of the solutions of its components, i.e. S(a,b)= S(a)∨S(b). If the problem is conjunctive, its solution will be the conjunction of the solutions to the component problems just in case the variables v1 and v2 are separable. If the variables refer to two interacting parts of a whole, no such separation or analysis will be possible. For example, the degree of integration or inclusion of an individual in her society is a function of intrinsic properties such as sociability, and dyadic properties such as the distance in status between two persons, as in manager and employee, or officer and private. Note that the possibility of analysis is an ontological as well as an epistemological question. Hence the limited scope of both individualism and analytical philosophy: they hold only when the totalities they study are conglomerates rather than systems or organized totalities. In other words, interaction ⇔ non-separation of variables, whence the drastic limitation of analysis. However, this caution won’t deter the individualists who still rule the social studies On the basis of the binary functors vel and et we can analyze problems of an arbitrary complexity, though subject to the above-mentioned limitation. For example, a three-variables problem may be analyzed in one of the following ways: π1 vel π2 vel π3, π1 vel (π2 et π3),

π1et π2 et π3 π1 et (π2 vel π3)

The preceding formulas can be rewritten as

follows: π1 vel (π2 et π3), π1 et (π2vel π3),

(π1 vel π2) et (π1vel π3) (π1 et π2) vel (π1 et π3)

Clearly, the functors vel and et obey the associative and commutative laws. So far the analogies between problems and statements are apparent. They can be stretched further by introducing the concept of negate of a problem, expressed by a negative question. We do it through the following Definition 1.1 If G(v) is the generator of π(v), then non-π(v) = (?v)[¬G(v)]. It is often advantageous to switch from the given problem to its negate. For Instance, “Which chemical elements are noble?” may be replaced by “Which chemical elements enter into chemical compounds?” With the concept of negate of a problem and with the assistance of the above formulas many problems can analyzed into the conjunction (disjunction) ofdisjunctions(conjunctions) of simpler problems. In addition to the compounds brought about by the operations vel an et, we recognize the binary relations of problem implication and equivalence. We stipulate that π1 implies π2 just in case the generator of π1 implies the generator of π2 ; and we say that two problems are equivalent if their respective generators are equivalent. In symbols, Problem implication (π1 seq π2) ⇔ (G1⇒G2) Problem equivalence (π1 aeq π2)⇔(G1⇔G2) The simplest case of problem equivalence is that where v1 = v2. An example of problem implication is this: the problem of finding the truth-value of a statement implies the problem of finding whether the same proposition is true. Here is a problem of problem equivalence: the task of deducing the conditional A ⇒ C from the premise P is equivalent to deriving the consequent C from the enriched premise P&A. In fact, π(?v1)[V(P

10

|–A) = v1] and π(?v2)[V(P|–A) = v2]. Now, by the definition of entailment, G1 is equivalent to the statement that P ⇒ (A ⇒ C) is logically true (tautologous); and, by the law of exportation, P ⇒ (A ⇒ C) is equivalent to P & (A ⇒ C). Hence, saying that P ⇒ (A ⇒ C) is tautologous amounts to asserting that P&A ⇒ C is tautologous. But the latter is precisely G2. Q.E.D. Finally, if G2 is deducible from G1, that is, if G1 entails G2, we shall say that π(v1) is stronger or harder than π(v2). In short, π1≥ π 2 ⇔ (G1 |–G2). For example, the dynamical problems are stronger than the corresponding kinematical ones since the generators (hence also the solutions) of the latter are derivable from the corresponding generators of the former. For example, Newton’s laws of planetary orbits are Kepler’s laws. Obviously, whereas in daily life we are justified in skirting the harder problems, in science one should prefer to investigate the stronger questions, since these will lead to the stronger solutions.

1.6 Decision problems The partition of problems into individual and functional applies only to elementary or atomic problems. Rule 1.4 allows for the statement of non-elementary of molecular poblems, some of which may be individual with regard to some variables and functional with regard to others. Our classification of elementary problem forms cuts across the alternative groupings proposed in the course of history. The best known of these are Aristotle’s and Pappus’s. Aristotle distinguished between what problems, or questions of fact, and whether problems or dialectical questions. However, from a formal point of view there is no big difference between the problem of fact “What is the distance between a and b?, and the dialectical problem “Does a imply b.? In fact, both are individual problems: the former asks what the value of the function D at a couple is, and the latter what the value of the function at a different couple is. The difference is not logical

but methodological, since the answer to each problem calls a method of its own. The ancient Greek mathematician Pappus of Alexandria drew a distinction between problems of construction, such as “Find the average of a set of numbes”, and problems of proof, included in whether problems. Two millennia later, George Polya (1945) rechristened them problems to find and problems to prove, and worked out this distinction. Incidentally, no new ideas about the concept of a problem seem to have arisen during the nearly 2,000 years that separate Georgy Polya (1945) from Pappus (c. 340 P.E.). What about decision questions, that is, problems the answer to which is either a straight ‘yes’ or a straight ‘no’? These questions are special cases of individual problems and particularly of those involving truth-values, such as “Is p true?” and “Does the individual t belong in the set T,?” which reduces to the former when p takes the particular form “t ∈ T”. Whether a given problem belongs to this category is a methodological problem, because only the means at hand and the goal in view will help us answer the original question. There is more to it. Consider the problem “How tall is individual c?,” where c names a definite person. No matter how sophisticated an altimeter may be chosen, in principle the problem may be broken down into a finite sequence of questions of the form “Does c’s crown fall between the scratches n and n+1 of that yardstick?” An improvement in accuracy will enable us to ask more questions of this kind and therefore to come closer to the supposedly unique truth. But because every measurement comes with a non-vanishing error, there will be a finite number of decision questions to ask. This finiteness is of course necessary for the procedure to be effective, that is, performable in a finite number of steps. A completely exact solution would require infinitely many such unit steps, and is thus humanly unattainable. A desideratum of the laboratory scientist and the applied mathematician is that, no matter a hard problem may be, it can eventually be reduced to a finite sequence of yes-or-no problems. However, every achievement of such a methodological

11

triumph hides an epistemological defeat: a strong problem, such as identifying a particular member of a nondenumerably infinite set, has been replaced by a finite set of weak problems, such as asking to decide whether a given individual belongs to a given set. There is no alternative: either we take the solution to the weaker problem or we are left with the unsolved stronger problem.

1.7 Semantic and pragmatic issues Let us now turn to a semantic aspect of problems. The rules 1.1 to 1.4 are necessary but not sufficient to secure determinate answers, that is, solutions with a unique (though not necessarily singlemembered) answer. In fact, a problem may be well formed but its background may by defective or just vaguely indicated. For example, the question “Is p true?,” though well-formed, may not presuppose that p can have only two truthvalues, which is by no means obvious since p may be true in one system but not in another. Likewise “What is the melting point of sulphur?” has a single melting point regardless of its crystalline structure – which is false. In other cases the presupposition is deeply hidden. For example, “Why something rather than nothing?” presupposes that God asked Himself this question while he was asking Himself whether or not to create the universe. Hence the answer depends crucially on the questioner’s faith. The defective formulation of a problem may hinder or even prevent proper inquiry. This is the case with Heidegger’s “What is being?,” or its equivalent “What is it to be,?” which belongs in the same class as “What moves motion?” The defective formulation of a problem – that is, the raising of an ill-formed issue – may launch research on a fruitless path. An example is the question “What is the guarantee of truth?,” which has sparked endless fruitless speculation since antiquity. We should have learned that, although truth is attainable, it does not come with a truth warrant, if only because there is no guarantee that such a warrant is possible.

Let us lay down the following conventions regarding the background of problems, starting with the following Definition 1.3 A problem is well-conceived (or well-backed) = none of its presuppositions is either manifestly false or undecided in the same context. We also need Definition 1.4 A problem is well formulated = the problem is both well-formulated and wellconceived. With these conventions in mind we formulate our last prescription: Rule 1.5 Every problem shall be well-formulated. A well-posed problem will be determinate or well-defined: by displaying all the relevant items, it will suggest what further searches may help solve it. Yet it would be naïve to suppose that merely abiding by Rules 1.1 to 1.5 will warrant our asking only well-formulated questions, if only because it is seldom easy to unearth all the presuppositions of a problem. Even in a formalized theory only the presuppositions acknowledged by the theorist will be listed. And except in trivial cases such a list is likely to be incomplete, for some advances are made by discovering that some formula is either needed or dispensable. Consequently, a formula that has been accepted as well formulated or meaningful may turn out, upon closer examination, to be illconceived. Rigor would seem to require an examination of the presuppositions of every presupposition, and so on until the ultimate presuppositions are reached – or not. This is possible, at least in principle, in mathematics: here there are plenty of selfcontained theories, so we can dig up until reaching a fundamental theory such as set theory or category theory. In contrast, in factual science it is still unknown whether there are any basic theories underneath quantum mechanics or

12

quantum electrodynamics. In factual matters the pattern may be a net rather than a rooted tree, and in any case it will always be premature to legislate in this respect. Instead of looking for final theories we should secure the right to proceed in each case as far as required. Stated negatively: we should abstain from postulating ultimate assumptions. Just recall the evolution of evolutionary biology in the course of the 20th century: inclusion of macroevolution, and the fusion with ecology first and developmental biology later on. In sum, science has foundations but these may be temporary. Because presuppositions are not immutable, there are no inherently well-conceived problems. For instance, an operationalist should dismiss any questions about the state of the interstellar space because the placement and operation of measuring instruments destroys the original void. The realist has no such scruples, and consequently welcomes the data about space obtained by astronauts, and even more so the data collected by unmanned space probes. Change the context or background, and the meaningfulness of a question may change accordingly. And, since the context may change, it would be foolish to dismiss certain questions as inherently and therefore everlastingly meaningless. It is wiser to adopt a humbler attitude, and acknowledge either that the problem does not interest us at the moment, or that it may be interesting but premature, i.e., that the tools for handling it are yet to be built. This humbler attitude towards open problems does not kill them, but defers their treatment until the proper tools are available. The Pavlovians and behaviorists would not have deserved the reproaches of the so-called humanistic psychologists if, instead of dismissing the mental as “metaphysical”, they had stated that their self-imposed limitation was not ontological but methodological: that they started by studying elementary facts such as memory, conditioning and aversion because such basic problems had to be solved before the higher functions, such as

imagination and delusion, could even be posed. Bogus science and antiscience thrive not only on ignorance and the deliberate attempt to supress enlightenment, but also on the stubborn refusal, by scientists, to even consider perfectly legitimate though perhaps premature questions such as that of the existence of free will. Note also that well-formedness, though desirable, is not enough to justify the expense involved in a state of the art experiment or expedition. People will try to find funding for such operations only if they are strongly motivated to work on the underlying problems. Besides, such motivation will depend on the originality of the problem, and the theoretical or practical utility of its solution. This remarks prompts us to add that, other things being equal, in science one should always prefer to wrestle with the more original and promising problems. The justification of the originality clause is that the result of one’s research should enrich the extant knowledge instead of just confirming it. And the promissority clause underlies the requirement that the output of any scientific effort should be worth at least as much as its input.

1.8 Problematics The problematics of a field is the set of ideas and procedures that, far from being above criticism, raise problems worth being investigated. The degree of maturity of a discipline may be estimated by the state of its problematics. A discipline with more problems than achivements is immature, while one without problems is either embryonic or already spent. For example, accounting hardly raises any research problems, while quantum physics keeps sparking off interesting controversies. A practical spinoff of the preceding is this: those who need a voluminous c.v. to get or keep a job should work on unproblematic subjects, while those who look for intellectual stimulation should work on problematic subjects.

13

MARIO AUGUSTO BUNGE Autoría del retrato: Nicolás Pérez

Epistemólogo, físico y filósofo argentino. Actualmente emeritus de Lógica y Metafísica en la Universidad McGill, de Montreal.

14

EL VALOR DE LA FILOSOFÍA Antonio Dieguez Lucena

“La filosofía es el intento inusualmente obstinado de pensar con claridad.” William James

“Somos la primera humanidad producto de un diseño del cual las ideas filosóficas fueron las principales autoras. Somos una ‘ humanidad pensada’, el resultado

Se oye desde hace mucho, pero con creciente insistencia ahora que ya se reconoce públicamente y sin pudor que el éxito económico ha de ser objetivo central que guíe cualquier vocación profesional, que la filosofía no sirve para nada; que sus ideas son demasiado abstrusas y alejadas de la realidad; que no tiene, por ello, relevancia práctica alguna; que la sociedad haría bien en extenderle de una vez el certificado de defunción y en dejar de subvencionar a sus últimos e insignificantes valedores.

de la imaginación ética y política de Y sin embargo esta opinión está profundamente quienes dieron el gran salto que nos equivocada; hecho que no creo que sirva para mitigar un ápice la convicción con la que se proclama. Lejos de separó del mero sucederse natural.” ser inanes, las ideas filosóficas han tenido a menudo un Amelia Valcárcel, El País, 7 de junio enorme poder, y éste ha dejado su huella visible en la historia. Han alejado o acercado pueblos; han sustentado de 2013. revoluciones; han edificado instituciones culturales y sistemas políticos; han erradicado o santificado costumbres; han creado conceptos con los que pensar de

15

formas nuevas; han derribado viejos conceptos, dejando atrás con ellos formas de pensamiento periclitadas; han forjados utopías que perseguir (como la de la paz universal y perpetua o la de la igualdad entre los seres humanos) y distopías que evitar. Y, en especial, han proporcionado el enorme servicio a toda la humanidad de mostrar que las cuestiones últimas que siempre nos han importado pueden alcanzar una respuesta, por tentativa y provisional que sea, dentro de la mera razón. Pero, ¿cómo? ¿Es que acaso no hemos oído a Stephen Hawking, el gran físico británico, decir que la filosofía ha muerto ya? Hawking quizás pensaba escandalizar con su declaración debidamente ampliada por los medios de comunicación. No sé si lo consiguió entre algunos, pero no ciertamente entre los filósofos, que vienen oyendo lo de la muerte de la filosofía al menos desde Kant (en el siglo XX se convirtió incluso en un tópico detectable en autores tan dispares como Heidegger, Wittgenstein, Rorty, Vattimo, una parte de la filosofía postestructuralista y una parte de la filosofía analítica). Puede que la filosofía, según los que ven este asunto al modo de Hawking, hiciera grandes cosas en el pasado, pero su tiempo ha pasado ya. Una vez que hizo germinar de su tronco a las distintas ciencias, a lo largo de toda la Modernidad, su caudal se ha agotado. No quedan preguntas importantes que no puedan formularse dentro de una de esas ciencias, y, por tanto, la posible respuesta

filosófica está de más. Si queremos saber lo que es la materia le preguntamos hoy a la física o a la química; si queremos saber qué es la vida, le preguntamos a la biología; si queremos saber qué es la mente, cómo funciona, cuáles son sus límites, le preguntamos a la psicología; si queremos saber qué es el Universo, cuál ha sido su origen y cuál su posible final, le preguntamos a la cosmología; si queremos saber qué es el ser humano, le preguntamos a la antropología, a la biología evolucionista, a la sociología, y a otras disciplinas empíricas. ¿Qué podría añadir de interés, y sobre todo, de relevancia, el filósofo a todas esas respuestas científicas? Quien así pregunta posiblemente no se ha parado a considerar que la ciencia tiene límites. En primer lugar, porque en cada momento histórico su conocimiento del mundo es parcial y no parece haber ninguna razón de peso para pensar que esto no seguirá ocurriendo en un futuro previsible. Seguirá habiendo temas que, por falta de datos, por insuficiencias metodológicas, por limitaciones técnicas, o por la mera finitud de la mente humana, las distintas ciencias no podrán abarcar de forma adecuada. Pero además, hay asuntos, especialmente asuntos humanos, que no quedarían jamás exhaustivamente entendidos mediante un enfoque científico por mucho que éste consiga avanzar. Piénsese, por ejemplo, en las cualidades de las experiencias

subjetivas, o en el conocimiento que se obtiene del otro a través de las relaciones personales, o en la experiencia estética, o en determinación de en qué consiste una vida buena, o en el modo de darle sentido a un proyecto personal de vida, o en la cuestión de si existe o no el libre albedrío, o en el concepto de causa implicado en la idea de causación mental. Estos y otros ejemplos que podrían ponerse son suficientes para mostrar que habrá en todo caso preguntas filosóficas que no desaparecerán ni encontrarán plena respuesta en las ciencias. Y no debe olvidarse que las ciencias mismas descansan en presupuestos filosóficos que ellas no tematizan. Por otra parte, incluso si se quisiera dar a la ciencia la última palabra en todos los temas relevantes que han ocupado tradicionalmente a los filósofos, la discusión filosófica no dejaría de ser necesaria en casi todos ellos, puesto que no hay más que mirar a lo que hoy sucede en este tipo de discusiones para comprobar que los propios científicos pueden sacar conclusiones muy diferentes acerca de lo que la ciencia puede decir sobre esas cuestiones, y es claro que la evaluación de sus diferentes conclusiones necesitaría de una reflexión filosófica. De hecho, lo que hemos podido ver en las últimas décadas es que el progreso de las ciencias, si bien ha eliminado o dado respuesta a muchos problemas filosóficos, ha abierto infinidad de otros nuevos, y, gracias a ello, han surgido nuevas ramas

16

de la filosofía, como la neurofilosofía, o la filosofía de la biología, que no existían con anterioridad. La filosofía no sólo se ha expandido en sus intereses, sino que ha salido fuera de sus fronteras tradicionales. Hawking, por seguir con el ejemplo citado, se desmiente casi inmediatamente a sí mismo, cuando en las mismas entrevistas en que dice que la filosofía ha muerto (inicialmente lo sostuvo en su libro El gran diseño), añade que debemos manipular nuestros genes para convertirnos en seres superinteligentes capaces de competir con las máquinas superinteligentes que crearemos dentro de poco. ¿No hay ninguna cuestión filosófica relevante detrás de esta pretensión? ¿No hay presupuestos discutibles desde la epistemología, la ética, la antropología filosófica, la filosofía de la mente…? No parece que haga falta esforzarse mucho para reconocer varios. Pero dicho esto, hay que añadir a continuación que la filosofía no tiene garantizado un futuro. De hecho, presenta síntomas claros de decaimiento – que son en buena parte causantes de su deteriorada imagen– de los que cabe responsabilizar a los propios filósofos. A lo largo del siglo XX, uno de los siglos más convulsos de la historia, la filosofía (con algunas excepciones notables) pensó que podía desentenderse de los problemas que verdaderamente aquejaban a la humanidad. Pensó que le estaban reservadas tareas más elevadas, más nucleares, menos periféricas. Se replegó entonces en disquisiciones escolásticas sobre la conciencia pura, el lenguaje ideal, el modo en que hablamos de ciertas cosas, la interpretación infinita de significados textuales, el final de la filosofía, la muerte del sujeto, la construcción social de la realidad. Se obsesionó con el rigor puramente formal y con la elaboración de una jerga aparentemente rompedora, pero incomprensible. Se hizo académica, en el peor sentido de la palabra, y dejó las cuestiones importantes en manos de opinadores diversos y de “think tanks” a sueldo. Con todo ello, ha dejado tras de sí un largo reguero de ideas vacías, como las ha llamado Peter Unger, que solo han interesado a los ingresados en cada una de sus especializadas escuelas. No es extraño, pues, que ante la constatación de este estado, se hayan multiplicado las voces de los que certifican

que la filosofía ha muerto, justo en la época en que más se escribe y se publica sobre filosofía. La filosofía –es verdad–, a diferencia de las ciencias, no hace descubrimientos; excepto uno solo, y cuando es buena: nos pone al descubierto lo que los seres humanos hemos sido y lo que hemos querido ser. Nos señala cuáles han sido nuestras aspiraciones y nuestros miedos, nuestros deseos y nuestros deberes, nuestros límites y nuestra desmesura. Eso es básicamente lo que cualquier estudiante de filosofía aprende a valorar a través de numerosas lecturas en los años de su formación. Pero aprende también algo aún más valioso que difícilmente aprenderá en otros lugares, ya sean académicos o no, a saber: que si bien a lo largo de la existencia uno puede ponerse, si quiere, en las manos de muchos guías morales o intelectuales, sólo el uso autónomo de la razón, como nos enseñó Kant, hace a un ser humano alguien auténticamente libre. Por eso, el estudiante de filosofía, al cabo de un tiempo, no podrá ya enfrentarse a ningún asunto importante en su vida sin considerarlo al modo filosófico, es decir, sin preguntarse qué le dice al respecto su razón. Esto le traerá ventajas en algunas situaciones, porque no son muchos los que se atreven a salir de la opinión común, de lo que se supone que debe pensarse sobre ese asunto. Y podrá así aportar un punto de vista diferente. Pero le acarreará también desventajas. Sobre todo en aquellos momentos en los que el sentido de lo práctico, de lo conveniente, ha de ser pospuesto. Y es que, paradójicamente, el lado no teórico, sino práctico, de la filosofía –el que ha tenido siempre como fin último el logro de una vida digna de ser vivida–, ha aconsejado repetidas veces al practicante de la filosofía ser poco práctico. Todo el que se dedica profesionalmente a la filosofía ha de preguntarse alguna vez si merece la pena seguir este consejo. Bien –dirá el juez que mira desde hace tiempo con desdén a la filosofía–, pero además de eso, ¿qué es lo que consigue obtener durante sus años de formación el estudiante de filosofía que justifique la carga onerosa que sus estudios representan para el contribuyente? Admitámoslo desde el principio, por lo general el estudiante de filosofía no sabe manejarse demasiado bien

17

en tareas que reciben la máxima consideración social. No sabe calcular la resistencia de un puente, ni averiguar si una toxina está presente en un alimento, ni reparar la fractura de un hueso, ni asesorar a alguien perjudicado por una nueva ley. Lo único que saca de sus estudios es la costumbre de aplicar algunas herramientas analíticas a los problemas y, utilizando la terrible expresión de Quevedo, un cierto gusto por vivir “en conversación con los difuntos” y escuchar “con los ojos a los muertos”, es decir, un gusto por lecturas de autores del pasado. No es mucho, ciertamente, pero cabe el consuelo de que con ese parco bagaje, hubo quien supo hacer grandes cosas. Quien supo ver nuevos valores hasta entonces desatendidos o despreciados, quien cambió ideas predominantes en diversos ámbitos, quien hizo preguntas fructíferas, quien abrió nuevos campos de investigación y ofreció imágenes más ricas y más críticas de nosotros mismos, contribuyendo así al progreso moral de la humanidad. Pero sin necesidad de llegar a alcanzar objetivos tan altos, hay ya una enseñanza práctica, pequeña pero muy útil, que el estudiante de filosofía puede extraer de todo lo aprendido en sus años de formación. La historia de la filosofía nos muestra los grandes errores que otros han cometido en el pasado. Al menos, estará ya avisado sobre ellos, y eso no es baladí, porque la historia tiene a veces la tentación de repetirse, y no sólo como farsa, sino insistentemente como tragedia. Sabrá, pues, cuáles son los puntos débiles de cualquier idea que se nos quiera presentar como una verdad inamovible, empezando por esa misma pretensión de infalibilidad. En esto, el mensaje que nos ofrece la historia de la filosofía es convergente con el que nos ofrece la historia de la ciencia: es necesario cambiar de opinión cuando se tienen datos y argumentos que indican que la opinión que se sustenta es falsa, y para detectar el error lo antes posible, hay que someterla a crítica rigurosa. Esto no sólo lo dijo Popper, pero sí es uno de los que más insistió en recordarlo. No hay que hacerse, pese a lo dicho, demasiadas ilusiones. La precariedad de la filosofía ante la opinión pública ha sido una constante en su historia. No es consecuencia de la política del ministro de educación de turno, aunque ésta (y la

anterior, y la anterior a la anterior) no haya hecho casi nunca nada por mejorarlo. Con altibajos, la situación en la que se ha visto siempre la filosofía, desde los tiempos en los que Sócrates incordiaba en el mercado de Atenas, ha sido siempre esa. No es de extrañar. ¿Cómo no se va a impacientar la gente con ella cuando ni siquiera es fácil saber qué es la filosofía, aunque se haya obtenido un título académico sobre esa materia? Hay demasiadas caracterizaciones disponibles, unas muy distantes de las otras. Si me pidieran elegir, a mí me parece que la más ajustada, aunque posiblemente también la menos orientadora, es la de Wilfrid Sellars, según la cual el objetivo de la filosofía es entender cómo las cosas, en el sentido más amplio posible del término, se relacionan entre sí, en el sentido más amplio posible del término (“understand how things in the broadest possible sense of the term hang together in the broadest possible sense of the term”). Pero una afirmación así, como ya se ve, no aporta demasiada información, así que para que no se diga que me voy por las ramas, me atreveré a dar algún detalle concreto acerca de lo que, desde mi personal punto de vista, ha de constituir la tarea principal de la filosofía hoy y en los próximos años. La filosofía debe, si no quiere verse cada vez más arrinconada en una autocontemplación narcisista, retomar como tarea fundamental la reflexión sobre los problemas que inquietan a los seres humanos en el momento presente, como supo hacer en otros momentos en que gozó de mayor consideración. En realidad, puede decirse sin exageración que los problemas principales que tiene la filosofía ante sí al día de hoy son probablemente los más graves y más difíciles de todos aquellos a los que ha tenido que enfrentarse a lo largo de su historia. A título de ejemplo, he aquí algunos de los que creo de más interés: (1) ¿Qué consecuencia ha tenido sobre nuestro planeta el desarrollo tecnocientífico e industrial, y qué alternativas hay a lo que estamos haciendo con él? ¿Hay posibilidad de mantener una actitud nueva ante la tecnología? ¿Qué relación queremos mantener con los demás animales y con la naturaleza en general? ¿Qué responsabilidades tenemos con las generaciones futuras? (2) ¿Qué cambios han de producirse en la

18

comprensión de nuestra propia especie ahora que empieza a vislumbrarse su posible su transformación biotecnológica? ¿Querríamos ser sobrehumanos o posthumanos a través de la genética? ¿Querríamos ser inmortales si estuviera a nuestro alcance esa posibilidad? (3) ¿Cómo va afectar todo esto a nuestros modos de ordenación política y social y qué podemos hacer para que el resultado sea más justo y proporcione mayor libertad e igualdad? ¿Cómo vamos a hacer que los beneficios del progreso científico y técnico estén orientados realmente al bienestar de todos los seres humanos, empezando por los más desfavorecidos? Como puede verse, son cuestiones de máxima importancia y en ellas la filosofía (junto con las ciencias) tiene mucho que decir. Pero permítaseme terminar señalando un problema que la filosofía, en tanto que disciplina académica y profesional, tiene todavía que resolver y que no puede posponer por más tiempo. No es un problema que le afecte sólo a ella, pero por su propia condición reflexiva debería tomarse muy en serio el intento de solución. Las mujeres constituyen el 50% aproximadamente de los estudiantes que comienzan los estudios de filosofía en los países occidentales. A medida que avanzan los cursos, su porcentaje se va reduciendo gradualmente; de tal modo que según algunas estimaciones recientes sólo el 30% de los profesionales dedicados a la filosofía y sólo el 20% de los profesores universitarios de filosofía con plaza permanente son mujeres. El número de profesionales femeninas ha ido aumentando en las últimas décadas en otras especialidades, pero no en igual medida en la filosofía, que sigue siendo, dentro de las humanidades, la que mayor desproporción mantiene entre sexos. Es evidente, según estos datos, que pese a contar hoy día con filósofas de reconocido prestigio, la filosofía no ha hecho aún demasiado por incorporar a la mujer, y quizás a ello se deban algunas de sus otras deficiencias actuales.

19

¿Cómo vamos a hacer que los beneficios del progreso científico y técnico estén orientados realmente al bienestar de todos los seres humanos, empezando por los más desfavorecidos?

20

ANTONIO DIEGUEZ LUCENA

Filósofo. Catedrático de lógica y filosofía de la ciencia de la unviersidad de Málaga

21

EXPULSANDO FANTASMAS DE LA MÁQUINA DE LA MEMORIA Y LA REDUCCIÓN

DIEGO ALONSO BECERRA

22

“El naturalista se encoge de hombros y prosigue su estudio paciente de los fenómenos de la vida, de la inteligencia, de las emociones y de las pasiones, a fin de probar que pueden ser reducidas a fenómenos físicos y químicos” – Piotr Kropotkin, La ciencia moderna y la anarquía–

Introducción Regularmente, involucramos la memoria en nuestras conversaciones, cuando afirmamos que recordamos un evento, un número telefónico, cómo hacer algo, dónde guardamos las llaves, en qué estábamos ó cómo nos sentíamos el 11 de septiembre del 2001. Aprendimos por ostensión a utilizar ese concepto, más bien intuitivamente. Con esta noción intuitiva de lo que significa recordar, se han realizado avances científicos sorprendentes en aislar y precisar los mecanismos celulares y moleculares que están a la base de este fenómeno. No obstante, a la hora de darle una definición precisa, pareciese que la carga teórica devorase al fenómeno real, sólo a modo de ejemplo, la wikipedia [en] la define como “the faculty of the mind by which information is encoded, stored, and retrieved” (consultado en enero, 2018); esto es, la hace depender de una noción de mente, de información, de codificación, almacenamiento, y recuperación, además de afirmar que es una facultad. Todo lo anterior es ampliamente cuestionable y merece su propio artículo para ser cuestionado, sólo que por motivos de espacio y foco de este ensayo, únicamente lo primero será cuestionado acá.

1. De la polisemia (o, distintos ‘tipos’ de memoria) Hablamos de que alguien (sea una mosca de la fruta, un ratón ó un humán) recuerda algo cuando inferimos que su conducta presente incorpora experiencias o aprendizajes pasados, pero también hablamos de memoria cuando no hay (en este momento) una conducta manifiesta,

sino, meramente es posible que la haya. El ejemplo clásico proviene de Tolman (1948), los modelos estímulo-respuesta no daban cuenta de lo que las ratas podían hacer en ciertos laberintos, dónde se le enseñaba a cada rata una ruta indirecta hacia un alimento, y luego se les permitía explorar el laberinto sin recompensa inmediata asociada. Una vez volvían a la primera tarea, las ratas tomaban rutas directas más comúnmente que lo que se esperaría si el aprendizaje estuviese exclusivamente ligado a la recompensa. La hipótesis que Tolman genera es la existencia de ciertos ‘mapas cognitivos’ de orientación espacial, que pueden estar presentes en los organismos y que pueden ser utilizados sólo cuando es necesario, en otras palabras, se introduce la memoria como una variable latente: una disposición. De igual modo, hablamos de recuerdo cuando generamos imágenes mentales, experiencias privadas prima facie inaccesibles a terceros, sin embargo, es posible inferir dichas experiencias desde criterios medibles bastante básicos, como lo son los tiempos de respuesta ante tareas que exigen rotación mental de objetos ‘3D’ (Shepard & Metzler, 1971), resulta que hay una correlación entre grados de rotación mental, y demora de la respuesta. También podemos inferir recuerdos utilizando criterios sofisticados, como lo son las técnicas de neuroimagen (EEG, fMRI, PET, etc), e incluso, ir más allá de las imágenes poco naturales (como cuadrados 2D de colores) y pasar a estudiar la retención visual de escenas u objetos cotidianos, siendo usual que tengamos mejores resultados recordando y reproduciendo estos últimos (Wyble, Swan & Callahan-Flintoft, 2016). Finalmente, hablamos de recuerdos cuando

23

podemos ejecutar acciones previamente ejecutadas, sin recibir de nuevo las instrucciones, ni tener un account verbal ó teórico de lo que estamos haciendo, como cuando recordamos cómo andar en bicicleta, cómo posicionar nuestros músculos supraespinoso y subescapular para hacer una acrobacia, hacia qué calle doblar para llegar a un lugar que visitaste una sola vez.

2. Lo físico y lo mental En los párrafos anteriores hemos hablado de memoria a largo plazo casi exclusivamente: andar en bici o conducirse por un laberinto (memoria procedural), re-presentarte visualmente objetos previamente vistos (memoria explícitadeclarativa), revivir parte de la experiencia del 11/09 (memoria episódica), ó enunciados teóricos (semántica). Casi no hemos mencionado a la memoria de trabajo (e.g. recordar los dígitos de un teléfono que te acaban de dar), la cual es de corto plazo: la retención es menor a un minuto y, si hablamos de dígitos, la cifra usual que podemos retener es 7 ± 2 (Miller, 1956). Concentrémonos por ahora en la memoria a largo plazo (de aquí en adelante, LTM). ¿Esta es un fenómeno mental? trivialmente, todxs estaríamos de acuerdo en que sí. Pero, si “mental” fuese a significar “no-físico”, quizá no habría un acuerdo tan claro. Jaegwon-Kim (1998) afirma que dicha estipulación es una petición de principio. Si abandonamos la postura típicamente cartesiana que contrapone lo mental (la cosa cognoscente) a lo físico (la cosa extensa), el debate se complica un tanto más. ¿Qué queremos decir entonces, cuando decimos “X es mental”? Si lo mental es compatible con lo físico, resulta difícil, a primera vista, encontrarle un sentido precisable. Analicemos antes, la postura más radical, dónde lo mental y lo físico se excluyen mutuamente, y la memoria al ser mental, no puede ser completamente física. Esto fue argumentado por Henri Bergson (1896), quien en “Matière et mémoire” distingue la memoria establecida por la repetición (mémoirehabitude) de la memoria “pura” (mémoiresouvenir), que es libre y fundamentalmente

espiritual. Luego plantea que los recuerdos de este último tipo no están ‘encarnados’, por tanto, es vano intentar localizarlos en el cerebro, de ello se sigue que las lesiones cerebrales sólo causan disminuciones generales de las facultades, ya que impiden que ocurra la conexión entre el recuerdo y la percepción. Esto debido a que plantea que la memoria es la intersección entre mente (esprit) y materia (matière): las percepciones dependen de estados cerebrales, pero los recuerdos no, estos son manifestaciones espirituales que dan una especie de puntapié inicial, siendo el rol del estado cerebral mantener el recuerdo, pero no originarlo.

3. Realización múltiple: fantasma en la máquina

el

Esta afirmación radical (“las lesiones cerebrales sólo causan disminuciones generales de las facultades”) nos da un buen punto de partida para empezar la discusión. Digamos que descartamos lo espiritual (por inferencia a la mejor explicación, parsimonia, coherencia interteórica, u otro criterio), luego no nos tomaría mucho tiempo de revisar evidencia para llegar a la conclusión de que lesiones cerebrales en áreas específicas, resultan en alteraciones conductuales o mentales específicas, no con una precisión milimétrica, pero al menos estadísticamente es posible asociar áreas cerebrales con funciones. Por ejemplo, si lesionamos bilateralmente ambos hipocampos en cerebros de mamíferos, estos no consolidarán nuevos recuerdos (condición conocida como amnesia anterógrada), de este dato grueso, podemos inferir que estas estructuras telencefálicas son condición necesaria para generar memorias. Así mismo, si le lesionamos ambos mushroom bodies a una abeja, presentará dificultades en generar memoria espacial, y memoria olfatoria combinacional, entre otros efectos enumerables (Heisenberg, 1998; Devaud et al., 2015). ¡Bam! ahora tenemos Localizacionismo (existen áreas cerebrales, morfológicamente diferenciables, que realizan funciones mentales

24

particulares), una vieja hipótesis que peleaba contra el Holismo (las funciones mentales son realizadas indiferenciadamente en el cerebro). Ha habido intentos desastrosos de localizacionismo (e.g. frenología), pero aún los más sofisticados, se quedan en el nivel global de relacionar estados electrofisiológicos de actividad circunscritos a ciertas áreas cerebrales, con conductas, y eventos mentales inferidos. Aceptando dicha hipótesis, uno podría plantear un Funcionalismo que preserve cierta independencia de lo mental frente a lo físico, existirían ciertos estados mentales que pueden ser realizados por al menos, más de un sistema material: digamos que yo tengo miedo y un pulpo tiene miedo, filogenéticamente, nosotros los cordados mamíferos estamos lo suficientemente lejos de los moluscos cefalópodos, podríamos afirmar que como nuestros cerebros se constituyeron de modo muy distinto, dos sistemas materiales (de activación neuronal, de estructuras morfológicas y citoarquitectónicas) realizan el mismo estado mental (miedo). Podemos seguir así incorporando otros animales a la comparación, artrópodos, aves, etc. Con lo anterior llegamos a la hipótesis de Realización Múltiple [RM] (Putnam, 1967; Polger, 2009); observemos las siguientes premisas: i. Ψ es realizado por el estado físicoquímico P1 (en criatura C1) ii. Ψ es realizado por el estado físicoquímico P2 (en criatura C2) a simple vista, podría argumentarse que la memoria a largo plazo [LTM], fenómeno mental universal [Ψ], se realiza múltiplemente en animales [C1] (actividad en estructuras cerebrales como hipocampo, corteza entorrinal, etc), en insectos [C2] (actividad en estructuras cerebrales llamadas mushroom bodies) o incluso en pulpos [C3] (actividad en lóbulo vertical), reclutando distintas estructuras y por tanto correspondiendo a distintos estados [P1,2,...,n]. Y entonces, habría cierta autonomía de la memoria como mental, que sin dejar de ser física (de realizarse físicamente), es algo más. Si queremos ser menos rebuscados, podemos argumentar que dos humanes, no tienen una activación cerebral

idéntica cuando se les pide que recuerden un mismo evento, o cuando experimentan el mismo estado mental (e.g. miedo).

4. Exorcizando el fantasma en la máquina Hay una objeción conceptual: parece caprichoso llamar a ambos estados mentales “idénticos”, y a los estados físicos, distintos. Es como si fuésemos muy laxos para identificar lo mental (coarsegrained), y demasiado estrictos para identificar lo físico (fine-grained). ¿Cómo sabemos que el miedo-pulpo se parece más al miedo-humán que lo que las áreas cerebrales del pulpo que se reclutan en ese estado, se parecen a las áreas humanas en su estado respectivo? Después de todo, inferimos el miedo desde la conducta. Esto es aún más patente respecto al recuerdo, dos recuerdos nunca serán idénticos, incluso por la trivial razón de que quienes los vivieron no estaban ocupando el exacto mismo pedazo de espacio físico (y ni hablar de que tienen historias y patrones emocionales distintos en el momento, lo que complejiza aún más hablar del “mismo recuerdo”). Otra objeción conceptual, quizá más potente, es la siguiente: Para poder concluir que “Ψ no es identica a un solo estado físico-quimico”, debemos especificar la relación de realización, ya que aún si P1 es distinto a P2, Ψ todavía podría ser realizado por un estado P3, común a C1 y C2, y por tanto, que también sea común a P1 y P2; para ello agregamos la siguiente premisa: iii. Si hay un estado fisicoquimico Pn que realice Ψ, entonces Ψ no es reducible a ningún estado fisicoquimico Px. Problema: [iii.] es una petición de principio. Esto se soluciona tomando RM como un argumento empírico.

5. Reduccionismo despiadado y bases moleculares de la memoria 25

Hablando de RM como argumento empírico, y esto es aún más sorprendente, hay una objeción molecular. Resulta que la cascada de segundo mensajero a la base de un fenómeno celular llamado Potenciación de larga duración (LTP), es universal. Se ocupan las exactas mismas moléculas desde moluscos hasta humanes. En palabras de Squire y Kandel (1999, p.155, traducción mía) “Esta serie de descubrimientos han proveído un nuevo set de [insights] que involucra la conservación evolutiva que subyace a las bases moleculares de los procesos mentales. Las capacidades más sencillas, y aquellas que parecen haber aparecido tempranamente en la evolución,

alostérica), optogenéticos y conductuales invivo; que varias de estas moléculas son necesarias y suficientes para que ocurra consolidación de recuerdos en hipocampo (Whitlock et al., 2006; Liu, Ramirez & Tonegawa, 2013). Hay que tener presente que todos los cambios generados por estas moléculas son puramente físicos; recordemos que estamos compuestos de 20 aminoácidos combinados de diversas maneras, y que, siendo precisos (pero no tanto), muchos de los procesos aquí mencionados son modificaciones covalentes de las estructuras primarias (la secuencia aminoacídica) de proteínas mediante fosforilación, que consiste en agregación (generalmente por enzimas kinasas como la PKA) de grupos fosforilo [PO32−],

“Y entonces, habría cierta autonomía de la memoria como mental, que sin dejar de ser física (de realizarse físicamente), es algo más.” parecen ser los recuerdos no-declarativos relacionados a supervivencia, alimentación, sexualidad, defensa y escape. Como una variedad de tipos adicionales de memoria no-declarativa y declarativa evolucionaron posteriormente, los nuevos procesos de memoria retuvieron no sólo un set de genes y proteínas, sino vías de señalización enteras y programas para encender y estabilizar conexiones sinápticas. Más aún, estos mecanismos comunes han sido conservados incluso a través de la historia evolutiva de las especies: han sido encontrados tanto en invertebrados simples como la Drosophila y la Aplysia, como en mamíferos complejos, tales como los ratones”. Estos mecanismos comunes, concretamente, son las vías que reclutan las moléculas cAMP, PKA, CaMKII, CRE, CREB-1 y CREB-2 (cfr. Bickle, 2003; Kandel, 2012; Sanhueza & Lisman, 2013), y que involucran a los receptores transmembrana glutamatérgicos AMPA y NMDA. ¡Encontramos nuestro candidato a P3! Se ha propuesto, mediante estudios genéticos (Knock-out), farmacológicos (agonismo, antagonismo y modulación

que al estar cargados negativamente, producen un cambio conformacional en los aminoácidos de la proteína a la que se enlazan que estén en contacto directo con el PO3, este cambio se traduce en un cambio en la “función”, que sólo significa acá ‘cómo la proteína A fosforilada ahora interactuará de acercarse una proteína B, compuesta por aminoácidos con determinada carga eléctrica, volumen y peso’. El mecanismo es tan complejo como se quiera, pero resumido mal y rápido: producto de un aprendizaje o experiencia del organismo, ocurre una activación sináptica sostenida en dos neuronas adyacentes, con una frecuencia alta (e.g. 100Hz por unos segundos), de ahí en adelante, se requiere una activación menor para generar una respuesta de la intensidad previa (mayor), esto significa que la activación se ha facilitado en esa conexión entre neuronas; la activación se facilita (a largo plazo) por el aumento de expresión de receptores transmembrana AMPA (esto es, ocurre síntesis de proteínas, AMPA es una proteína) y cambios estructurales en la neurona

26

presináptica, y a corto plazo, por aumento de la capacidad de receptores AMPA para ingresar cationes de sodio a la neurona postsináptica. El mecanismo presenta un feedback positivo, ya que NMDA, además de sodio, permite el ingreso de cationes calcio, los cuales activan la cadena CaMKII-cAMP-PKA-traslocación del nucleo por parte de unas sub-unidades de PKA-CREB1CRE-regiones reguladores de genes tempranos; MAPK-CREB2- activación de transcripción de genes: síntesis de nuevas proteinas, y expresión local de nuevos receptores AMPA, que a su vez permiten el ingreso de más cationes, acelerando la activación de los receptores NMDA... Estoy consciente de que, en el mejor de los casos, este resumen de un párrafo apenas se entiende (por cierto, LTP sale bastante bien explicado para todo público en Bickle, 2003); con él sólo busco dar una idea intuitiva de que existe un mecanismo específico que utiliza las mismas moléculas en cada especie que se ha estudiado (para lxs curiosxs, los modelos más comunes son la babosa de mar Aplysia californica, la mosca de la fruta Drosophila melanogaster, la abeja Apis mellifera, y el roedor común Mus musculus). Si bien no pretendo extenderme en la explicación (por mientras, asumamos como hipótesis que estas moléculas realizan universalmente el fenómeno que llamamos ‘memoria’), la LTP arriba esquematizada es el candidato con mayor evidencia para subyacer a la consolidación de memoria a largo plazo, pero ¿cómo estos receptores y proteínas, sujetos a degradación metabólica, cuya vida media va desde los cientos de milisegundos a algunos segundos, pueden instanciar un fenómeno como la LTM, que dura semanas o años (en mamíferos)? Una respuesta tentativa es la hipótesis de refuerzo de re-entrada sináptica: la activación de los receptores NMDA post-sinápticos se repetiría varias veces durante periodos específicos, como el sueño de ondas lentas (SWS), hasta que las moléculas que realizan ese recuerdo pasan a ser otras, distribuidas en la corteza, aproximadamente 30 días después del evento en mamíferos (Wittenberg, Sullivan & Tsien,

2002; Chen & Wilson, 2017). Otra hipótesis es que la enzima CaMKII, sindicada como ‘interruptor molecular necesario de la memoria’ que se organiza en holoenzimas compuestas por 12 CaMKII’s, va intercambiando subunidades (CaMKII’s) a medida que estas se van degradando, manteniendo la holoenzima activa vía auto-fosforilación (y fosforilación de unidades vecinas), esto es, el complejo podría durar días en ‘su lugar’, aún sí cada parte del complejo sólo dura unas horas antes de degradarse (Lisman, 2014). Una vez consolidado el evento a evaluar, digamos, 30 días después, para una rata; el recuerdo ya no se afecta por lesiones a los hipocampos, ni por manipulaciones farmacológicas o genéticas a la cadena molecular NMDA, cAMP, PKA, CaMKII, CRE, CREB-1 y CREB-2. Esto significa, que el recuerdo “ya no está ahí”, ahora está siendo realizado por otras moléculas, en otras áreas cerebrales. (Ver anexos 1,2)

6. Digresiones finales Volvamos a la hipótesis filosófica de Realización Múltiple: esta plantea que un mismo fenómeno mental, se puede realizar por diversos (al menos dos) sustratos físicos. Si tomamos en cuenta las redes neurales o las estructuras morfológicas (e.g. mushroom bodies e hipocampo + corteza entorrinal), tenemos que el mismo proceso: memoria, se puede realizar en estructuras-tipotetrápoda (nosotrxs, una rana, una paloma), y en estructuras-tipo-artrópoda (esa abeja); por tanto, lo mental no es estrictamente reducible a lo físicoquímico. Pero si hacemos zoom, ¡sorpresa! a nivel celular la diferencia aparente se disuelve, tenemos que la reducción, al menos hasta la evidencia del momento, es una posibilidad bastante probable. Mi hipótesis es que podemos prescindir de la ficción de una ‘estructura’ psicológica o mental que sea distinta a la estructura biológica o distinta a estructuras narrativas/semánticas públicas de la cultura, en palabras de Harré (1998, p.15, traducción mía): “No hay mecanismos mentales mediante los cuales los poderes y habilidades de una persona son implementados, con excepción de los ensayos privados ocasionales para la

27

acción, en los que de vez en cuando participamos. Todo el aparato pesado [top heavy apparatus] de la psicodinámica y psicología cognitiva es en el peor de los casos una fantasía, y en el mejor, una metáfora”. Sin embargo, que haya un sustrato molecular común para la consolidación de la memoria, no dice nada de que otros procesos mentales sean del mismo modo reducibles (como atención, imaginación, anticipación, etc, podrían aún estar realizados múltiplemente); de hecho, aún no conocemos si tras consolidarse, los recuerdos, cada vez que son “recuperados” (i.e., cada vez que los “recordamos”), son realizados universalmente por un set de moléculas necesarias y suficientes, así como ocurre en la consolidación, ¿a dónde “van” los recuerdos una vez que dejan de realizarse hipocampalmente/en los mushroom bodies/ en el lóbulo vertical? Es sólo recientemente que empezamos a tener respuestas incipientes a estas interrogantes (cfr. Roy et al, 2017). Y además, que haya una base molecular universal tanto para la consolidación como para la recuperación de los recuerdos, no dice nada sobre la realización físicoquímica del contenido, además del qualia de cada recuerdo concreto, no sabemos qué combinación de moléculas particular, en caso de existir, permite instanciar ese 11 de septiembre, ese primer beso, esa final de la copa libertadores. Tampoco sabemos si la pregunta tiene sentido más allá de responder “es un proceso de codificación de señal”, ni si los códigos son en principio infinitos, o si acaso corresponden uno-a-uno con los recuerdos concretos (sean explícitos o implícitos). O si efectivamente el LTP da cuenta de todos los aspectos de aquello que llamamos ‘memoria’ (y hay voces críticas que se anticipan a decir que la respuesta es negativa, cfr. Bramham, 2010). Por ahora, me basta con proponer que no es descabellado pensar en eliminar lo mental como estructura, como nivel explicativo y como esfera autónoma (al menos mientras nos remitimos a hablar de memoria). Todo lo arriba escrito es una excusa para presentar, como pregunta y provocación, la plausibilidad y los límites de esta

hipótesis. Con esto no quiero decir en absoluto ni que lo mental es cerebral (cuando mucho, afirmaría “lo mental está realizado neuralmente”), ni que haya que negar la experiencia o la ‘perspectiva interna’, ni que lo biológico baste para explicar lo mental (se requiere una presencia constante de lo ecológico, lo corporal y lo social/relacional en las explicaciones), menos aún, que lo mental es idéntico a lo cerebral (sospecho que lo mental es algo difuso que si refiriese a algo, sería también al resto del sistema nervioso, pero que cuando hablamos de lo mental, no hablamos de su mera realización, sino, mezclamos elementos causales, que bien pueden ser externos; elementos experienciales, que son un fenómeno de todo el cuerpo, y elementos semánticos, que son constitutivamente culturales, aún si realizados fisicoquímicamente). En cambio, sí quiero negar que exista una ‘estructura mental’ del tipo “hay un Inconsciente (das Unbewusste), un super-yo, etc”, o “creencias nucleares, intermedias, pensamientos automáticos y esquemas”, u Organizaciones de Significado Personal (PMO’s). Si hay estructuras, ó son biológicas ó son narrativas sociolingüísticas, estrategias o patrones relacionales, nada estructurado es propiamente ‘mental’. Siguiendo al viejo Kropotkin (y claro, a Wimsatt), la reducción (de un fenómeno a las moléculas que lo realizan o implementan) no se encuentra en disputa con la visión sistémico-ecológica, ni con la emergencia; el entramado histórico-social y ecológico donde se producen nuestras memorias seguirá siendo igual de rico y complejo si la memoria demuestra ser un fenómeno molecular en su completo. La propuesta es intentar explicar los fenómenos que coloquialmente llamamos mentales desde la sociología, la ecología y la biología celular hasta donde nos sea posible, a ver si queda algún misterio, ó si acaso finalmente ocurrirá que diremos “¿lo mental, sir? no tengo necesidad de tal hipótesis”.

28

Referencias Creo que para hacer filosofía de la mente es importante tener un conocimiento amplio de biología y psicología; respecto a la memoria, el mejor resumen que he encontrado hasta la fecha de sus bases moleculares es el de Bickle, 2003; autor a quien le debo parte de la tesis que aquí expongo (y que él, como queriéndose echar a todxs encima, denomina Reduccionismo despiadado); pero son recomendables como manuales, el Purves, el Kandel y el (más molecular) Hammond. Respecto a psicología, los manuales Domjan, Bouton y Gazzaniga son mis recomendaciones personales. Bergson, H. (1896 [2008]). Matière et mémoire. Essai sur la relation du corps à l’esprit. Paris: PUF. Bickle, J. (2003). Philosophy and neuroscience: A ruthlessly reductive account. Dordrecht: Springer. Bickle, J. (2010). Has the last decade of Multiple Realization criticisms aided psychoneural reductionists?. Synthese, 177, 247–60. Bramham, C. (2010). LTP ≠ learning: lessons from short-term plasticity. Frontiers in Behavioral Neuroscience. Chen, Z. & Wilson, M. (2017). Deciphering Neural Codes of Memory during Sleep. Trends in Neurosciences. Devaud, J-M. et al. (2015). Neural substrate for higher-order learning in an insect: Mushroom bodies are necessary for configural discriminations. Proc Natl Acad Sci USA. Harre, R. (1998). The Singular Self. An Introduction to the Psychology of Personhood. London: SAGE Publications.

Heisenberg, M. (1998). What Do the Mushroom Bodies Do for the Insect Brain? An Introduction. Learning & memory, 5(1): 1–10. Jaegwon, K. (1998). Mind in a Physical World. MIT Press. Kandel, E. (2012). The molecular biology of memory: cAMP, PKA, CRE, CREB-1, CREB-2, and CPEB. Molecular brain, 14:14. doi: 10.1186/1756-6606-5-14 Lisman, J. (2014). Refreshing memories. Elife, 3:e02041. Lisman, J., Yasuda, R. & Raghavachari, S. (2012). Mechanisms of CaMKII action in long-term potentiation. Nature Reviews Neuroscience, 15;13 (3)169-182. Liu, X., Ramirez, S. & Tonegawa, S. (2014). Inception of a false memory by optogenetic manipulation of a hippocampal memory engram. Phil. Trans. R. Soc. B 369:20130142. Miller, G. A. (1956). The magical number seven, plus or minus two: some limits on our capacity for processing information. Psychological Review, 63(2), 81-97. Polger, T. (2009). Evaluating the evidence for Multiple Realization. Synthese, 167, 457–72. Putnam, H. (1967[1975]). The nature of mental states. En Hilary Putnam (ed.) Mind, language and reality: Philosophical papers (Vol. 2). New York: Cambridge University Press. Roy, D., et al. (2017). Distinct Neural Circuits for the Formation and Retrieval of Episodic Memories. Cell. Sanhueza, M. & Lisman, J. (2013). The CaMKII/NMDAR complex as a molecular memory. Molecular Brain, 6:10. Shepard, R. N., & Metzler, J. (1971). Mental

29

rotation of three-dimensional objects. Science, 171, 701-703. Squire, L. & Kandel, E. (1999). Memory: From Mind to Molecules. Scientific American Library: New York. Tolman, E. C. (1948). Cognitive Maps in Rats and Men. Psychological Review, 55: 189-208. Whitlock, J., Heynen, A., Shuler, M. & Bear, M. (2006). Learning induces long-term potentiation in the hippocampus. Science, 313, 1093. Wittenberg, G., Sullivan, M. & Tsien, J. (2002). Synaptic reentry reinforcement based network model for long-term memory consolidation. Hippocampus, 12(5):637-47. Wyble, B., Swan, G., & Callahan-Flintoft, C. (2016). Measuring Visual Memory in Its Native Format. Trends in Cognitive Sciences.

30

Anexo. 1

31

Anexo. 2

32

DIEGO ALONSO BECERRA Aprendiz de trapecista y de artista circense, aficionado a escribir cuentos breves y a la filosofía. Investigador del laboratorio de Fisiología Celular de la Facultad de Ciencias de la Universidad de Chile. Estudiante de Magister en Ciencias Biológicas, Universidad de Chile. Psicólogo, Universidad de Chile. Áreas de interés: filogénesis de la experiencia, filosofía de las ciencias cognitivas, bases moleculares de la experiencia, codificación electrofisiológica de señales perceptuales.

33

CONFESIONES DE UN MALDITO CIENTIFICISTA: EL VALOR DE LA CIENCIA GUSTAVO ESTEBAN ROMERO

“LA LIBERTAD DE PENSAMIENTO ES PROMOVIDA DE LA MEJOR FORMA POR LA ILUMINACIÓN GRADUAL DE LAS MENTES DE LOS HOMBRES QUE SIGUE AL AVANCE DE LA CIENCIA.” CHARLES DARWIN Publicado originalmente en Elogio del científicismo ISBN: 9788494674235. Editorial: Editorial Laetoli

Los conceptos, las cosas, los eventos y las cadenas de eventos (procesos y acciones) no tienen valor en sí mismos, sino que tienen valor respecto a algún sistema de valoración adoptado por un grupo de individuos. Un objeto cualquiera puede tener muchas propiedades intrínsecas, como ser masa y elasticidad, pero no es bueno o malo en sí mismo. Lo mismo sucede con los conceptos y los eventos. Las propiedades morales son siempre relativas al sistema de valorización, lo que no quiere decir que sean subjetivas. Que sean subjetivas significa que dependen sólo del sujeto

que valoriza. Una opinión puede ser subjetiva. Un juicio de valor basado en un sistema de valoración, en cambio, es objetivo y relativo a ese sistema. En forma similar, una propiedad como la velocidad de un objeto masivo es objetiva y relativa a cierto sistema de referencia. La velocidad de las partículas sin masa en el vacío, en cambio, es absoluta: no depende de ningún sistema de referencia. Es la misma siempre. No sucede eso con los valores: no hay valores morales absolutos. Esto no quiere decir que no haya valores basados en sistemas de valoración fundamentados en éticas de tipo naturalista o cientificista, es decir, compatibles con el

34

conocimiento científico del comportamiento humano. No son valores fijos, ya que evolucionan con los sistemas sociales y con los individuos que los componen, así como con el conocimiento que se tiene de ellos. También hay, claro está, sistemas de valoración de origen ideológico. En algunos de esos sistemas la ciencia es considerada perjudicial. Por ejemplo, algunos sistemas religiosos han combatido la práctica de la ciencia por considerarla enemiga de la verdad revelada. Ciertas ideologías políticas han prohibido áreas de investigación que pueden llegar a establecer la verdad de enunciados que entran en conflicto con creencias adoptadas. Así, en los Estados comunistas se ha combatido el desarrollo científico de las ciencias sociales. En Estados capitalistas donde hay influyentes grupos de fundamentalistas religiosos se ha considerado reprochable la investigación básica con células madres. El cientificismo, la visión del mundo basada en la ciencia, ha sido combatido en general tanto por ideologías de izquierda como de derecha y religiosas. Al apoyarse el cientificismo en la ciencia, y al tener esta por objetivo principal la representación conceptual verdadera del mundo, es inevitable que tarde o temprano entre en colisión con cualquier sistema de conceptos fijos. La revisión crítica del pensamiento es necesariamente incompatible con cualquier ideología. Óscar Varsavksy vio la ciencia como un instrumento ideológico y no como un modo de representación controlado de la realidad. De allí que desconfiara de ella. Al confundir ciencia con política científica y tecnológica, atribuyó a la ciencia las deficiencias de las políticas científicas planeadas por gobiernos débiles o carentes de visión. Al hacerlo, distrajo la atención del problema central: la planificación de una política racional de desarrollo científico para países en vías de desarrollo. Al hundir en discusiones ideológicas un tema que debe ser abordado con conocimiento científico de los problemas que afectan a las sociedades emergentes, contribuyó al oscurantismo que creía combatir. Suele atribuirse los males de la guerra, la contaminación y el cambio climático, entre

otros, a la ciencia. La ciencia, al ser un concepto, no puede tener responsabilidad alguna en esos problemas reales. La actividad científica tampoco, porque su función es generar conocimiento, y el conocimiento no afecta al mundo. Lo que afecta al mundo son las acciones de los seres humanos. Esas acciones, potenciadas por el uso de la tecnología, pueden estar guiadas por principios éticos que impliquen el desprecio por la vida humana y el medio ambiente. Que los gobiernos del mundo no adopten políticas que lleven a un desarrollo sostenible y armónico de las posibilidades humanas en la Tierra no es una consecuencia de la visión científica del mundo, es decir, del cientificismo, sino de su ausencia. Los productos de la tecnología son éticamente neutros: una bomba nuclear puede servir para destruir una ciudad o para desviar un asteroide que va a chocar con la Tierra. Los que tienen una responsabilidad mayúscula en el desarrollo de las sociedades son los individuos que deciden cómo se usa la tecnología. Esos individuos son políticos a cargo de las instituciones de gobierno de las diferentes naciones. En la medida en que actúen basados en grupos de creencias arbitrarias, el futuro de la humanidad será incierto. El verdadero desarrollo sólo se concretará el día en que las clases dirigentes tengan una visión realista y científica del mundo.

Epílogo En este punto me detengo y miro por la ventana del balcón la ciudad dormida. Apenas se ven algunas luces a través del cristal. Recuerdo un párrafo de Carlyle en Sartor Resartus sobre Londres, y mientras lo hago el cristal me devuelve mi propia imagen. Un hombre ya viejo, cansado, canoso. Me esfuerzo un momento y la imagen se disuelve una vez más en las luces de La Plata. Me fijo en una en especial, particularmente nítida. Salgo al balcón, me aferro al pasamanos y la miro. El viento de la noche me toca suavemente. Es como que me envuelve y me guía hacia la luz. Y ahora ya no hay nada más que esa luz en la oscuridad. Me acerco a ella. Oigo el sonido de los arboles al ser agitados por la brisa. La luz se agranda y veo que es una ventana. Una ventana en una casa

35

baja. A su alrededor no hay nada, sólo la inmensidad de la llanura. Me asomo por la ventana y veo a un hombre y a una mujer discutiendo. En un rincón hay un niño. Su mirada no sigue la discusión. Esta como absorto, viendo más allá, sólo él sabe dónde. Ese niño hace apenas un par de días ha visto el alunizaje. No puede olvidarlo, lo llena por completo. Sé entonces que ese niño, allá lejos, hace tiempo, en ese lugar, era feliz. Niño bendito. No sabe ni sospecha el espeso horror de los años, lo que vendrá. Es feliz. Esa felicidad justificará su vida. No lo sabe. Me alejo despacito para no perturbar nada.

“La ciencia, al ser un concepto, no puede tener responsabilidad alguna en esos problemas reales. La actividad científica tampoco, porque su función es generar conocimiento, y el conocimiento no afecta al mundo.”

36

GUSTAVO ESTEBAN ROMERO PROFESOR TITULAR DE ASTROFÍSICA RELATIVISTA. UNLP INVESTIGADOR SUPERIOR, CONICET TAMBIEN ESCRIBE SOBRE FILOSOFÍA DE LA CIENCIA Y OTROS TEMAS.

37

visita: www.nulliusinverbasite.com

38

LA CONFIANZA DEBILITADA EN LA CIENCIA Sergio Barrera

39

No es un secreto que, en torno a los paradigmas de la modernidad, se incrementan de algún modo la necesidad del poder y la violencia, a través de los cuales entre otras cosas se impuso a los pueblos colonizados de América, Asia y África un proceso “civilizatorio” particular. La modernidad propicia una confianza a veces más bien considerada como una sobrevaloración hacia la ciencia y la técnica, como expresión de la capacidad humana por conocer el mundo y dominar sus recursos, a partir de ese supuesto se considera que con el cultivo del conocimiento se logra la plena realización humana; de esto se deriva el considerar que el desarrollo de la ciencia y la técnica, por sí solo, produciría una satisfacción plena a las necesidades del ser humano (Guadarrama, s.f). La historia de los últimos tres siglos está cargada de problemas sociales insatisfactorios, y ante esto es importante rescatar que determinados discursos posmodernistas han tendido a exponer posturas críticas en torno a ello. Argumentos que, en los mejores casos, se dirigen a situaciones y discursos muy específicos propios de la modernidad. Por otro lado, la posmodernidad y los discursos que proliferan de corrientes filosóficas relacionadas a ésta, contienen innumerables lados débiles para el adecuado enjuiciamiento crítico de la modernidad, e inclusive reposan en formas fuertes, tales que caen en el tipo de aserciones propias de teorías de la conspiración, el relativismo gnoseológico fuerte y el constructivismo radical; siendo la desconfianza a ultranza en la ciencia, un efecto de adscribir seriamente a tales ideas. Parte de tales debilidades radican en pretender, a ultranza, dar cabida al argumento de que la confianza en la ciencia debería debilitarse socialmente, partiendo de los acontecimientos sucedidos tras las dos guerras mundiales y algunos sucesos durante la guerra fría, o al menos, considerar, en defecto de lo anterior, que dicho sentimiento de seguridad en la ciencia, se ha ido menguando progresivamente. Esto anterior, además, se plantea incluso por razones epistemológicas varias, más allá de las históricas, éticas o políticas. Lyotard (1987) desarrolló una serie de conceptos y argumentos para establecer que uno de los pilares de la teoría crítica, y del

posmodernismo en general, era la desconfianza en estos “metarrelatos”, refiriéndose especialmente al conocimiento-discurso científico, como uno más entre ellos. De tal manera que su propuesta explica la relativización del conocimiento; es decir, otra razón de “desconfianza” de orden epistemológico, hacia la actividad y producción teórica científica. En esete sentido, dentro de los discursos posmodernos y propiciado esto principalmente en las ideas de Lyotard (1979), se considera entonces que el progreso de la ciencia, su neutralidad metodológica y la “verdad” en sus enunciados, son ideas “míticas” diseñadas únicamente para dotar de una condición de superioridad a una actividad que está movida por intereses no gnoseológicos de poder, prestigio e influencia; elementos que intervienen “radicalmente” o de forma crucial en todas las elecciones hechas por los científicos que han sido denunciados, sobre todo, por los análisis constructivistas más radicales de la sociología del conocimiento científico. Ahora bien, para puntualizar un poco en esta idea, sobre la que predomina una desconfianza hacia la ciencia en general a causa de su supuesta condición como “metarrelato”, según el planteamiento crítico de la metanarrativa propuesto por Jean François Lyotard (citado en, Callinicos, 1993) los metarrelatos son asumidos como discursos totalizantes y multi abarcadores, en los que se asume la comprensión de hechos de carácter científico, histórico, religioso y social de forma absolutista, pretendiendo dar respuesta y una supuesta solución a toda contingencia, y que además, son epistemológicamente equivalentes; es decir, no hay criterio que distinga a unos de otros ni privilegie, por ejemplo, a los métodos científicos o la teoría de la relatividad (y cualquier otro cuerpo válido de conocimiento científico), por sobre los ritos chamánicos o los conocimientos idiosincráticos de una comunidad indígena. En contraposición a esto, puede objetarse rápidamente que, con respecto al análisis de Jean François Lyotard (citado en, Callinicos, 1993) de la condición postmoderna, el autor, Callinicos, ha criticado esta idea por ser internamente inconsistente. Argumenta que la descripción de

40

Lyotard del mundo posmoderno como contenedor de una “incredulidad hacia las metanarrativas” puede ser visto como una narrativa por sí mismo, pues, por ejemplo, el uso de calificativos como la “ciencia occidental” basándose de manera exclusiva en el enfoque crítico de Lyotard, evidencia la aplicación de consideraciones provenientes de una metanarrativa y por lo tanto tiende a la auto contradicción. En este orden de ideas, con respecto a que la confianza en la ciencia pueda estar completamente agotada, y por las razones que sea, se puede reflexionar, grosso modo, que ésta, como medio para conocer mundoy organizar la vida, no son fundamentos extenuados, ni mucho menos esto debería sostenerse sobre cimientos relativistas, o sobre la excusa de las tragedias del siglo XX. Si bien, se generan discursos críticos en torno a ello, discursos que, no deben ser simplemente ignorados, pues en su medida gozan de contenidos valiosos a favor de una visión más crítica e íntegra de las consecuencias éticas, practicas, económicas e incluso gnoseológicas de una actividad científica irresponsable o mal elaborada, sin embargo, de ello no se sigue adoptar una postura anti-progreso-científico y con ello, de total desconfianza ante la empresa científica propiamente dicha. Debería entonces, filtrarse la naturaleza de estos contenidos discursivos con bastante cuidado. Asimismo, a pesar de que es posible asegurar que determinados acontecimientos históricos han facilitado una reflexión pesimista hacia la ciencia; acontecimientos entre cuyas causas se halla el desarrollo indiscriminado de tecnologías bélicas, eso es demasiado distante a asegurar que los fundamentos de la ciencia está completamente agotados a causa de ello, pues esta confianza, aunque sea parcial, aún predomina en muchas esferas de la sociedad y gana fuerza progresivamente mientras cada vez más investigaciones representen avances y conocimientos de alto valor para mejorar la vida humana, contribuir al orden social o simplemente nutrir una necesidad contemplativa por el conocimiento de nuestro universo y nuestra propia naturaleza, como es el caso de las investigaciones realizadas en el Gran

colisionador de Hadrones, entre otras. Se puede agregar también, que la ilustración nos dio la mayor parte de los valores básicos de la vida civilizada contemporánea, como la confianza en la razón, la pasión por la libertad investigadora y la igualdad. Por supuesto no todo debe tomarse tan literal y la ilustración no nos lo dio todo hecho. Por ejemplo, la ilustración no previó los abusos de la industrialización, erró en no subrayar la necesidad de la paz, exageró el individualismo, ensalzó la competición a expensas de la cooperación, no llega suficientemente lejos en la reforma social, y no se preocupó gran cosa por las mujeres o por los pueblos subdesarrollados. Sin embargo, la ilustración perfeccionó, enalteció y difundió, divulgó los principales instrumentos conceptuales y morales para avanzar más allá de sí misma (Bunge 1994). Hechas las consideraciones anteriores, como argumenta Colomer (2015) “La ciencia interpreta realidades desconocidas y sus diferentes especializaciones las convierten en útiles para la sociedad.” (aunque a ese fragmento se le puede críticar preguntando quñé interpreta su autor como “realidad”, pero lo tomaremos acá, como descubrimientos y predicciones acerca de fenómenos de la naturaleza, que resultan útiles para la sociedad). En fin, es decir que, por poner un solo ejemplo, en el área de la salud es un hecho que los avances de la medicina, tanto en fármacos, técnicas inmunitarias, técnicas quirúrgicas, etc., han aumentado la esperanza de vida de una forma provechosa. Colmer argumenta que, por mencionar un solo caso, la esperanza de vida de los españoles se ha duplicado en apenas cuatro generaciones. España se ha convertido en el país de la Unión Europea (UE) con la esperanza de vida más alta (82,4), solo dos países europeos, no miembros de la UE, superan a España, Islandia (83 años) y Suiza (82,5) Coloner (2015). Y la creciente demanda de investigación científica en medicina, en España, y la alimentación, por otro lado, tienen alta correlación con estos resultados. En general, estas tecnologías son aceptadas, si bien aparecen grupos que las cuestionan, especialmente en lo referente a los avances inmunológicos que de hecho protegen no solo

41

al individuo, sino a la sociedad de las pandemias que han sido problemas de salud pública importantes de la humanidad durante siglos, pero los argumentos a favor de la crítica pueden quedarse un poco cortos ante los hechos y las estadísticas, resalta el autor. De este modo, una desconfianza radical en la ciencia o simplemente afirmar a ultranza que los fundamentos de la modernidad están “agotados” puede tender a carecer de argumentos que sean incapaces de sostenerse correctamente y caer en afirmaciones totalitarias y generalizantes. Esto anterior no representa un argumento sólido al respecto y por ello se detalla a continuación, se trata más bien de una muy breve ilustración de que tal desconfianza o la afirmación de que los valores están “agotados” a ultranza, puede tener puntos de quiebre, de hecho, pocos autores realmente defienden una postura radical al respecto. En este propósito, ciertamente vale extenderse un poco más, abordando a mayor profundidad este asunto. Vannebar Bush, entonces director de la oficina de investigación y desarrollo científico, escribió en 1945 un informe al presidente de los estados unidos, acerca de la importancia del progreso científico, entre otros temas relacionados, debido a la negativa opinión popular hacia la ciencia que se generó luego de las dos guerras mundiales que transcurrieron. Explica que, por ejemplo, el progreso de la guerra contra las enfermedades depende esencialmente de un flujo de nuevos conocimientos científicos. Nuevos productos, industrias y más puestos de trabajo requieren de constantes adiciones al conocimiento de las leyes de la naturaleza, y la aplicación de este conocimiento a objetivos prácticos, explica a modo de contingencia. Ante la situación planteada, el autor resalta que, en ausencia de progreso científico ningún logro en otras direcciones, cualquiera que sea su magnitud, podrá consolidar la salud, prosperidad y seguridad como nación. Explica entonces, y con cifras, que la guerra contra la enfermedad, hasta la época en la que redactó su informe, ha hecho grandes progresos. El índice de mortalidad de todas las enfermedades en el ejército, incluidas las fuerzas de ultramar, se redujo de 14,1 por mil en

la última guerra a 0,6 por mil en ésta (refiriéndose a la tensión de la posguerra en 1945, iniciando la Guerra fría). En esos últimos cuarenta años la expectativa de vida había pasado de 49 a 65 años, en gran medida como consecuencia de la reducción de índices de mortalidad de recién nacidos y niños (Bush, 1945). Es decir, que las muertes anuales, en estados unidos, debidas a apenas una o dos enfermedades excedían por mucho el número total de vidas norteamericanas pérdidas en un combate durante la guerra. Así, una gran porción de tales muertes en la población civil, truncó las vidas de los ciudadanos. Aproximadamente siete millones de personas padecían de enfermedades mentales en los Estados unidos (según estadísticas hechas en 1945, cabe recordar), y el costo de sus cuidados para el público superaba los 175 millones de dólares por año. Reconociendo que quedaban muchas dolencias cuyos medios adecuados de prevención y cura se desconocían hasta el momento. Pero resaltando ante todo que conocerlos dependía del desarrollo científico. En este sentido, de acuerdo con Bush (1945) la responsabilidad de la investigación básica en medicina y las ciencias que son su fundamento, tan esencial para el progreso de la lucha contra la enfermedad, recae primordialmente en las facultades de medicina de las universidades. Sin embargo, se comprobó en aquel momento que las fuentes tradicionales de sostén de la investigación médica en esos ámbitos, en gran medida ingresos provenientes de donaciones, otorgamientos de fondos y aportes privados, estaban disminuyendo y no existían expectativas inmediatas de cambio en aquella tendencia. Nuestro autor expone con firmeza que, si lo que se pretende es mantener en la medicina un progreso al marco de lo necesario, debe extenderse su apoyo financiero y con ello también, no menos importante, mejorar la opinión pública acerca de la actividad científica. En el ámbito del bienestar público, agrega que una de las esperanzas después de la guerra es que haya pleno empleo. Al menos para alcanzar parcialmente y con esperanzas de mejoría, tal objetivo, se deben crear nuevos puestos de trabajo

42

y para ello, según su perspectiva argumentativa, se deben fabricar nuevos productos, mejores y más económicos. Pero los nuevos productos y procesos no nacen plenamente desarrollados. Se fundan en nuevos principios y concepciones, que a su vez resultan de la investigación científicas básica; ésta es capital científico. Por otra parte, expresa que la nación no puede ni debería depender de otra, por ejemplo, Europa, como fuente de ese capital; es evidente entonces, que más y mejores investigaciones científicas son un elemento esencial para el logro de muchas metas en cuanto a bienestar social e independencia económica (Bush, 1945). ¿Cómo se incrementa el capital científico? según Bush (1945) se debe contar con suficientes hombres y mujeres formados en ciencia, pues obviamente de ellos depende tanto la creación de nuevo conocimiento como su aplicación y finalidades prácticas. Segundo, deberían fortalecerse los centros de investigación básica que son generalmente facultades, universidades e institutos de investigación. Con algunas notables excepciones la mayor parte de investigación en la industria y el gobierno implica la aplicación del conocimiento científico existente a problemas prácticos, y son las facultades universitarias e institutos de investigación los que dedican sus esfuerzos a expandir las fronteras del conocimiento científico. Para aquella época, el déficit de estudiantes de ciencia y tecnología que, de no haber sido por la guerra, habrían alcanzado su grado, era de cerca de cincuenta mil (Bush 1945). De esta forma, si el techo real de la productividad de nuevo conocimiento científico, su aplicación en la guerra contra la enfermedad, y el desarrollo de nuevos productos e industrias, es el número disponible de científicos capacitados, entonces no sería muy grato esperar que a partir de la opinión popular desinformada o las ideas radicales en contra de la ciencia, el factor de reducción en este tipo de profesionales, se vea afectado. Pues, a parte de factores como la guerra, hay que tener en cuenta hasta qué punto, el adscribirse a ideas extremistas que denigren de la actividad científica, pueda perjudicar la formación en ciencias. Esto no

quiere decir por supuesto que las únicas carreras válidas para mejorar el bienestar humano sean las técnicas o científicas. Boghossian (2009) aporta otra reflexión que acá es enteramente pertinente; porque se aborda mejor la reflexión epistemológica. Menciona que un relativismo radical, en cuanto a cuestiones fácticas, como por ejemplo, la del origen de los primeros habitantes de América, es claramente discutible, y de hecho contraproducente. Y claramente, resulta contraproducente incluso con lo que Bush propuso. Siguiendo con el señalamiento de Boghossian, pensamos sin dudas, que simplemente hay hechos que dirimen cuestiones satisfactoriamente, como en el caso de saber cuál fue el origen de los primeros hombres de America, o como Sokal y Bricmont, (1991) lo exponen, cuando nos embarcamos en una investigación policial; ésta, cuando es exitosa, arroja datos suficientes para dirimir la cuestión de quién es, en dado caso, el responsable directo de un homicidio, sobre la que no puede cabernos dudas y con lo cual se imposibilita decir que cualquier sujeto pudo haber sido. Boghossian, (2009) continúa exponiendo que, puede que no sepamos cuál es el hecho en sí para el caso citado de los hombres americanos y su origen; empero, una vez despertado el interés humano en el asunto, se hace un esfuerzo científico por descubrirlo. Lo que quiere decir que para ello, disponemos de una amplia variedad de técnicas y métodos, la observación, la lógica, las inferencias para alcanzar la mejor explicación posible, etc. En contraste con la lectura de las hojas de té o la observación de una bola de cristal; son los métodos nombrados propios de eso que llamamos “ciencia” (a los que consideramos formas legítimas para desarrollar conocimientos altamente correspondientes y más adecuados del mundo), estos métodos también, en ocasiones, y al menos individualmente y no con la misma rigurosidad, pueden ser característicos de los modos ordinarios de búsqueda de conocimiento (los mismos, en menor medida y a distinto grado, que nos han inducido a creer que los primeros americanos llegaron a Asia atravesando el estrecho de Bering).

43

Esta creencia podría ser falsa, en principio; pero, teniendo en cuenta la evidencia disponible, es la más razonable; o, al menos, eso es lo que normalmente podemos argumentar. Por la razón en que creemos racionalmente en la información aportada por la ciencia, solemos confiar en los resultados de la misma; es decir, le asignamos a ésta una función privilegiada cuando se trata de determinar el contenido de aquello que queremos aprender dentro o fuera de la academia, de lo que se les enseña a nuestros hijos en la escuela, fijar lo que se debe aceptar como probatorio en nuestros tribunales o establecer las bases de nuestras políticas sociales, explica Boghossian (2009). Presuponemos que existe un estado de cosas que determina lo que es verdadero o al menos teóricamente más adecuado en cada caso. “Durante años, armados de lápiz, papel y ordenadores, los físicos teóricos trabajaron intensamente para predecir el resultado de los experimentos. Los físicos experimentales construyeron y llevaron a cabo delicados experimentos para dilucidar los detalles más menudos de la naturaleza. Ambos bandos obtuvieron de forma independiente resultados de una gran precisión, equivalentes a medir la distancia entre Manchester y Nueva York con un margen de error de unos pocos centímetros. Sorprendentemente, el número al que llegaron los experimentalistas concordaba de manera precisa con el que habían calculado los teóricos: mediciones y cálculos estaban en perfecto acuerdo.” (Cox y Forshaw, 2014, pág. 12-13).

siquiera distintas, y que son igualmente “válidas” “Equal Validity”, de las cuales la ciencia no sería sino una más entre otras. Pues si la ciencia no fuera privilegiada, acaso no tendríamos más remedio que conceder tanta credibilidad a la arqueología como al creacionismo Zuñi, o a la teoría de la evolución como al creacionismo cristiano, o; en el caso de la psicología, al horóscopo como a por ejemplo la teoría factorial de la personalidad de Cattell, la de Allport o a la aplicación y evaluación de resultados de un test MMPI 2. Así pues, la tesis de la “Validez igual” como la llama Boghossian (2009); que no es más que una forma de englobar ciertos discursos relativistas acerca de los hechos y a la que adscriben varios discursos posmodernistas, se trata de una doctrina de importancia considerable. Pues si el vasto número de estudiosos de las humanidades y de las ciencias sociales en general que la apoyan, tuviesen razón, y si con ello tuviesen razón en alimentar una desconfianza radical hacia la ciencia, no sólo estaríamos cometiendo un error filosófico pertinente para un reducido número de especialistas de la teoría del conocimiento; peor aún, nos habríamos equivocado de plano en la identificación de los principios que deben regir la organización social y muchos otros asuntos importantes. Merece, en consecuencia, especial urgencia presentar argumentos críticos acerca de estas tesis y para empezar, generar reflexiones críticas en torno a los argumentos que persuaden desconfianza en lo-científico, generalmente.

Lo más adaptativo es querer aceptar aquello respecto de lo cual tenemos buenas razones para pensar que es verdadero, y consideramos que la ciencia es la instancia más capaz de especificar la forma adecuada de alcanzar creencias razonables acerca de lo verdadero, al menos en el ámbito puramente fáctico. En una palabra: confiamos en la ciencia. Para que esta confianza no sea errada, más nos vale de hecho, que el conocimiento científico sea privilegiado con respecto a otras formas de conocimiento, es decir, argumentar en contra de la creencia de que no hay formas de conocer el mundo radicalmente distintas entre sí o ni

44

Referencias: Boghossian, P (2009). El miedo al conocimiento: contra el relativismo y el constructivismo. Alianza Editorial. Madrid. Bunge, M. (1994). Counter-Enlightenment in Contemporary Social Studies’. In Kurtz & T.J. Madigan (eds.) Challenges to the Enlightenment:In Defense of Reason and Science, Prometheus Books, Buffalo Bush, (1945) Ciencia, la frontera sin fin. Washington, United states government printing office. Callinicos, A. (1993) Contra el posmodernismo. Material de formación política de la «Cátedra Che Guevara – Colectivo AMAUTA» Colomer, I (2015). Nuevatribuna.es. La confianza en la ciencia: ¿Es total o parcial? Recuperado de: http://www.nuevatribuna. es/articulo/sociedad/confianza-cienciatotal-parcial/20150615111813117176. html Cox, B y Forshaw, (2014). El universo cuántico y por qué todo lo que puede suceder sucede. Editorial Debate. Guadarrama, (s.f). Crítica del paradigma posmodernista en su impacto educativo y comunicativo. LYOTARD, (1987). La condición posmoderna: informe sobre el saber. Buenos Aires. Cátedra. Sokal, A y Bricmont, Imposturasintelectuales. Paidós.

(1999 Editorial

45

SERGIO BARRERA Psicólogo y estudiante de ciencias físicas, promotor de divulgación científica y epistemológica Intereses : Psicometría, Psicología experimental Psicología jurídica, estadística inferencia y descriptiva, ciencias cognitivas, metodología de la investigación, Epistemología, Ciencia en general. Administrador de Ex scientia Veritas fundador de nulliusinverbasite y scientia in verba magazine

46

En defensa de las reglas Juan Antonio Negrete

“Lo único que prueba la paradoja de seguir una regla es que, en efecto, las Reglas son irreducibles a cúmulos de hechos, o sea, que está equivocado todo representacionismo imaginista (tipo Berkeley y, sobre todo, Hume y seguidores). Ya advirtió Descartes que imaginar no es lo mismo que pensar.”

47

Una de las creencias que, según Wittgenstein, dan más pábulo a la Confusión en sí, o sea, a la Metafísica, es la de que tenemos experiencia o conocimiento de Leyes o Reglas. Creemos, por ejemplo, que las “leyes naturales” son algo así como raíles por donde transitan los hechos, o que las hipótesis científicas son, en algún sentido, como las proposiciones acerca de hechos, es decir, verdaderas o falsas. Wittgenstein se molesta mucho con esta confusión, e insistió siempre en la heterogeneidad entre leyes o hipótesis, por una parte, y hechos por otra. Pero es la Matemática la que más nos incita a la confusión metafísica, al “platonismo”. Seguramente por eso en las Investigaciones Filosóficas puso como ejemplo de la paradoja de Seguir una Regla, un caso de aritmética. ¿Qué queremos decir, realmente, cuando decimos que estamos siguiendo una determinada regla? ¿Qué conocimiento tenemos de una regla? Me acercaré a este asunto a través de la lectura que hace Saul Kripke (Wittgenstein. A propósito de Reglas y de Lenguaje Privado, Tecnos, 2006) de lo que considera el “argumento central” de Investigaciones Filosóficas. Aunque hay muchos que creen que la interpretación que propone Kripke de Wittgenstein (Kripkenstein, la llamó Putnam) no es correcta (ya se sabe lo difícil que es interpretar a gusto de todos a un genio), a mí me parece una lectura muy clara y precisa en general. Krikpe cree que la paradoja señalada por Wittgenstein es la más profunda y destructiva paradoja escéptica jamás descubierta, pero a la que Wittgenstein da una “solución escéptica” (lo que, por la ley que rige la doble negación, rehabilitaría a las reglas, entendidas ya no privado-representacionalmente sino sociopragmáticamente). Voy a recordarla, y comentarla críticamente, para mostrar que el argumento de Wittgenstein(- según-Kripke) es inocuo y no prueba lo que pretende (o pretende pretender). La paradoja, según la expone Kripke, es la siguiente: ¿Cómo sabemos, cuando contestamos que 68 más 75 es igual a 125, que estamos siguiendo una regla, a saber, la regla aritmética de la suma, “más”, y no cualquier otra regla, por ejemplo, “cuás”,

que coincide con “más” en ese resultado, pero no en otros? Al fin y al cabo hay infinitas posibles funciones que darían ese resultado. Todo lo que tenemos, para creer que es “más” la que está ejerciendo su trascendental influjo, es una serie limitada de experiencias pasadas que, en efecto, correspondían a “más”, pero que no son nunca suficientes para inferir que se trataba de “más” (y no de “cuás”, por ejemplo). No hay fact of the matter para decir que estamos sumando, y no cuásumando. Como dice Kripke, este argumento es, en principio, muy destructivo. Nada quedaría a salvo de él. Porque puede aplicarse a cualquier noción. Por ejemplo, ¿cómo sabemos que la próxima vez que Kripke use la palabra ‘argumento’ se estará ateniendo a la regla-significado normal, y no a otro significado (“cargumento”, digamos), que hasta ahora había coincidido con “argumento” en los casos dados del uso del término? Goodmann usó el ejemplo de “verdul” (verde hasta ayer y azul desde hoy). Ni el más mínimo empirismo queda tampoco a salvo de la paradoja escéptica.Según la interpretación de Kripke, Wittgenstein aceptó el argumento (el escepticismo acerca de reglas sería irrebatible), pero le dio una respuesta escéptica: no necesitamos para nada a las reglas, porque son una mala interpretación del (rousseauniano) lenguaje común. Lo que determina la validez de una aserción (como “68 más 75 es igual a 125”) no es una experiencia privada y representacional, sino unas normas de uso pragmático-sociales. Antes de discutir la validez del argumento, voy a explicar por qué creo que hay que rechazar la validez de esta “solución”. Mis objeciones fundamentales al, llamémoslo, “sociologismo trascendental” (que tanto ha engatusado a wittgensteinianos, como Davidson o Putnam) son (objeción fenomenológica) si tengo razones para dudar radicalmente de mi experiencia subjetiva de, por ejemplo, estar pensando en “más” o en “rojo”, las mismas razones tengo para dudar radicalmente de que mi experiencia de quevosotros, los demás, me estáis dando la razón. O sea, que mi experiencia es intersubjetivamente compartida, no es más que una experiencia

48

privada mía. (objeción lógico-normativa): lo dudoso no se hace evidente por mayoría, ni de las creencias o costumbres mayoritarias se deduce qué debo creer y hacer yo. Ningún grupo social puede convenir, crear, estipular explícita o implícitamente, qué es una teoría correcta o qué propiedades tiene un concepto. Ahora veamos la “paradoja escéptica” acerca de seguir una regla. Kripke se hace cargo de varias posibles réplicas, y les intenta dar respuesta. Lo primero que yo replicaría es que la regla “más” no se infiere de los casos de su aplicación, sino, en cualquier caso, a la inversa. ¿Quién pretendería una base inductiva para una operación aritmética? Kripke se hace inmediatamente cargo de esta réplica a la paradoja, pero la rechaza. Si digo, dice, que estoy siguiendo un algoritmo ¿cómo puedo decir cuál es? Nada en los hechos, en mi experiencia, pasada y presente, permite deducir que ese algoritmo es “más”, más bien que otro de los infinitos posibles. A mí esta respuesta me parece muy dudosamente convincente, al menos mientras no determinemos qué es una “experiencia”. Pero dejémosla de momento y sigamos adelante con Kripke. Tras la anterior réplica, un “platónico” estaría tentado de volver a replicar que, si sé que sigo este algoritmo y no aquel, es porque uso una suprarregla (un superalgoritmo) que determina cuál algoritmo de nivel inferior es el que estoy siguiendo. La respuesta de Kripke es que esto no supone más que desplazar el problema, porque al final habría un algoritmo que no se sustentase en otro, y nuevamente no sabríamos decidir cuál es. Esta respuesta me parece menos convincente todavía. Aparte de seguirse dando por supuesto que lo que justifica a una regla es un conjunto de hechos, se da por supuesto que puede haber múltiples supra-algoritmos últimos, lo que es lo mismo que decir que puede haber múltiples criterios últimos de qué es una proposición válida, lo que destruye, no solo al resto del conocimiento, sino a las propias tesis de Kripkenstein, que necesitan, para presentarse a nosotros como un argumento válido, suponer que hay una y solo una norma de validez. Pero sigamos a Kripke. Vista la

última respuesta, la réplica que a un metafísico se le ocurriría en seguida es que, en efecto, hay una norma racional superior que determina si debemos elegir “más” en lugar de “cuás”. “Más” es más auto-idéntica que “cuás”. Krikpe vuelve sagazmente a presentirlo, y contesta, simplemente, que “cuás” es tan idéntica a sí misma (que es la única manera de ser idéntico) como “más”. Tampoco esto me parece aceptable. Claro que en sentido mínimo todo lo que tiene identidad (todo lo que es algo), la tiene en el mismo sentido, mínimo. Pero, mientras que para expresar el algoritmo “más” hace falta una definición muy breve, y única para todos los casos, no pasa así con “cuás” ni con ninguna otra alternativa. Es más, estoy convencido de que si se encontrase una alternativa algorítmica más simple que “más” para explicar la operación propia de los números naturales, todo matemático creería que se ha dado con una mejor definición de esos números y de su operación propia. Una idea emparentada con esta, y que podría proponer el defensor de la tesis de que conocemos Reglas, es que debemos preferir la regla más sencilla o simple (principio de economía). Krikpe, una vez más, considera esta réplica (aunque en un lugar distante a la anterior) y dice que, además de que la idea de simplicidad no es clara (cosa que me parece claramente falsa), la simplicidad solo puede ayudarnos, dice Kripke, a dirimir entre diversas hipótesis en pugna, no puede decirnos cuáles son las hipótesis en pugna. Si lo he entendido, no puedo estar de acuerdo con esto: nuestra super-regla es: “acéptese en cada caso la regla más sencilla o simple que explique cuanto sabemos”. Los aritméticos hacen estupendamente en pensar que es “más”, y no “cuás”, la regla que explica mejor todos los hechos aritméticos conocidos. Pero, lo que es más (y sigue quedando pendiente) un aritmético no necesita ningún número de casos para conocer el algoritmo “más”, porque este se intuye por sí mismo. Al contrario, es el conocimiento del algoritmo, de virtualidad infinita, el que nos permite identificar casos de suma. No comentaré otra réplica que discute Kripke, a saber, que las reglas se pueden definir disposicionalmente, porque en este caso estoy

49

de acuerdo con él en que esto no soluciona nada: tendríamos que definir las disposiciones (dejando a un lado que, como dice Kipke, también tenemos disposición a caer en el error). ¿Por qué, entonces, creo que debemos rechazar el argumento escéptico, y considerar inocua la paradoja de seguir una regla (o la paradoja de verdul, o la de la indeterminación de la traducción)? Debemos rechazar al menos una de sus premisas. El argumento podría resumirse así: Primera premisa: solo tenemos acceso a experiencias fenomenológicas concretas; Segunda Premisa: no es posible inferir, a partir de un número concreto de experiencias concretas, una regla: Conclusión: Por tanto, no tenemos ningún acceso a la representación de reglas. No es, por tanto, más que un pariente del problema de la inducción, o de la asociación, etc., o sea, de la imposibilidad de inferir lo universal a partir de lo particular. La segunda premisa me parece aceptable, en un sentido básico.

en esos términos. Y, desde luego, una pretendida solución pragmática no es solución alguna. Lo que hay que explicar es por qué algunos “usos” son correctos en el sentido en que lo son los conocimientos, es decir, por qué son verdaderos. Y ninguna decisión, privada o colectiva, ni ninguna “forma de vida”, puede hacer verdadera a la verdad.Lo único que prueba la paradoja de seguir una regla es que, en efecto, las Reglas son irreducibles a cúmulos de hechos, o sea, que está equivocado todo representacionismo imaginista (tipo Berkeley y, sobre todo, Hume y seguidores). Ya advirtió Descartes que imaginar no es lo mismo que pensar.

Si no tenemos un conocimiento independiente de lo universal y necesario, no podremos obtenerlo a partir de simples casos… Aunque, en otro sentido, esto es falso. En primer lugar, ni siquiera es posible tener conocimientos particulares si no se tiene conceptos y, en general, la “facultad de lo universal”. Encontrar lo universal a partir de los casos concretos solo puede entenderse, correctamente, como descubrir y hacer explícito, el universal o los universales que ya están haciendo posible la propia experiencia de lo concreto. Y aquí no hay nada de ilógico. Por tanto, lo que es necesario negar, antes que nada, es la primera premisa: de “hecho”, tenemos conocimiento directo, intuitivo, de reglas. Es el “hecho de la razón”. Esto lo sabemos, no solo a posteriori (viendo que sin esa suposición se hace completamente inexplicable todo conocimiento), sino también y sobre todo a priori: sabemos (si nos deshacemos de prejuicios) que entendemos perfectamente ideas y reglas que trascienden todo caso concreto, y que entendemos, sobre todo, una super- regla (llamada “lógica”) que nos conmina a elegir siempre la regla más simple, es decir, la que en menos términos explique más cosas. No podemos comenzar aceptando que todo nuestro conocimiento es fenoménico, contingente, particular. De hecho, no hay conocimiento alguno

50

JUAN ANTONIO NEGRETE Estudia en Complutense

la Universidad Filología Clásica

Profesor de Filosofía en Enseñanza secundaria en Instituto público Pascual Carrión de Sax, Alicante (España) Autor de los libros Diálogos de Filosofía (Manuscritos 2011), Diálogos de Educación (Manuscritos, 2013), La filosofía de Platón (libro táctil para iPad) y De la filosofía como dialéctica y analogía (Áperion 2015); además de varios artículos en revistas de filosofía y cultura, y ponencias en diversas sedes de diversas ciudades españolas. Autor de blogs de filosofía www.dialecticayanalogia. blogspot.com y www.caverniso f iasegundaplantablogspot.com Codirector y guionista del programa de radio Diálogos en la Caverna, de Radio Nacional de España.

51

ELOGIO A LA DISCRIMINACIÓN Caleb S. Medina

52

¿Qué diferencia existe entre un poster que diga “Vida Silvestre” -y contenga dibujada una cebra, una rana, un león y un águila- y otro poster que contenga a un niño blanco, una mujer negra y un hombre caucásico bajo el título El Ser Humano”?, la respuesta es que una es inmoral y la otra no. En la primera, ningún animal (o animala, para no herir la susceptibilidad de las hembras), discutiría si se le está discriminando o si se seleccionó el águila y el león por relaciones de poder. En el segundo caso, habrán afectados que preguntarán por qué hay más hombres que mujeres y si agrupé mujer y negra con la intención de simbolizar a los inferiores en un acto racista. No se puede encontrar permanentemente un término que mantenga felices a todas las personas, tal como Pinker (1992) escribe: “Los nombres para designar a las minorías seguirán cambiando mientras las personas tengan actitudes negativas hacia ellas. Sabremos que hemos conseguido respetarnos mutuamente cuando los nombres permanezcan inmutables. Por lo anterior, e intentando detener la “rueda del eufemismo”, en el presente ensayo rescataré una (o más) palabra que ha adquirido una carga negativa y que realmente es la base para entender muchos de los comportamientos humanos. En el diccionario de la RAE (1992) se define la palabra “discriminar” en dos acepciones: “1) Seleccionar excluyendo. 2) Dar trato desigual a una persona o colectividad por motivos raciales, religiosos, políticos, de sexo, etc.” Si se observa detenidamente la definición, no existe una carga moral negativa, es decir, si se discrimina una persona no significa forzosamente que sea de modo peyorativo. De hecho, discriminar es el acto que permite desempeñarse en un entorno. La realidad, aunque no esté construida socialmente, tampoco está dada para acceder a ella de forma directa y conocerla tal y como es. Todas las longitudes de onda que entran por la retina no brindan una réplica exacta del mundo, sólo es un esfuerzo de nuestra percepción que nos permite crear hipótesis del entorno, tomando como base lo que normalmente se encontraría allí, para eso hemos desarrollado evolutivamente la capacidad de discriminar objetos y características, crear prototipos y por lo tanto categorizar el mundo en

el que vivimos. En palabras de Dennett (2004): El acto más sencillo de discriminación – simplemente “percibir” un nuevo problema y ponerse en posición para responder a él- requiere una generación, y el proceso de ensayo y error de “descubrir” una solución exige el sacrificio experimental de hordas de cepas imitantes a lo largo de muchas generaciones.

Esta forma básica de discriminación se ve en estructuras sociales más complejas que ayudan a la supervivencia del individuo en una sociedad – como cuando voy por una calle y veo personas que cumplen con las características físicas y estéticas de atracadores y en seguida me cambio de acera-, o en relaciones de amistad, cuando discrimino la situación y el amigo que puede colaborarme. Es más, algunos somos profesionales en hacerlo. Durante un tiempo trabajé en psicología organizacional, donde realizábamos “evaluación y selección” que es un eufemismo para decir “discrimina y descarta”: ¿Cumple con la edad? ¿Cumple con el estudio? ¿Qué tal sus pruebas de personalidad? ¿Se adapta al cargo? Podrán decir que lo anterior es real, pero que cuando la ciencia entra en escena y habla del ser humano, con su porte de poder, puede justificarse el miedo a la discriminación, en especial cuando ésta alude a algo de lo que el individuo no puede escapar. Parte de esto se refleja en una disputa de mucho tiempo atrás, el debate entre lo innato y lo adquirido. Sin embargo, para esta época la discusión no viene tanto sobre cuál de las dos es, sino cuál de las dos tiene más peso. Muchos de los estudios de Neuropsicología Evolucionista muestran que hay un peso muy fuerte sobre la carga genética y el cómo ésta predetermina gran cantidad de aspectos del comportamiento humano. Así, los estudios que muestran que la inteligencia, la agresividad o la fidelidad están determinadas genéticamente llevan a muchos a temer por un nuevo método de injusticia o de Darwinismo Social, y los hacen optar por la idea extrema opuesta, la de la tabula rasa, donde lo que somos se da gracias a nuestro aprendizaje ya que venimos en blanco para que el ambiente escriba sobre nosotros.

53

Pero ¿no es esto otra forma de quitar la libertad y estar predeterminado? Un delincuente astuto podría de la misma forma alegar que cometió sus actos por una herencia genética, que llegó a hacerlo porque fue violado y sus padres lo golpeaban. Hay cuestiones innegables que se construyen socialmente como la lengua o el valor del dinero, pero la carga genética es más fuerte de lo que parece, no obstante, no significa que estamos “predestinados a” como Edipo, sino que estamos “predeterminados por”, en otras palabras el cerebro no viene en blanco sino que es “un negativo expuesto a la espera de ser introducido en el líquido revelador” (E.O. Wilson, citado por Wolfe, 1996), ya es la fuerza del ambiente que propicie o no su correcta revelación, pudiéndose aún hablar de un resultado genético de segundo orden por el cual ciertos rasgos hacen que el ambiente se comporte a su favor, en palabras de Pinker (1992): Las personas atractivas son más resueltas, presumiblemente porque se acostumbran a que las personas les besen. Es éste un efecto muy indirecto de los genes y haría hereditaria la confianza en uno mismo aunque no existieran unos genes de cerebros resueltos, sino sólo genes de esos ojos color violeta por los que la gente suspira.

La discriminación y a la injusticia lleva a preguntarse qué hacer si la ciencia descubre por medio de sus estudios que hay grupos más capaces y habilidosos en algunas tareas, tal como se preguntan Kimberly & Root (2007) ¿es el estudio científico intrínsecamente valioso, con libertad para investigar sin restricciones potencialmente sesgadas por valores sociales y políticos o es únicamente valioso como medio para fines como la eficiencia en la medicina y la tecnología? Para dar respuesta a lo anterior, volvamos al ejemplo de la psicología organizacional, si dentro del cargo para el cual evalúo la persona, necesito a una Vendedora de Ropa Interior Femenina, aunque se me presente una Magister en Matemáticas y un Licenciado en Comercio, no cumplirían con mis requisitos. Más aún, de muchas mujeres que se presenten para el cargo con experiencia en ventas, puede haber algunas que sean tímidas e introvertidas, con miedo a

hablarles a las personas. Tengo que descartarlas, no diciendo que alguna es persona de más valor, ni que moralmente son inferiores, simplemente diciendo que algunas tienen capacidades que se adaptan más al cargo. Es más, el conocimiento de habilidades innatas de los trabajadores también ayuda a mejorar una organización (que funciona como una minisociedad), ya que permite que se potencialicen sus habilidades y se trabaje con más rigor en las que no están predispuestos y necesiten una metodología diferente (intenten enseñar Servicio al Cliente a un Departamento Contable, donde las personas sólo gustan de hablar consigo mismas y sus cálculos y me entenderán). Siempre existirá el gran miedo por el pasado Nazi y la palabra “eugenesia”, pero como observa Isaac Asimov (1975), es una cuestión de minorías más que de ciencia, pues aunque se confirmara que los Negros tienen una inteligencia mayor, el racismo no cesaría, un ejemplo se ve con los judíos, de quienes nunca se ha pensado que tengan un CI bajo (todo lo contrario) e igualmente han tenido que sufrir el sectarismo. ¿No sería más apropiado estudiar evolutivamente las tendencias a este sectarismo? ¿Por qué en vez de despreciar la discriminación, las diferencias genéticas y lo que nos parece peligroso, no estudiamos lo que la evidencia muestra? Wolfe (1996) compara este miedo con el de diseccionar cuerpos humanos en la Edad Media porque se pudiera dudar sobre la imagen y semejanza de Dios con los hallazgos, mientras Pinker (1992) análogamente a la vergüenza de la sociedad victoriana frente al sexo, negando la naturaleza humana y distorsionando la ciencia y su estudio. Otro error que se comete es creer que la discriminación, los estereotipos y las categorías son fijas. El grupo está predeterminado, pero el individuo no está predestinado, las categorías se crean para adaptarse a un mundo en el que se deben generar hipótesis para predecir lo que se encuentra ahí, es cierto que no hacen justicia al individuo, pero estos estereotipos pueden verse disueltos por el razonamiento y la experiencia, por ejemplo, se puede creer que alguien por ser Doctor en Ciencias entra en la categoría de

54

Inteligente, pero si se conoce a un perfecto idiota con ese título, se puede crear la excepción a la regla, cuando es repetitivo el número de idiotas con ese título, por medio de la discriminación, se puede crear una nueva categoría. La filósofa Ayn Rand, aún con su extrema defensa a la libertad, escribió en uno de sus ensayos, que aún si estuviera comprobada una capacidad mental superior entre los miembros de una raza, no nos diría nada de sus individuos: Es difícil decir cuál de estas dos injusticias es más atroz: la afirmación …de que un genio negro debería ser tratado como un inferior porque su raza “produjo” algunos brutos, o la pretensión de un bruto germano que se considera superior porque su raza “produjo” a Goethe, Schiller y Brahms. (Rand, 1963).

No podemos luchar contra siglos de evolución que nos han llevado a un mejor desempeño y adaptación por medio de la capacidad de diferenciar, crear categorías y estereotipos de lo que existe en nuestro entorno, lo que incluye discriminar objetos, plantas, animales y personas, que tal vez se ofendan, pero en cuyos grupos hay individuos con un potencial diferente, que no los hace mejores o peores y “estas diferencias son la gloria del Homo Sapiens y la mejor salvación posible, porque lo que unos no pueden hacer lo hacen otros, y donde unos no pueden prosperar prosperarán otros, en una amplia gama de condiciones.” (Asimov, 1975).

REFERENCIAS Asimov, I. (1975). Algunos pensamientos sobre el pensamiento (ensayo 18). El secreto del universo y otros ensayos (1991). Biblioteca Científica Salvat. Dennett, D. C. (2004). La evolución de la libertad. Paidós Ibérica. Kimberly, M & Root, P. (2007). Chapter 20: Philosophical, Ethical, and Social Considerations of Evolutionary Cognitive Neuroscience. Platek, S., Keenan, J., & Shackelford, T. (Eds.). Evolutionary cognitive neuroscience. (pp. 559 – 578).Mit Press. Pinker, S. (1992). La Tabla Rasa (La negación moderna de la naturaleza humana). Paidós Ibérica, SA. Rand, A. (1963). Racismo. La virtud del egoísmo (1985). . Plastygraf. Raya, P. A. (1992). Diccionario de la real academia de la lengua española. Wolfe, T. (1996). Sorry, but your soul just died. Forbes ASAP, 210-219.

55

CALEB S. MEDINA Caleb S. Medina es psicólogo colombiano que actualmente está adscrito al Centro de Investigación de Ciencias Cognitivas (CINCCO) en la la Universidad Autónoma del Estado de Morelos (UAEM) en México, dentro de la Maestría en Ciencias Cognitivas. Sus intereses abarcan la psicología evolucionista, las emociones y procesos cognitivos que interfieren en las artes (música, creación e interpretación literaria) y la filosofía de la ciencia.

56

Autoría del retrato: Nicolás Pérez

LA TEORÍA DE LAS DESCRIPCIONES DE RUSSELL NICOLÁS PÉREZ 57

Antes de desarrollar las principales tesis y líneas argumentativas, debemos dejar en claro algunas cuestiones de fondo: -Russell piensa que la lógica es un lenguaje ideal que desenmascara las ambigüedades del lenguaje cotidiano, y, por lo tanto, puede mostrar que ciertas oraciones en el lenguaje vulgar, aunque mantienen la misma forma gramatical, tienen distinta forma lógica. -Russell es un referencialista. EL referencialismo es una posición semántica que sostiene que lo que sea el significado es la denotación, y nada más que ello, ya que el sentido no es algo que se muestre en los enunciados. – La teoría de las descripciones lograría eliminar del vocabulario lógico los nombres propios de particulares y de universales, además de las descripciones definidas que no tienen una denotación objetual, es decir, la lógica no debe nombrar cosas no existentes y tiene que dar cuenta en su notación si existen o no, y formular los enunciados con distintas fórmulas. -Si bien, la teoría de las descripciones no trata sobre lo que sea el nombre, debemos decir que Russell hace una diferencia entre nombres y descripciones, aunque luego, va a decir que todo nombre propio es una descripción abreviada. -la solución de Russell no es la única posible, otros lógicos como Meinong, o Frege propusieron otras soluciones, aunque a mi entender insatisfactorias, podría obtenerse otra solución si se elimina el principio del tercero excluido, cosa que no hace Russell, por lo tanto, si se mantiene este principio, las oraciones como “el actual rey de Francia es calvo” es verdadera o falsa, y no puede tener otra alternativa.

La teoría de las descripciones Russell propone su teoría en el célebre artículo publicado en Mind en 1905. Muchos conceptos aparecen en obras anteriores como en Los principios de la matemática, o en Principia Mathematica, escrito en colaboración con

Whitehead. Con el tiempo hizo algunas modificaciones en libros posteriores, como en el capítulo sobre “Conocimiento directo y conocimiento por descripción” en Misticismo y lógica, y también en La evolución de mi pensamiento filosófico. Nosotros tomaremos de base al artículo de Mind, pero, también nos remitiremos cuando sea necesario, a sus revisiones y precedentes. Russell comienza su artículo diciendo: “por frase denotativa entiendo una frase como cualquiera de las siguientes: un hombre, algunos hombres, cualquier hombre, cada hombre, todos los hombres, el actual rey de Inglaterra, el actual rey de Francia, el centro de masa del sistema solar en el primer instante del siglo XX…” A las frases denotativas que contienen el artículo “el” como “el quinto hijo de Fulano”, o “el tercer libro de Russell” les diremos descripciones definidas, quedando las indefinidas para las frases que presentan el artículo “un”, como “un hijo de Fulano”, o aquellas que contienen términos como “todo” “nada” o “algo”. EL problema con las frases denotativas es que algunas no denotan nada, la frase “el actual rey de Francia”, o “el número primo más grande” tienen pleno sentido, mas no tienen denotación, y esto molestaba a Russell, y era su deseo el poder armar un lenguaje en donde no usemos frases denotativas, o nombres propios de ficciones, como Bruce Wayne, de modo tal que quede claro que no nombran o denotan nada. La solución de Russell apunta a mostrar que las frases denotativas pueden ser traducidas a un lenguaje lógico cuantificacional y de este modo eliminarlas. Vamos a ocuparnos primero de las descripciones indefinidas y veremos cómo logra Russell eliminarlas de cualquier proposición en las que se encuentren. Las descripciones van a ser tratadas como funciones proposicionales, y por lo tanto son representadas por la variable “x”. Toda proposición entonces tendrá la forma general C(x), en donde “C” es un predicado, como “ser calvo”, y C(x) sería: “el actual rey de Francia es calvo”.

58

Las descripciones indefinidas más primitivas que contienen todo, nada o algo son interpretadas del siguiente modo: C(todo), como “todos los hombres son calvos”, significa “C(x) es siempre verdadero”, y se puede interpretar como: “si x es hombre entonces x es calvo” (Vx) (Fx→Gx) C(nada), como “ningún hombre es calvo”, significa ““C(x) es falso” es siempre verdadero”, y se puede interpretar como: “si x es hombre entonces x no es calvo” (Vx) (Fx→-Gx) C(algo), como “algún hombre es calvo”, significa “es falso que “C(x) es falso” es siempre verdadero”, y se puede interpretar como: “existe un x tal que, x es hombre y x es calvo” (Ex) (Fx.Gx) De este modo las descripciones desaparecieron y en su lugar encontramos solo variables, cuantificadores y predicados. “Este es el principio de la teoría de la denotación que deseo sostener: que las frases denotativas nunca tienen un significado en sí mismas, pero que toda proposición en cuyas expresiones verbales ellas tengan lugar tiene un significado”, con esto Russell deja en claro que las descripciones son un símbolo incompleto, sin significado, pero que la proposición que contiene ese símbolo tiene significado. Si alguien repite “un hombre es calvo”, lo que verdaderamente afirma es: ““x es calvo y x es humano” no siempre es falso” Si vamos a las descripciones definidas nuestro problema no es tan simple. Ya que la frase: “el autor de Ficciones es argentino” debe interpretarse del siguiente modo: “No es siempre falso de x que x escribió Ficciones y que x es argentino y que “si y escribió Ficciones, y es idéntico a x” es siempre verdadero de y” Para interpretar “C (el autor de Ficciones)”, C representa cualquier predicado acerca de x, y solo debemos reemplazar C(x) por “x es argentino”.

Entonces cualquiera sea el predicado C, “C (el autor de Ficciones)” implica: “No es siempre falso de x que “si y escribió Ficciones, y es idéntico a x” es siempre verdadero de y” Lo que en el lenguaje vulgar se diría: “uno y solo uno escribió Ficciones”, de este modo la frase: “el actual rey de Francia”, “C (el actual rey de Francia)” es lo mismo que: “uno y solo uno es el actual rey de Francia”, como esto es falso todo lo que pueda decirse de dicho rey también es falso, como que es calvo. Volveremos más adelante con el tratamiento completo, ahora pasemos a ver el modo en que Russell trata las descripciones que no denotan ningún objeto real. Russell primero descarta las soluciones que otros le dieron al mismo problema. Las soluciones alternativas a las frases denotativas que no denotan son: la de Meinong y la de Frege. Meinong había propuesto que las frases como: “el actual rey de Francia es calvo” si bien no tienen un objeto existente referido, ya que, no hay ningún rey de Francia, pero, como es el sujeto de una predicación debía tener algún tipo de existencia, y afirmó que, se puede decir que subsisten, acercándose peligrosamente a la cuestión de los universales, largamente debatida en la edad media. En otro momento llegó a decir que objetos lógicamente imposibles como “el cuadrado redondo” ni siquiera subsisten, pero que debieran tener algún tipo de ser. La solución de Frege es más elegante puesto que no requiere compromiso ontológico. Para Frege las frases o nombres no denotan objetos, sino clases de objetos, por lo tanto, puede suceder que la denotación de “el actual rey de Francia” sea una clase vacía. Esta variante es mejor que la de Meinong, es lógicamente correcta, pero nos deja con sabor a poco, ya que realmente nos parece una trampa, un atajo para no atacar el problema, Russell quiere que no sea solo satisfactoria desde

59

un punto de vista lógico, sino que también contenga la menor cantidad de entidades posibles. Pasemos ahora a la propuesta de Russell.

-existe ahora al menos un rey de Francia

Debemos entender que las frases en el lenguaje ordinario tienen una forma gramatical que encubre su forma lógica real, y muchas veces dos frases que tienen la misma forma gramatical, resultan ser dos diferentes tipos de frases. Ayer en su libro: Lenguaje, verdad y lógica, nos da los siguientes ejemplos:

-sea lo que fuere el rey de Francia es calvo

Los mártires sufren Los mártires existen En un primer vistazo las dos frases parecen iguales en estructura lógica, sin embargo, es un engaño, las dos aparentan tener un sujeto y un predicado, una propiedad que se le predica a un sujeto. En la primera frase a “mártires” se le predica la propiedad del sufrimiento, igualmente podría armar otras frases cambiando propiedades, y decir que son: religiosos, numerosos, o valientes, y las frases formadas tienen de hecho la misma estructura lógica: (Vx) Fx. Sin embargo, la frase “los mártires existen” es engañosa porque nos hace pensar que la existencia es una propiedad, igual que la de “ser religioso” y como mostraron muchos filósofos, entre ellos Kant, la existencia no es una propiedad de las cosas, o es un dato empírico que se la añade por síntesis, o la existencia pertenece a la cuantificación, y no al predicado. Russell afirma que La existencia está en los cuantificadores. Decir “los mártires existen” es lo mismo que decir “existe un x tal que…” o sea, forma parte del cuantificador, pero no tenemos ningún predicado, estamos esperando predicados que agregar. De este modo, las frases son distintas, en la primera tengo un cuantificador y un predicado sobre una variable, en la segunda solo un cuantificador. Con la misma lógica las descripciones deben mostrar su verdadera estructura, y así la frase: “el actual rey de Francia es calvo” no es una oración simple como se ve, sino que está formada por tres oraciones unidas por una conjunción. La frase de hecho contiene las siguientes oraciones:

-existe ahora a lo sumo un rey de Francia

Si analizamos la primera frase veremos que es falsa, por lo tanto, las otras dos también son falsas. Dicho de otro modo, “el actual rey de Francia es calvo” se la puede tomar equivocadamente como una oración atómica, y así se violaría el principio de no contradicción ya que la frase no es ni verdadera ni falsa, y Russell termina diciendo “los hegelianos, que aman la síntesis, probablemente concluirían que lleva una peluca”. Lo cierto es que la frase es un enunciado molecular, y el valor de verdad depende de las oraciones atómicas, en una conjunción si una proposición es falsa, el valor de verdad del razonamiento es falso también. Creo que basta para demostrar que tenía razón, el lenguaje vulgar encubre la verdadera estructura lógica de las frases. El otro problema que ataca Russell es la división de Frege entre: sinn y bedeutung, o sea entre sentido y referencia, afirmando que, o son lo mismo, o no pueden relacionarse entre sí satisfactoriamente. Aquí viene una batería de argumentos que son muy difíciles de seguir, de hecho, muchos fracasan en esta parte y abandonan el artículo, estamos ante uno de los textos más difíciles de Russell y de toda la filosofía analítica en general, no pretendo que mi versión de los argumentos sea la única posible, ni siquiera la verdadera, es motivo de discusión, intentaré formularla del modo más claro posible. Frege había dividido, a mi juicio, correctamente hasta cierto punto, entre el sentido de una frase o término y su referencia, a tal punto que algunos nombres tenían pleno sentido, como Ulises, pero no referían a nada en la realidad objetual. Si nuestros términos o frases referían a un objeto su referencia era directa. Sin embargo, Frege aceptaba que algunas veces al hablar usamos un modo indirecto de referencia, el modo indirecto aparece cuando con palabras nos referimos a otras palabras, como cuando citamos las palabras de otros, y decimos: “las palabras del presidente

60

fueron “…”; pero, la cosa se complica aún más con la mención de Frege de que no solo podemos referirnos a las palabras de otros, sino también a su sentido, como cuando decimos: “el sentido del discurso del presidente fue “…” Ahora, nuestra referencia es un sentido, referimos a sentidos, y parece que la división, otrora útil y buena, ahora es ambigua y confusa. Russell va a deslegitimar esta división de Frege, intentando mostrar que, o la división es inútil, o arbitraría en ciertos marcos generales de la semántica. La línea de argumentación de Russell es la siguiente: Llamemos C a cierta descripción definida como: “el último libro de Borges”. Cuando queremos hablar del significado como opuesto a su denotación se debe poner entre comillas su significado, de modo que: El último libro de Borges es de poesías (denotación) “El último libro de Borges” no es una proposición (significado) Por lo tanto, debemos diferenciarlos e intentar relacionar C con “C” “Ahora la relación del significado y la denotación en la frase no es meramente lingüística: debe haber una relación lógica, la que expresamos diciendo que el significado denota la denotación. Pero la dificultad que nos hace frente es que no podemos las dos cosas; preservar la conexión de significado y denotación y evitar que ambas sean una y la misma cosa…” Antes de seguir, quiero aclarar que la palabra “significado” (meaning) es usada por Russell del mismo modo que “Sinn” en Frege, es decir, como “sentido”. Digo esto porque otros autores, como Gustavo Romero, o Mario Bunge (no estoy tan seguro, ya que no soy un gran conocedor de su obra, pero creo que sí lo hace) usan “significado” como la reunión entre el sentido y la referencia, no tengo nada en contra de este uso, solo quería

señalarlo para evitar confusiones.

Volvamos entonces. Si hablamos de “el significado de C” entonces lo que verdaderamente obtenemos es “el significado de Los conjurados”, o sea el significado de su denotación, ya que, no es lo mismo hablar de: “el significado de “el último libro de Borges””, que de: “el significado de los conjurados”, en el primer caso hablamos del significado del significado, y en el segundo del significado de la denotación. Y, si no es lo mismo hablar de “el significado de C” que de “el significado de “C””, entonces a la primera no obtenemos lo que queremos. Ahora, que pasa si quiero hablar de “la denotación de C”, ¿cuál es la denotación de “el último libro de Borges”? sabemos que es un objeto, un libro de poesía que se llama: “Los conjurados”, pero, vemos otra vez que no conseguimos lo que queremos, porque es absurdo hablar de un objeto, lo que yo verdaderamente quiero es hablar de lo que denota la denotación, no de un objeto. De última, de lo que quiero hablar es del denotar en sí mismo, uno de los problemas más difíciles de la historia de la filosofía, quiero hablar de una relación misteriosa entre un concepto y un objeto, algo que Platón quiso resolver con su oscura “participación”, pero no pudo, y no creo que nadie lo haya hecho. ¿Cuál es la naturaleza del denotar? ¿Cuál es la relación exacta entre un concepto y su objeto denotado?, quizás, la solución sea que “denotar” es indefinible, y que saber lo que sea denotar es saber usar correctamente la relación en contexto. Lo que viene a continuación es quizás la parte más difícil, ya que Russell incluye el término “complejo denotativo” que no define, y debemos inferir por el uso en contexto sobre lo que significa, y Russell lo usa de distintas maneras. El complejo denotativo parece ser la frase denotativa, pero, en un nivel más abstracto, como algo que está formado por el significado y la denotación: “el significado tiene denotación y es un complejo, del que puede decirse que tiene ambos significado y denotación”. Todo se complica aún más, cuando nos enteramos de que el complejo denotativo también tiene un significado y una denotación, y empezamos a descender en círculos, con la

61

sensación de encontrarnos dentro de una pintura de Escher. Sea como fuere, Russell afirma que si queremos hablar del significado del complejo denotativo debemos poner este último en una proposición, sin embargo, ya sabemos que si queremos obtener el significado de una frase denotativa en una proposición lo que obtenemos es la denotación, del mismo modo va a suceder cuando queramos obtener el significado del complejo denotativo en una proposición, solamente vamos a alcanzar a hablar siempre de la denotación, pero nunca del significado del complejo. Por lo tanto, si queremos alcanzar a hablar de “el significado de C”, siendo C un complejo, no podemos poner C como sujeto, ya que, al referirnos a C siempre nos referiremos a su denotación y no a su significado, de allí que, el sujeto de nuestra proposición no debe ser C sino algo que denote el significado. Podría entonces ser “C”, pero al incluir esto en una proposición como “el significado de “C”” otra vez llegamos a lo mismo, lo que obtengo es la denotación de “C” pero no su significado, parece que, si queremos obtener el significado de “C” no debe pertenecer al complejo, pero entonces ¿en dónde está el significado? No lo sabemos. Solo podemos afirmar que, la relación entre “C” y C es que “C” denota C, y si queremos hablar del significado de “C”, pues necesito otra nueva “”C”” que denote a esta “C”, pero, en todos los casos nunca hablamos del significado, sino solo de la denotación, “esto es un inextricable enredo, y parece probar que toda la distinción entre significado y denotación fue erróneamente concebida”. Y, para complicar aún más el asunto recordemos que encontrar el significado de la denotación no es tan simple, porque muchos significados pueden denotar el mismo objeto, con lo cual, ni siquiera debo encontrar uno solo. Otro problema que se analiza, y en donde la teoría de las descripciones se muestra superior, es en el problema de la identidad. Según Leibniz “si a es idéntica a b, lo que sea verdadero para una lo será para la otra, y cualquiera puede ser sustituida por la otra en cualquier proposición sin alterar su valor de verdad”, la solución de Frege consiste

en afirmar que a=b es una identidad de nombres con distinto sentido, pero igual referencia. Si analizamos la siguiente frase: “George IV deseaba saber si Scott fue el autor de Waverly”, encontramos que según Frege: Scott y el autor de Waverly son ambos nombres, que refieren al mismo objeto, por lo tanto, al ser idénticos pueden intercambiarse sin alterar el valor de verdad. Si lo intentamos tenemos entonces que: “George IV deseaba saber si Scott era Scott”, e inmediatamente vemos que hay una propiedad que tiene “Scott fue el autor de Waverly” que no tiene “Scott es Scott”, ya que, lo que quería saber George era si la frase anterior es cierta, ya que, ya sabía que “Scott era Scott”, y, por lo tanto, no son proposiciones idénticas. Así, nos vemos forzados a afirmar que “el autor de Waverly” no denota nada, aunque si contribuye a que la proposición entera tenga un significado. El último, pero no menos difícil problema es el siguiente: ¿Cuál y como es la ocurrencia de una descripción en una proposición?, Russell afirma que son de dos clases: ocurrencias primarias, y ocurrencias secundarias. Usando el mismo ejemplo: “George IV deseaba saber si Scott era el autor de Waverly”, podemos decirlo de dos maneras: Ocurrencia primaria “Un hombre y solo uno escribió Waverly, y George IV quiso saber si Scott era ese hombre” Ocurrencia secundaria “George IV deseó saber si un hombre y solo uno escribió Waverly y si Scott era ese hombre” Vamos a analizar la frase “el actual rey de Francia es calvo” con la distinción entre ocurrencias primarias y secundarias, aquí resulta ser de importancia este análisis, porque no hay un objeto que sea hoy el actual rey de Francia, y, por lo tanto, debemos negar en algún lado. Y aquí está la cuestión, dependiendo de la ocurrencia de la descripción en la frase pondremos la negación. Si niego: “el actual rey de Francia no es calvo” la frase puede ser verdadera o falsa de acuerdo

62

a si la ocurrencia es primaria, o secundaria. La proposición es falsa si tiene una descripción con ocurrencia primaria, y la frase quedaría: “hay una entidad que es ahora rey de Francia, y no tiene la propiedad de ser calvo” Pero es verdadera si la descripción tiene una ocurrencia secundaria como: “es falso que hay una entidad que sea ahora rey de Francia y calvo” Como vemos, en la ocurrencia primaria lo que se niega es el predicado, y por lo tanto la frase entera es falsa, porque no hay ninguna entidad que sea el rey de Francia, en cambio, en la ocurrencia secundaria se niega toda la frase entera, y por ese motivo, es verdadera. De este modo evitamos la violación del tercero excluido, y la frase “el actual rey de Francia es calvo” no es un sin sentido, sino que es verdadera o falsa, según si la descripción tiene una ocurrencia primaria o secundaria, y Russell añade: “de este modo escapamos de la conclusión de que el rey de Francia usa peluca”. Este análisis podemos aplicarlo a cualquier descripción cuya denotación es nula o dudosa, cito la refutación de Russell al argumento ontológico de Descartes: “El Ser más perfecto tiene todas las perfecciones; la existencia es una perfección, luego el ser más perfecto existe” se convierte en: “Hay una y solo una entidad x que es perfecta; esa entidad tiene todas las perfecciones; la existencia es una perfección; luego esa entidad existe” Como prueba, esto yerra al faltar demostración para la premisa “hay una y solo una entidad x que es perfecta””. Todas las citas son del artículo “Sobre la denotación”

63

NICOLÁS PÉREZ Filósofo de la Universidad Nacional de Santiago de estero Químico, docente de filosofía Epistemólogo. Interesado por la ciencia en general y en especial la física. Fan de los comics, dibuja y es crítico de cine.

64

LA INSOPORTABLE LEVEDAD DEL TESTS DE TURING Y LA FILOSOFÍA DEL MINOTAURO Manuel Corroza Muro

65

Ojalá me lleve a un lugar con menos galerías y menos puertas. ¿Cómo será mi redentor?, me pregunto. ¿Será un toro o un hombre? ¿Será tal vez un toro con cara de hombre? ¿O será como yo? [Jorge Luis Borges, “La casa de Asterión”]

NOTA PREVIA.

Esta entrada quiere ser una reflexión filosófica sobre el denominado ‘test de Turing’, un experimento que pretende responder al interrogante sobre la capacidad pensante de las computadoras, tal y como Alan Turing lo planteó en su artículo de 1950 ‘Computing Machinery and Intelligence’. No se pretende, por tanto, elaborar una crítica de amplio alcance sobre la Inteligencia Artificial, ni sobre la posibilidad de que los ordenadores puedan llegar a pensar algún día, ni sobre la naturaleza computacional o no computacional del funcionamiento mental de los seres humanos, ni siquiera sobre la teoría materialista de la mente o sobre la perspectiva dualista mente-cuerpo. Trata este texto, por tanto, de ceñirse al diseño original de la prueba de Turing, a hacer explícitas algunas asunciones tácitas de dicha prueba, a realizar una crítica filosófica de tales asunciones y a extraer algunas consecuencias derivadas de aquéllas, como quien extrae el hilo de una madeja. Pero este desmadejado no siempre conduce a una zona limpia y clara: a veces, como en el caso de Teseo, uno se da de bruces con el Minotauro. Tal vez sea éste el caso. Imaginemos la siguiente situación, haciendo abstracción de sus implicaciones éticas e incluso penales. Deseo gastar una broma a un amigo. Es un amigo soltero que frecuenta los canales de contactos por internet, en busca de pareja. Su canal preferido es uno cuya configuración permite que el intercambio de mensajes entre dos personas pueda ser observado, en modo oculto, por uno o más terceros. Conozco bien a mi amigo, sé de sus gustos en cuestión de mujeres -vamos a suponer que es heterosexual, aunque esto resulta irrelevante para nuestro propósito- y de sus aficiones literarias, deportivas, gastronómicas y

cinematográficas. Creando un perfil falso de mujer, el perfil A, me introduzco en ese canal y busco establecer un primer contacto con él. Al mismo tiempo, me aseguro de que ese intercambio esté a la vista de terceras personas en modo oculto para mi amigo, aunque no para mí. De un modo similar, puedo acceder a un foro paralelo, dentro del canal bajo un segundo perfil de usuario, el perfil B, en el que esos “mirones” intercambian sus propios puntos de vista. Poco a poco empiezo a mantener conversaciones cada vez más largas con mi amigo, siempre bajo el escondido escrutinio de los otros usuarios. Al cabo de un tiempo, los mensajes entre mi amigo y mi falso perfil femenino A llegan a ser extremadamente afectuosos. Conforme avanza nuestra relación virtual, voy leyendo y clasificando los comentarios que en el foro paralelo realizan nuestros emboscados observadores, sin intervenir en ellos o interviniendo de forma trivial bajo el perfil B. Transcurrido un tiempo prudencial, introduzco en el foro oculto de comentaristas la siguiente pregunta: ¿vosotros creéis que Menganita (en referencia a mi perfil de usuario A) se ha enamorado de Fulanito (en referencia a mi amigo)? Supongamos que de los veinte mirones ocultos, catorce opinan que sí y seis, que no. Es decir, un 70 % de los consultados afirman que Menganita (mi perfil A) se ha enamorado de Fulanito (mi amigo). ¿Sería lícito concluir que, puesto que hay una conspicua mayoría que así lo cree, Fulanita ama a Menganito? ¿Que existe un amor -tal vez correspondido, tal vez no, pero eso poco importaentre ambos usuarios del canal de contactos? Describamos una segunda situación, ésta real. Se trata del famoso experimento de Milgram[1], llevado a cabo por Stanley Migram, profesor de psicología de la Universidad de Yale, en 1963. En él, y con la excusa de la realización de una serie de estudios sobre el aprendizaje y la memoria, Milgram y su equipo diseñaron un experimento en el que unos cuantos voluntarios recibieron

66

instrucciones de interrogar sobre cuestiones triviales a un grupo de personas y de aplicar un castigo en forma de descarga eléctrica a aquéllas que respondiesen erróneamente.

creencia, en este caso) producir o generar la existencia de un estado mental diferente (el amor o el sufrimiento) en una persona distinta, que no pertenece al grupo?

En la escenificación del experimento, el investigador y el voluntario se sentaban a un mismo lado de una mesa; al otro lado, y separada por una mampara que la ocultaba a la vista, se colocaba la persona interrogada. El voluntario debía aplicar descargas eléctricas de voltaje creciente -enre 45 y 450 voltios- a los sujetos interrogados que fallaran progresivamente en sus respuestas a las preguntas formuladas, siempre bajo la supervisión y la responsabilidad última del investigador.

Esta pregunta subyace, se quiera o no, a uno de los textos científicos más importantes de los últimos cincuenta años, el artículo Computing Machinery and Intelligence[2] (“Máquinas de computación e inteligencia”), que el matemático británico Alan Turing publicó en la revista Mind en 1950. Se considera que este escrito constituye una reflexión seminal en el desarrollo de la inteligencia artificial y en el enfoque funcionalista del estudio de la mente y de su correspondiente aderezo filosófico, la perspectiva funcionalista y computacional de la naturaleza e los estados mentales.

Conforme el voltaje aplicado aumentaba, los interrogados manifestaban un dolor cada vez mayor por medio de gritos, convulsiones y golpes en la mampara de separación. Por supuesto, el experimento era un simulación en todos sus aspectos: las personas interrogadas eran, en realidad, colaboradores del equipo de Milgram que debían fingir dolor y el cableado y el equipo de descargas eran falsos. Pero los voluntarios ignoraban ambos extremos. Los datos recabados tras la finalización de los ensayos fueron ciertamente sorprendentes: por supuesto, todos los voluntarios creían haber infligido daños físicos a las personas a las que habían interrogado. Más allá del intenso debate ético que el experimento ocasionó, y prescindiendo de consideraciones psicológicas y morales sobre la idoneidad de este tipo de protocolos experimentales, la cuestión que nos interesa es la siguiente: puesto que todos los voluntarios cayeron en el engaño de la simulación y creyeron sinceramente que estaban causando sufrimiento físico a otras personas, ¿realmente existió este daño físico? Las dos situaciones descritas más arriba plantean una misma cuestión: ¿es condición suficiente para la existencia de un estado mental la creencia (por consenso o por amplia mayoría) de que tal estado mental existe? O, en otras palabras, ¿puede la existencia de un estado mental ampliamente compartido en un grupo de personas (la

Por supuesto, la interpretación habitual de este texto es que se trata de una exposición brillante y original -y ciertamente lo es, situada en su contexto histórico- sobre la capacidad que tienen las máquinas computadoras para “pensar”. El propio artículo desvela al mundo sus intenciones en su mismo comienzo: Propongo someter a consideración la siguiente pregunta: ‘¿pueden pensar las maquinas?’. Más que la respuesta a esta pregunta, que el propio autor no ofrece de una manera clara, lo interesante del artículo es el enfoque que presenta y los supuestos implícitos de los que parte, que se dan por obvios, pero que no lo son en absoluto. Puesto que Turing se confiesa incapaz de definir lo qué es “pensar”, ofrece una solución tan pragmática como arbitraria, y se remite al conocido “juego de imitación”. Las dos situaciones que se han descrito al comienzo de esta entrada ilustran dos variantes de este juego, aunque Turing parte de una versión original ligeramente distinta que luego modifica para adaptarla a un hipotético experimento con máquinas computadoras. Algunos autores han llegado a identificar hasta tres variantes[3] del juego de imitación, pero la idea original no resulta afectada, en lo esencial. Se trata de ver si a través de un juego de preguntas y respuestas entre dos participantes, que no se ven

67

las caras ni se pueden oir, uno de ellos consigue engañar al otro acerca de su identidad. En el caso del test de Turing, se trata de confrontar a un interlocutor humano de forma aleatoria con otro ser humano o con una máquina computadora, sin que el primer interlocutor conozca en cada momento la identidad de su contraparte. Si la persona que está realizando el test no es capaz de distinguir, en una proporción preestablecida de los ensayos, si su contraparte es otra persona o si es una máquina computadora, entonces uno está legitimado para afirmar que la máquina en cuestión, “piensa”.

No es difícil darse cuenta de que la transición desde la pregunta original “¿pueden pensar las maquinas?” hasta la pregunta “¿pueden las máquinas computadoras pasar satisfactoriamente el juego de imitación”? se convierte en un enorme salto metodológico al vacío que Turing no se molesta en justificar más que con la ayuda de un argumento ad ignorantiam: puesto que no sabemos exactamente qué significa “pensar” y qué significa “máquina”, utilícese un critero operacionalista que sustituya el significado de nuestro objeto de estudio por el diseño experimental de un test de control.

Turing se atreve incluso a proporcionar un criterio numérico: si el examinador promedio no logra la identificación correcta más que un máximo de siete de cada diez veces durante intervalos de cinco minutos de preguntas y respuestas, puede afirmarse que la máquina ha superado el juego de imitación. Puede afirmarse que la máquina piensa.

Diseño experimental que por fuerza, y malgré el empirismo ingenuo, ha de incluir una idea preliminar de aquello que se quiere testar, aunque sea una idea que se maneja como si se tratara de una caja negra conceptual. Una caja negra de la que, sin embargo, se extraen algunas características observables. O, por mejor decir, las características que Turing postula como observables. Y este es el problema que suelen arrastrar los criterios operacionalistas o empiristas del significado: la selección arbitraria de ciertas propiedades fenoménicas, visibles, de un objeto de estudio que funciona como una caja negra y del que ni siquiera se intenta una definición preliminar, siquiera a título provisional.

De izquierda a derecha: el juego original de imitación con tres interlocutores humanos, el juego de imitación con la sustitución de uno de los interlocutores oculto por una computadora y por último, la interpretación estándar del test de Turing, que aparece en el artículo ‘Computing Machinery and Intelligence’. [Gráficos tomados del artículo de Wikipedia “El test de Turing”].

Dejando aparte el hecho de que, en la investigación científica, dar prioridad a la metodología sobre la semántica no es una buena idea -un investigador debería saber qué es lo que quiere estudiar antes de diseñar el correspondiente protocolo experimental, el qué antes del cómo– la propia selección de las mentadas características puede conducir a un sesgo indeseado en las conclusiones. ¿Por qué, por ejemplo, decide Turing que el juego de imitación, un juego basado en preguntas y respuestas sobre una variedad de temas, es más adecuado para monitorizar la capacidad pensante de una computadora que la realización de un complicado cálculo numérico? La única justificación que ofrece es que la realización de tales cálculos delataría de inmediato a la máquina en el propio juego de

68

imitación. Pero se trata de una respuesta circular, ya que presupone el propio contenido de la pregunta. O, de otro modo, ¿por qué la capacidad de una computadora para jugar al ajedrez, o a una versión complicada del Tres en Raya, no se considera un criterio de inteligencia pensante suficientemente válido? Pues los juegos son, en el fondo, interacciones dialogadas a través de la utilización de un lenguaje normado, interacciones que echan mano de la capacidad de observación atenta, anticipación, razonamiento y argumentación inferencial, características igualmente observables en lo que se entiende como “pensar”. Y en esto, los fenomenistas y los empiristas lógicos estarían de acuerdo. Pero Turing no entra en explicaciones. Last but no least, en la época del floruit intelectual de Alan Turing existían varias definiciones y estudios disponibles sobre la mente y la actividad pensante, definiciones y estudios que podrían haber servido como una primera referencia para el diseño del experimento de las máquinas pensantes, pero nuestro autor parece ignorarlos deliberadamente. A esta primera objeción, de carácter metodológico, cabría añadir una segunda, muy vinculada a ésta, pero con un perfil más epistemológico e incluso con cierta derivaciones ontológicas. En efecto, más allá de los cuestionables principios operativos del test de Turing, el instrumental epistémico que se pone en uso no puede ser más objetable. Veamos: se trata de determinar si realmente el hecho de que una computadora “supere” el juego de imitación -bajo la doble arbitrariedad de la elección del propio juego y del criterio numérico establecido para sancionar esa superaciónimplica que esa computadora pueda pensar. ¿Qué justificación presenta Turing en favor de esa tesis? Lo único que nuestro matemático puede alegar en su favor es el conductismo ingenuo[4] y el criterio empirista del significado[5]. El primero niega la pertinencia de los estados mentales en el estudio científico del comportamiento y sólo toma en consideración la conductas manifiestas. El segundo afirma que sólo las proposiciones

protocolares que describen lo observado en un experimento o cuyo contenido puede ser confirmado por la experiencia tienen significado cognoscitivo. Contra el conductismo ingenuo, el propio Turing introduce la función mental del “pensar” como el objeto de estudio que debe ser testado; es decir, da por supuesta la existencia del pensamiento como un estado de la mente, aunque rehúse definirlo. Contra el criterio empirista del significado cabe argüir que todo diseño experimental y toda recolección de datos debe partir de una criba previa sistemática, cuyo fundamento es el conjunto de suposiciones teóricas preexperimentales que establecen cuáles son los datos pertinentes, a efectos explicativos, predictivos y confirmatorios o no confirmatorios. No todas las conversaciones, reales o simuladas, son expresiones fidedignas de la actividad pensante de los seres racionales. Pero Turing no establece un criterio preliminar en este sentido, porque no tiene una teoría sobre el pensamiento. Además, la conclusión del experimento de simulación se apoya en la agregación de los resultados procedentes de los estados subjetivos y de las percepciones interiores de los participantes (su capacidad para ser o no ser “engañados” por la simulación computacional de una discusión con otra persona) , más que en el tratamiento estadístico de una serie de datos evaluables de forma objetiva y con márgenes definidos de error experimental. La agrupación de creencias individuales coincidentes -por ejemplo, coincidentes en que el interlocutor es un ser humano y no una máquina- no deja de ser una creencia agrupada o, si se quiere, una creencia compartida entre varios o entre muchos, pero creencia, al fin y al cabo ¿Es epistémicamente riguroso postular la existencia de un estado mental con base únicamente en la existencia de otro estado mental más o menos compartido? Retomando la primera situación con la que se abre esta entrada, ¿hay algún tipo de robustez inferencial en concluir que existe un estado mental de amor en una persona tan sólo porque existe otro estado mental compartido por terceros -la creencia o

69

convicción más o menos conspicua- que así lo estipula? Pero del planteamiento del test de Turing pueden, además, inferirse legítimamente algunas cuestiones ontológicas. Estas cuestiones cobrarían forma a través de una interpretación estricta y rigurosa de la propuesta de nuestro autor. Pues si lo que se propone en Computing Machinery and Intelligence es que la existencia de capacidad pensante en computadoras depende de una decisión basada en un agregado de reacciones individuales en el juego de simulación y en un cierto criterio numérico de corte aplicado sobre dicho agregado, ¿no se está afirmando que la existencia del pensamiento -y de la mente como conjunto de estados y funciones mentales- en un individuo o entidad surge de un acto volitivo -la decisión de postular esa existencia-, que no es, mutatis mutandis, sino otro estado mental, otra forma de pensamiento? ¿un acto volitivo que es además, exterior al individuo o entidad del que se postula su capacidad pensante? Ya no estamos hablando de la inferencia de la existencia de otras mentes por medio de un procedimiento epistemológicamente deficiente, sino de la creación de esas otras mentes por un acto, también mental, externo a éstas. Una propuesta de esta naturaleza se situaría a medio camino entre el idealismo subjetivo clásico y un particular solipsismo colectivo de alcance reducido. Llevaría implícita, además, una confusión muy meritoria entre creer y crear. Volviendo a los dos ejemplos con los que se abre esta entrada, la aplicación estricta de los supuestos del test de Turing nos permitirían concluir que la creencia mayoritaria de los usuarios ocultos del canal de contactos en el enamoramiento de Menganita (mi falso perfil A de usuario) crearía, de hecho, ese amor en tanto estado mental. También nos daría todas las facilidades para afirmar que los voluntarios en el experimento de Milgran estaban generando un dolor real, tan sólo por su propia convicción de que tal dolor estaba ahí. No acaba aquí el deshilachado de las consecuencias filosóficas que se derivan del test de Turing. Si,

en efecto, sancionamos como pensante a un dispositivo computacional capaz de superar el juego de imitación (con independencia de las anteriores consideraciones epistemológicas y ontológicas), nos vemos obligados a preguntarnos si tal dispositivo puede conceptuarse como un ser vivo. Hasta el momento, todo nuestro conocimiento científicamente avalado sobre pensamiento, mentes e inteligencias remite a los portadores de tales propiedades, es decir, a los organismos con un sistema nervioso mínimamente desarrollado. No consta, dado el estado actual de nuestro conocimiento, la existencia de mentes intangibles o incorpóreas o, como diría Gilber Ryle, de “fantasmas” dentro de máquinas. Y el enorme desarrollo experimental de la neurofisiologia cognitiva y emocional[6] no sanciona de ningún modo esa tesis platónica y cartesiana. Más bien al contrario, los estados mentales, y la propia mente entendida como un conjunto (esto es, un objeto conceptual, no real, en el sentido de Bunge) de funciones mentales se identifican con procesos cerebrales empíricamente detectables. Lo que viene a avalar los supuestos de la teoría materialista de la mente de que no existen las mentes, sino los organismos “mentantes”. Pero estas afirmaciones colocan a los postulantes convencidos del test de Turing ante un dilema importante: o aceptan que el juego de imitación no es un diseño válido para detectar capacidades pensantes o, si persisten en su empeño, han de certificar que las máquinas pensantes son, en algún sentido, seres vivos. O bien se mantienen fieles a una ontología idealista de corte platónico y, en contra de la creciente evidencia científica, siguen defendiendo la existencia de estados mentales inmateriales extracorpóreos. Algo que, por cierto, no resulta infrecuente entre matemáticos y, tal vez, entre programadores informáticos. El artículo de Turing, pese a todo, ofrece interesantes reflexiones sobre las relaciones entre pensamiento y computación. Mencionemos unas cuantas.

70

La tesis de que la capacidad de almacenamiento y la velocidad de procesamiento de una computadora resultan claves en el éxito del juego de simulación (características que, por otra parte, tienen una importancia manifiesta en la capacidad para jugar al ajedrez, por ejemplo). El argumento de desestimación de los archiutilizados teoremas de Gödel[7], cuyos contenidos Turing no considera relevantes en la discusión. Su reconocimiento del “misterio” de la conciencia, como una concesión (muy medida, eso sí) a la importancia de contar de algún modo con una teoría de la mente. Su esbozo teórico del funcionamiento de la mente, que él entiende, grosso modo, como la resolución algorítmica programada de un problema para el que la máquina (incluida la máquina humana) ha sido diseñada y la detección programada de errores en sus propios procedimientos algorítmicos. Su particular visión del “argumento de la sorpresa”, esgrimido, según él, por quienes niegan la capacidad pensante en máquinas computadoras. El criterio nomológico para describir la conducta de los seres humanos, que pivotaría sobre el carácter natural-legaliforme de las pautas de comportamiento observadas. La muy interesante propuesta de las supuestas capacidades supercríticas de la mente humana (la generación de todo un hatillo de ideas, susceptibles de estructurarse en un cuerpo teórico, a partir de una idea inicial que obraría como simiente, como el árbol de la mostaza surge espléndido desde la modesta semilla) como criterio de constatación de la presencia de mentes inteligentes. La sugerencia de un proceso de desarrollo intelectual en la programación de las computadoras que imite el aprendizaje de los niños pequeños, desde una perspectiva de aprendizaje condicionado que bascularía sobre la recompensa y el castigo.

mencionado en el punto anterior. Y, por último, la definición tentativa que Turing nos regala sobre el comportamiento inteligente: el comportamiento inteligente supuestamente consiste en apartarse del comportamiento completamente disciplinado que entraña la computación. En definitiva, y pese a los premios Loebner[8], que pretenden actualizar la vigencia de la propuesta original de Turing y evaluar la “inteligencia” de los programas de ordenador siguiendo escrupulosamente las pautas del juego de imitación el diseño experimental ofrecido por este gran matemático suscita más dudas filosóficas de las que pretende solventar. Dudas profundas que atañen a la metodología, a la epistemología y a la propia ontología, especialmente desde un punto de vista realista y materialista. Probablemente por esta razón, el enfoque imitativo tiene en la actualidad una importancia muy acotada en el amplio escenario de las investigaciones sobre Inteligencia Artificial[9] y en el diseño de nuevos experimentos de detección de la conciencia en ordenadores bajo criterios de discriminación visual, como los llevados a cabo por Christof Koch y Giulio Tononi[10] en 2008. Sólo cabe esperar y ver si, deshilachada la madeja, al final del laberinto nos aguarda la confusa figura del Minotauro o más bien el rostro reconocible de uno de los nuestros.

La introducción, tal vez de contrabando, de la idea de un “lenguaje simbólico” (es decir, un lenguaje referencial y por tanto con carga semántica), lenguaje orientado al proceso de aprendizaje

71

NOTA AL PIE: Según parece, existe evidencia sobre el carácter fraudulento de los experimentos de Milgram tal y como aparecen en su descripción habitual en los medios académicos y de comunicación. Javier Jiménez Cuadros lo detalla muy bien en el artículo “Milgram y la obediencia ciega: la historia que no se contó”[11], cuya lectura recomiendo. También me advierte sobre las frecuentes simplificaciones que los críticos del conductismo ponen sobre la mesa al hablar de esta corriente psicológica. Creo que son dos matizaciones muy interesantes, pero que no afectan, en lo esencial, a la argumentación que presento en esta entrada contra el test de Turing. Por una parte, podríamos imaginar que la descripción canónica del supuesto experimento de Milgram es en realidad un experimento mental, y las conclusiones no cambiarían gran cosa. Pues lo que me interesa resaltar de la real o supuesta investigación de Milgram es un aspecto muy secundario -el juego de simulación y el convencimiento de los participantes de que estaban infligiendo un dolor real-, un aspecto que no resulta particularmente controvertido y sobre el que sólo cabe hacer matizaciones numéricas. En cuanto al conductismo, y con independencia de las propuestas reales de Watson y Skinner, el test de Turing, tal y como lo describe su autor, parece ejemplificar una forma radical, ingenua o incluso caricaturesca de las tesis conductistas más serias. Que quepa o no adscribir con rigor este test al conductismo tiene, en realidad, poca importancia, y no afecta a la crítica filosófica general que merece la propuesta de Turing.

[1]Colaboradores de Wikipedia. Experimento

de Milgram. Wikipedia, La enciclopedia libre, 2017. Disponible en .

[2] A. M. Turing (1950): ‘Computing Machinery and Intelligence’. Mind 49: 433-460. [3]Colaboradores de Wikipedia. Test de Turing. Wikipedia, La enciclopedia libre, 2017. Disponible en . [4] Colaboradores de Wikipedia. Conductismo. Wikipedia, La enciclopedia libre, 2017. Disponible en [5] C. G. Hempel (1950): ‘Problems and Changes in the Empiricist Criterion of Meaning’. 11 Rev. Intern. de Philos. 41: 41-63. [6] Wikipedia contributors. Neuroscience [Internet]. Wikipedia, The Free Encyclopedia; 2017. Available from: https://en.wikipedia.org/w/index.php?titl e=Neuroscience&oldid=809616596. [7]Colaboradores de Wikipedia. Teoremas de incompletitud de Gödel. Wikipedia, La enciclopedia libre, 2017. Disponible en . [8]Colaboradores de Wikipedia. Premio Loebner. Wikipedia, La enciclopedia libre, 2017. Disponible en . [9]Colaboradores de Wikipedia. Historia de la inteligencia artificial. Wikipedia, La enciclopedia libre, 2017. Disponible en . [10]C. Koch and G. Tononi (2008): ‘Can Machines Be Conscious? Yes—and a new Turing test might prove it’. Se puede consultar este texto en la página web https://spectrum.ieee.org/biomedical/ imaging/can-machines-be-conscious. [11] J. Jiménez (2015): “Milgram y la obediencia ciega: la historia que no se contó”. Se puede consultar este texto en la página web http://rasgolatente.es/milgram-obediencia-ciega-autoridad-la-

verdad/.

73

MANUEL CORROZA MURO

Doctor en Ciencias Biológicas y Licenciado en Filosofia

74

SOBRE UNA CONFUSIÓN ELEMENTAL EN FILOSOFÍA DE LA CIENCIA M. Janou Glaeser Santamaría

75

En esta brevísima entrada me propongo clarificar el significado de algunos conceptos que a menudo se utilizan sin rigor alguno, incluso por parte de los propios científicos. Tales son los conceptos de hipótesis, ley, teoría y modelo, entre otros. A menudo se piensa que éstos sólo difieren en cuanto a la certeza que se les asigna, y no a su estructura interna. Craso error. A continuación, sin más, paso a clarificar el significado de estos conceptos.

lo modelado (exitosamente o no) por la teoría.

Un enunciado es una afirmación de cualquier tipo. Por ejemplo, “está lloviendo” es un enunciado.

2) Axiomas fácticos. Éstos son, justamente, enunciados de ley sobre las entidades caracterizadas por los axiomas materiales. A menudo se expresan mediante objetos formales (matemáticos) como por ejemplo ecuaciones que relacionan variables y describen su evolución temporal (este es el caso más frecuente, pero no el único). Acompañando al aparato formal/ matemático debe haber una interpretación semántica que dicte a qué ítem de la realidad refiere cada parte del formalismo matemático.

Una hipótesis es un enunciado o conjunto de enunciado plausible(s) que por lo general intentan responder a cierta pregunta o problema abierto. Al contrastar una hipótesis con un cuerpo de enunciados observacionales (que expresen lo observado directamente mediante experimentos), a menudo asumiendo cierto cuerpo de conocimiento para interpretar dichas observaciones (p ej las observaciones por microscopio presuponen algunas leyes ópticas), se refuta la hipótesis en caso de incompatibilidad insalvable, o se obtiene apoyo o evidencia (des) favorable con más o menos peso, o, en el mejor caso posible, confirmación de la hipótesis.

Ahora bien, una teoría, como p. Ej. La teoría general de la relatividad, puede ser aplicada a cierto sistema concreto, como lo puede ser un sistema binario de agujeros negros en proceso de fusión. Para ello, es preciso construir un modelo de ese sistema, que no se sigue de la teoría, pero que satisface todos sus postulados (axiomas). En el marco de un modelo concreto, se pueden realizar predicciones observacionales utilizando la teoría en cuestión (para hacer dichas predicciones muchas veces se utilizan otras teorías ya bien establecidas, posiblemente junto con enunciados observacionales, estos últimos conocidos como “hipótesis auxiliares”).

Una ley es una regularidad no trivial en los procesos que ocurren en [algún nivel de] la naturaleza. Las leyes son las que son; lo que va evolucionando es nuestra comprensión de ellas; más específicamente, lo que cambia es cuáles enunciados de ley tomamos como ciertos. Un enunciado de ley generalmente tiene la forma “bajo tales condiciones c, tales entidades e se comportan de tal forma l”.

Si las predicciones observacionales fallan, es decir, si no se condicen con los enunciados observacionales recogidos, en primera instancia se puede ajustar el modelo para adecuarlo a la evidencia empírica. Pero este nuevo modelo tiene que hacer nuevas predicciones, de lo contrario no se ha hecho más que introducir una hipótesis ad hoc para salvar la teoría. Cuando sabemos lo suficiente acerca de un sistema material como para que, dentro de la teoría en cuestión, haya una fuerte restricción a la construcción de modelos de ese sistema material (i.e. haya muy pocos detalles que no sean ya fijados por la teoría más los datos obtenidos), las predicciones que se hagan en esos modelos son decisivas para la teoría, la cual recibirá apoyo empírico en caso de que el modelo acierte en sus predicciones, o de lo contrario se verá vulnerada si las predicciones del modelo en cuestión no coinciden con los datos empíricos acerca del sistema en cuestión.

Una teoría es un sistema hipotético-deductivo de proposiciones: hipotético en cuanto incluye un conjunto de postulados o axiomas, y deductivo porque incluye las consecuencias o teoremas de dichos axiomas. Los axiomas se dividen en dos grupos: 1) Axiomas materiales u ónticos. Éstos postulan la existencia de cierta clase de entidades que poseen ciertas características. Estas entidades, sus propiedades y los procesos que sufren, serán

76

La única forma de probar con certeza que una teoría es falsa es refutando empíricamente alguno de sus postulados (axiomas). Por el contrario, no hay forma de establecer como verdadera una teoría; sin embargo, si cierta teoría científica pasa exitosamente muchas pruebas observacionales, describe y predice adecuadamente una amplia gama de fenómenos, y no posee evidencia contraria, entonces sin duda lo más racional es tomarla como cierta, al menos de forma provisoria.

77

M. JANOU GLAESER SANTAMARIA

Compositor y pianista, futuro estudiante de físicomatemática, y aficionado a la filosofía analítica.

78

ENTRE LA MATERIA Y LA VERDAD Johny Jaramillo

79

Voy a referirme a dos tradiciones que han hablado sobre la verdad de un modo que encubre la relación que existe entre aquella discusión sobre la verdad y la otra discusión, que es sobre la ontología. Estas tradiciones no reflejarán, aquí, tradiciones efectivas consolidadas en la historia, sino tradiciones de pensamiento, que como yo las entiendo se refieren a una sólida red de presupuestos básicos que pueden ser mantenidos en distintas épocas por distintos hombres y bajo distintos matices: son la tradición positivista y la tradición posmoderna. Antes de empezar a hablar sobre el encubrimiento que subyace a estas tradiciones, pasaré a hablar a modo de introducción sobre lo que implican las discusiones mencionadas anteriormente. Podemos referirnos a la discusión sobre la verdad como la discusión sobre qué es la verdad y, en caso de ser algo, cómo se relacionan los estados mentales (cognitivos) y el lenguaje con la verdad. A la discusión ontológica podemos resumirla como esa serie de cuestiones que versan sobre la clase de entidades que existen en la realidad: puede adquirir una versión fuerte (en cuyo caso estipulará clases de entidades y ramificaciones-tipo dentro de las mismas clases) o puede adquirir una versión débil (el sujeto X se compromete a admitir el conjunto de entidades (x, x1, x2) y no otras en virtud de P). La versión fuerte de la discusión ontológica es análoga a la respuesta afirmativa de si existe la verdad, dado que una persona podría admitir entidades abstractas como los números sin necesidad de considerarlos como verdaderos (esta es una postura que podría nombrarse como ‘pragmatismo conceptual’, aplicado aquí a las matemáticas). En cambio, si esa misma persona admite la versión fuerte de la discusión ontológica, se verá obligado a saber en qué clase de entidades se encuentran los números y con qué ramificaciones-tipo se relaciona, llegando así a comprometerse con valores veritativos, es decir, llegando a reconocer de entrada que la verdad sí es algo. Ahora bien, me veo obligado a comprometerme yo mismo en una relación entre la discusión ontológica y la discusión sobre la verdad desde un punto de vista del materialismo filosófico. Concibo por materialismo filosófico una metodología, a saber, aquella que procede en cuestiones filosóficas de manera sistemática (las cuestiones filosóficas son las generales a todas las franjas categoriales del conocimiento humano, sea científico o no), por lo que no puede uno proceder de un modo aislado en la ontología por aquí, en la epistemología por allá, y más acá con la ética y la moral, etc. Todo debe ser coherente dentro del mismo sistema. La otra particularidad del materialismo filosófico es que sólo toma en cuenta los materiales a la hora de trabajar filosóficamente con las cuestiones generales. Esto quiere decir, por lo menos, dos cosas: 1. el materialismo filosófico no admite cuestiones de las que no se pueda dar cuenta en términos de evidencia, en un sentido amplio: 2. el materialismo filosófico no admite ninguna clase de apelación a la autonomía formalista -sea esta de corte mentalista, metafísico o lógico-, dado que a todo formalismo le preceden materiales. Sólo que materiales de distinta clase, como se verá. ¿Qué entiende el materialismo filosófico por materia? Entiende por esta la variabilidad que puede

tomar el mundo: existen tres géneros que, vistos desde su totalidad, componen al mundo, y vistos desde sus orillas, constituyen al mismo tiempo la admisión de una versión fuerte de la discusión ontológica y la admisión de compromisos explícitos con los valores veritativos asignados a las clases y sus respectivas ramificaciones-tipo. La variedad de la materia es, pues, la siguiente: -Lo corpóreo (M1) se refiere a aquellas materialidades que mantienen una identidad física en un sistema físico de referencia, como el biológico o el astronómico, etc. -El hombre como medida de cierta clase de materias simbólicas intencionales se refiere, o al psicologismo, o al sociologismo, puesto que estas materias no pueden existir sin una referencia directa a los símbolos individuales o colectivos, según sea el caso, creados por las intensiones antropológicas (M2): -Por último, las ideas son aquellas materias que existen en virtud de una estructura simbólica no intencional, por lo que son esquemas de símbolos -estructuras- autoreferenciales a un sistema conceptual o a un metalenguaje que las supone (M3).

80

Visto así el panorama, habrá de aclararse que las materias anteceden a los compromisos veritativos, pero están fuertemente amarrados, al menos, en dos sentidos. El primero es que uno debe asumir de entrada la existencia de esas materias, aún si uno no tiene las condiciones para comprometerse con los valores veritativos de las clases y las ramificaciones-tipo de las materias. Uno no necesita ser un físico para admitir de entrada clases y ramificaciones-tipo de un sistema físico de referencia, del mismo modo que uno no necesita ser antropólogo para admitir de entrada clases y ramificacionestipo de mecanismos simbólicos intencionales (como los mecanismos sociales), etc. El segundo sentido en el que están fuertemente amarradas las materias a los compromisos veritativos es que, aún admitiendo de entrada la verdad ‘las materias existen así y asá’, podemos calificar las clases y las ramificaciones-tipo que se derivan de ellas de tal manera que podamos conocer cuáles entidades pertenecen a ellas y cuáles no, lo cual es lo mismo que conocer el valor veritativo de las mismas. Una simplificada ilustración podría explicar estos dos sentidos en que las materias y los compromisos veritativos se relacionan. Sabemos que en un determinado momento de la historia evolutiva de los organismos biológicos, nuestra estructura biológica cambió drásticamente, de tal suerte que adquirimos cognición (funciones generales en la estructura neurobiológica que nos permiten procesar y organizar los datos sensoriales) y, con ella, una increíble capacidad simbólica intencional para organizar funciones biológicas básicas, como la alimentación o el apareamiento, hasta fragmentarlo de manera compleja en divisiones antropológicas y psicológicas que nos permitieron un progreso simbólico intencional tan vasto que nos vimos en la necesidad, como especie, de externalizar los símbolos de tal manera que se despojaran de intenciones antropológicas y psicológicas, ya fuera para preservar tan vasto capital cultural, ya fuera para hacerlo progresar (por eso se dice que el conocimiento posee valor intrínseco, lo cual no quiere decir sino que se está en la necesidad tanto de preservar como de hacer progresar la externalización de los símbolos, depurarlos de sus matrices intensionales originales, de las que

sin embargo proceden materialmente). Tomemos esa panorámica en la que nuestra estructura biológica cambió drásticamente (punto en el cual podemos entender cómo llegan a relacionarse M2 y M3) para ver que, antes de ese drástico cambio, las estructuras biológicas que habitaban la tierra -incluidos nuestros antepasados- no poseían cognición alguna (no poseían ni a M2 ni a M3), y aún antes de estas estructuras biológicas, consideremos el hecho de que sólo existía para el caso M1, en el sentido de que el planeta tuvo que pasar por largas transformaciones físicas. Aún inclusive en el caso de que estamos admitiendo la sola existencia de M1 en este momento de la panorámica ilustrativa, sabemos que en todo caso sólo podemos calificar qué entidades entran en las clases y las ramificaciones-tipo de esas transformaciones planetarias (por poner el caso de la formación de nuestro planeta) a través de M3, pasando primero por M2, como se vio antes. Espero con esta simplificada ilustración mostrar, al menos, que no hay algo así como una dicotomía entre la teoría y los hechos. Es una obviedad, por lo demás, que no le importamos gran cosa a las transformaciones físicas del universo (en este caso, a las que sucedieron en la formación de nuestro planeta), pero también es una obviedad que sin las materias que nos son garantizadas por M2 y M3, que van respectivamente, de izquierda a derecha, desde los intereses y las aplicaciones cognitivas, hasta las depuraciones metodológicas propias de los conocimientos sistemáticos, no podríamos saber que le importamos un carajo a esas transformaciones físicas, es decir, no podríamos saber nada de nada, y seríamos presas causales (ya lo somos en realidad) en la misma medida en que las leyes afectan a los animales sin cognición alguna: se dejan irradiar por el universo sin saber qué los irradia, por decirlo de otra manera. La tradición positivista y la tradición posmoderna pueden ser reescritas, así, como reduccionismos formalistas. El primero sólo se comprometería con M3, e inclusive negándose a explicitar la relación entre el debate ontológico y el debate de los compromisos veritativos, como le pasa en algunas ocasiones a la filosofía analítica (poniendo una estéril atención a las estructuras simbólicas externalizadas, asunto que en su momento criticó

81

Quine en su famoso texto ‘On what there is’, no obstante sin llegarse a comprometer seriamente con las relaciones que traía consigo considerar la inseparabilidad entre M1, M2, M3). El segundo sólo se comprometería con M2, ofuscando de entrada la distinción entre las materias, por un lado, y los compromisos veritativos, por el otro, lo cual lo llevaría a la esperada confusión entre las materias mismas, llegando a afirmar por ejemplo que querer conocer (primera condición fundamental de la tradición posmoderna, llevada a un subjetivismo extremo y dañino), conocer y existir son prácticamente la misma cosa. Como se ha señalado, existen fuertes relaciones entre el debate ontológico y el debate sobre los compromisos veritativos: relaciones de exclusión (las materias deben ser admitidas de entrada) y de inclusión (las clases y las ramificaciones-tipo de las materias sólo pueden ser incluidas dentro de las inicialmente admitidas materias, si y sólo si a través de compromisos veritativos, que ya están supuestos por lo demás en el desarrollo material, como se intentó mostrar en el ejemplo ilustrativo anterior). Nota: por clase entiendo lo que se define en el materialismo filosófico como totalidades (http://www.filosofia.org/filomat/df…) y por ramificaciones-tipo lo que se define en el materialismo filosófico como connotación de la clase (http://www.filosofia.org/filomat/df…). Una clase es definida del siguiente modo: como un conjunto de notas definitorias o de complejos de notas definitorios que supongan la repetición de sus elementos por semejanzas o relaciones de emparejamiento. Un ejemplo de un conjunto de notas definitorias sería el conjunto de los elementos orgánicos: («la célula es…», «el ADN esto…», «el cromosoma lo otro…», etc.) donde cada connotación -la célula es una connotación de la microbiología, el ADN de la genética, etc.- funciona como una nota definitoria que se repite: lo orgánico. Así, este conjunto vendría siendo una clase. Un ejemplo de un conjunto de complejos de notas definitorias sería el conjunto de caracteres biológicos («lo fisiológico»-«lo morfológico», «el genotipo»-«el fenotipo»), donde hay emparejamientos de connotaciones (lo morfológico se refiere a las estructuras de un organismo y sus respectivas características,

en términos de apariencia externa e interna; lo fisiológico se refiere a las funciones de dichas estructuras) que son incapaces de funcionar aisladas, contrario a los conjuntos de notas definitorias. Así, este conjunto vendría siendo también una clase. Como se ve, las ramificacionestipo son fáciles de derivar de estas clases. Del conjunto de notas definitorias antes expuesto: del primer elemento connotativo, se puede ramificar la célula en procariotas y eucariotas (las ramificaciones a su vez pueden distribuirse en subtipos más detallados, conforme avanzan las ciencias, pero lo que interesa aquí es ver que las clases están compuestas de ramificaciones-tipo que, aunque se repiten por semejanzas o relaciones de emparejamiento, existen no obstante en un grado de detalle ontológico bastante amplio). Del conjunto de complejos de notas definitorias antes expuesto: del primer complejo («lo fisiológico»«lo morfológico») habría que derivar, como con todos los demás complejos de notas definitorias que puedan suponerse en cualquier clase, ramificaciones-tipo comunes al mismo complejo. Por ejemplo: la homeostasis de la glucemia es una ramificación-tipo que se sigue del hecho de entender las relaciones entre la morfología del hígado y el páncreas y la fisiología de los mismos, cosa que da a entender la inseparabilidad del complejo. De todo esto se sigue que las clases, y las ramificaciones-tipo que se siguen de ellas, deben ser analizadas según su naturaleza ontológica.

82

JHONNY JARAMILLO

«Un varonil silencio, un goce arcano, hacer más honda y más sensual tu vida» – Barba Jacob. Docente de ciencias sociales Docente de lenguaje Estudió pedagogía en la Universidad de Antioquia Interesado por la epistemología, la ciencia en general, la política, el materialismo filosófico de Gustavo Bueno y en la tradición de la filosofía analítica

83

LAS PSEUDOPROPOSICIONES Arturo Espinosa

84

En el libro «La superación de la metafísica por medio del análisis lógico del lenguaje», Carnap nos explica lo siguiente:

para expresar actitudes o sentimientos, este tipo de lenguaje carece de significación cognoscitiva, pero posee significación emotiva.

«En stricto sensu una secuencia de palabras carece de sentido cuando, dentro de un lenguaje específico, no constituye una proposición. Un lenguaje consta de un vocabulario (conjunto de palabras que poseen un significado) y de una sintaxis (reglas para la formación de las proposiciones). Las reglas indican cómo se pueden constituir proposiciones a partir de diversas especies de palabras. De acuerdo a estas reglas podemos clasificar los términos en proposiciones con sentido (designan un concepto, tienen referencia) y pseudoproposiciones (no poseen significado, designan nada).»

Las pseudoproposiciones del punto 2 son enunciados con significado pero con una disposición errónea donde el conjunto carece de sentido:

Con base en esto, podemos distinguir entre dos tipos de pseudoproposiciones: 1. Enunciados con palabras a las equívocamente se les asigna significado.

que

2. Enunciados con palabras que poseen significado pero son antisintácticos. Las proposiciones con sentido tienen una forma proposicional simple, son enunciados del tipo «A es un cuadrado», donde A es una función que puede ser ocupada por una palabra sintáctica (morfemas flexivos).

1. Carnap es y 2. Carnap es un número racional En el primer ejemplo podemos advertir el error sintáctico ya que el lugar del predicado lo ocupa una conjunción. El segundo ejemplo es correcto sintácticamente, pero no es verdadero o falso sino absurdo, ya que 1. «número racional» es un predicado no atribuible a una persona. 2. No puede ser afirmado o negado empíricamente. Con estos ejemplos no es difícil advertir los sinsentidos de algunas afirmaciones metafísicas, como el que proporciona San Anselmo en el tercer capítulo de su «Proslogion ontológico» para probar la existencia de Dios. El escolástico cae en un equívoco al suponer que el verbo «existir» es un predicado de primer orden.

Las pseudoproposiciones del punto 1 son enunciados del tipo «yo existo», se forman cuando se hace un mal uso del verbo «ser», que se puede interpretar como el constituyente de un predicado: «ser riguroso», «ser alegre», etcétera, o como sinónimo de existencia. En esta última acepción distinguimos entre la sintaxis gramatical y la sintaxis lógica. La existencia no es un predicado de primer orden, por lo tanto, formar enunciados con el verbo ser y con pronombres cuyo referente no es fijo, da como resultado la formación de sinsentidos: enunciados que no son significativos y por «significativo» entendemos significado empírico o cognoscitivo. Es preciso empero, advertir que no todo enunciado tiene como función proporcionar conocimiento o describir la realidad empírica, el lenguaje puede ser empleado

85

ARTURO ESPINOSA

Estudió Epistemología en UNAM Universidad Nacional Autónoma de México Studió Filosofía de la ciencia en Universidad del Valle Studió Filosofía en Universidad Nacional Abierta y a Distancia – UNAD Colombia Studió Sociología de la educación en FES Aragón UNAM Administrador de Ex umbra in solem (página de facebook).

86

FUNDAMENTOS CONCEPTUALES DE LA BIOLOGÍA DE LA CULTURA Angelo Fasce

87

Publicado originalmente en la revista : Ludus Vitalis

ABSTRACT. CONCEPTUAL FOUNDATIONS OF CULTURE AS A BIOLOGICAL PHENOMENON In this study, I will develop the theoretical foundations for a conceptual unification of all the fields involved in the understanding of culture as a biological phenomenon. First, I will offer a general model for all types of cultural exchange, located at a purely behavioral level. After that, I will define “human culture” using this model, taking into account the specific neurological features of Homo sapiens. This definition is based on the conceptual framework of internist memetics and on some current developments in neuroscience, among which the so-called “concept neurons” stand out. KEY WORDS. Culture, memetics, cultural evolution, hippocampus, concept neurons.

INTRODUCCIÓN La cultura humana, como la de otros animales, es un fenómeno de origen biológico. Sin embargo, a pesar de su carácter material y de su alta incidencia en otras especies animales, el estudio científico de la cultura ha atravesado un tortuoso camino, con enfoques inciertos, conflictivos y fallidos. Hoy en día, estamos más cerca que nunca de poder abordarla finalmente desde una perspectiva científica, utilizando para ello supuestos teóricos científicamente fructíferos y metodologías experimentales adecuadas, aunque para alcanzar plenamente dicha fase aún queda un considerable trabajo de elucidación conceptual. Es cierto que el término «cultura» es altamente polisémico en su uso habitual (Kroeber y Kluckhohn, 1952), y los primeros estudios del fenómeno no cooperaron en su clarificación. En cambio, lo que prevaleció en este periodo inicial fueron actitudes tanto antipositivistas (Levine, 1971) como radicalmente ambientalistas, por ejemplo,

los casos del historicismo o del sociologismo (González, 1984; Arpini, 1992). Todos estos enfoques tempranos se vieron dominados por varios «ismos», que constituyeron un estudio ideologizado de la cultura humana. Tras este periodo ideologizado, tuvieron lugar tres intentos algo más exitosos. El primero de estos intentos más serios de sistematizar el campo con un modelo general empíricamente contrastable es comúnmente denominado «evolucionismo cultural» (Tylor, 2010; Morgan, 2003). Las dos principales características de estos teóricos fueron tanto el desprenderse del antipositivismo como la adopción de una interpretación basada en una interpretación particular, incorrecta por sus características teleológicas, del algoritmo darwinista. Esta interpretación, muy empleada en el pasado para justificar ultrajes colonialistas en nombre de «quemar etapas» hacia la civilización, ha sido rechazado hoy en día (Lewis, 1973, Pels, 1997; Claeys, 2000). De hecho, ha sido criticado incluso como un ejemplo de pseudociencia (Popper, 1973). El segundo intento es claramente visible en los manifiestos fundacionales de la sociobiología (Wilson, 1975; Dawkins, 1976). El enfoque de Wilson resultó ser un intento frustrado debido a la poca adecuación de su análisis teórico a las particularidades del comportamiento social humano, debido a la presencia de variables culturales en nuestras poblaciones, de dinámicas muy específicas. Su primer acercamiento a la sociobiología humana ha sido descrito como un intento «tosco», incluso por parte de otros partidarios de la sociobiología (Dennett, 1999). También podemos encontrar críticas, más o menos afortunadas, procedentes de antipanadaptacionismo, la antropología cultural e incluso del marxismo (Allen et al, 1975; Lewontin et al., 1996; Sahlins, 1982; Gould y Lewontin, 1979). Sin embargo, su enfoque respecto al comportamiento social humano se ha vuelto cada vez más refinado y atento a la cultura (Wilson, 1979; Lumsden y Wilson, 1981), al adoptar para ello las ideas de Dawkins, quien propuso un marco teórico especial para el análisis de la cultura que denominó «memética»—un marco que será discutido en detalle más adelante.

88

Otro de los principales hitos en el estudio científico de la cultura tuvo lugar a mediados de la década de los ochenta, con la obra de Luigi Luca Cavalli-Sforza. Pese a tener ciertos predecesores y existir otros autores relevantes en la misma línea de trabajo (Campbell, 1965; Simoons, 1969; Richerson y Boyd, 1976), fueron sus complejos modelos matemáticos, desarrollados a fin de servir como base explicativa de la génesis evolutiva del fenómeno de la cultura, los que ocasionaron mayor impacto e influencia (Cavalli-Sforza y Feldman, 1973; 1976; 1981). En su obra se analizan las posibilidades de incremento de eficacia de aquellos individuos capaces aprender habilidades nuevas por medio del aprendizaje cultural, así como la evolución de algunos rasgos culturales sencillos de rastrear, como es el caso de sus afamados trabajos acerca de la historia evolutiva de los idiomas humanos (Cavalli-Sforza, 2000). Sforza desarrolló la teoría coevolutiva gen-cultura (Durham, 1991; McElreath y Henrich, 2007), que establece que la evolución biológica del ser humano experimentó un feedback mutuo con determinados rasgos culturales. Esto explicaría algunas características de interpretación evolutiva compleja presentes en nuestra morfología, como nuestra altísima tasa de encefalización (Reader y Laland, 2002) o nuestra hipertrofia del lenguaje. Hallazgos acontecidos desde hace ya varias décadas han confirmado esta hipótesis, que establece asimismo los mecanismos neuronales que permitirían una mayor complejidad cultural paulatina (Richerson y Boyd, 2000; Feldman, Aoki y Kumm, 1996). Si dejamos de lado otras características que únicamente están presentes en nuestros desarrollos culturales, hay una que resulta clave a fin de comprender por qué nuestras culturas son cualitativamente diferentes a las de otros animales: la evolución puramente cultural (Koerper y Stickel, 1980; Hahn y Bentley, 2003). Nuestro desarrollo cognitivo, impulsado por la búsqueda de una mayor capacidad de imitación que vaya más allá de la emulación (Whiten, et al., 2009), habría alcanzado tal potencia que nuestra habilidad para reproducir rasgos culturales obtendría la capacidad de independizarse de la eficacia genética. Este fenómeno establecería una nueva dinámica, en la que el parámetro principal

que gobernaría la evolución de nuestras culturas ya no sería la selección del fenotipo, sino una mayor eficacia de los rasgos culturales por sí mismos. La teoría coevolutiva gen-cultura, sin embargo, no es capaz de explicar este fenómeno dentro de sus modelos matemáticos, y por ello su poder explicativo para el caso de las culturas humanas se encuentra seriamente limitado. Los estudios contemporáneos acerca de las bases biológicas de la cultura se están fragmentados entre diversos campos científicos, como la etología, la psicología de la cultura o la neurociencia cultural. Esto sucede, a mi juicio, porque todavía no poseemos un marco teórico que nos permita unificarlos a todos, un marco que propicie la idea de que todos estos campos están estudiando el mismo dominio de fenómenos, y que permita a todos los investigadores intercambiar conocimientos entre ellos de forma fluida. Ese es el objetivo principal del modelo interdisciplinar de cultura presentado en este trabajo. Tengo la intención de ofrecer, sobre la base de la neurociencia y de la memética internista, una definición biológica de «cultura humana» para el uso de investigadores de todos los campos involucrados; algo que puede cristalizar en nuevos enfoques experimentales. Este modelo también me permitirá clasificar los diferentes niveles de análisis de la cultura, estableciendo su autonomía y, a la vez, señalando su interdependencia. Para ello necesitaremos, en primer lugar, una definición de «cultura» y de «cultura humana» lo suficientemente amplias para ser inclusivas, y también lo suficientemente concretas como para que puedan integrarse en un modelo propio de la investigación científica y que permitan ordenar los campos actualmente involucrados en el estudio de la cultura, que defina su alcance y que abra nuevas posibilidades de colaboración. En lo que resta de este escrito presentaré un modelo general de comportamiento cultural y un modelo semiempírico para la cultura humana que incluye una definición neurocientífica tentativa de «meme». Espero así sentar las bases de lo que podría ser en el futuro un gran proyecto científico: la biología de la cultura.

89

¿QUÉ ES UNA «CULTURA»? Las definiciones habituales de «cultura» provienen casi todas de la filosofía y la antropología. Muchas de ellas incluyen ideas estimulantes, pero no son científicamente operativas al ser demasiado ambiguas, antropocéntricas o apelar a nociones de extraña naturaleza (Boas, 1930; Goodenough, 1957; Giddens, 1991). Trataré de dar una definición general de cultura que no caiga en el carácter difuso de las que me preceden. Para ello, considero necesario comenzar desde el plano más abstracto de análisis del fenómeno, ofreciendo un modelo general y después concretando qué entiendo por «cultura» en el caso específico del ser humano. Algunas corrientes dentro de la biología evolutiva sostienen la idea de que este es el campo que debería funcionar como puente entre las ciencias naturales y las humanidades (Moya, 2010). Estoy de acuerdo con esta idea en líneas generales, dado que la teoría de la evolución estructura y dota de sentido a toda la biología (Dobzhansky, 1973); sin embargo, no considero que sea la biología evolutiva, directamente, la que pueda servir como base para el estudio sistemático de la cultura. El intercambio cultural es, en última instancia, una actividad específica llevada a cabo por el sistema nervioso, y por ello deberá ser la neurociencia quien sirva de puente entre las ciencias y las humanidades. La cultura ha de ser definida, en última instancia, en términos neuronales, y las explicaciones evolutivas lo serían acerca de la génesis del fenómeno, de sus causas últimas, mas no de su funcionamiento específico. Tras esta reflexión tenemos ya una primera definición abstracta de «cultura» como actividad llevada a cabo por el sistema nervioso. Entonces, ¿de qué actividad estamos hablando exactamente?

90

Aquello que define lo cultural y lo separa de lo innato no tiene relación con la complejidad o la importancia del comportamiento, sino con la forma en la que es adquirido por parte del sujeto. En líneas generales, solemos denominar como «cultura» a todo aquel conjunto de comportamientos aprendidos que comparte un grupo determinado de individuos y se mantiene en el tiempo. El aprendizaje cultural se rige por el modelo general presentado arriba, con versiones más o menos parecidas aunque algo más complejas en, por ejemplo Castlefranci, 2001; Denison y Mishra; 1995, y este algoritmo es independiente de su sustrato de realización. Es decir, puede ser realizado por máquinas, animales no humanos o humanos. Se trata de una manera puramente conductual de identificar el intercambio cultural dentro de una población. Durante largo tiempo se consideró que esta conducta sólo era llevado a cabo por Homo sapiens, y llegó de hecho a ser postulada como la barrera que nos separaba del resto de animales. Sin embargo, los estudios etológicos —cuya pionera es Jane Goodall (1986)— han sacado a relucir el hecho, ya universalmente aceptado, de que los animales presentan aprendizaje cultural. De hecho, el estudio de las culturas animales en simios, delfínidos, elefantes, etc., se ha convertido en uno de los campos más excitantes de la etología (Laland y Bennett, 2009; Whiten, et al., 1999; Wrangham, et al., 1994; Rendell y Whitehead, 2001). Los resultados de las investigaciones son sorprendentes y hacen que la barrera entre ellos y nosotros sea cada vez más borrosa. Este modelo general no tiene implicaciones morfológicas específicas. No es relevante para su realización si es llevado a cabo por un cerebro u otro, o cómo realicen los animales determinado proceso de captación sensorial, o cómo sea el funcionamiento del repositorio de información; lo relevante es que el tipo de interacción social caracterizada por el modelo tenga lugar en un nivel conductual. Sin embargo, esta caracterización es demasiado general para poder servir de marco para el estudio de una cultura específica. Sirve para poder detectar por medio de la observación cuándo se están llevando a cabo interacciones culturales dentro de una población, pero presenta

escaso valor para el estudio de las mismas desde un punto de vista concreto, más allá de proporcionar una guía acerca de los sistemas a los que hemos de prestar atención. Por todo ello, hemos de tener cuidado de separar bien los términos «cultura» y «cultura humana». Las condiciones específicas en las que se desarrollan las culturas dependen en gran medida del hardware en el cual corre el algoritmo. Por ejemplo, un elefante posee una memoria prodigiosa, pero su capacidad para la imitación no puede competir con la de un orangután (Bonner, 1980). En el caso humano, el lenguaje —una habilidad también presente en otros animales, aunque en un grado mucho menor (Cheney y Seyfarth, 1996)— junto a la ya mencionada evolución cultural independiente del genotipo y a nuestra gran capacidad para la imitación, marcan los tres rasgos específicos que caracterizan a nuestras culturas (Boesch y Tomasello, 1999). También es relevante el uso de ficciones en la transmisión cultural humana, algo estrechamente relacionado con nuestra potente memoria conceptual y con el hecho de que nuestra cultura tiene un valor evolutivo de cohesión social y construcción de la identidad individual desde una identidad colectiva (Harari, 2014). La presencia de todos estos rasgos específicos nos ha permitido ocupar en solitario el econicho cultural en el planeta Tierra, al producir, transmitir y optimizar cultura de una forma cuantitativa y cualitativamente sorprendente.

UN MODELO PARA CULTURA HUMANA

LA

Para a definir la cultura humana y elaborar un marco conceptual científicamente aprovechable, será necesario completar el modelo general anterior con las peculiaridades que tienen nuestros intercambios culturales. Para ello, considero que el modelo memético puede ser de inmensa ayuda, siempre y cuando apuntemos sus deficiencias y las subsanemos. La hipótesis memética surge como un intento de explicar el fenómeno de la evolución cultural humana. Las ideas principales de la memética han sido profundamente influyentes, aunque posteriormente el replicador básico se haya ido denominando de diversas formas, tales como «gen cultural» (Lumdsen y

91

Wilson, 1981) o «representación» (Sperber, 1985). Richard Dawkins fue quien formuló inicialmente la hipótesis en los capítulos finales de su obra El gen egoísta, aunque con notables predecesores (Semon, 1921). La memética es una visión influenciada por el evolucionismo cultural, pero en la que se aplica de forma ortodoxa el algoritmo darwinista — un algoritmo que, en principio, puede aplicarse tanto a aminoácidos como a estructuras neuronales (Fernando, Goldstein y Szathmáry, 2010)— y que postula un replicador discreto, análogo al gen — el meme— para el caso de la evolución cultural. Pese a que es cierto que la replicación memética tendría un cierto carácter lamarckista (Kronfeldner, 2007), principalmente debido al hecho de que las características adquiridas se transmiten, la memética no es una teoría evolutiva teleológica. Los memes que ganan son sólo aquellos que han sido más eficaces, y sus mecanismos de selección y mutación son más variados que los genéticos (Claidière, 2014). Meme es, sin duda, el concepto más complejo y difícil de definir de entre los que incluye esa hipótesis (Dawkins, 1993, Blackmore, 1998, Wilkins, 1998). Generalmente se define como una idea capaz de replicarse, que es transferida de un cerebro a otro mediante la expresión conductual y la imitación. Los memes, como lo hacen los genes, también estarían unidos entre sí reforzándose mutuamente en el proceso de replicación, que formarían memes coadaptados o memeplexes (Dennett, 1997; Hokky, 2004), como sería el caso de una religión o de una teoría científica. Las ventajas del enfoque memético son varias. En primer lugar, nos permite unificar bajo un modelo general todos los campos de estudio de las culturas animales —que incluye a las humanidades y a las ciencias sociales (Blute, 2005). Todos ellos estudiarían, en última instancia, casos de replicación de memes. También nos permite mejor comprensión en el estudio de la cognición cultural humana; un conjunto de procesos cognitivos entre los que solemos considerar la percepción, la memoria o el razonamiento lógico. Estos serían, de hecho, procesos cognitivos implicados, pero no serían el proceso cognitivo en contextos culturales. Su actuación conjunta se comprendería mejor bajo el paraguas del metaproceso de replicación memética (McNamara, 2011). A pesar del poder inicial de esta caracterización del ser humano como vector de transmisión de dos procesos evolutivos independientes, la memética ha permanecido estática durante largo tiempo (Atran, 2001; Gatherer, 2002). Varias cuestiones son las culpables de este estancamiento, pero considero que la principal responsabilidad recae sobre el pobre modelo teórico con el que han estado trabajando la mayoría de autores implicados en la hipótesis durante las últimas cuatro décadas (Rose, 1998). El modelo clásico de la memética, o «memética externista», puede ser esbozado de la siguiente manera:

92

Se trata de un modelo que presenta varias deficiencias. En él, se distingue entre i-memes (memes internos) y e-memes (memes externos). Los imemes serían los memes cuando están alojados en los cerebros de los individuos, mientras que los ememes serían el mismo meme cuando está en un soporte externo, en una obra o aparato cultural. En este modelo se asume que los memes, y no sólo el algoritmo que rige su replicación, son completamente neutrales respecto al sustrato físico en el que se realizan, y ello es muy problemático. El problema básico es que se confunden dos estratos diferentes del proceso: las partes implicadas y los procesos que lo caracterizan. El primer problema que podemos notar es lo extraño de la naturaleza de los memes. La misma idea que tenía, en este caso, el chamán que dibujó las pinturas rupestres sería enteramente expresada por las propias pinturas, de modo que resultaría indiferente estudiar al autor o estudiarlas a ellas. Aquí se supone en todo momento que el meme mismo se traduce de forma completa y se aloja en el otro cerebro como si de un parásito se tratara, sólo que en este caso el parásito en sí mismo no tiene ningún tipo de soporte físico. El platonismo no es un mero peligro del modelo, es una parte inevitable del mismo, y eso lo hace inviable para su uso por parte de la ciencia al ser un modelo con elementos centrales de carácter metafísico. Un meme queda definido como un parásito metafísico sin ningún tipo de estatus material. Se trata de un modelo que parte de una exageración de la metáfora meme/gen (Gil-White, 2005). Parte del prescindible compromiso de que hay que encontrar todos los componentes de la replicación genética en la replicación memética, y ahí es donde reside su error más básico (Edmonds, 2005). Que ambos sean replicadores no implica que sus mecanismos de replicación tengan que ser análogos en todos sus detalles. Estos teóricos externistas suponen que no puede existir una pérdida de información en ninguno de los pasos del proceso de replicación, porque en la replicación genética el proceso tiene lugar de este modo, y por ello se postula un proceso tan tremendamente extraño y contraintuitivo como el de la traducción de los imemes a ememes y viceversa. De seguir este modelo, será muy difícil que la memética llegue a asentarse como un campo científico, dado que si los ememes son equivalentes a los imemes, puede continuar sin ningún problema el enfoque actual de las humanidades y ciencias sociales —que, sin embargo, ha demostrado durante siglos ser muy incompleto. La neurociencia o la biología en general tendrían nula utilidad aquí. Contra esto, defenderé el modelo de la memética internista:

El modelo internista de la memética (Delius, 1989; Hull, 2000; Aunger, 2003) prescinde de la distinción entre i-memes y e-memes, así como del pseudoproceso de traducción. Especialmente sofisticadas, sólidas e influyentes en este trabajo son las ideas de Robert Aunger (2003), que ha sido el mayor teórico de la memética internista. Los únicos memes aquí contemplados son ciertas configuraciones específicas de redes neuronales que serían capaces de replicarse de un cerebro a otro de forma funcional.

93

Los memes ya no son neutrales respecto a su sustrato material, sino que son configuraciones cerebrales que mantienen, al menos, ciertos roles funcionales en un conjunto de individuos. Esta idea es capaz de eludir el problema del platonismo, remplazando la traducción de los memes por el uso de simples señales que actúan como catalizadores en otros cerebros a fin de generar réplicas funcionales de los memes. La transcripción genética tiene lugar cuando el ADN eucariota transfiere información al ARNm que, tras cruzar la membrana nuclear, traduce o sintetiza el producto final de la expresión génica, una proteína, usualmente en un ribosoma. Si tenemos en cuenta que los intrones no codifican información, a lo largo del proceso no hay pérdida de esta, dejando a un lado errores que tienden a ser minimizados. El ribosoma, mientras tanto, permanece neutral respecto a la información, sin aportar o eliminar nada de ella, y funciona como un lector pasivo, como una máquina neutral de síntesis de proteínas que opera únicamente de acuerdo con los inputs que recibe. Frente a esto, el proceso de transcripción memética sería muy diferente. Los memes desencadenarían una cascada de procesos nerviosos, que desarrollarían cierto comportamiento en el individuo; una expresión conductual que puede constituir un esfuerzo de persuasión más o menos explícito, pero que supone una drástica pérdida de información y que, por ello, no contiene todas las propiedades y complejidades del meme. Desde este punto de vista, la señal funcionaría como un ARNm defectuoso si no fuera por el cerebro del receptor, donde el meme sería parcialmente reconstruido. A fin de desarrollar esta importante idea, la de la pérdida de información y su posterior reconstrucción, el modelo internista apela a la neurociencia social, a la psicología evolutiva e incluso a la tesis de la pobreza del estímulo (Chomsky, 1988). El modelo externista necesita entender la comunicación como un proceso interpretativo y al cerebro como un órgano social, algo para lo que, además, goza de evidencia a su favor (Mitchell y Heatherton, 2009). Si somos capaces de interpretar memes con éxito

a través de señales incompletas —y usualmente lo hacemos con bastante éxito— sería porque nuestros cerebros comparten el mismo sistema cognitivo y son capaces de empatizar unos con otros, completando los discursos. Otra gran ventaja de la memética internista consiste en centrar la discusión en el descubrimiento de una determinada entidad, el meme, que poseería determinadas características físicas específicas dentro del cerebro humano. El descubrimiento de esta entidad constituiría una revolución comparable a la explicación de la teoría de la evolución en términos genéticos, aunque hasta ahora el modelo es puramente abstracto. Para que funcione como un marco científico, necesitamos profundizar en las dos dimensiones de la cultura: las señales y los memes. En primer lugar, hemos de estudiar los procesos de envío de señales, su funcionamiento y algunas otras posibilidades experimentales disponibles. El hiperescaneo (hyperscanning), por ejemplo, fue propuesto la primera vez por Adam McNamara (2011) para el estudio de los memes, aunque con relativo éxito. La técnica consiste en el uso de más de un EEG o Rmf a fin de medir actividades cerebrales durante contextos de interacción social, a pesar de que nunca ha sido empleada para el estudio de contextos de intercambio cultural. Los experimentos que emplean hiperescaneos pueden valerse tanto de Rmf como de EEG, y consisten en medir la actividad cerebral —ya sea hemodinámica y/o electrodinámica, en cada caso— de los sujetos mientras éstos llevan a cabo interacciones sociales bajo condiciones controladas. Los datos de todos los individuos involucrados son cruzados y comparados y, tras ello, se puede medir, entre otras cosas, la actividad de determinada área cerebral en un momento dado de la interacción o el nivel de sincronización —«hiperconectividad»— o diferenciación de los datos de cada uno de ellos en un momento dado. También se puede medir la ritmicidad que se establece entre los patrones de activación de cada uno de los participantes o, sobreponiendo los datos totales, observar qué áreas han sido las más activas durante todo el proceso. Aunque esta herramienta está empezando a arrojar resultados sorprendentes, tanto por su precisión

94

como por las nuevas situaciones experimentales a las que da lugar (Babiloni y Astolfi, 2014; Montague, et al., 2002; Astolfi, 2010; 2011; Jian, 2012), no puede ser empleada para los fines que MacNamara plantea. La técnica puede servirnos para el estudio de los procesos de generación y recepción de sus señales, mas no para medir los memes en sí mismos. Sólo podemos medir a través del hiperescaneo las consecuencias de los memes, las áreas involucradas en su replicación, lo cual no deja de ser una dimensión muy importante de su estudio. El estudio de las señales de replicación es el estudio de los resultados de las culturas. En este sentido, una buena parte de las humanidades y las ciencias sociales se hacen cargo de ello. La filología, la historia, la sociología, la antropología cultural, la musicología, la arqueología y muchos otros campos centran su estudio en estas señales. El gran proyecto de estudio científico de la cultura, la unificación armoniosa de todas las áreas involucradas, sería ahora posible. Sin embargo, debemos entender que en el estudio del fenómeno hay dos niveles diferentes: En primer lugar, la diferencia entre los estudios de los memes y los estudios de sus señales. Aunque la diferencia teórica es sencilla de establece, la diferencia práctica es borrosa si pensamos en las necesidades teóricas de los campos. Resulta complejo trazar una línea entre el estudio del hardware y los del software si hablamos del sistema nervioso — soy consciente de los problemas de la metáfora cerebro/hardware, principalmente porque el cerebro no es hard, sino plástico, sin embargo, pido cierto principio de caridad en aras de la claridad en este punto.

Estos dos niveles de clasificación pueden clasificarse en cuatro niveles de estudio: (ver anexo 1). Algo muy importante acerca de este esquema es que los niveles no se pueden reducir de arriba abajo. Entre ellos existe una relación de dependencia ontológica, mas no de reductibilidad. Ello es así no sólo por la aparición de propiedades emergentes, sino porque la influencia es también de arriba hacia abajo y porque hay factores más allá del nivel biológico que afectan a las capas superiores. Un ejemplo para ilustrar esta idea es el idioma castellano. La causa última de la existencia del lenguaje es un problema propio de la biología evolutiva, los mecanismos neuronales que emplea el lenguaje los estudian la neurociencia y la psicobiología, pero el castellano ha sufrido un proceso de evolución puramente cultural que implica el mestizaje con otras lenguas, la aparición de modas, de dialectos locales, etc., hechos que no pueden ser reducidos a la biología evolutiva o a la neurociencia. La historia de una cultura depende de sus dinámicas propias, y éstas dependen de la existencia de cerebros capaces de llevarlas a cabo, y la existencia de estos cerebros depende de su proceso de evolución biológica. Pero esta dependencia ontológica no implica necesariamente una pérdida de autonomía entre los niveles; sí implica, en cambio, la necesidad del estudio interdisciplinar del fenómeno cultural.

Existe una distinción adicional, interna a cada una de las esferas de análisis. Cada rama de las humanidades es responsable del estudio de cierto tipo de señales según diferentes enfoques, y lo mismo se aplica a las clasificaciones tradicionales dentro de la biología o la psicología. También hay un nivel metacultural, como la historia u otros campos que estudian las relaciones culturales más allá de su realidad concreta en el La biología evolutiva, por su parte, ofrece una visión que explica el origen evolutivo del fenómeno.

95

UNA DEFINICIÓN DE «CULTURA HUMANA» PARA LA NEUROCIENCIA CULTURAL La neurociencia cultural (Hames y Friske, 2010; Han, 2015) es un campo híbrido entre la neurociencia cognitiva, social y afectiva que explica la relación entre el sistema nervioso central y la cultura. En este sentido, se hace responsable de responder a dos cuestiones principales. En primer lugar, a cómo un sistema nervioso, o un conjunto de ellos, puede dar lugar a rasgos culturales. En segundo lugar, a cómo la cultura en la que el individuo está inmerso es capaz de afectar al desarrollo y a la configuración adulta del cerebro. Es decir, hasta qué punto las características neuronales de dos individuos varían debido a sus entornos culturales. La relación de este campo con la psicología cultural es muy estrecha, pues son dos estudios equivalentes en su dominio, aunque divergentes en su nivel de abstracción. La neurociencia cultural se centra en el estudio de los mecanismos neuronales subyacentes, mientras la psicología se centra en la conducta observable; una relación clásica entre ambas disciplinas. Mientras la primera de estas preguntas permanece casi inédita respecto a su estudio, la segunda ha sido profusamente investigada y tenemos evidencias sólidas de que la exposición cultural afecta de gran manera a la estructura del cerebro y a su funcionalidad. Por ejemplo, con relación a la percepción y la extracción de información (Jian y Lujia, 2011), a la respuesta emocional (Chiao, et al., 2008), a las áreas lingüísticas (Paulesu, et al., 2000), a la empatía (Cheong, et al., 2010) o a la autopercepción y autoconsciencia (Freeman, et al., 2009). Estos conjuntos de resultados tienen implicaciones directas en cuestiones tan importantes como la posibilidad de adaptar los tratamientos psiquiátricos a contextos culturales específicos (Choudhury, 2009). La principal razón por la que la neurociencia cultural ha hipertrofiado su atención en esta segunda

cuestión, desde mi punto de vista, reside en que el modelo general utilizado en neurociencia permite la investigación empírica de estas características únicamente si las diferencias culturales son muy intuitivas y obvias, pero no facilita la investigación acerca de la generación y el cambio de rasgos culturales, principalmente porque no tenemos una definición biológica de «rasgo cultural» o «meme», y sin una definición adecuada es imposible comenzar a hacer ciencia. Si no poseemos una definición exacta de lo que constituye una cultura, cuando hablamos de ello en ámbitos neurocientíficos (Martínez, 2012), seremos incapaces de tratar a los rasgos culturales como entidades biológicas. La información entra en el cerebro a través de los sentidos y es sometida a un proceso de recursión gradual, que hace cada vez más pequeñas las parcelas del cerebro necesarias para representar la información. Este proceso está presente y bien estudiado, por ejemplo, en las diferentes capas de la corteza visual, donde está mediado por la creciente complejidad de los inputs necesarios para generar la activación de neuronas en los estratos superiores del sistema de procesamiento (Hubel, 1995). Parece claro que este proceso de codificación debería necesitar de cierta estabilidad en las conexiones neuronales: éstas necesitan mantener cierto orden estructural y funcional. Esta idea sería la más favorable a la búsqueda de los memes, dado que si éstos fluctuaran constantemente sería casi imposible hallar las redes neuronales específicas que los configuran. Afortunadamente para nuestros propósitos, este modelo de estabilidad está ampliamente confirmado respecto a la información sensible, especialmente respecto al reconocimiento de objetos en el lóbulo temporal (Eichenbaum, et al., 2007). ¿Qué podemos esperar entonces de la información abstracta? Los memes, como redes neuronales, serían conceptos abstractos asociados a información sensorial almacenada en el cerebro. ¿También mantendrán el orden estructural o podemos esperar un pandemónium altamente volátil de información?

96

La respuesta a esta interrogante también parece estar a nuestro alcance. Quian Quiroga, junto con su grupo de investigación, fue responsable de analizar a una serie de pacientes epilépticos empleando electrodos preoperatorios ubicados en el hipocampo, la corteza entorrinal, la amígdala y el giro parahipocampal (Quiroga, 2005; 2009a; 2009b). Estos electrodos permiten un análisis extremadamente detallado, incluso capaz de recoger información de una única neurona. El experimento consistió en recoger los patrones de disparo de unidades específicas ante estímulos visuales, y los resultados fueron sorprendentes cuando se observó que varias neuronas dispararon únicamente ante ciertos estímulos y no ante otros, y todos estos estímulos tenían relación conceptual y no de mero parecido físico. A estas neuronas del lóbulo temporal con un comportamiento tan llamativo las denomino «neuronas concepto» (Quiroga, 2012). Especialmente llamativos fueron los casos de, entre otros, una neurona del hipocampo posterior izquierdo de un sujeto que disparaba únicamente ante la imagen de la actriz Jennifer Aniston. Lo más llamativo es que lo hacía sólo ante imágenes de la actriz estando sola, pero no ante imágenes de ella con su expareja, Brad Pitt. Este resultado parece indicar que ambos conceptos se mantenían codificados en ese cerebro empleando distintas redes neuronales. Otro caso llamativo fue el de una neurona del hipocampo anterior derecho que disparaba únicamente en presencia de fotografías de Halle Berry. Lo sorprendente es que esta neurona disparaba tanto ante fotos de la actriz, dibujos de ella, fotos de Catwoman únicamente cuando era ella la que interpretaba al personaje, e incluso ante su nombre escrito. Esta relación entre el nombre escrito, los dibujos y Halle Berry disfrazada de Catwoman permite deducir que lo que se había codificado a través de la activación de la red que incluía a dicha neurona era un concepto abstracto, en lugar de un determinado patrón estereotipado de activación de la corteza visual. Otro caso especialmente interesante fue el de la ópera de Sidney. Un grupo de neuronas del hipocampo anterior izquierdo de un sujeto disparaban ante este estímulo, y también lo hacían

ante la imagen de la Casa de Adoración Bahá’í (Templo del Loto), ubicada en Nueva Delhi. Sin embargo, únicamente se comportaban de ese modo cuando el individuo confundía ambos edificios dado que las dos estructuras comparten una serie de características arquitectónicas. Nuevamente aparece la codificación de un concepto abstracto, ahora vinculado a una creencia, y no el mero disparo del conjunto de neuronas dependiendo de la forma del estímulo visual. Lo valioso de estos resultados es el haber podido observar en humanos lo que ya había sido observado en otras especies de laboratorio, y que además, permite deslizar la interpretación de estos sugerentes descubrimientos hacia el pensamiento abstracto, las creencias y la conciencia en nuestra especie (Quiroga, et al., 2009). Considero, sin embargo, que la interpretación de estos hallazgos no ha sido lo suficientemente sofisticada. Esta situación puede deberse en parte a la necesidad de un punto de vista más general, pues a fin de comprender mejor estas neuronas concepto necesitamos entender el sistema al que pertenecen. En esta última sección intentaré remediar esta situación, al relacionar tales neuronas con lo que se ha venido denominando de forma abstracta «meme». Con el descubrimiento de las neuronas conceptuales hemos tocado los memes —por supuesto, no son memes por sí mismas, pero pertenecerían a su estructura. Estas entidades se alojarían, al menos parcialmente, en el hipocampo, una estructura cuya función sería ser la base misma de la cultura humana. Considero con ello que estas neuronas conceptuales tienen el potencial de explicar la naturaleza de las culturas humanas. Por un lado, las neuronas concepto permanecen estables a lo largo del tiempo en el lóbulo temporal: sus patrones de disparo son los mismos incluso si pasan días entre sesiones. Por otro lado, sabemos que el hipocampo funciona como un centro de búsqueda, un índice central de memorias conceptualmente asociadas a la activación de ciertas redes específicas, o memes, alojadas en él. Lo que sucede en el hipocampo, en última instancia, es la organización de la memoria episódica. Por ejemplo, si escuchas

97

una canción, lo primero que reconocerás será la melodía y luego la letra. En este caso, el catalizador será una señal auditiva. La letra y la melodía serán procesadas por diferentes partes del cerebro y luego procesadas por el hipocampo, donde activarán el meme de la canción y los inputs se asociarán a otros recuerdos relativos a la canción —por ejemplo, la portada del disco, la biografía de la banda, la historia de la canción o la información emocional asociada a ella por medio de la activación de la amígdala (Phelps, 2005). Supongamos que alguien tiene alojada una red neuronal en el hipocampo que organiza una serie de recuerdos que constituyen los pasos necesarios a fin de cambiar el neumático de un coche. Esta persona, entonces, decide enseñar a otra cómo hacerlo, y para ello elige una metodología práctica. Cambia un neumático delante de un estudiante, y esta acción será la señal catalítica para la réplica mientras el estudiante observa y aprende a hacerlo. El proceso de envío de señales está estrechamente relacionado con la corteza prefrontal, donde tiene lugar las funciones ejecutivas y la toma de decisiones (Miller, Freedman y Wallis, 2002; Ralph, 2003). Es mediada por la corteza motora, los ganglios basales, el cerebelo, el sistema vestibular, el sistema nervioso autónomo, etc. (Shadmer y Kraukauer, 2009; Rosenbaum, 1991), esto es, todas las regiones involucradas en la ejecución motora junto con el área de Broca y el aparato fonador, en el caso de memes lingüísticos tales como historias, recetas, y demás. Se trata un proceso altamente complejo, que involucra varias áreas del cerebro que actúan juntas para, finalmente, obtener una expresión válida del meme que sirva como una buena señal una expresión que permita enviar una señal que contenga suficiente información para una correcta interpretación por parte de otros sistemas nerviosos.

etc. También hay procesos relevantes de empatía emocional (Shamay-Tsoory, 2009) que participan activamente en el proceso el sistema de neuronas espejo (Rizzolatti, 2005; Iacoboni, Kaplan y Wilson, 2007; Pfeifer y Dapretto, 2009), las áreas de comprensión lingüística (Hagoort, Baggio y Willems, 2009) y todas las áreas involucradas en lo que se denomina «teoría de la mente» (Iacoboni, 2005; Gallese, 2009; Decety y Chaminade, 2009). A fin de dotar de sentido a toda esta información, serán necesarios los procesos que unifican lo que otras áreas han procesado en paralelo, como las cortezas de asociación y, especialmente, los procesos relacionados con el razonamiento lógico y la conciencia (Koch, 2009). Estos dos procesos son especialmente relevantes, dado que el razonamiento lógico nos permite evaluar y deducir el significado de la acción del otro, y la conciencia crea una narrativa personal, haciéndonos capaces de diferenciar entre los rasgos culturales propios a adquirir y los que no lo son (Carpenter y Call, 2007). Si el estudiante necesitara cambiar un neumático en el futuro, procesará los correspondientes inputs que activarán el meme desarrollado durante su interacción pedagógica con el profesor, que es una réplica funcional de una calidad variable de la que tenía aquel que le aleccionó en la acción. Este meme solicitará diferentes recuerdos a los diversos repositorios de memorias e iniciará el proceso de activación motora, el cual, a su vez, puede funcionar como una señal de replicación si alguien estuviera observando sus acciones. Todas las áreas involucradas en la regulación del proceso motor después de la activación del meme basarán sus acciones en los recuerdos asociados a él, pero el meme será la piedra angular para coordinar y replicar todo el aprendizaje cultural, y sin su presencia la cultura humana no se vería meramente afectada, sino que no sería posible.

La interpretación del estudiante necesita, por su parte, articular todos estos inputs, introduciendo un significado e interpretando los datos implícitos. Involucra a los sentidos, tanto externos como propioceptivos, y a partes específicas de la corteza que son responsables del procesamiento de la información que éstos envían al cerebro como la corteza visual, la auditiva, la somatosensorial,

98

Una «cultura humana» se definiría entonces como un conjunto de memes alojados, al menos parcialmente, en el hipocampo humano, cuya activación conduce a ciertas manifestaciones conductuales mantenidas en el tiempo por un conjunto de individuos. No es necesario definir exactamente los límites de un meme particular, dado que aunque en un nivel práctico suele ser sencillo hacerlo, en un nivel formal puede ser problemático y una carga para la investigación. Esta situación, por cierto, no es ajena a otras áreas de la biología, como ocurre en genética con «gen» (Dietrich, 2000) o en taxonomía con «especie» (Wilkins, 2006; Stamos, 2003). Dos personas compartirían el mismo rasgo cultural cuando tienen una red neuronal específica que se activa de un modo funcionalmente análogo, mas no cuando se comportan de manera similar. Sin embargo, como cualquier modelo o definición, éste también ha de enfrentar algunas dificultades. La más importante de ellas, al menos hasta donde alcanzo de observar, viene de la mano del caso de H. M., quizás el individuo que más ha contribuido al estudio de la memoria a lo largo de la historia de la neurociencia. Este paciente no era capaz de desarrollar nuevos recuerdos episódicos a largo plazo, al sufrir de amnesia anterógrada tras ser sometido a una hipocampectomia —le fueron removidos el hipocampo, la amígdala y el giro hipocampal tras de una cirugía extrema pero necesaria dado su cuadro. Aun así, Henry Molaison pudo continuar utilizando con normalidad su memoria de trabajo y la procedimental (Corkin, 1984), tipos de memoria que ahora sabemos que funcionan de forma autónoma al hipocampo. Lo relevante de su caso como dificultad del modelo consiste en que, además de la amnesia anterógrada, Henry también desarrolló una retrógrada, pero sólo con relación a acontecimientos ocurridos en los once años inmediatamente anteriores a la intervención. Henry era incapaz tanto de incorporar a su acervo cultural nuevos memes como de transmitir con éxito sus nuevas habilidades manuales al no tener un contexto adecuado para ello. Su caso representa, es importante resaltarlo, una excelente evidencia acerca de cuán apropiado resulta considerar al hipocampo como la base de la cultura humana, como el alojamiento de nuestros replicadores culturales. Sin embargo, hay una cuestión en su condición clínica que supone un problema que el modelo no puede enfrentar si sostiene que los memes se alojan indefinidamente en esta estructura del cerebro: Henry era capaz de recordar los acontecimientos de su infancia y los rasgos culturales que le fueron inculcados en un periodo superior a los once años anteriores a la operación. Esto sugiere que el alojamiento de los memes estaría mediado por el tiempo transcurrido después de su replicación en el cerebro que los alberga. Los memes mayores de once años de Henry resultaron seriamente dañados tras la operación, pero parece ser que el resto de su patrimonio cultural había sido ya trasladado a otra región de su cerebro. El reto que supone esta información es relevante para el poder explicativo del modelo y deberá ser afrontado, al igual que otros retos similares, de cara a refinarlo cada vez más. En este caso, parece necesario incluir un matiz en él, uno que indique que los memes estarían alojados, al menos en un principio, parcialmente en el hipocampo, pero que pueden ser trasladados a otro lugar tras ciertos procesos que aún desconocemos.

99

A pesar de lo relevantes que resultan los resultados de Quiroga, lo cierto es que la técnica que emplea para investigar los memes tiene, al día de hoy, pocas posibilidades de llevarnos mucho más lejos. El problema principal, además de su naturaleza invasiva y de las limitaciones éticas que se derivan de ella, es el poco tiempo disponible para experimentar con los sujetos. Parece necesario desarrollar modelos animales óptimos que nos permitan avanzar en este sentido. La técnica empleada por Quiroga podría ser perfectamente adecuada para su uso en modelos animales y, de hecho, ya se utiliza regularmente, aunque en contextos experimentales algo diferentes, como la estimulación cerebral profunda. La existencia de conceptos en animales, incluso en algunos tan poco atractivos en términos de capacidad cognitiva como las palomas, ha sido probada en numerosas ocasiones (Siegel y Honig, 1970, Herrnstein, 1976). El posible desarrollo de estos modelos animales es una cuestión de gran relevancia a fin de aclarar los mecanismos empleados por otros animales para la generación y almacenamiento de conceptos son análogos o parcialmente análogos a los nuestros. Es decir, para aclarar hasta qué punto los resultados de la experimentación animal podría ser extrapolados al caso humano. Una vez descritas, si es que alguna vez son descritas, las redes neuronales que constituyen los memes, las nuevas opciones para la experimentación serán realmente emocionantes: investigaciones relacionadas con la transformación y la mutación de los memes, con la persistencia de algunos de ellos, con la fiabilidad de sus copias en determinados contextos o con la relación que establecen entre ellos dentro del cerebro.

COMENTARIOS FINALES La neurociencia es una ciencia joven que vive una explosión de resultados y progreso, pero la experiencia histórica nos enseña que esta situación no se sostiene infinitamente en el tiempo. Los horizontes abiertos por modelos teóricos novedosos sirven para inyectar oxígeno en los campos y enriquecerlo con nuevas posibilidades experimentales y herramientas conceptuales

que ensanchan la interpretación de resultados. En este sentido, el de abrir nuevas fronteras y posibilidades experimentales, el modelo general aquí propuesto funciona, inicialmente, bastante bien. Se trata de un modelo coherente, tanto internamente como con relación a la evidencia disponible. Como cualquier otro modelo, puede mejorarse a la luz de nuevas evidencias y de nuevas contribuciones teóricas. Considero que su principal valor reside en el hecho de haber sido construido utilizando dos perspectivas diferentes aunque complementarias. Por un lado, la perspectiva que va desde arriba hacia abajo. Esta visión es claramente normativa y se basa en un razonamiento a priori, con entidades teóricas confirmables postuladas sin que dispongan de apoyo evidencial, o disponiendo de un apoyo evidencial muy limitado. Este es el caso de entidades como los memes. Por otro lado, la perspectiva ascendente ha dominado la construcción del modelo, alineando sus conceptos con los avances de la neurociencia y con la evidencia disponible en otros campos. El estudio de la cultura debe ocupar el lugar central que merece dentro de la ciencia, dado que durante muchos años estos estudios han quedado en manos de metodologías carentes de fiabilidad. Las humanidades y las ciencias sociales son áreas de conocimiento de extrema importancia que definen gran parte de lo que somos como especie (Richerson y Boyd, 2001), con campos que tratan temas especialmente sensibles como la economía, la política o la historia. Es muy importante que la humanidad se mueva hacia una tercera cultura (Snow, 1959), que evite la actual polarización entre las dos comunidades de investigadores, y que además esta tercera cultura sea necesaria, según establece el modelo presentado, para investigar el fenómeno cultural. La responsabilidad de esta necesaria síntesis recaería en la neurociencia, aunque respetando la autonomía de otros campos implicados. La definición ofrecida en estas páginas de ‘meme’—en la línea de los desarrollos de la memética internista, pero concretada aquí con relación a los hallazgos de la neurociencia— como una red neuronal específica y estable ubicada, al menos parcialmente, en el hipocampo, que

100

funciona como un replicador cultural básico con memorias asociadas distribuidas en diversos repositorios, resulta muy prometedora. Será tarea de los científicos experimentales emprender el esfuerzo de comprobar la validez de la hipótesis, algo que, ojalá, pueda suceder en el futuro. Publicado originalmente en Revista Ludus vitalis

Referencias: Allen E., et al. (1975), “Against sociobiology,” New York Review of Books 22: 184186. Arpini A. (1992), “Desarrollo y crisis del historicismo como metodología para nuestra historia de las ideas;” Cuyo: Anuario de Filosofía Argentina y Americana 8: 179-202. Astolfi L., et al. (2010), “Neuroelectrical hyperscanning measures simultaneous brain activity in humans”, Brain Topogr. 23: 243-256.––– (2011), “Imaging the social brain by simultaneous hyperscanning duringsubject interaction,” IEEE Intell. Syst. 26: 3845. Atran S. (2001), “The trouble with memes: Inference versus imitation in cultural creation,” Human Nature 12: 351-381. Aunger R. (2003) El meme eléctrico. Barcelona: Paidós. Babiloni F., Astolfi, L. (2014), “Social neuroscience and hyperscanning techniques: Past, present and future”, Neurosci. Biobehav. Rev. 44: 76-93. Blackmore, S. (1998), “Imitation and the definition of a meme”, Journal of Memetics Evolutionary Models of Information Transmission. Blute, M. (2005), “Memetics and evolutionary social science”, Journal of Memetics Evolutionary Models of Information Transmission Boas F. (1930), “Anthropology”. In: Encyclopedia of the Social Sciences vol. 2. New York: Macmillan. Boesch C., Tomasello M. (1998), “Chimpanzee and human cultures”, Current Anthropology 39: 591. Bonner T. (1980), The Evolution of Culture

101

in Animals. Princeton: Princeton University Press. Campbell D. (1965), “Variation and selective retention in socio-cultural evolution”. In: Barringer H., Blanksten G., Mack R (eds.) Social Change in Developing Areas: A Reinterpretation of Evolutionary Theory. Cambridge: Schenkman Publishing Company. Carpenter M., Call J. (2014), “The question of ‘what to imitate’: Inferring goals and intentions from demonstrations”. In: Nehaniv C., Dautenhahn K. (eds.) Imitation And Social Learning In Robots, Humans And Animals. New York: Cambridge University Press. Castlefranci C. (2001), “Towards a cognitive memetics: socio-cognitive mechanisms for memes selection and spreading”, Journal of Memetics Evolutionary Models of Information Transmission 5. Cavalli-Sforza L. (2000), Genes, Peoples, and Languages. New York: North Point Press. Cavalli-Sforza L., Feldman M. (1973), “Cultural versus biological inheritance: phenotypic transmission from parent to children (a theory of the effect of parental phenotypes on children’s phenotype)”, Am. J. Hum. Genet. 25: 618– 637. ––– (1976), “Cultural and biological evolutionary processes, selection for a trait under complex transmission”, Theoretical Population Biology 9: 23859. ––– (1981), Cultural Transmission and Evolution: A Quantitative Approach. Princeton: Princeton University Press. Cheney D., Seyfarth R. (1996), “Primate communication and human language: continuities and discontinuities”. In: Kappeler P., Silk J. (eds.) Mind the Gap: Continuities and Discontinuities

in the Behavior of Nonhuman and Human Primates. Cambridge: Harvard University Press. Cheong B., Mathur V., Chiao J. (2010), “Empathy as cultural process: Insights from the cultural neuroscience of empathy”, WCPRR summer: 32-42. Chiao J. (2008), “Cultural specificity in amygdala response to fear faces”, Journal of Cognitive Neuroscience 20(12): 2167-2174. Chomsky N. (1988), Language and Problems of Knowledge. Cambridge: MIT Press. Choudhury S., Kirmayer L. (2009), “Cultural neuroscience and psychopathology: Prospects for cultural psychiatry”, Progress in Brain Research 178: 263-283. Claidière N., Scott-Phillips T., Sperber D. (2014), “How Darwinian is cultural evolution?”, Phil. Trans. R. Soc. 369: 201368. Claeys G. (2000), “The ‘survival of the fittest’ and the origins of social Darwinism”, Journal of the History of Ideas 61: 223240. Corkin S. (1984), “Lasting consequences of bilateral medial temporal lobectomy: Clinical course and experimental findings”, H.M. Seminars in Neurology 4: 249-259. Dawkins R. (1976), The Selfish Gene. Oxford: Oxford University Press. (1993), “Viruses of the mind”. In: Dahlbom B. (ed.) Dennett and his Critics: Demystifying Mind. Oxford: Blackwell. Decety J., Chaminade T. (2005), “The neurophysiology of imitation and intersubjectivity”. In: Hurley S., Chater N. (eds.) Perspectives On Imitation From Neuroscience To Social Science Vol. 1. Cambridge: The MIT Press. Delius J. (1989), “On mind memes and brain

102

bugs, a natural history of culture”. In: Koch W (ed.) The Nature of Culture. Bochum: Bochum Publications. Denison D., Aneil K. (1995), “Toward a theory of organizational culture and effectiveness”, Organization Science 6: 204-223. Dennett D. (1997), “What evolutionary good is God?”, The Sciences 37: 39-44. ––– (1999), La peligrosa idea de Darwin: evolución y significados de la vida. Barcelona: Galaxia Gutenberg. Dietrich M. (2000), “The problem of the gene”, C. R. Acad. Sci. III. 323(12): 1139-46. Dobzhansky T. (1973), “Nothing in biology makes sense except in the light of evolution”, American Biology Teacher 35(3): 125–129. Durham W. (1991), Coevolution: Genes, Culture and Human Diversity. Stanford (CA): Stanford University Press. Edmonds B (2005), “The revealed poverty of the gene-meme analogy—why memetics per se has failed to produce substantive results”, Journal of MemeticsEvolutionary Models of Information Transmission Eichenbaum H., et al (2007), “The medial temporal lobe and recognition memory”, Annu. Rev. Neurosci. 30: 123-152. Feldman M., Aoki K., Kumm J. (1996), “Individual and social learning: evolutionary analysis in a fluctuating environment”, Anthropol. Sci. 104: 209-232.

perception”, Progress in Brain Research 178: 191-201. Gallese V. (2005) “Being like me: self– other identity, mirror neurons, and empathy”. In: Hurley S., Chater N. (eds.), Perspectives On Imitation. From Neuroscience To Social Science Vol. 1. Cambridge: The MIT Press. Gatherer D. (2002), “Why the thought contagion metaphor is retarding the progress of memetics”, Journal of Memetics Evolutionary Models of Information Transmission 2. Giddens A. (1991), Sociología. Madrid: Alianza Editorial. Gil-White F. (2005), “Common misunderstandings of memes (and genes): the promise and the limits of the genetic analogy to cultural transmission processes”. In: Hurley S., Chater N. (eds) Perspectives On ImitationFrom Neuroscience To Social Science Vol. 2. Cambridge: The MIT Press. González W. (1984), “La interpretacion historicista de las ciencias sociales”, Anales de Filosofia 2: 109-37. Goodall J. (1986), The Chimpanzees of Gombe: Patterns of Behavior. Boston: Bellknap Press of the Harvard University Press. Goodenough W. (1957), “Cultural anthropology and linguistics”. In: Garvin P. (ed.) Report of the Seventh Annual Round Table Meeting on Linguistics and Language Study. Washington: Georgetown University.

Fernando C., Goldstein R., Szathmáry E. (2010), “The neuronal replicator hypothesis”, Neural Computation 22(11): 2809-2857.

Gould S., Lewontin R. (1979,) “The spandrels of San Marco and the Panglossian paradigm: a critique of the adaptationist programme”, Proc. R. Soc. Lond. B. Biol. 205: 581 -598.

Freeman J., Rule N., Ambady N. (2009), “The cultural neuroscience of person

Hagoort P., Baggio G., Willems R. (2009), “Semantic unification”. In: Gazzaniga,

103

(ed.) The Cognitive Neurosciences. Cambridge: MIT University Press. Hahn M., Bentley R. (2003), “Cultural transmission and genetic drift: A case study using baby names”, Proceedings of the Royal Society B. 270: S1-S4. Hames D., Friske S. (2010), “Cultural neuroscience”, Asian Journal of Social Psychology 13: 72-82. Han S. (2015), “Understanding cultural differences in human behavior: a cultural neuroscience approach”, Current Opinion in Behavioral Sciences 3: 68-72. Harari Y. (2014), Sapiens: A Brief History of Humankind. London: Harvill Secker. Herrnstein R., Loveland D., Cable D. (1976), “Natural concepts in pigeons”, J. Exp. Psychol. Anim. Behav. Process. 4: 285-302. Iacoboni M. (2005), “Understanding others: imitation, language, and empathy”, In: Hurley S., Chater N. (eds.), Perspectives on ImitationFrom Neuroscience to Social Science Vol. 1. Cambridge: The MIT Press. Iacoboni M., Kaplan J., Wilson S. (2014), “A neural architecture for imitation and intentional relations”. In: Nehaniv L., Dautenhahn K. (eds.), Imitation and Social Learning in Robots, Humans and Animals. New York: Cambridge University Press. Jian J., et al. (2012), “Neural synchronization during face-to-face communication”. J. Neurosci. 7(32): 16064-9. Jian L., Lujia G. (2011,), “Cultural influence on human perception and its neural mechanisms: evidence from cultural neuroscience”, Journal of Shandong Normal University (Humanities and Social Sciences) 05: 127-133. McElreath, R., Henrich J. (2007), “Dual

inheritance theory: The evolution of human cultural capacities and cultural evolution”. In: Barrett L., Dunbar R. (eds.), Oxford Handbook of Evolutionary Psychology. Oxford: Oxford University Press. Montague M., et al. (2002), “Hyperscanning: simultaneous fMRI during linked social interactions”, Neuroimage 16: 1159-64. Hokky, S. (2004,), “On selfish memes: culture as complex adaptive system”, Social Complexity 2(1): 20-32. Hubel, D. (1995), Eye, Brain, and Vision. New York: Henry Holt and Company. Hull, D. (2000), “Taking memetics seriously”. In: Aunger R (ed.), Darwinizing Culture. Oxford: OUP. Koch, C. (2009), “The neurobiology of consciousness”. In: Ganzzaniga M. (ed.) The Cognitive Neurosciences. Cambridge: MIT University Press. Koerper, H., Stickel, E. (1980), “Cultural drift: A primary process of culture change,” Journal of Anthropological Research 36: 463-469. Kroeber L., Kluckhohn C. (1952) Culture: A Critical Review of Concepts and Definitions. Harvard University: Papers of the Peabody Museum. Kronfeldner M. (2007) “Is cultural evolution Lamarckian?”, Biology & Philosophy 22: 493-512. Laland K., Bennett G. (2009) The Question of Animal Culture. Cambridge: Harvard UP. Levine D. (1971), Simmel: On Individuality and Social Forms. Chicago: Chicago University Press. Lewis D. (1973), “Anthropology and Colonialism”, Current Anthropology 14. Lewontin R., Rose S., Kamin L. (1996), No está en los genes. Barcelona: Crítica.

104

Lumdsen C., Wilson E.O. (1981), Genes, Mind, and Culture: The Coevolutionary Process. Cambridge: Harvard University Press. Martínez M., et al. (2012), “Concerns about cultural neurosciences: A critical analysis”, Neuroscience & Biobehavioral Reviews 36(1): 152-161. Mcnamara A. (2011), “Can we measure memes?”, Front. Evol. Neurosci. 3. Mitchell J., Heatherton T. (2009) “Components of a social brain”. In: Gazzaniga 1 (ed.) The Cognitive Neurosciences. Cambridge: MIT University Press. Morgan L. (2002), Ancient Society of Research in the Lines of Human Progress from Savagery through Barbarium to Civilization. Tucson: University of Arizona Press. Miller R., Feedman

of Empathy. Cambridge: MIT University Press. Phelps E. (2005), “The interaction of emotion and cognition: the relation between the human amygdala and cognitive awareness”. In: Hassin R., Uleman J., Barg J. (eds), The New Unconscious. New York: Oxford University Press. Popper K. (1973), La miseria del historicismo. Madrid: Taurus. Quiroga Q. (2005), “Invariant visual representation by single neurons in the human brain”, Nature 435: 1102-7. ––– (2009a), “Single-neuron recordings in epileptic patients”, ACNR 9: 8-10. ––– (2009b), “Explicit encoding of multimodal percepts by single neurons in the human brain”, Current Biology 19: 1308-1313.

D.,Wallis J. (2002), “The prefrontal cortex: Categories, concepts and cognition”, Philos. Trans. R. Soc. Lond. B. Biol. Sci. 357: 1123-1136.

––– (2012,) “Concept cells: the building blocks of declarative memory functions”, Nature Reviews Neuroscience 13: 587– 597.

Moya A. (2010), Evolución: puente entre las dos culturas. Pamplona: Laetoli.Park S., Nguyen A, Aryan H (2007), “Evolution of the human brain: Changing brain size and the fossil record”, Neurosurgery 60: 555-562.

Quiroga Q., et al. (2009), “Human singleneuron responses at the threshold of conscious recognition”, PNAS 105: 3599-3604.

Paulesu E., et al (2000), “A cultural effect on brain function”, Nature Neuroscience 3: 91-96. Pels P. (1997), “The anthropology of Colonialism: Culture, history, and the emergence of Western governmentality”, Annual Review of Anthropology 26: 163-183. Pfeifer J., Dapretto M, (2009), “Mirror, mirror, in my mind: empathy, interpersonal competence, and the mirror neuron system”. In: Dacety J., Ickes W. (eds) The Social Neuroscience

Ralph A. (2003), “Cognitive neuroscience of human social behaviour”, Nature Reviews 4: 166-178. Reader S., Laland, K. (2002), “Social intelligence, innovation, and enhanced brainsize in primates”, Proc. Natl. Acad. Sci. USA 994: 436-441. Rendell L., Whitehead H. (2001), “Culture in whales and dolphins”, The Behavioral and Brain Sciences 24: 309-24 Richerson P., Boyd R. (1976), “A simple dual inheritance model of the conflict between social and biological evolution”, Zygon 11: 254-262.

105

––– (2000), “Climate, culture, and the evolution of cognition”. In: Heyes C., Huber L. (eds.) The Evolution of Cognition. Massachusetts: MIT Press ––– (2001), “Culture is part of human biology: Why the superorganic concept serves the human sciences badly”. In: Maasen S., Winterhagen M. (eds.) Science Studies: Probing the Dynamics of Scientific Knowledge. Bielefeld: Verlag. Rizzolatti G. (2005), “The mirror neuron system and imitation”. In: Herley S., Chater N. (eds.) Perspectives on Imitation—From Neuroscience to Social Science Vol. 1. Cambridge: The MIT Press. Rose N. (1998), “Controversies in meme theory”, Journal of Memetics Evolutionary Models of Information Transmission 2. Rosenbaum D. (1991), Human Motor Control. San Diego: Academic Press. Sahlins M. (1982), Uso y abuso de la biología. Madrid: Siglo XXI Editores. Semon R. (1921), The Mneme. London: George Allen & Unwin. Shadmer R., Kraukauer J. (2009), “Computational neuroanatomy of voluntary motor control”. In: Gazzaniga M. (ed.) The Cognitive Neurosciences. Cambridge: MIT University Press. Shamay-Tsoory S. (2009), “Empathic processing: its cognitive and affective dimensions and neuroanatomical basis”. In: Dacety J., Ickes W. (eds.) The Social Neuroscience of Empathy. Cambridge: MIT University Press.

interrelations: I”. Review of the Medical Research. The American Journal of Digestive Diseases 14: 819-836. Snow C. (2001), The Two Cultures. London: Cambridge University Press. Sperber D. (1985), “Anthropology and psychology: Towards an epidemiology of representations”, Man 20(1): 73-89. Stamos D. (2003), The Species Problem: Biological Species, Ontology, and The Metaphysics of Biology. Lanham: Lexington Books. Tylor E. (2010), Primitive Culture. Cambridge: Cambridge University Press. Whiten A., McGuigan N., Marshall-Pescini S, Hopper L. (2009), “Emulation, imitation, over-imitation and the scope of culture for child and chimpanzee”, Philosophical Transactions of the Royal Society B 364: 2417–2428. Whiten A., Goodall J., McGrew W., Nishida T., Reynolds V., Sugiyama Y., Tutin C., Wrangham R., Boesch C. (1999), “Cultures in chimpanzees”, Nature 399: 682-685. Wilkins J. (1998), “What’s in a Meme? Reflections from the perspective of the history and philosophy of evolutionary biology”, Journal of Memetics Evolutionary Models of Information Transmission 2. ––– (2006), “A list of 26 species concepts”. Science Blogs. Wilson E. O. (1975), Sociobiology: The New Synthesis. Cambridge: Harvard University Press. ––– (1979), Sobre la naturaleza humana. México: Fondo de cultura económica. Wrangham R., McGrew W., de Waal F., Heltne P. (1994), Chimpanzee Cultures. Cambridge: Harvard University Press.

Siegel R., Honig W. (1970), “Pigeon concept formation: successive and simultaneous acquisition”, J. Exp. Anal. Behav. 13: 385–390. Simoons F. (1969), “Primary adult lactose intolerance and the milking habit: A problem in biologic and cultural

106

Anexo 1 Estos dos niveles de clasificación pueden clasificarse en cuatro niveles de estudio:

107

ANGELO FASCE

Angelo Fasce hace un doctorado sobre el problema de la demarcación que espera acabar en algún momento de su vida, aunque no tiene mucha esperanza porque sólo vivimos unos 80 años. También sabe un poco sobre neurociencia. Hizo un máster y todo, y sabe un montón de palabras raras. Escribe el blog La Venganza de Hipatia, desde el cual lanza todo su odio (odia mucho) contra la charlatanería. Le ponen muy nervioso todos, pero especialmente los que ofertan psicoterapias que son más brujería que psicología.

108

Facundo Guadagno y Matt Suarez Holze en conversación con Juan José Sebreli.

109

Juan José Sebreli es un ensayista, historiador, filósofo y sociólogo nacido en el Buenos Aires de 1930. Publicó múltiples libros donde defiende la razón y los valores ilustrados contra el irracionalismo, tanto el contemporáneo del posestructuralismo, como el antiguo de los románticos y prerrománticos. En su obra se destacan El asedio a la modernidad (1991), Las aventuras de la vanguardia (2000), El vacilar de las cosas (1994), El olvido de la razón (2007) y Dios en el laberinto (2016). Actualmente se encuentra trabajando en una autobiografía intelectual. Tuvimos el gusto de charlar con él en su departamento durante más de dos horas, en un diálogo donde se abarcaron múltiples temas, ya sea de política, filosofía e incluso sobre literatura, música y cine. Apenas nos sentamos a charlar, surgió la anécdota de que al lado de una librería donde se venden sus obras, otro local tiene Mi lucha (1925) de Hitler en una especie de altar. Juan José Sebreli dedicó buena parte de su tarea intelectual a un desarrollado estudio del nazismo, del cual investigó su base filosófica, encontrándola en el irracionalismo romántico; además de ser un incansable defensor de la socialdemocracia y el liberalismo de izquierda, como también de una interpretación de Marx contraria a la de la mayoría de los marxistas. Se define así, como un izquierdista clásico, contrario a las izquierdas de la segunda mitad del siglo XX, a las que denomina “la mala izquierda”. Una de las cosas de las que queríamos hablar con usted es del auge actual de la ultraderecha en el mundo. Seguramente estará al tanto del caso de Jair Bolsonaro por ejemplo, quien es apoyado por las iglesias evangélicas… Juan José Sebreli (JSS) – Sí, los evangélicos de Brasil están en el Congreso. Y acá no están en el Congreso, pero están en las villas miserias, donde tienen una influencia muy grande.   Son peligrosísimos. Yo digo que estamos en una época similar a las décadas anteriores a la Segunda Guerra Mundial, cuando la democracia estaba totalmente desprestigiada y aparecen el stalinismo y el fascismo. La historia se repite, pero nunca igual, así que no va a aparecer un Hitler y probablemente no tengamos otra guerra mundial, pero estamos viviendo un clima similar de autoritarismo

en auge, y de democracia desvalorizada. La democracia está desvalorizada en la Unión Europea y en Estados Unidos, es decir, en países que fueron sus fuentes. ¿A qué cree que se deben estas vacilaciones en torno a la democracia? JSS - Primero, las transiciones son muy difíciles de asimilar. La política como se da hoy está desfasada. Lo que tiene que haber es una política global. Los males actuales, todos, son globales: la economía, el caos de las finanzas, y eso una nación no puede enfrentarlo, no puede enfrentar un problema global. Lo que notábamos, es que hoy la derecha está siendo mucho más intelectual que la izquierda. Le llamábamos a este fenómeno la “desintelectualización de la izquierda”, en parte, por la influencia del irracionalismo filosófico, y la intelectualización de la derecha. Es muy difícil sostener un debate racional cuando se rechaza la razón. Estamos viendo muy poca influencia de verdaderos intelectuales de izquierda. JSS – SÍ, hoy lo que hay, como mucho, son populistas de izquierda. Y la filosofía que hoy predomina es el posestructuralismo, el irracionalismo moderno. Eso no es la causa, sino un síntoma de la decadencia generalizada de la izquierda.  La parte intelectual de la izquierda es claramente decadente. Es algo que vamos a pagar muy caro.  Fíjense que el auge del irracionalismo del siglo XX terminó en el apocalipsis de la Segunda Guerra Mundial.  Sí, y la Primera Guerra, también, principalmente a causa del nacionalismo. Consideramos el nacionalismo, incluso el nacionalismo “de izquierda”, como una forma de irracionalismo. Una ideología enmarcada en las emociones. JJS – Totalmente. El nacionalismo es la expresión política del irracionalismo. Usted en El asedio a la modernidad, y en tantos otros libros, marca que la existencia de la Segunda Guerra Mundial está basada en gran parte en algunos filósofos, especialmente prerrománticos y románticos. ¿Qué influencias filosóficas

110

encuentra en la Primera Guerra Mundial?

leía distraídamente pensando que no era un autor fundamental, y resulta que con los años me di JJS - Bueno, siempre estuvo el Kulturpessimismus cuenta de que en la Escuela de Frankfurt estaba alemán desde el prerromanticismo. Pero Simmel, solo que sin citarlo. Por ejemplo, el estilo la Primera Guerra Mundial era menos de los aforismos de Adorno. Walter Benjamín filosófica, mientras que la segunda sí tuvo y Kracauer son absolutamente herederos de mucha implicancia de la filosofía, y por Simmel, la filosofía de la moda estaba en Simmel. influencia romántica completamente.  La gente que hoy lee a Benjamin no lee, en general a Simmel, pero actualmente hay un revival. Hay un mito en la izquierda de que no existe una filosofía nazi. Volviendo al tema de la política ¿Qué políticos JJS - Sí, eso es completamente falso. de Latinoamérica le parecen reivindicables? Probablemente sea para ocultar una raíz en común, que es el irracionalismo. JJS - Claro, la mayor parte de la izquierda moderna adoró a Heidegger, por ejemplo, y a Nietzsche ni digamos. Hoy en una academia de filosofía es mala palabra hablar mal de Heidegger o Nietzsche, también defender la Ilustración. Así debe ser muy difícil poder estudiar las causas filosóficas de los movimientos totalitarios, quizás porque hay una raíz en común que no se quiere ver. JJS - Sí, hoy lo más parecido al nazismo es el izquierdismo (risas). En su obra utiliza el término de “fascismo de izquierda”, por ejemplo, para referirse a Montoneros. JJS - Sí, acá fui uno de los primeros en usar ese término.  También Pablo Giussani, pero ninguno de los dos había leído al otro, y publicamos los libros de manera casi simultánea. Giussani me llamó con muy buen criterio y me dijo “coincidimos completamente, pero no sabía que pensabas eso”. Giussani había sido ideólogo de los Montoneros. Su último libro en que trabaja es una biografía intelectual. Comentaste que uno de los autores que estás redescubriendo es Georg Simmel… JJS – Sí. Es inevitable que cuando uno es joven se deje llevar por lo que está de moda. Cuando era joven tuve la suerte de vivir el auge de Sartre, y Simmel era un autor que nadie leía. Acá se editaron en castellano muchos libros de Simmel, pero lo mejor es Sociología: estudios sobre las formas de socialización (2015), que se editó después. Yo lo

JJS – Si no hablamos de la actualidad, hay que remontarse a Juan B. Justo. Julio María Sanguinetti desde ya, y Fernando Henrique Cardoso, que fue de lo mejor en Brasil. ¿Salvador Allende? JJS – No, fue un populista de izquierda.  Hay un vínculo innegable entre filosofía y política, no hay un análisis político si no hay un análisis ético y hasta ontológico ¿Qué filósofos le recomendaría estudiar a un político? JJS - Los primeros que produjeron esa síntesis entre filosofía y política fueron Hegel y Marx. Lo hicieron de forma muy confusa, uno muy embrollado, lleno de cosas anticuadas, y el otro también, en borradores y de forma desprolija. Pero son los que crearon el género que yo reivindico: una sociología filosófica o una filosofía sociológica. Y es lo que intentó hacer el Hegel de la Fenomenología del Espíritu (1807), Lecciones sobre la filosofía de la historia universal (1837) y Filosofía de la historia (1837), y no el Hegel de la Lógica (1816). Y Marx desparramado en sus escritos póstumos, borradores, cartas y demás. Lo intentó también la Escuela de Frankfurt, como también el último Sartre, en Crítica de la razón dialéctica (1960). Lastimosamente Sartre entra muy rápidamente en decadencia mental… Como su apoyo al maoísmo…. JJS – Si, sí. Sus últimas cosas son imposibles. Crítica de la razón dialéctica también hay que tomarla con pinzas. Lo más importante es la introducción, donde propone la síntesis

111

entre marxismo y existencialismo, lo que sería la sociología y la filosofía de los individuos.

Otra de las razones por la que se rechaza la palabra “liberalismo”, en lo que usted Hay un autor al que le tenés cierto llama “mala izquierda”, es esta tendencia reconocimiento, Norbert Elías. que usted denuncia de justificar dictaduras. JJS – Bueno, Norbert Elias… un simmeliano JJS - Sí, la creencia en las “dictaduras buenas” y “las total. Hay un libro que es muy chico, lo leen malas”. También ocurre que el liberalismo no dejó rápidamente, tendrá 200 páginas, La sociedad de tener también su parte de culpa. En Argentina, de los individuos (1990). Ese sintetiza todo lo por ejemplo, el liberalismo del siglo XIX fue un que yo pienso sobre sociología e individuos. verdadero liberalismo. Alberdi, Roca y Juan B. Ahora ya no hay personajes maestros, Justo eran liberales. Pero en los mediados del uno saca de un poco de un lado y del otro.  siglo XX los liberales eran gente como Alsogaray, personas que estaban a favor de las dictaduras También reivindica a los llamados liberales militares, y que era, más bien, lo que se llamaba un de izquierda como John Stuart Mill ¿No? liberista. Hoy podemos hablar de la mala historia de la izquierda, pero el liberalismo no tiene JJS – Claro, yo me defino liberal de izquierda. tampoco una buena historia. Es difícil reivindicar También socialdemócrata, pero si me defino el liberalismo sin hacer una serie de aclaraciones. socialdemócrata, como es un régimen que se encuentra en diferentes países y en diferentes ¿Lo mismo que “izquierda” y “derecha”? formas, uno tiene que andar aclarando qué tipo JJS - Yo diría que esos son términos que pueden ser de socialdemocracia apoya y cuál no. Binner por usados como adjetivos pero no como sustantivos. ejemplo, se dice socialdemócrata y es un populista.  Una “esencia” de lo que se es de izquierda no existe. Existe como calificativo cuando uno dice  Esa ambigüedad está en toda la política. En los “esto” es a la izquierda o a la derecha de “algo”.  términos de izquierda, o derecha, o en el marxismo. Por ejemplo, la ley de la despenalización del Usted tuvo una formación “marxista” y su postura aborto es una ley de izquierda, en contraste con la es completamente diferente a la que puede tener postura de derecha del tradicionalismo católico. cualquier otro que pueda denominarse así. Hay algunas cosas que son de izquierda y otras JJS – En un momento me dije “marxista solitario”. de derecha. Aunque a veces al mismo tiempo Estoy con Marx, pero contra el marxismo. la izquierda apoya lo que es  de “derecha”.   Y a veces se usan términos de “izquierda” como los Como el mismo Marx ¿No? Derechos Humanos para reivindicar a Milagro JJS- Sí, Marx dijo “solo sé que no soy marxista”.  Salas o al régimen de Cuba.  Entonces…. Decir “liberal”, hoy, para muchos marxistas es mala palabra. En parte porque se confunde el liberalismo con liberalismo económico, únicamente. JJS – Bueno, eso viene de tiempo atrás. En Italia, por ejemplo, Benedetto Croce, un autor que tiene muchas cosas reivindicables, decía que un liberal era liberal en economía, en política y en lo social. Decía que los que no eran liberales en lo político eran “liberistas”, término que lamentablemente no pegó, pero puede utilizarse para referirse a los liberales únicamente económicos. Tatcher y Regan serían liberistas, lo que se llamó después neoliberales.

Me parecería interesante tocar el tema de los mitos del llamado “orientalismo”. ¿Cuál es su visión al respecto? JJS -  Hay varios orientes, y hay varias posiciones de occidente frente a oriente. Algo que ya indica la superioridad de los occidentales por sobre los orientales: los occidentales se interesaron mucho tiempo por oriente, desde que empezaron los viajes geográficos, y al principio no para conquistarlos, sino por curiosidad, por la cultura y el arte oriental. Era la moda del siglo XVIII, como la chinoiserie. Voltaire, por ejemplo, era un gran admirador de la cultura china, que a la vez mucho no comprendía.

112

JJS - Por supuesto. No había una xenofobia. En cambio, a los orientales nunca les interesó occidente. China lo ignoraba, creían que el mundo eran ellos. Los occidentales eran globalistas antes de que se inventara el término.  Marco Polo fue el primer globalista, Cristóbal Colón fue un globalizador.   Es interesante tocar este tema para recordar los argumentos, de parte de la izquierda, sobre occidente como el gran culpable del atraso de oriente. JJS – No, no, no. El atraso de oriente empieza a fines de la Edad Media y el imperialismo es del siglo XIX. Tuvieron varios siglos para haberse desarrollado. Si, de hecho los musulmanes tuvieron un amague, un intento de Ilustración o iluminismo durante la Edad Media, que podría haber hecho que hoy estén a la vanguardia en derechos humanos. Pero fue saboteado internamente por un factor que parte de la izquierda se empeña en ignorar, y que la izquierda clásica siempre trató de resaltar: la influencia religiosa. JJS – La influencia del islam, completamente. Le dedico un capítulo al islam en Dios en el laberinto.

JJS - No, no existe. Porque un factor racial no hay. Durante un tiempo, oriente estuvo mucho más avanzado que occidente, cuando occidente había caído en la oscuridad total. En la Edad Media en occidente la religión llegó a un punto límite de posibilidades de desarrollo y después no pudo soportar las nuevas teorías científicas. A la revolución científica no la pudo soportar. ¿En términos económicos, no hubo una revolución burguesa que haya podido hacer progresar a oriente? JJS - No.  Y en occidente también ocurre lo mismo, los países más atrasados son los que no tuvieron una revolución burguesa. Otro tema al que nos lleva esto es al primitivismo. Marx mismo dijo que Inglaterra hizo un gran favor a India sacándole los mitos, o prácticas como el sati. JJS – El sati, sí, una práctica terrible. Por eso estoy a favor de Nehru, que era un occidentalista total, y estoy en contra de Gandhi, uno de los ídolos de la izquierda actual y un retrógrado. Un JJS -

admirador de Sí, un admirador de

Mussolini. Mussolini.

La izquierda actual trata de hacerse mitos de los que la izquierda clásica hubieran sido enemigos. Gandhi, por un lado, un machista, racista y fanático religioso; por otro lado, Madre Teresa de Calcuta.

  La tendencia de las izquierdas actuales es empeñarse en combatir obsesivamente la discriminación y tratar de “no estigmatizar a los pueblos oprimidos” a través del relativismo cultural. Este discurso demagógico trata de JJS – Uh, sí. Madre Teresa, otro mito populista. ocultar la influencia desastrosa del islam. JJS - Sí, y eso que es desastrosa Una fanática que se opuso a los para los propios islámicos.  preservativos en África y reciclaba jeringas usadas con sus moribundos… Hoy hay figuras que tratan de laicizar el JJS – Sí, la gente se moría de sida islam, pero son saboteados por ellos mismos. y ella combatía los preservativos. JJS - Cada vez que tuvieron la oportunidad de votar los islámicos han votado por cosas malas. Nunca hubo organizaciones de partidos democráticos ni de sindicatos. ¿No conocen la democracia? JJS -   No la conocen, ni les interesa. ¿Cree además

que

de

haya

otra la

influencia religiosa?

…amiga de dictadores que le donaban dinero que no se sabe a dónde iba… JJS – Una especie de Hebe de Bonafini. (Risas). En El vacilar de las cosas sostiene que el que mejor leyó a Marx fue Lenin. JJS - Bueno, en algún aspecto. Básicamente en que no hay posibilidad alguna de socialismo sin desarrollo capitalista. El hizo la revolución

113

sabiendo que Rusia no estaba preparada, pero en medio de una revolución mundial. Eso está dicho por él en discursos y artículos, no es una opinión mía, él dijo abiertamente “lo que importa es la revolución en Alemania que es el país más avanzado de Europa”. La revolución rusa lo único que hizo fue tomar la revolución que estaba en la calle. Kerensky no era un político, Lenin no podía rechazar esa posibilidad que iba a servir como apoyo logístico de la revolución alemana. No era la idea hacer “un socialismo en Rusia”. Cuando fracasa la revolución alemana, Lenin dio por terminado el ciclo revolucionario y pasa al periodo de la NEP, un capitalismo de Estado. Y con intervención del capitalismo extranjero principalmente norteamericano.  Hubo una gran cantidad de capitalistas estadounidenses que se fueron a Rusia. Hasta hay una película, Las extraordinarias aventuras de Mr. West en el país de los bolcheviques (1924), que trata sobre un capitalista que va a Rusia. La muerte de Lenin cambió el mundo: si no hubiera muerto hubiera hecho lo que está haciendo China. Claro, una de las peores catástrofes del gobierno de Stalin fue eliminar la NEP. JJS - Claro. Fue lo primero que hizo. Tocamos el tema del vínculo entre filosofía y política. Esto nos lleva al tema del estado de la filosofía en el mundo actual la cual, a grandes rasgos, es irracionalista. Las academias suelen tener una enseñanza “posmodernista”, de hecho, mientras que el “influencer” de la juventud Dario Sztajnszrajber, es un irracionalista propagandista de Heidegger, que representa los lugares comunes de la filosofía académica contemporánea. ¿Cómo ve este panorama? JJS - Bueno, hay autores que conforman una resistencia, como Anthony Giddens o Luc Ferry, pero los lee una minoría. Son filósofos que no tienen ninguna influencia. Sí, hay una resistencia en autores como Sokal, Bunge, o Jesus Mosterín, que murió hace poco… JJS – Sí, o Ulrich Beck, pero son autores sueltos.

Bunge cae en cierto positivismo cuando rechaza a autores como Hegel y Marx. A mí me alaba siempre El asedio a la modernidad, pero dice “el defecto de Sebreli es que defiende a Hegel”. No lo leyó, parece que de filosofía mucho no lee, es un gran epistemólogo, tiene una formación más científica. Se mete a hablar de filosofía sin conocer.  Bunge es una resistencia, pero también es muy resistido, no entra en la facultad ni por asomo. También es una resistencia al fanatismo que hay en Argentina con el psicoanálisis. JJS – Sí, pero ese fanatismo está pasando. Las academias argentinas tienen un fuerte apego aún a estos ídolos falsos que son Freud y Lacan. JJS -  Sí, sobre todo Lacan. Freud tiene libros que todavía se pueden reivindicar, en cierto modo era un ilustrado, se ve en la prosa. En contraste con Lacan, el psicoanálisis de todos modos sigue siendo un foco de concentración de irracionalismo y atraso sobre todo en las academias de Argentina. Criticar algunos aspectos de la vida y de la obra de Freud, como el caso Frink o la alteración de informes como en el caso del Hombre de los Lobos es un tabú en una facultad argentina. Para un profesor universitario Freud y Lacan son ídolos intachables. JJS – Es cierto. No, Lacan es indefendible. Las academias argentinas son lacanianas más que freudianas. El malestar en la cultura (1930) o El porvenir de una ilusión (1927), de Freud, son libros más o menos rescatables. ¿Cómo fue su vida académica? JJS - La facultad donde yo estudié era un horror, era la época peronista, mucho peor que la actual. No existía sociología y filosofía era estudiar latín y griego, básicamente, lenguas muertas. Era espantoso. Filosofía y Letras estaba en manos del jesuita Hernán Benítez, confesor de Evita. El profesor Carlos Astrada no era católico, pero era nazi, enseñaba a Heidegger. Otro tema al que nos llevan los mitos políticos es el caso de Malvinas, y la influencia de los Irazusta.

114

JJS - El que impone sobre todo el tema de Malvinas es el peronismo. Los Irazusta eran autores muy refinados. La paradoja es que fueron educados en Inglaterra, traducían libros ingleses y amaban la literatura inglesa.  Pero no tuvieron ninguna influencia. Iban a la casa de Victoria Ocampo y estaban en el grupo Sur. El verdadero nacionalismo es el de Carlos Ibarguren, por ejemplo. El nacionalismo católico parece estar detrás de todos los males de Argentina, desde Montoneros hasta la dictadura de Videla. JJS – Sí, porque los militares eran brutos que no leían nada. Los que le daban la formación eran los católicos. Veníamos hablando de la decadencia de la izquierda como algo actual, pero la guerra de Malvinas fue apoyada por muchos partidos de izquierda. JJS - ¡Por toda la izquierda! ¡Los que no la apoyamos somos una minoría! Para los que apoyamos los valores de la izquierda clásica… un izquierdista clásico nunca la hubiera apoyado. A veces parece que la izquierda se olvida de la muerte de Jean Jaures, gran escritor socialista muerto en manos de nacionalistas JJS –  Pero para la izquierda actual Jaures era “un liberal”, ya no lo consideran, es mala palabra. ¿Por qué no está Sartre en El olvido de la razón? JJS - Tendría que haberlo agregado. Escribí un largo artículo totalmente reivindicable sobre Sartre en Escritos sobre escritos, ciudades sobre ciudades (1997). Sartre tuvo una gran influencia en el irracionalismo de izquierda que apoyó el maoísmo y al stalinismo… JJS - Sí, tendría que haberlo agregado. Yo personalmente, leyendo su obra pienso que tiene más en común con Camus que con Sartre. JJS – Camus no tenía ninguna cultura filosófica. El mito de Sísifo (1942) y El Hombre Rebelde

(1951) no son libros reivindicables. Como crítica al comunismo sí, pero no tiene base. Merleau Ponty, sí. Cuando Ponty ataca a Sartre lo hace desde un punto de vista filosófico rescatable. Camus no es un autor que yo reivindicaría. Sus dos libros filosóficos son irracionalismo total, no era un racionalista. Lo que me gustó de Camus es El malentendido (1944), y algunas obras de teatro. La Peste (1947) me parece pesada, aburrida. En cambio, Sartre, La Náusea (1938) es una novela extraordinaria, La Edad de la Razón (1945) es muy buena. Ahora que nombró El hombre rebelde, me gustaría tirar el nombre de otro clásico que sé que usted tiene algunas críticas: La sociedad abierta y sus enemigos (1945) de Karl Popper, ¿Qué piensa de esa obra? JJS -La crítica a Platón es muy buena. Pero la parte de Hegel y Marx… (Risas). Y es lo que piensa también Bunge. No los ha leído. Yo tengo todo Popper, y es muy reivindicable. Es buen escritor, sí. Una de las escuelas con las que te formaste es la de Frankfurt. Soles hacer un esquema de partes muy negativas, como la dialéctica negativa, valga la redundancia, y algunas positivas.   JJS – A la escuela de Frankfurt cada vez la reivindico menos. La propuesta de hacer una filosofía sociológica la apoyo, la última etapa ya no es reivindicable, la Dialéctica del Iluminismo (1944) es mala, y también todas las últimas. Casi son posestructuralistas. Sobre la industria cultural algunas cosas están bien, pero otras no. Dentro de la cultura popular hay cosas reivindicables, el jazz y el tango. Hay grandes compositores de tango como Francisco de Caro, Juan Carlos Cobián y Delfino. ¿Presenció los focos de tango durante su juventud? JJS - No, ya estaban en decadencia. Ya el tango era de baile, a mí me gustaba el tango para escuchar. Yo te puedo decir, el 90% del tango es malo, el 90% del jazz es malo, pero ese 10% lo salva. Como en la literatura.

115

JJS -  En todas las artes. El talento es raro. Piazzolla también es bueno. El rock es en gran parte un delirio de masas juveniles.

reconociendo sus errores. Le aplicaría la frase de la película Fatalidad (1931): “voy a tener una muerte digna de una vida indigna”.

¿Qué libros nacionales reivindicarías en la actualidad?

Otro autor venerado en Latinoamérica, García Márquez...

JJS – El crimen de la guerra, de Juan Bautista Alberdi (1879). Un libro olvidado y prohibido por el peronismo por ser antinacionalista y antimilitarista, que incluso ataca al culto al héroe de San Martin.   Y Sarmiento por supuesto, Facundo (1845) y los diarios de viajes.

JJS no

Usted lo considera a Sarmiento el autor más grande de la historia argentina ¿Borges qué lugar se merece? JJS - Es un gran escritor, pero no es un pensador. Es un gran prosista. Yo lo leo con mucho interés. Pero es muy arbitrario. No es un tipo con el que me pueda identificar. ¿Podemos ubicar a Sarmiento y Borges como los más grandes escritores de Argentina? JJS – Sí. ¿Quién más podría entrar rozando ese dúo? JJS - Roberto Artl. Tomado con pinzas. La literatura argentina es de fragmentos. Blas Matamoro es muy bueno.  Traten de conseguir un libro, Con ritmo de tango (2017). Para volver a la polémica ¿Qué escritores argentinos considera que tuvieron una influencia negativa en la formación cultural del país? JJS - Cortázar. (Risas). Es un gran escritor porque tuvo gran repercusión. Pero el tipo de literatura que hace a mí no me gusta. Ideológicamente fue un farsante. A él no le interesaba la política y se metió e hizo propaganda de algo que no sabía, no conocía y no le importaba. Le quiero decir un nombre que es todo lo malo de Cortázar multiplicado…. Galeano. JJS - Ah no, ni lo considero a Galeano. ¿Un Cohelo para progres? JJS - ¡Sí! Es repudiable. Pero al menos murió

-

No, me

el realismo mágico gusta. Directamente.

¿Vargas Llosa es reivindicable en literatura, más allá de su pensamiento político? JJS – Sí. Sería un liberal de izquierda, pero a veces se deja tentar por la derecha. En su último libro sobre política reivindica a Reagan... (Risas). Lo que de la Llosa JJS -

decíamos de la intelectualización derecha. Se puede decir que coquetea con la derecha. Sí. Coquetea con la derecha.

¿Y sobre José Pablo Feinman? JJS - Hay una doble cara. Su pensamiento filosófico es similar al mío, reivindica a Hegel, a Marx y a Sartre…    Pero después le agrega el peronismo y el populismo más rastrero y ensucia todo. Es mejor que Horacio González y Forster. ¿Nicolás Casullo? JJS- Y… un Forster un poco mejor. (Risas). ¿Portantiero? ¿Sarlo? JJS -  Sarlo tiene cosas interesantes y Portantiero hoy sería uno de los pocos escritores reivindicables, lastimosamente tuvo una muerte temprana. Usted suele hablar mucho de cine, más bien en su etapa clásica. ¿Reivindica algún director posterior a los 60? ¿Kubrick, Tarkovski? JJS - Kubrick sí, pero a Tarkovski no. También hay un director mexicano que me gusta mucho, Arturo Ripstein. -Tocamos levemente el tema del primitivismo, relacionado a esto está en Argentina el problema con las comunidades mapuche, sobre la cual seguro tenemos una opinión polémica ¿Qué opinas del conflicto? JJS - Integración, básicamente. La comunidad mapuche es antihistórica, no puede existir

116

una comunidad mapuche que reivindica a una civilización que no existió nunca, y aunque hubiese existido, fue hace siglos. Es absurdo. Es como si los italianos reivindicaran a los etruscos (risas). Además, muchos de los llamados mapuches no se criaron en una comunidad mapuche, sino en la ciudad moderna. Tratan de volver a como creen que vivían sus antepasados. Nosotros notamos cierta similitud entre su discurso y el discurso clásico de derecha de “sangre” y “suelo”. JJS - Sí. Siempre existió eso. Desde el romanticismo alemán con Herder: la sangre y la tierra.

y con el bien, digamos, en términos generales, el mundo no marcharía. El mundo sigue evolucionando. Yo soy absolutamente pesimista con respecto a la Argentina y con respecto al mundo del siglo XXI, sin embargo, voy a seguir defendiendo el racionalismo y la democracia.

¿Cómo es su relación con las nuevas tecnologías? Hay que controlar internet. El periodismo también difunde mentiras, pero se hacen responsables. Pero hay problemas con la libertad de expresión. Dos presidentes: Trump y Bolsonaro tuvieron su propaganda principal en las redes sociales. Es la metáfora del cuchillo que sirve para cortar carne y asesinar. Utilizo internet para cosas que no consigo en otros lados, pero prefiero los libros. Recurro a la librería Guadalquivir, ahí encontrás cualquier cosa. Y también a las librerías de viejo, que ya están desapareciendo. Pero Guadalquivir es fundamental, tenés las ediciones internacionales. En una época, década del sesenta, se editaba todo en la Argentina. Vargas Llosa, Savater, Goytisolo, lo dijeron públicamente, que su cultura de literatura universal se la debían a la cultura argentina. La difusión cultural en Argentina era única en América Latina, pero el populismo barrió con todo. Para cerrar: veníamos hablando de la decadencia de la socialdemocracia ¿Hay que ser pesimistas? JJS - Un autor que yo no reivindico en general, pero que tiene una frase que siempre utilizo, es Gramsci: “hay que ser pesimista con la razón y optimista con la voluntad”. La democracia, si uno ve la historia, la estupidez predomina sobre la inteligencia, la maldad predomina sobre la bondad. Hegel decía, en el prólogo a la Filosofía de la historia: “la historia universal es un matadero”. Hoy, en el siglo XXI, pensamos lo mismo. Pero hay que tener la voluntad de estar a favor de algo que es de una minoría, pero que al menos existe. Si no existiera esa minoría, que está con la razón

117

Entrevistadores

Facundo Guadagno

Matt Suarez Holze

118

Juan José Sebreli

119

Gracias por la lectura

Ciencia y racionalidad en tiempos de imposturas “Nullius addictus iurare inverba magistri, quo me cumque rapit tempestas, deferor hospes.” «no me vi obligado a jurar por las palabras de maestro alguno, me dejo llevar como huésped de paso a donde me arrebata la tempestad.»

120

El objetivo de esta revista es, principalmente, el de la divulgación del conocimiento científico y el filosófico desde distintas áreas; exponer metodologías, ideas y conceptos de los autores; y abrir un espacio para la exposición formal de contenido académico crítico, entre autores y lectores, en un sentido marcadamente racional y empírico, bajo la batuta de la mejor evidencia y la discusión sistemática de posiciones opuestas ¿En qué se diferencia esta revista y su sitio web de otros espacios que versan sobre los mismos ejes temáticos? en primer lugar, no supone una significativa novedad que tanto la web como la revista, introduzcan una gama amplia de autores que provienen de distintas trayectorias y países de habla hispana; esto ya lo han hecho bastante bien blogs como filosofíaenlared. en segundo lugar, tampoco supone una novedad que los temas citados demanden de los autores un examen juicioso al mejor estado de las distintas ciencias y las distintas vertientes de la filosofía, en un sentido racional y empírico. Esperamos con esto contribuir a la labor importantísima de salvarguardar los límites de la lo novedoso de scientia in verba magazine y www.nulliusinverbasite.com es lo siguiente: que también servirá para la divulgación de investigaciones propiamente dichas en ambos campos, y no solamente artículos sobre investigaciones propias y ajenas, además de ideas, conceptos y métodos en ambos terrenos. esperamos con esto contribuir a la labor importantísima de salvarguardar los límites de la ciencia frente a los de la filosofía, y lo de ésta frente a la ciencia, en el más amplio margen de colaboración de una epistemología naturalizada, respondiendo con ello a los problemas urgentes del conocimiento y de sentido que las sociedades contemporáneas requieren contra sus males: el pensamiento confuso, la falta de evidencia, el dogmatismo y los diversos particularismos. johny jaramillo (2018). La lucha de este proyecto quedará consignada, con sus distintas colaboraciones científicas y filosóficas, en esta idea: «la idea de una ciencia unificada sigue fuerte en mí. creo que el conocimiento es un continuo y tiendo a minimizar las diferencias entre las distintas áreas del conocer, ya sean las ciencias de la naturaleza o las matemáticas. dentro de este continuo, de ese todo, el contenido de la filosofía, especialmente de la epistemología, no es más que un segmento de la descripción de la naturaleza. se trata de uno más de los capítulos de la ciencia» – w.v. quine.

121