Lecturas Filosoficas De Ciencia Cognitiva

Citation preview

LECTURAS FILOSOFICAS DE CIENCIA COGNITIVA Luis A. Pérez Miranda (Editor)

ILCLI-UPV-EHU

& Universidad Euskal Herriko del País Vasco Unibertsitatea A R G I T A L P E N Z E R B I T Z U A SER V ICIO E D ITO R IA L

CAP Biblioteca Universitaria

L ecturas filosóficas de ciencia cognitiva / Luis A, Pérez Miranda (Editor). — Bilbao : Universidad del País Vasco i Euskal Herriko Unibertsitatea, Servicio Edito­ rial, D.L. 2007. — 380 p. : 23 cm. — (Filosofía ; 7)

D.L.: B1-3299-07

ISBN: 978-84-9860-022-3

1. Ciencias cognitivas 2. Cognición 3. Inteligencia artificial. I. Pérez Miranda, Luis A., ed. lit.

159.955

'C' Servicio Editorial de la Universidad del País Vasco Euskal Herriko Unibertsitateko Argitalpen Zerbitzua ISBN: 978-84-9860-022-3 Depósito legal/Lege gordailua: BI - 3299-07 Fotocomposición/Fotokonposaketa: Ipar. S. Coop. Particular de Zurbaran. 2-4 - 48007 Bilbao Impresión/Inprimaketa; Itxaropena, S.A. Araba Kalea. 45 - 20800 Zarautz (Gipuzkoa)

CONTENIDOS

Algunas cuestiones clave para entender la ciencia cognitiva actual Luis A. Pérez Miranda............................................................ Selección de Artículos 1 . La Computación en Ciencia Cognitiva. Z. Pylyshyn.

Extraído de Michael I. Posner (ed.), Foundutions of Cngnitive Sc ience ( 1989), pp. 49-92. The MIT Press. (Traductor: Agustín V icente)................................

2. El Test de Turing. D. Davidson.

Extraído de Newton-Smith. W.H. and K.V. Wilk.es (eds.), M odelling ihe Mind. Oxford: Oxford University Press, 199U, pp. 13-26. Reimpreso en: D. Davidson, Problents o f Rationality. Oxford: Clarendon Press, 2004, pp. 77-86. (Traductor. Jesús Mari Larrazabal)...................................................

3. Arquitecturas Simbólicas para la Cognición. A. Newell. P. S. Rosenhloom, J. E. Laird.

Extraído de Michacl I. Posner (ed.), Founclañons o/Cognitive Science (1989), pp. 93-132. The MIT Press. (Traductor: Femando M artínez)........................

4. La Arquitectura de lo Mental: Un Enfoque Conexionista. D. Rumelhart.

Extraído de Michael I. Posner (ed.), Foundations. o/Cognitive Science (1989), pp. 133-160. The MIT Press. (Traductor: Jesús Ezquerro)..............................

5. Motivos, Mecanismos y Emociones. ,4. Sloman.

Extraído de la revista Cogniíiun and Emoünti 1 (1987). 217-33. (Traductor: Luis A. Pérez M iranda)..............................................................................................

6. Modelos Mentales. P. N. Johnson-Laird.

Extraído de Míchael I. Posner (ed.), Foundations o f Cognitive Science (1989), pp. 469-500 The MIT Press. ( Traductor: L. A. Pérez Miranda)......................

7.

8.

191

El Discurso. B. Grosz, M. Pollack. and C. Sidner.

Extraído de Michael I. Posner (ed.), Foundations oj Cognitive Science (1989). pp. 437-468. The MIT Press. (Traductor: Kepa K orta)...................................

229

Extraído de Michael I. Posner (ed.), Foundations o f Cognitive Science (1989), pp. 207-244. The MIT Press. (Traductor: Fernando M igura)...........................

269

La Semántica Modelo-Teórica. J. Barwise and J. Etchemendy.

9. Ruedas Cognitivas: El Problema del Marco de la Inteligencia Artificial. Daniel C. Dennet.

Extraído de C. Hoolway (ed ). Minds, Machines, and Evolution: Philosophical Studies ( 1984), pp. 129-151. (Traductor: Jesüs Ezquerro).....................

317

10. Escapando de la Habitación China.

M argaret A. B odcn. Extraído de Margaret A. Boden, Com puter M odels o f Mind (1988), pp. 238-251. (Traductor: Xahier Arrazola)..........................................................

349

índice Analítico y de Nombres..............................................................

369

ALGUNAS CUESTIONES CLAVE PARA ENTENDER LA CIENCIA COGNITIVA ACTUAL Luis A. Pérez Miranda

Introducción La Ciencia Cognitiva constituye un ámbito de investigación de ca­ rácter multidisciplinar que engloba a una amplía variedad de estudios y metodologías en torno a los procesos cognitivos de razonamiento, repre­ sentación del conocimiento, planificación, toma de decisiones, memo­ ria, aprendizaje, visión, procesamiento del lenguaje natural, etc. Puede decirse que el objetivo prioritario.en Ciencia Cognitiva (en adelante CC). aunque no el único, es la comprensión de La naturaleza de la mente human». En un segundo plano situaríamos a la reflexión filosófica sobre los problemas conceptuales derivados de las teorías y modelos que tra­ tan de explicar dichos procesos1. La CC entendida como el estudio de la inteligencia y sus procesos cognoscitivos y computacionales puede ser abordada desde múltiples ámbitos y ópticas diferentes. Podríamos, por ejemplo, intentar construir una teoría abstracta de los procesos inteligentes al margen del modo en que éstos son implementados. sea física o biológicamente. Piénse­ se, sin ir más lejos, en el desarrollo de la lógica formal- la teoría de la decisión o la teoría de juegos. Podríamos tener también como objetivo una teoría general de la inteligencia a partir del estudio de la conducta 1 La Ciencia Cognitiva como programa de investigación propiamente dicho nace seguramente a raíz del congreso sobre teoría de ]a información celebrado en el Massachusetts Institute of Technology, en el año 1956. donde se reunieron el psicólogo G. Mi11er, el lingüista N. Chomsky y Ir* informáticos A. Newell y H. Simón. Hn esie simposio quedó clara la convergencia en cuanto al objeto de estudio, los procesos cognitivos, así como a la metodología seguir que debería eslar basada en la hipótesis de la computación de la naturaleza humana.

de los organismos inteligentes (animales y humanos), al modo en que se llevan a cabo en psicología experimental. O incluso podríamos estudiar la inteligencia exhibida por los ordenadores tratando de comprender los principios que subyacen a la organización y conducta de los programas inteligentes (cf. Simón, 19K9). El reconocimiento y uso de esta variedad de métodos y enfoques diversos en el estudio de los procesos cognosci­ tivos es lo que ha dado lugar al nacimiento de la disciplina que nos ocu­ pa. Partiendo del análisis de algunos artículos considerados ya clásicos en el estudio de la cognición en sus distintas facetas, trataremos de dar algunas de las claves que nos sirven para entender la evolución que está sufriendo la Ciencia Cognitiva en nuestros días.

Ciencia Cognitiva y Computación De unos años a esta parte, la influencia de la Inteligencia Artificial (en adelante IA) sobre el resto de las ciencias que se ocupan de los estudios sobre la mente humana se ha hecho cada vez más notoria. Es justo reconocer, no obstante, que la relación existente entre las ciencias de la computación y la CC ha sido desde los comienzos muy estrecha. Así, por ejemplo, la relevancia de la noción de computación en Ja com­ prensión de la cognición ya fue puesta de manifiesto por A. Turing a finales de los años cuarenta: El descubrimiento de la máquina universal de Turing — un autómata abstracto que puede simular cualquier otro or­ denador que sea «especiñcable» formalmente—, le llevó seguramente a pensar que un ordenador debidamente programado podría, en principio, exhibir comportamiento inteligente. No hay que olvidar que algunas de las ideas básicas acerca de la posibilidad efectiva de simulación de la mente humana en un ordenador digital aparecieron en su célebre en­ sayo Computing Mac hiñe ry and Intelligence2. La crítica de David son a Turing, en El Test de Turing, está centrada en la suposición no fun­ dada que Turing hace de que la máquina tiene autonomía semántica, es decir, que es capaz de comportarse proporcionando significado como lo hacen los seres humanos de modo causal y en función de una histo­ ria de aprendizaje de las relaciones entre el hablante, el mundo, y los oyentes. En una línea análoga de pensamiento, Z. W. Pylyshyn, en su ya célebre artículo. La Computación en Ciencia Cognitiva, ha tratado 2 La versión castellana del mismo se encuentra publicada en Cuadernos Teorema (1974), Dplo. de Lógica y Filosofía de la Ciencia. Universidad de Valencia.

de establecer el papel de la computación en la compresión de la mente humana. Pylyshyn ha defendido la idea de que ios ordenadores son de hecho los únicos mecanismos conocidos que tienen un comportamiento la. suficientemente flexible como para ajustarse a la plasticidad de la mente humana. Además éstos serían los únicos mecanismos capaces de producir un comportamiento que pudiera ser descrito como dependiente de conocimiento. Por todo ello cabe considerar a la computación como el mejor candidato para explicar la cognición en términos mecanieista&; y también en lo referente a otros aspectos, como por ejemplo, el hecho de que pueda influirse sistemáticamente sobre el comportamiento indu­ ciendo diferencias en las creencias o los fines. Si, no obstante, nos ciñéramos a los relativamente escasos resulta­ dos obtenidos hasta la fecha por los enfoques computadonales en los estudios de la mente, podríamos llegar a la conclusión equivocada de que este paradigma ha fracasado estrepitosamente en relación a buena parte de sus objetivos. Ahora bien, no puede pasar por alto que muchos de estos estudios se encuentran todavía en sus primeros estadios y que existe un gran desconocimiento acerca de lo que realmente es la mente humana en relación a muchas de sus propiedades esenciales. En la dirección apuntada conviene aclarar, por un lado, que no se sabe a ciencia cierta cuáles son los límites de lo que puede ser expli­ cado o no en términos computacionales y, lo que es más importante, se desconoce en gran medida la naluffilezA de los procesos que se inten­ tan explicar o simular. Por otro lado, e] conflicto entre simulado/real en IA está a menudo ligado a la distinción entre investigadores que sólo trabajan sobre procesos determinados de un agente inteligente (visión, lenguaje, planificación, etc.) y aquellos que están interesados en diseñar sistemas completos. Por si esto fuera poco, los criterios para hablar del grado de completud de esos sistemas en relación a las capacidades hu­ manas pueden variar igualmente. De hecho, hay diseñadores de robots que no están interesados en dotarles de sistemas emotivos autónomos, como por ejemplo, curiosidad, imaginación, creatividad, preferencias estéticas, etc. Por lo que en este caso puede hablarse de robots cuyas capacidades no se parecen a las de los humanos, aunque puedan ser considerados como robots completos. En cualquier caso puede decirse que son las ciencias de la computación las que van a la cabeza de la CC. Para muchos investigadores la IA es el núcleo fuerte de la CG. Si consi­ deramos a la IA como hacienda d eja inteligenciaren general, entonces su objetivo principal debería ser proporcionar una teoría sistemática que

explicara (y quizás fuera capaz de simular) tanto las categorías gene­ rales de la intencionalidad como las distintas capacidades psicológicas que sobre ellas se fundamentan. Debería dar cuenta no sólo de la psi­ cología humana sino también de cualquier forma inteligente, fuera ésta natural o artificial (cf. Boden, 1990)3. Y más aún, debería decimos si la inteligencia puede ser implemeutada sólo en algún tipo de arquitectura similar a la del cerebro, o si, en su caso, esto puede ser llevado a cabo mediante algún otro tipo de arquitectura (cf. Boden, 2006). Lo impor­ tante sería la función como tal y no tanto el substrato material sobre el cual se realiza. En este sentido los procesos cognitivos no tendrían pon qué ser modos de operar exclusivos del cerebro1.

Arquitecturas Computacionales Cabe destaconados tipos de investigación sobre las arquitecturas com­ putacionales4 de los sistemas inteligentes en IA, por un lado, el llamado programa GOFA! («good old-fashioned Artificial Intelligence») y, por otro, el Conexionisino\ Alien Newell, Paul S. Rosenbloom, y John E. Laird, en su artículo Arquitecturas Simbólicas para la Cognición. se ocu­ paron de la noción de arquitectura computacional, en cuanto estructura tija en la que operan los mecanismos responsables de la conducta de un sistema. En este trabajo presentaron los requisitos que debería cumplir una arquitectura para conseguir una conducta que fuera flexible e inteligente. A su vez examinaron en términos de funciones las propiedades que una arquitectura semejante debería tener para dar cuenta de tales requisitos. La base es la concepción clásica de un sistema de símbolos, sujetos a opera­ ciones composición al es y a interpretación por medio del ciclo extracciónJéjecucion, y con diversos tipos de memoria, encamada en los ordenadores digitales programables. Las arquitecturas Act* y Soar, basadas en sistemas de producciones y en la solución de problemas por medio de la creación de sub-metas, sirven como ilustración de los conceptos clave. Por su parte, en el artículo La Arquitectura de lo Mental: un Enfo­ que Conexionista. Rumelhart defendió que los modelos conexionistas Véase también M. Boden (2006). A Por arquitectura entendemos las especificaciones de diseño básicas que subyacen a los sistemas de procesamiento de información. 5 Ambos programas encuentran su punto de partida en el trabajo ^A Logieal Calculus of the Ideas Immancnt in Nervous Activity» de W. S. McCulloch y W. H. Pitts (1965).

están inspirados neuronalmente y realizan una computación de estilo cerebral, por lo que resultan más apropiados para la teorización cog­ nitiva. Frente a las arquitecturas —clásicas — que son seriales, las cond*wa¿£ta& -fceIc aracterizan por realizar un procesamiento masivo en paralelo. La analogía neuronal se refleja en el hecho de que utiliza unas unidades básicas o nodos que se hallan interconectados entre sí de forma múltiple. Es conveniente señalar, no obstante, que hoy en día podemos encon­ tramos con modelos explicativos de procesos cognitivos de alto nivel basados en arquitecturas híbridas, que comparten características tanto de las arquitecturas,simbólicas clásicas como de las arquitecturas co~ nexionistas^ Lo que pueden ser ventajas propias de un tipo de arqui­ tectura en algunos dominios de problemas se convierten en desventajas frente a otros dominios de problemas (cf. Clark, 1989). Una labor fundamental para saber lo que realmente somos pasa se­ guramente por investigar, modelar y diseñar sistemas y arquitecturas para el procesamiento de la información no sólo en los ordenadores, sino también en los cerebros, las mentes, la ciencia, y también en la sociedad. A. Sloman, en su conocido trabajo Motivos, Mecanismos y Emociones, esbozó las líneas maestras de lo que deberían ser los estudios cognitivocomputacionales, y su correspondiente metodología, en el ámbito de las emociones y sentimientos. Para una completa explicación de estos episodios y disposiciones, dice Sloman, necesitamos una teoría acerca del modo en que los estados mentales son generados y controlados, y del modo en que éstos conducen a la acción —es decir, una teoría acer­ ca de los mecanismos mentales. Al mismo tiempo una teoría de estas características debería ser capaz de explicar cómo deberían ser construi­ das, almacenadas, comparadas y usadas las representaciones internas de modo que nos permitieran llevar a cabo inferencias, formular planes, o controlar acciones. Sloman señala cuáles deberían ser las restricciones en el diseño para el caso de animales o máquinas inteligentes. Al mismo tiempo indica las soluciones de diseño en relación a la estructura de las emociones humanas y a los mecanismos computacionales que subyacen a los estados emocionales habituales. Se trataría en definitiva de en­ contrar la arquitectura cognitiva que mejor sirviera como soporte a los procesos mentales que queramos modelar. 6 En relación al papel que desempeñan la* arquitecturas híbridas en la explicación de los procesos cognitivos. véase la tesis doctoral de Femando Martínez Manrique (1998).

A diferencia de lo que ocurre en las investigaciones sobre CC, para muchos de los investigadores de IA su labor es, principalmente, un ejer­ cicio ingenien!, y sólo muestran un interés por el estudio de las capa­ cidades y procesos cognitivos humanos en la medida que éstos puedan ser útiles para la construcción de sus propios diseños. Para el científico cognitivo puro, por el contrario, el objetivo de la investigación consiste en encontrar buenas explicaciones de las capacidades y comportamien­ tos de los agentes inteligentes existentes.

Psicología Cognitiva La tesis que sosteníamos más arriba coincide en gran medida con el punto de vista sostenido por Boden (2006) cuando afirma que la psicología, en la medida que trata de comprender la naturaleza de la mente humana, constituye el núcleo temático central de la CC. No obstante su fundamento teórico estaría directamente ligado a las ideas y teorías desarrolladas en IA. Conviene recordar que muchos cientí­ ficos de la cognición tienen por objetivo primordial la modelización computacional del modo en el que las mentes (humanas y/o animales) trabajan. Desde este punto de vista la mente no sería más que un tipo de máquina con características muy marcadas y peculiares, cuyo estu­ dio exige un alto grado de interdisciplinaridad (sic, Boden, 2006). To­ das las disciplinas que configuran el amplio espectro de la CC tienen un claro interés por determinar qué es la mente humana y su modo de funcionamiento. Para la psicología computacional los procesos mentales, en la medi­ da que son altamente e~speeiftcables, pueden se explicados en términos computacionale?»- Lajjsicologíajio sería en este caso sino el estudio de los procesos computacionales en los que las representaciones mentales se construyen, interpretan y transforman. Muchos científicos cognitivos consideran que la mente es un tipo de sistema simbólico, lo que ha llevado a la proliferación de los estu­ dios sobre modelos mentales. Los modelos mentales son representacio­ nes en la mente de situaciones reales o imaginarias. Sin embargo, tal y como reconoce P.N. Johnson-Laird en su célebre artículo Modelos Mentales, estos estudios son de una diversidad tan extraordinaria que parecen tener poco en común si exceptuamos la mera referencia a re­ presentaciones simbólicas de algún tipo. Así las explicaciones sobre la percepción visual, la comprensión del discurso, el razonamiento, y

la representación del conocimiento y de las distintas habilidades prác­ ticas han hecho referencia todas ellas a versiones de la hipótesis de los modelos mentales. La idea de que nuestras operaciones mentales descansan sobre modelos mentales fue sugerida por Kenneth Craik en 1943. Craik sugirió la idea de que la mente humana construye modelos a pequeña a escala a partir de la percepción, la imaginación, o la com­ prensión del discurso que le sirven para anticiparse a las situaciones ve­ nideras. Los defensores de los modelos mentales sostienen que éstos no sólo descansan sobre imágenes visuales sino que también pueden ser abstractos, representando situaciones que no pueden ser visualizadas. Cada modelo mental representa una posibilidad. Los modelos mentales serían similares a los modelos de los arquitectos o a los diagramas de los físicos en el sentido que su estructura es análoga a la estructura de la situación que representan. Uno de los procesos mentales que siempre ha llamado la atención en el marco de las ciencias cognoscitivas es el del pensamiento y, por extensión, el del razonamiento. Esto esTel modo en el que los agentes racionales pasamos de una información dada a otra, no necesariamente explícita, mediante algún proceso de inferencia. Los psicólogos cognitivos han tratado de explicar cómo es posible que razonadores no adies­ trados en lógica sean, sin embargo, capaces de juzgar la validez (o co­ rrección) de razonamientos deductivos, En su opinión el razonamiento puede ser entendido como un proceso en el que se manipulan modelos mentales, para lo cual no haría falta disponer de una competencia lógica. Estos modelos servirían a su vez de soporte para las representaciones del conocimiento7. La controversia acercare sMlevamos a cabo razo­ namientos mediante modelos o realas de inferencia, además áe haberse , en C. Hoolway (ed.), Minds, Machines, and Evolution: Philosophical Studies (1984). pp. 129-151. G o l d m a n . Alvin A. (1993a): Philosophical Applications of Cognitive Science. Boulder: Westview Press. G o l d m a n , A lvin A. (1 9 93 b ); Readings in Philosophy and Cognitive Science. Cambridge, Mass.: The MIT Press. Grosz. B., M. Pollack. and C. Sidner, «Discourse». en Michael I. Posner (ed.), Foundations of Cognitive Science (1989), pp. 437-468. Cambridge, Mass.: The MIT Press. A y u so .

P N(1989): «Mental Models», en Michael 1. Posner (ed.), Foundations' of Cognitive Science (1989), pp. 469-500. Cambridge, Mass.: The MIT Press. Jo h n so n -L a ir d , P. N. &. R. Byme (2002): —Conditionais: a theory of meaning. pragmatics, and inference—. Psychofogicai Review. i09, 646-678. M artínez M anrique , F. (1998): Del conexionismo a la hibridación en ciencia cognitiva: fundamentos conceptuales. Tesis doctoral. Universidad del País Vasco/Euskal Herriko Unibensitatea. Montague. R. (1974): Formal Philosophy. Selected Paper ? of Richard Montague. edited and with an introduction by Richard Thomason. New Haven: Yale University Press. M c C ulloch , W. S. & W. H. P itts (1965): «A Logical Calculus ot' the Ideas Immanent in Nervous Activity». en W. S. McCulloch (cd.), Embodiments of Mind, Cambridge. Mass.: The MIT Press. N ew ell A., Paul S. R o se n b l o o m , y John E. L aird (1989): «Symbolic Arquitecmres for Cognition», en Michael í. Posner (ed.), Foundations of Cognitive Science (1989), pp. 93-132. Cambridge. Mass.: The MIT Press. P y ly sh y n , Z. W. (1989): «Computation in Cognitive Science», en Michael I. Posner (ed.), Foundations of Cognitive Science (1989). pp. 49-92. Cambrid­ ge. Mass.: The MIT Press. R um elhart D. (1989): «The Architecture o f the Mental: a Conexionist Approach», en Michael I. Posner (ed.), Foundations of Cognitive Science (1989), pp. 133-160. Cambridge, Mass.: The MIT Press. Searle. J. (1980): «Minds, Brains and Programs», The Behavioral and Brain Sciences 3 (1980), 417-424. " Simón, H. et al. (1989): Foundations of Cognitive Science. en Michael I. Posner (ed.)(1989): Cambridge, Mass.: The MIT Press. ' S l o m a n , A ., «Motives, Mechanisms and E m otio n s-\ Cognition and Emotion I (1987), 217-33. T ur in ü , A. (1950): «Computing Machinery and Intelligence». Mind. vol. 59 (1950), n. 236. Jo h nso n -L air d ,

Nota final y agradecimientos Como podrá comprobar fácilmente el lector, los trabajos aquí selec­ cionados son fiel reflejo del carácter interdisciplinar que ha acompañado a la CC desde sus inicios. El objetivo principal de esta selección de artículos ya clásicos, traducidos ahora al castellano, es dar a conocer algunas de las líneas de investigación más punteras, que son ya de obli­ gada referencia en el área, y que han servido como punto de partida para muchas de las investigaciones posteriores.

Quiero agradecer, por un lado, a los editores de las revistas y a los autores de los trabajos originales por habernos permitido traducirlos al castellano. Por otro, al grupo de profesores e investigadores del ILCLI (Instituto de Lógica. Cognición, Lenguaje e Información de la Univer­ sidad del País Vasco/Euskal Herriko Unibertsitatea), por su esfuerzo y buena predisposición en las tareas de traducción, lo que ha permitido que este modesto proyecto llegara finalmente a buen puerto. Luis A. P é r e z M ir a n d a Coordinador ¿le la Sección de Ciencia Cognitiva en el Instituto de Lógica, Cognición, Lenguaje. e Información (ILCLI) Universidad del País Vasco/Euskal Herriko Unibertsitatea (UPV/EHU)

LA COMPUTACIÓN EN CIENCIA COGNITIVA Zenon W. Pylyshyn

Nadie duda de que los ordenadores han tenido una profunda influen­ cia en el estudio de la cognición humana. La misma existencia de una disciplina llamada ciencia cognitiva es deudora de esta influencia. Una de las principales características que distingue a la ciencia cognitiva de los estudios más tradicionales sobre la cognición es el alcance de la influencia tanto de las ideas como de [as técnicas de la computación. Puede suponer una sorpresa para el profano, por tanto, descubrir que no hay unanimidad dentro de la ciencia cognitiva ni en cuanto a la na­ turaleza (y en algunos casos deseabilidad) de la influencia, ni en lo que sea la computación, ni siquiera en su carácter esencial, en relación a la ciencia cognitiva. En este capítulo trataremos de estas dos cuestiones. La primera cues­ tión nos lleva a una discusión sobre el papel de la computación en nuestra comprensión de la cognición humana (y tal vez animal). Examino una variedad de tales papeles —desde el uso instrumental de los ordenado­ res para expresar teorías, pasando por su función como fuente de ideas, hasta la arriesgada afirmación empírica de que la cognición es bastante literalmente una especie de la computación. Esta última postura (que nos introduce en una discusión sobre lo que llamo la tesis de la equivalencia fuerte) no puede ni siquiera empezar a ser examinada hasta que tengamos una comprensión mucho más clara de lo que queremos decir con el tér­ mino computar —esto es. qué familia de procesos queremos cubrir me­ diante ese término. Este es el tema más polémico de los que me ocuparé, pero también trataré otro que no puede ser obviado: una comprensión de los supuestos subyacentes en la disciplina es prerrequisito para la com­ prensión de las propuestas en favor de una reconducción de las metas de la ciencia cognitiva (véanse, por ejemplo, los capítulos 4 y 8).

En la última sección de este capítulo, examinaremos las metodolo­ gías asequibles para validar los modelos computacionales como mode­ los fuertes de procesos cognitivos. Aunque muchas de estas técnicas se discuten también en otros capítulos de este libro (por ejemplo, capítu­ los I y 7), mi discusión tiene la intención de mostrar cómo se relacio­ nan algunos de estos métodos con la noción de equivalencia fuerte de procesos. Hagamos notar que la opinión de que la computación es relevante para la comprensión de la cognición, o el comportamiento inteligente en general, es tan antigua como la propia idea de computación. El artículo original de Turing (1937) sobre conmutabilidad contiene una sección en la que Turing intenta proporcionar alguna motivación intuitiva para su noción de «procedimiento efectivo» observando lo que hace un mate­ mático en el curso de la resolución de un problema y destilando este pro­ ceso a sus esencias. Más tarde Turing (1950) arguyo que un ordenador debidamente programado podría en principio exhibir comportamiento inteligente. El argumento descansa en el propio descubrimiento de Tu­ ring de la existencia de una máquina Turing universal, un autómata abs­ tracto que puede imitar cualquier otro ordenador especiíicable formal­ mente. La pertinencia de la máquina universal para la ciencia cognitiva se plantea brevemente más tarde. Los ordenadores son relevantes para la cognición de muchas mane­ ras. Newell (1970; ver también Newell 1973a) ha discutido un abanico de teorías sobre la posible relación entre la computación y la cognición. Estas varían desde la opinión de que los ordenadores proporcionan una nueva metáfora interesante, hasta la opinión —que yo defiendo — de que la cognición es literalmente una especie de la computación, efectua­ da en un tipo particular de mecanismo biológico. En lo que sigue, hago un boceto de dos de las formas principales en que la computación es pertinente para el estudio de la cognición. Después elaboro y defiendo ambas proposiciones generales y argumento que han sido decisivas en el desarrollo de la ciencia cognitiva, incluso aunque haya habido muchas discusiones acerca de los detalles —e incluso los supuestos fundamen­ tales— tras ellas. Al nivel más abstracto la clase de mecanismos llamados ordenado­ res son los únicos mecanismos conocidos que tienen un comportamien­ to lo suficientemente plástico como para ajustarse a la plasticidad de la cognición humana. Son también los únicos mecanismos capaces de producir un comportamiento que puede ser descrito como dependiente

del conocimiento. A causa de tales propiedades la computación se man­ tiene como candidato principal para cumplir con la doble necesidad de explicar la cognición en términos mecanísticos y otros aspectos, por lo demás, problemáticos de la cognición —en particular el hecho de que puede influirse sistemáticamente sobre el comportamiento induciendo diferencias en las creencias o los fines. A un nivel más concreto los ordenadores proporcionan un modo de manejar una serie de problemas que atestan el esfuerzo por entender la cognición. Entre ellos está la complejidad de los procesos que subyacen a la cognición y la necesidad de una teoría que haga de puente a través del salto desde el procesamiento interno a los ejemplos reales de comportamiento. Se dice en ocasiones que una teoría así responde a la condición suficiente. Esta condición impone un requisito particularmen­ te restrictivo sobre la medida de adecuación de una teoría. Fuerza asi­ mismo al teórico a afrontar directamente ciertas cuestiones que de otro modo podrían darse por sentadas o presupuestas. Entre ellas sobresale la distinción arquitectura-proce so (y la naturaleza de la arquitectura cog­ nitiva) y la cuestión íntimamente relacionada de la estructura de control subyacente al procesamiento cognitivo.

1. ¿Qué es computar? Algunos antecedentes: formalismos, símbolos. v mecanismos La posibilidad de imitar la vida por medio de los artefactos ha intri­ gado a la gente a lo largo de la historia. Pero sólo en la segunda mitad de este siglo se ha considerado seriamente la posibilidad de usar el tipo especial de artefacto que llamamos ordenador como un medio para entender los fenómenos mentales. Lo que es diferente acerca de este último interés es que la concentración no tiene lugar primeramente en la imitación de movimientos (como era el caso en los anteriores me­ canismos de cuerda) sino en la imitación de ciertos procesos internos inobservables. Esta noción se hizo sólo concebible con la emergen­ cia gradual, en distintas áreas del desarrollo intelectual, de una forma determinada de entender los mecanismos. Esta noción nueva y más abstracta de mecanismo está completamente divorciada de las consi­ deraciones «mecánicas» de viejo cuño (como las que preocuparon a Descartes y que Chomsky ha caracterizado como mecánica de contac­ to) y se ocupa sólo de operaciones definidas abstractamente tales como

almacenamiento, recuperación, y alteración de instancias de códigos simbólicos. Esta noción de mecanismo apareció en conjunción con intentos de desarrollar unos fundamentos para las matemáticas completamente formales, libres de contenido. El programa de Hilbert fue uno de los intentos más ambiciosos de construir las matemáticas por medios pu­ ramente formales; sin importar cuestiones sobre de acerca de qué fuera el formalismo. Parte de esta empresa encontró fruto en el trabajo de Frege y Russell y Whitehead. Por otro lado uno de los mayores logros intelectuales de nuestra era fue la demostración por medios puramente formales de que el fin de la formalización completa era por principio imposible (esto fue realizado originariamente por Gódel y subsecuente­ mente por Turing, Church, Post y otros; véase la colección de artículos en Davis 1965). El mismo trabajo que proporcionó demostraciones de las particula­ res limitaciones por-principio de la formalización proporcionó asimis­ mo demostraciones de su universalidad. Así, Alan Turing, Emil Post, y Alonzo Church. de manera independiente, desarrollaron distintos formalismos que mostraron eran completos en el sentido de que eran suficientemente potentes para generar formalmente (esto es; «mecáni­ camente») todas las secuencias de expresiones que podrían interpretarse como pruebas y por esto podían generar todos los teoremas demostra­ bles de la lógica. En el caso de Turing, esto tomó la forma de mostrar que existe un mecanismo universal, una máquina de Turing particular llamada máquina universal (MU), que podía simular cualquier mecanis­ mo describible en su formalismo. Hace esto aceptando una descripción del mecanismo a simular, y entonces lleva a término un procedimiento cuyo comportamiento inputíoutput es idéntico al que habría sido gene­ rado por la máquina de la que se había proporcionado la descripción. Decimos que la MU computa la misma función que la máquina en cues­ tión, donde «la misma función» significa los mismos pares inputíoutput o la misma extensión de la función. No existe requerimiento alguno para que la MU lleve a cabo los mismos pasos que la máquina objetivo. Eso sería un sentido más fuerte de equivalencia. Lo que es interesante sobre el último trabajo, desde nuestro punto de vista, es que para derivar estos resultados (sobre la universalidad e incompletud de ciertos sistemas formales), era necesario entender las nociones de prueba y deducción en un sistema formal en términos de manipulación de instanciaciones de símbolos o marcas en un trozo de

papel, donde la manipulación se especificaba «mecánicamente» de una forma totalmente independiente de cómo fueran interpretados los sím­ bolos. La lógica se convirtió en un juego jugado con particulares de símbolos sin significado de acuerdo a ciertas reglas formales (esto es, reglas sintácticas). Fue el desarrollo de la noción de la universalidad de los mecanismos formales, presentada por primera vez en el trabajo sobre fundamentos de las matemáticas en los años 30, lo que proporcionó el ímpetu ini­ cial para ver la mente como un sistema de procesamiento de símbolos. La universalidad implica que un mecanismo formal de procesamiento de símbolos puede producir cualquier función input/output arbitraria que podamos especificar con el detalle suficiente. En términos más fa­ miliares, una máquina universal puede ser programada para computar cualquier función formalmente especificada. Esta plasticidad extrema de comportamiento es una de las razones por las que se ha visto a los ordenadores como artefactos que podrían ser capaces de desplegar in­ teligencia. Mucha gente que no estaba familiarizada con esta idea ha malinterpretado la capacidad de las máquinas. Por ejemplo, el psicólogo de la Gestalt Wolfgang Kohler (1947) percibió a las máquinas como demasiado rígidas para servir de modelo de la actividad mental. Esta última, dijo, está gobernada por lo que llamó factores dinámicos —de los cuales un ejemplo son los efectos de autodistribución de campo, como los efectos que causan que se redistribuyan los campos magnéti­ cos cuando introducimos nuevos trozos de metal— en oposición a los factores topográficos, que son estructural mente rígidos. Escribió (Koher 1947, p. 65): ' En tanto las condiciones topográficas sean dadas rígidamente, y no puedan ser alteradas por factores dinámicos, su existencia impli­ ca la exclusión de ciertas formas de función, y la restricción de los procesos a las posibilidades compatibles con esas condiciones... Esta relación extrema entre factores dinámicos y condiciones topográficas impuestas se realiza casi enteramente en las máquinas típicas... no construimos máquinas en las que los factores dinámicos sean los de­ terminantes principales de la forma de la operación, El hecho de que los ordenadores violan esta afirmación es una de sus características más importantes y únicas. Su estructura topográfica es completamente rígida, y sin embargo son capaces de la mayor plas­ ticidad de función. Fue esta misma propiedad la que le llevó a Turing a especular que los ordenadores serían capaces en principio de desplegar

un comportamiento inteligente. Por ejemplo, dedicó un artículo filosófi­ co temprano e importante (Turing 1950) a exponer esta idea. Turing ar­ gumentó que en principio se podría hacer que un ordenador desplegara actividad inteligente hasta un grado arbitrario. Afirmó que una máquina debería ser calificada de inteligente si pudiera desarrollar con éxito el «juego de la imitación» —esto es, engañar a un observador humano, con el que podría comunicarse sólo a través de un teclado y una terminal, de tal modo que el observador no pudiera discriminar entre él y otra perso­ na. La posibilidad de que un ordenador sea capaz de pasar con éxito lo que se ha venido a conocer como test de Turing se basa por completo en el reconocimiento de la plasticidad de comportamiento implicada en los sistemas simbólicos, que pueden ser programados para comportarse de acuerdo a una función finitamente especificable. Los artefactos que llamamos ordenadores toman formas muy di­ ferentes — la mayor parte de las cuales tienen una apariencia bastante distinta a la que Turing desarrolló en su análisis matemático. Es por lo tanto apropiado preguntarse qué es lo que hace de un sistema un orde­ nador. Esta es una cuestión particularmente relevante desde el momento en que una hipótesis de trabajo de gran parte de la ciencia cognitiva es la de que la mente es literalmente un tipo de ordenador. Uno podría co­ menzar preguntando: ¿en virtud de qué propiedad consigue la máquina de Turing la universalidad o programabilidad que la recomienda como modelo de inteligencia? Newell (1980) proporciona una opinión interesante sobre una de las características que son esenciales para que un artefacto sea universal o programable. Para que un mecanismo sea universal, sus inputs deben ser divididos en dos componentes distintos, a uno de los cuales se le asigna una interpretación privilegiada como instrucciones o como una especificación de alguna función inputloutput particular, mientras que el otro es tratado como input de esa función. Esta división es esencial para definir una máquina de Turing universal. De esta forma, sólo puede ha­ ber una plasticidad de comportamiento arbitraria si algunos de los inputs y outputs del sistema son interpretados (o, como lo expresa Newell, si tienen la capacidad de «designar» algo extrínseco). La designación es de hecho una de las ideas centrales de la computa­ ción. En los ordenadores los símbolos deben designar de varias formas: proporcionan acceso a otros símbolos, pueden causar que un intérprete realice la acción designada por ese símbolo, o pueden designar otras cosas extrínsecas. Por ejemplo, pueden designar los objetos abstractos

llamados números, o pueden designar objetos de razonamiento (por ejemplo, objetos en el mundo o en la imaginación, proposiciones, predi­ cados, etc.), o pueden incluso designar fines. De hecho, dado que lo que los símbolos designan no necesita existir (por ejemplo, unicornios o el caldero de oro al final del arco iris) la propia noción de designación, con el sentido de «referir a», es problemática en tanto en cuanto la gente sue­ le entender que «referir^ sólo se aplica cuando existe un objeto al que se reñera. Por ello normalmente hablamos de la relación entre los símbolos y lo que simbolizan como semántica, o hablamos del significado de un símbolo. En cualquier caso, semántica y significado son términos rele­ vantes usados para describir propiedades de los estados de los ordena­ dores (y personas) pero no de otros muchos sistemas complejos que no funcionan como ordenadores (por ejemplo, la galaxia Andrómeda). Los sistemas a los que se les ha llamado clásicamente ordenadores (por ejemplo, la máquina de Turing) comparten una serie de propiedades. La idea de que algunas de estas propiedades son propiedades constituti­ vas de la computación (y consecuentemente, son también constitutivas de la cognición, en tanto la cognición es una especie de la computación) es llamada la visión clásica (por Fodor y Pylyshyn 1988). En la siguien­ te sección tomo en consideración algunas de estas propiedades, admi­ tiendo que este punto de vista no se mantiene de forma unánime entre los científicos cognitivos (véase, por ejemplo, el capítulo 4). La visión clásica de la computación y la cognición En la máquina teórica de Turing y en cada ordenador digital real, se establece una distinción entre el procesador y la memoria. El proce­ sador «escribe» expresiones simbólicas en la memoria, las altera, y las «lee». La lectura de algunos de estos símbolos causa que ocurran ac­ ciones especificadas, que pueden cambiar otros símbolos. La memoria puede consistir en una cinta, un conjunto de registradoras o cualquier forma de almacenamiento activo. Las expresiones escritas son símbolos complejos hechos de símbolos más simples, del mismo modo en que las oraciones son símbolos complejos hechos de símbolos más simples de una manera sistemática. El procesador (o. en el caso de la lógica, las re­ glas de inferencia) transforman entonces las expresiones en expresiones nuevas en un tipo especial de forma sistemática. La forma en la que tales expresiones son transformadas en un ordenador clásico es muy impor­ tante. Como se ha mencionado, las expresiones simbólicas tienen una

semántica, esto es, son códigos de algo» o significan algo. Por lo tanto, las transformaciones de las expresiones están diseñadas para mantener coherentemente este significado o asegurar que las expresiones conti­ núen teniendo sentido cuando sean interpretadas semánticamente de un modo coherente. Por ejemplo, si las expresiones son numerales como 19, 1011, XIX, o expresiones en otras notaciones numerales, sirven normalmente como códigos para números. En tal caso cuando el ordenador transforma estas expresiones, pueden referir a distintos números. Si se consigue que el ordenador las transforme sistemáticamente de la forma apropiada, las transformaciones pueden corresponder a operaciones matemáticas úti­ les como la adición y la multiplicación. Consideremos un ábaco. Los patrones de cuentas representan números. La gente aprende reglas para transformar estos patrones de cuentas de modo tal que la interpretación semántica de los pares antecedente —y— consecuente corresponde a una función matemática útil. Pero no hay nada intrínsecamente mate­ mático en las propias reglas; son tan sólo reglas para mover las cuentas. Lo que convierte a las reglas en útiles es que tenemos la seguridad de que existe una cierta correspondencia continuada entre los patrones for­ males o sintácticos de las cuentas y objetos matemáticos (tales como números). La manera en que puede asegurarse la correspondencia se ilustra mediante un ejemplo en la siguiente sección. En computación científica, así como en la historia de las aplicacio­ nes de los ordenadores hasta los setenta, el dominio de representación encontrado con mayor frecuencia era sin duda el de los números, y con­ secuentemente las transformaciones sobre expresiones más comunes eran aquellas que reflejan funciones matemáticas sobre números. Pero si las expresiones simbólicas codificaran proposiciones o creencias o conocimiento, tal y como podría ocurrir si fueran expresiones en alguna lógica simbólica, entonces el ordenador podría transformarlas en for­ mas correspondientes a pruebas o inferencias, o quizás una secuencia de «pensamientos» que tienen lugar durante el razonamiento ordinario. Lo importante es que, de acuerdo a la visión clásica, ciertos tipos de sistema, incluidos tanto mentes como ordenadores, operan sobre repre­ sentaciones que toman la forma de códigos simbólicos. Hay una propiedad aún más importante que tales códigos simbólicos deben tener, según la visión clásica. En los sistemas simbólicos clásicos el significado de una expresión compleja depende de forma sistemática de los significados de sus partes (o constituyentes). Este es el modo en

que funciona el lenguaje ordinario, la lógica formal, e incluso el sistema numeral, y hay buenas razones para creer que deben funcionar de esa forma tanto en la computación práctica como en la modelización de la cognición. En el caso de la cognición estas razones tienen que ver con la productividad y la sisiematicidad del pensamiento y el razonamiento, dos cuestiones discutidas ampliamente en Fodor y Pylyshyn (1988). Así pues, en resumen la visión clásica asume que tanto los ordena­ dores como las mentes tienen por lo menos los siguientes tres niveles de organización: 1. Nivel semántico (o de conocimiento). En este nivel explicamos por qué la gente, o los ordenadores programados adecuadamen­ te, hacen ciertas cosas diciendo lo que saben y cuáles son sus objetivos, y mostrando que están conectadas en ciertas formas significativas e incluso racionales. 2. Nivel de símbolo. Se asume que el contenido semántico del co­ nocimiento y los objetivos vienen codificados por expresiones simbólicas. Estas expresiones estructuradas tienen partes, cada una de las cuales también codifica cierto contenido semántico. Los códigos y su estructura, al igual que las regularidades a tra­ vés de las cuales son manipulados, son otro nivel de organiza­ ción del sistema. 3. Nivel físico (o biológico). Para que todo el sistema funcione tiene que ser realizado en alguna estructura física. La estructura y los principios a través de los cuales el objeto físico funciona corres­ ponden al nivel físico o biológico. Esta organización a tres niveles define lo que denomino arquitectu­ ra clásica o cognitiva. Para ilustrar la afirmación de que son distintos los principios que se aplican en cada uno de estos niveles, consideremos el siguiente ejem­ plo. Supongamos que tienes una calculadora con un botón para las raí­ ces cuadradas. Si quieres explicar por qué da respuestas extrañas o no funciona cuando las pilas están descargadas o cuando cortas uno de los cables de dentro o cuando la temperatura es baja, tienes que hacer re­ ferencia a las propiedades físicas de la calculadora, al nivel físico. Si quieres explicar por qué tienen lugar ciertos errores de cálculo en los dígitos de orden menor de la respuesta, o por qué tarda más en computar la respuesta de algunos problemas más que la de otros, tienes que hacer referencia a la forma en que los números están codificados simbólica­

mente y a qué secuencia particular de transformaciones siguen estas ex­ presiones simbólicas (esto es, al algoritmo empleado). Se trata de una explicación al nivel simbólico. Pero si entonces quieres mostrar que el algoritmo siempre va a dar la respuesta correcta, tienes que hacer refe­ rencia a hechos y teoremas de teoría de números, esto es. ala semántica de los símbolos. Uno podría preguntarse cómo es posible que mantengan las ex­ presiones simbólicas y las reglas su interpretación semántica, que se mantenga la coherencia de la semántica de las expresiones. Uno de los descubrimientos más importantes de la lógica formal es el de que uno puede especificar reglas que operen sobre expresiones simbólicas de tal forma que la secuencia de expresiones corresponda siempre a una de­ mostración. En computación (y en ciencia cognitiva en general) uno no está únicamente interesado en las secuencias lógicas, o preservadoras de la verdad, sino también en aquellas secuencias que preservan propie­ dades semánticas como Jas desplegadas en el razonamiento heurístico o dirigido a fines. El siguiente ejemplo numérico muestra cómo uno puede definir una operación sobre expresiones simbólicas y una función semántica (que llamaré SF) de símbolos a números de forma que la operación pueda ser interpretada consistentemente como adición. A fin de realzar la ge­ neralidad del siguiente ejemplo (para que, llegado el caso, se pudiera aplicar a algún sistema distinto que un ordenador clásico), lo presento en su forma más abstracta. Supongamos que tenemos una determinada función de instanciación IF de clases de equivalencia de estados físicos de un sistema determinado (tal vez únicamente las partes del sistema llamadas registros de memoria) a expresiones simbólicas. Para ser más precisos, digamos que las expresiones consisten en símbolos atómicos o y x colocados en cadenas de una longitud arbitraria. En este ejemplo entonces los estados de los registros de memoria corresponderían a ex­ presiones tales como o, x, ox, xx, oox. oxo, oxx, xox, xxo. xxx. xooo, etc. Cada una de estas expresiones corresponde a algún estado posible de cada uno de los registradores de memoria de la máquina. Supongamos además que cuando algún patrón (al que llamo #) ocu­ rre en una parte de la máquina llamada su registro de instrucciones, los registradores de memoria de la máquina cambian sus estados de acuerdo a una cierta regularidad especificable. Por ejemplo, cuando la porción de la máquina que llamamos registrador 1 se encuentra en el estado que se corresponde a la cadena xox, y el registrador 2 está en el estado que se

corresponde a la cadena xxo, entonces el registrador 3 cambia su estado, de cualquiera que se encuentre, al estado que corresponde a la cadena xoxx. Este tipo de regularidad podría razonablemente usarse para repre­ sentar la adición de números, toda ve7 que adoptemos una función se­ mántica SF apropiada y que la regularidad cumpla ciertos requisitos. En este caso la función semántica requerida es fácil de definir —resulta ser la función que asigna cadenas de os y xs a números, empleando el habi­ tual sistema numeral binario. Al definir la SF formalmente, además, pro­ porcionamos una manera de enunciar los requisitos que debe cumplir la regularidad si es que va a ser interpretable como adición de números. Antes de definir la SF, sin embargo, es necesario dar una definición formal del conjunto de expresiones consistentes en xs y os. Dado que no estamos poniendo ningún límite al número de estados en que puede estar un registro (y con ello a la longitud de las cadenas de xs y os), la definición de las cadenas debe darse recursivamentc como (1 ) o es una cadena.

(2 ) x es una cadena, (3) si T es una cadena, entonces también lo es To (esto es, la ca­ dena T seguida de o). (4> si T es una cadena, entonces también lo es Tx (esto es. la ca­ dena T seguida de x). Una manera más simple de expresar de (1) a (4) es en la forma Backus-Nauer como T::= olxITolTx. donde ::= significa «se estipula que es» y I significa «o». Haciendo uso de la definición de las cadenas, la función semántica puede ser entonces definida recursivamente como (1)SF(o ) = 0 (2) SF(\) = 1 (3) SFÍTo) = 2*SF(T) (4) SF(Tx) - 2*SF(T) + 1

(.la interpretación semántica de o es el núme­ ro 0). (la interpretación semántica de x es el núme­ ro 1) (la interpretación semántica de una cadena T seguida por o es el doble de la interpretación semántica de solo T), fia interpretación semántica de una cadena T seguida de x es el doble de la interpretación de solo T más uno).

Esto constituyo un ejemplo de una función semántica, definida recursivamente sobre la estructura de las cadenas de símbolos. Es análoga al método de Tarski para definir la semántica de oraciones de un cálculo formal en términos de sus propiedades combinatorias. Esta función de asignación es no trivial. De hecho, define la interpretación semántica de una notación numeral posición-valor. Para que esta función semántica sea útil, sin embargo, deben existir regularidades en los cambios de estado del ordenador que correspon­ dan a las operaciones matemáticas definidas sobre las interpretaciones de los símbolos en el dominio deseado. En otras palabras, deben exis­ tir transiciones de estado que preserven la interpretación SF deseada. Se ha propuesto ya una regularidad de este tipo, que fue asociada con la presencia de # en el registro instrucciones. Para que # corresponda a la adición (o alternativamente para que sea consistentemente inter­ pretable como adición), las transiciones de estado deben preservar la interpretación semántica de las cadenas de símbolos bajo la operación matemática definida de la adición (definida, por ejemplo, en términos de los axiomas de Peano). En otras palabras, algo como lo siguiente debe ser cierto: Si el ordenador está en el estado caracterizado por la descripción 1. El registro 1 «contiene» (o IF le asigna a) la cadena T ], 2. El registro 2 «contiene^ (o IF le asigna a) la cadena T2 . 3. El registro instrucciones «contienev (o ¡F le asigna a) #; entonces el ordenador pasa al estado caracterizado por 4. El registro 3 «contiene* ío ¡F le asigna a) la cadena T3. donde se cumple la relación SFiT^) = SF(T\) + SF(T2 ). En otras palabras, la suma (definida matemáticamente) de las in­ terpretaciones semánticas de los dos estados de los registros debe co­ rresponder siempre a la interpretación semántica del estado del tercer registro. Nótese que la interpretación tiene lugar en el dominio abstracto de los números, donde operaciones como la de adición están definidas matemáticamente, mientras que los símbolos a interpretar (el dominio de la función SF) son estados funcionales, definidos por IF como clases de equivalencia de los estados físicos del ordenador. Estas ideas y distinciones se hacen patentes en el caso de los orde­ nadores convencionales. Se aplican del mismo modo, sin embargo, en

el caso de la cognición, incluso aunque nuestra experiencia subjetiva sugiera que lo que ocurre en la mente pueda ser diferente. Los hechos empíricos y el requisito de adecuación explicativa, sin embargo, exigen los tres distintos niveles (físico, simbólico y semántico) en el caso de la cognición humana, exactamente de la misma forma en que los necesi­ tamos en el caso del ordenador. Aunque los argumentos sobrepasan el marco de este capítulo (véase Pylyshyn 1984), parece que para explicar el comportamiento humano inteligente, necesitamos hacer referencia a los tres niveles de organización. 1. Necesitamos el nivel de conocimiento para explicar por qué al­ gunos objetivos y creencias tienden a llevar a ciertos comportamientos, y por qué los comportamientos pueden cambiarse de formas racionales cuando, diciendo cosas, se incorporan nuevas creencias. Por ejemplo, para explicar por qué estoy sentado aquí en este momento apretando es­ tas teclas del teclado en concreto, uno debe hacer mención a mis creen­ cias sobre la ciencia cognitiva, mis creencias sobre lo que terminará siendo este manuscrito, y mis objetivos generales de proporcionar in­ formación veraz a aquellos que puedan leer el libro en el que aparecerá este capítulo. Sin este nivel no podríamos capturar regularidades tales como, por ejemplo, el hecho de que si tuviera la creencia de que se ha cancelado la publicación del libro, desplegaría un comportamiento bastante diferente al margen de los «estímulos» concretos que pudieran haberme llevado a esra {presumiblemente falsa) creencia. Este tipo de maleabilidad del comportamiento caracterizable semánticamente se de­ nomina penetrahilidad cognitiva y se ha empleado para diagnosticar el comportamiento que requiere explicación al nivel de conocimiento (más sobre esto en la sección 2.3, y en Pylyshyn 1984). 2. Nece si tamos el nivel de símbolo para explicar cosas tales como por qué algunas tarcas llevan más tiempo o generan más errores que otras. La psicología del procesamiento de la información está llena de casos en los que se descubre que la forma de la representación produce una diferencia en su comportamiento en los experimentos. Por ejemplo, en los experimentos de solución de problemas existe una diferencia en­ tre codificar el hecho de que todos los objetos en una caja son rojos y el hecho equivalente de que ningún objeto es azul. 3. Obviamente, necesitamos el nivel biológico para explicar cosas como los efectos de las drogas o el «jet lag» o los daños cerebrales en el comportamiento. Es igualmente posible que podamos necesitar el nivel biológico para explicar otras cosas también, como posiblemente la na-

turalcza del desarrollo cognitivo o la maduración o las psicopatologías, y quizás algunos cambios que hoy en día se llaman aprendizaje; qué hechos exactamente caen bajo cada uno de los tres niveles es en buena medida una cuestión empírica abierta. Objeciones a la visión clásica Siempre ha habido oposición a la idea de que tenemos estructu­ ras simbólicas en nuestras cabezas. La idea de que el cerebro piensa escribiendo y leyendo símbolos suena a muchos absurda. A algunas personas les da la idea de que hemos sido excesivamente influen­ ciados por la forma en que funcionan los ordenadores electrónicos actuales. El motivo principal de inquietud parece venir del hecho de que no tenemos la experiencia subjetiva de estar manipulando sím­ bolos. Pero la experiencia subjetiva ha sido una fuente de evidencia sobre lo que ocurre en la mente notoriamente equívoca. La inves­ tigación sobre el procesamiento humano de la información revela la existencia de innumerables procesos que claramente deben tener lugar (por ejemplo, parsing, inferencia) de los cuales no tenemos consciencia subjetiva. En otro lugar (Fodor 1975, Pylyshyn 1984. Fodor y Pylyshyn 1988) se dan argumentos en favor de la necesidad de postular estruc­ turas simbólicas en el razonamiento humano —de un «lenguaje del pensamiento» — . Los detalles de estos argumentos exceden el marco de este capítulo. Para los propósitos presentes, el siguiente resumen será suficiente. Si la descripción del nivel del conocimiento es correcta, entonces tenemos que explicar cómo es posible que un sistema físico, como un ser humano, se comporte de maneras que corresponden a principios del nivel de conocimiento, mientras que al mismo tiempo se rigen por leyes físicas. El contenido del conocimiento se relaciona con el estado de un sistema en una relación semántica, que es una relación bastante diferen­ te a las que aparecen en las leyes naturales (por poner un ejemplo, el ob­ jeto de la relación no tiene por qué existir). En el momento presente sólo hay un candidato a explicar cómo pueden ser realizados causalmcnte los principios del nivel de conocimiento, y es el que se apoya en una serie de ideas que arrancan con las visiones de Boole, Hilbert, Turing. Frege, y otros lógicos. Dice que el conocimiento está codificado en un sistema de códigos simbólicos, que en sí mismos están realizados físicamente, y

que son las propiedades físicas de los códigos lo que causa los compor­ tamientos en cuestión. Lo que Fodor y Pylyshyn (1988) han añadido a este enunciado general es el argumento de que el sistema de códigos ha de estar es­ tructurado de forma muy semejante a un lenguaje (como de hecho ocurre en los varios cálculos lógicos que se han desarrollado). El ar­ gumento surge en parte de observar que tanto la capacidad representacional como la capacidad inferencial en los sistemas inteligentes es sistemática. Las capacidades representacionales o inferenciales no son puntuales —no tienen lugar aisladamente: la capacidad de representar ciertas cosas o de llevar a cabo ciertas inferencias va de la mano de la capacidad de representar otras cosas o de llevar a cabo otras inferen­ cias. Por ejemplo, un sistema inteligente que es capaz de representar ciertas situaciones (por ejemplo, que John ama a Mary, o que una pe­ lota roja pequeña está en una caja azul grande) debe ser también capaz — se ejercite o no esta capacidad— de representar otras situaciones que impliquen los mismos componentes conceptuales (por ejemplo, que Mary ame a John o que una pelota azul grande esté en una caja roja pequeña). De forma similar cualquier sistema inteligente que pue­ de llevar a cabo ciertas inferencias (por ejemplo, que pueda inferir de saber que hace sol y calor y humedad que hace sol; esto es, inferir P de P y 0 y R) pueda también llevar a cabo otras inferencias relacionadas (por ejemplo, pueda inferir de saber que hace sol y calor que hace sol; esto es, inferir P de P y Q). Este tipo de sistematicidad se sigue automáticamente del uso de ex­ presiones simbólicas estructuradas para representar el conocimiento y servir de base para la inferencia. En otras palabras es un efecto colateral de una arquitectura clásica. En contraste es una propiedad que debe ser estipulada por el teórico (esto es, es un parámetro empírico líbre) en otras arquitecturas no simbólicas. Debe hacerse hincapié que en el momento presente no existe alter­ nativa a lo que Newell (1980) ha llamado el supuesto del sistema físico simbólico para tratar el razonamiento de un modo mecánico, aunque haya muchas discusiones especulativas sobre cómo se podría llegar a prescindir de los símbolos. Por lo tanto, incluso si uno no acepta los dis­ tintos argumentos que se han dado en favor de la necesidad de estructu­ ras simbólicas, la estrategia racional es continuar con el supuesto clásico hasta que haya una alternativa mejor. Al menos, ésa es la estrategia que se adopta en cualquier otra ciencia madura.

2. Metodologías computacionales en ciencia cognitiva: la vía alta y Tal y como ya he sugerido, los ordenadores pueden formar parte de procesos de construcción de modelos cognitivos en diversos niveles. En la práctica, cuanto más fino sea el grado del emparejamiento de la correspondencia, más estrecho va a ser el abanico de fenómenos que el modelo pueda cubrir. Por esta razón los psicólogos experimentales, que tradicionalmente han estado más ocupados con modelos que se puedan someter a examen con bastante detalle mediante datos de laboratorio, han trabajado generalmente con modelos que son de un alcance relativa­ mente estrecho. Por otro lado, los investigadores que trabajan dentro de la tradición de inteligencia artificial se han ocupado más de explicar las habilidades o capacidades generales en cuestión, posponiendo la valida­ ción empírica detallada de los mecanismos y algoritmos empleados en el modelo. Estas han sido denominadas, respectivamente, la «vía baja» (the l(nv road) y la «vía alta>^ (the high road). para la comprensión de los procesos cognitivos. Representan distintas estrategias para llegar al mismo fin último: modelar los procesos cognitivos humanos. David Marr fue uno de los protagonistas más influyentes de la vía rápida, o al menos de la estrategia que comienza en el final de la vía. Propuso la existencia de tres niveles en los que deben estudiarse los procesos cognitivos. Los denominó nivel compinaciom?/, nivel de al­ goritmo, \ nivel de mecanismo. Una teoría en el primer nivel recibía el nombre de teoría tipo I. Aunque la noción de teoría tipo I no está muy bien definida. Marr proporcionó algunos ejemplos, principalmente de su Cualquier dominio que admita una caracterización formal de la tarea o de la función inputtoutput llevada a cabo es una teoría tipo I. Frecuentemente los ejemplos citados incluyen la recuperación de la estructura tridimensional a partir de una diversidad de tipos de entra­ das. Así, por ejemplo, hay al menos teorías parciales acerca de qué es lo que está implicado en la recuperación de la estructura a partir de información sobre el movimiento, la visión estereoscópica, el som­ breado, o el contorno. Tales teorías dan una caracterización precisa de las condiciones bajo las que es posible la «asignación inversa» de los datos en cuestión (por ejemplo, movimientos de puntos o contornos en una superficie 2-D) a una estructura 3-D. Tales teorías confían invaria­ blemente en el reconocimiento de ciertas «constricciones naturales»

que existen en el mundo y son explotadas por el sistema visual para recuperar la estructura 3-D. En aquellos casos en los que hay una teoría tipo I de alguna habili­ dad cognitiva en concreto, podría ser posible determinar las condiciones bajo las que tal habilidad cumplirá o no alguna tarea determinada. Por ejemplo, si tuviéramos una caracterización matemática de las relaciones entre ciertas propiedades de la luz y los pcrceptos a que dan lugar (esto es, una teoría tipo I de ciertos aspectos de la percepción visual), enton­ ces podríamos ser capaces de relacionar las propiedades de la luz en cuestión con la presentación de la escena (vía geometría proyectiva) y determinar las condiciones bajo las que la percepción mediada por esas características sería verídica. Esto de hecho se hizo al modelizar procesos tales como los implica­ dos en la percepción de la forma a partir del movimiento (Ullman 1979), o la orientación de superficies a partir de la textura (Stevcns 1981), o de la visión estereoscópica (Marr y Poggio 1979). En el primero de éstos, por ejemplo. Ullman mostró matemáticamente que la recuperación no ambigua de la figura 3-D a partir del movimiento de ciertas caracteres visuales de la retina (por ejemplo, puntos al azar en el caso del efecto de profundidad en el movimiento estudiado por Wallach y O'Connell (1953)) sólo puede realizarse de cumplirse ciertas condiciones. La fun­ ción matemática que relaciona caracteres proximales en movimiento con la escena 3-D a partir de la que se proyectan los caracteres es única sólo si (a) hay suficientes visiones distintas y distintos caracteres (tres visiones y cuatro caracteres para la proyección ortográfica o dos visiones y cinco caracteres para la proyección de perspectiva), y (b) si el proceso está restringido en las interpretaciones que toma en consideración. Sin (b) no es posible una única función porque los mismos movimientos de carac­ teres proximales pueden tener origen en muchas configuraciones distales diferentes. Si la interpretación está restringida por lo que Ullman llama el supuesto de rigidez, sin embargo, entonces cabe una interpretación única en casi sólo aquellos casos en los que la gente da la interpretación verdadera. La restricción es que el proceso intente proporcionar una in­ terpretación de los caracteres como originándose en puntos en un cuerpo rígido en movimiento y no proporcione cualquier interpretación que no sea posible —no considera otras interpretaciones lógicamente posibles. Aunque esta no es todavía una teoría tipo I completamente adecuada (por ejemplo, falla para el movimiento biológico, como lo estudia Johansson (1975), y para deformaciones elásticas percibidas) proporciona una teo­ ría compuracional original para el efecto de profundidad cinética.

Nótese que tal resultado matemático no se basa en un estudio deta­ llado del proceso de la percepción humana, sino sólo en el hecho de que tiene una cierta capacidad, a saber, la capacidad de percibir una estruc­ tura 3-D única a partir del movimiento de ciertos puntos (esto es. en la existencia del efecto de profundidad cinética). El resultado matemático nos dice las condiciones bajo las que tal logro es posible. Así. nos dice algo acerca de los requisitos internos de esa tarea: requisitos que de alguna forma debe cumplir el sistema visual. En el caso de Ullman la función fue también descrita de un modo constructivo —esto es. de un modo que le permitía ser computada a partir del tipo de información asequible a un ordenador equipado con transductores apropiados. Esta última propiedad es también una parte importante del programa computacionalista. Desde luego, la forma en la que el sistema visual humano compute esa función es una cuestión cuya respuesta depende de consi­ deraciones empíricas ulteriores. Nótese, en cualquier caso, que simple­ mente conocer algunas de las propiedades de la función que computa el sistema visual le permite a uno comprender por qué la percepción es generalmente verídica aunque, contrariamente a Gibson, sepamos que el paso de la activación de sensores a la percepción implica un proceso falible (un proceso parecido a la inferencia que, sin embargo, es insen­ sible al conocimiento general del mundo). La razón por la que es gene­ ralmente verídico es que las condiciones bajo las que esta asignación inversa cuasi-inferencíal es válida, son unas que de hecho se cumplen frecuentemente en nuestro tipo de mundo —esto es, el supuesto de rigi­ dez es generalmente verdadero, al menos en una primera aproximación, en nuestro mundo (aunque pueda 110 ser generalmente verdadero en, digamos, un mundo habitado por peces). Por lo que Marr abogaba es un caso especial de estrategia de inves­ tigación de arriba a abajo, en la que uno procede intentando descubrir las líneas maestras más generales del dominio de un problema ames de resolver alguno de los sub-problemas detallados. Este tipo de abordaje se practica sistemáticamente en ciencias de la computación,donde —al­ guna vez bajo el nombre «programación estructurada» — se la considera la estrategia de elección en el diseño de sistemas computacionales. Con­ secuentemente, es la estrategia que caracteriza los abordajes de la inteli­ gencia artificial para entender la cognición. Marr fue incluso más allá al defender que uno no debería preocuparse por desarrollar un sistema que desplegara la actuación en cuestión hasta que al menos hubiera intentado desarrollar una teoría de la tarea (una teoría tipo I), y consecuentemente que uno debería trabajar primeramente en dominios (como quizás la vi-

siónj que permitieran una teoría tipo I, en lugar de en dominios como el razonamiento ordinario donde puede que no haya una teoría tal. Arguyo que si uno comienza hipotetizando un algoritmo en particular empleado por un organismo sin entender primero exactamente qué es lo que se supone que está computando el algoritmo, uno corre el peligro de imitar sin más fragmentos de comportamiento sin entender sus principios o los objetivos que está satisfaciendo el comportamiento. Esto es similar a la recomendación de Chomsky y otros de no hipotetizar mecanismos de aprendizaje para la adquisición de ciertas habilidades hasta que uno tenga una teoría sobre el estado estable de la propia habilidad. Aunque poca gente en ciencia cognitiva toma una postura tan extre­ ma como la de Marr, continúa habiendo diferencias en estilo de enfoque en la investigación en ciencia cognitiva. Hay diferencias entre gente que se ocupa de la generalidad y con la búsqueda de principios genera­ les, en contraste con los que desean explicar la variación experimental. Hay también diferencias entre enfoques que dan la mayor prioridad al criterio de suficiencia, y por ello construyen programas de trabajo que cubren algún dominio de habilidades, en contraste con aquéllos que se ocupan de decidir entre una o dos opciones generales (por ejemplo, de­ cidir si un cierto fenómeno, digamos, el reconocer que un estímulo es miembro de un conjunto previamente memorizado, es el resultado de una búsqueda paralela, una búsqueda serial auto-terminada, o una bús­ queda exhaustiva serial). Hasta un cierto punto cuál de estas estrategias se siga depende del área de investigación o los fenómenos empíricos concretos que se inves­ tiguen. Así, el estudio de la visión temprana se persigue frecuentemente intentando implemcntar algoritmos y explorar sus implicaciones. Los problemas asociados a la comprensión del lenguaje y procesamiento del discurso se llevan a cabo a menudo también dentro de esa tradición. Por otro lado, el estudio del aprendizaje, la memoria, y la resolución de problemas se han abordado con éxito tanto por la vía alta como por la baja. En tanto el fenómeno empírico de interés pueda ser atribuido a algún mecanismo o proceso aislado, cabe establecer empíricamente la naturaleza del proceso llevando a cabo una serie de experimentos. Pero en el punto en que el fenómeno surge de la interacción de muchos procesos, puede que no sea posible explicarlo sin un modelo más ge­ neral que incorpora el conjunto completo de los procesos relevantes. Los peligros de intentar responder cuestiones generales aislando efectos y atribuyendo fenómenos a características particulares del proceso han sido bien documentadas por Newell (1973c), quien argüyó (como dice

el título de su artículo) que «No puedes jugar a las veinte preguntas con la naturaleza y ganar». A pesar de estos peligros parccc posible estudiar ciertos sub-procesos específicos con detalle en algunos casos sin construir modelos a gran escala. De hecho el área de la ciencia cognitiva conocida en ocasiones como psicología del procesamiento de la información ha estado domi­ nada por la validación empírica de mini-modelos. El análisis en fases de los procesos cognitivos usando cronometría mental (ven por ejemplo, Posner 1978) es un buen ejemplo. La metodología de un análisis de lo s procesos cognitivos tan minucioso se discute en el capítulo 7. Para coger un ejemplo concreto, parece ser posible estudiar aspectos de la memoria a corto plazo sin desarrollar modelos a gran escala (ver, por ejemplo, Sperling 1967). De hecho, como los modelos son de una esca­ la tan pequeña, la teorización en este área típicamente no ha implicado implementar modelos en la forma de programas de ordenador. Pero incluso aquí se ha de ser cuidadoso al concluir que no se gana nada al implementar realmente modelos de pequeña escala. Newell (1973b) proporcionó un ejemplo excelente de cómo el intento de diseñar un modelo en ordenador para explicar algunos fenómenos empíricos de la memoria a corto plazo puede en sí mismo llevar a nuevas hipótesis que podrían de otro modo no haber surgido. En ese ejemplo concreto el intento de implementar un modelo en una arquitectura motivada inde­ pendientemente llevó a una forma concreta de explicar los resultados de Stemberg (1970) sobre búsquedas en la memoria a corto plazo, la así llamada hipótesis de descodificación, que no implica ni búsqueda exhaustiva ni auto-terminada (las dos opciones que se han investigado en una gran parte de la investigación empírica) y contiene tanto compo­ nentes seriales como paralelos (dos opciones que también se ha asumido que completan las posibilidades). El problema del control El compromiso de construir un modelo que cumpla la condición de suficiencia, esto es. uno que realmente genere comportamientos particu­ lares. nos obliga a enfrentarnos al problema de cómo y bajo qué condi­ ciones se invocan, en el curso de la generación de acciones, las repre­ sentaciones internas y las reglas. Estas son cuestiones que conciernen al control del proceso. Aunque constituyen un tópico central de estudio en ciencias de la computación, nunca habían surgido en una psicología

cognitiva que no estuviera constreñida por la suficiencia computacional. De hecho, uno de las principales críticas que se elevaron contra el trabajo pionero de psicólogos cognitivos como Tolman fue que sus teo­ rías trataban sólo las representaciones del organismo (mapas mentales), pero que carecían de un modo de explicar cómo estas representaciones podían conducir a la acción. Por ejemplo, en una crítica temprana a este enfoque cognitivista Guthrie (1935. p. 172) escribía, «En su interés por lo que ocurre en la mente de la rata, Tolman ha rechazado predecir lo que hará la rata. Por lo que concierne a la teoría, la rata está absorta en el pensamiento; si consigue la caja de comida al final, es su problema, no el de la teoría.» Se requiere mucho más para comprender las estructuras de con­ trol que saber cómo están secuenciadas las operaciones. Estamos tan habituados a pensar acerca de los procedimientos como secuencias de instrucciones que siguen su curso fijo hasta que alguna operación condi­ cional ramificada detecta una condición especificada, que no nos vienen fácilmente a la cabeza organizaciones alternativas. Sin embargo, éste es sólo un tipo posible de organización del control —uno en el que se pasa el control a lo largo de tina secuencia linear de operación a operación; cuando una operación termina, pasa el control a la siguiente operación en la línea. En ciencias de la computación e inteligencia artificial, sin embargo, hay un gran interés en esquemas de control muy diferentes — algunos que pueden cambiar el modo de pensar de los psicólogos acerca del abanico de posibilidades asequibles para convertir represen­ taciones en acciones. En lo que sigue, reviso brevemente algunas de las cuestiones que surgen cuando uno considera el problema de controlar la forma en que se despliegan los procesos en respuesta a las representaciones, reglas, y contingencias del entorno. Mi propósito no es describir el abanico de estructuras de control que se estudian en estos momentos en ciencias de la computación, sino meramente proporcionar un sentimiento intuitivo de cuáles son algunas de las distinciones en este campo y sugerir que la ciencia cognitiva tiene mucho que aprender de este área de desarro­ llo. Consideraciones como éstas no surgen sin existir un compromiso con la realización del proceso modelo en un ordenador. Y dado que las cuestiones sobre el control son una de las áreas de estudio centrales de las ciencias de la computación, el progreso en el desarrollo de modelos computacionales de procesos cognitivos a buen seguro dependerá de ideas técnicas con origen en las ciencias de la computación (y más en concreto en inteligencia artificial).

Uno de los avances en la comprensión de la naturaleza del control fue la articulación de la idea de retroalimentación del entorno a contro­ lar. Con esto se restablecía un cierto equilibrio entre el artefacto y su en­ torno: Aunque sólo se acredita al artefacto con la posesión de objetivos, la responsabilidad por el comportamiento es compartida. En ocasiones cuando el entorno es pasivo, la iniciativa parece provenir primariamente del artefacto, mientras que otras veces el entorno parece intervenir, y la iniciativa parece ir en la dirección opuesta. La noción de la responsabili­ dad de la iniciación de diferentes accioncs es fundamental para entender el control. En el caso de la mayoría de los programas de ordenador, la idea más común ha sido la del control moviéndose de punto en punto, o de instrucción en instrucción, de una forma ampliamente predetermina­ da. Tal secuenciación de instrucciones hace la noción de flujo de control bastante natural, y las instrucciones ramificadas hacen igualmente na­ tural pensar en pasar o mandar el control a otro lugar. Cuando el paso del control se combina con una facilidad primitiva de paso de mensa­ jes (para pasar argumentos), se hacen posibles las sub-rutinas. Y como las sub-rutinas pueden ser anidadas —esto es, las propias sub-rutinas pueden mandar control a otras sub-rutinas aún inferiores con la segu­ ridad de que el control encontrará eventualmente su camino de vuelta — también hace su aparición la noción de una jerarquía de control. Miller, Galanter, y Pribram (1960) vieron la importancia de la idea de las sub-rutinas jerárquicas; las llamaron unidades comprobar-operar-comprobar-salir (test-operale-test-exit), o TOTE, y sugirieron que deberían ser vistas como la unidad teórica básica de la psicología, reemplazando al omnipresente arco reflejo. Esta idea ha sido muy influyente en la con­ formación del pensamiento de los psicólogos sobre la cognición. Hay unas cuantas buenas razones por las que un sistema jerárquico de control es un concepto tan potente. Manteniendo sencillas (en tér­ minos tanto de cuándo se pasa el control y de qué mensajes se envían junto con él) las interacciones entre rutina y sub-rutina, se hace más fácil pensar en cada sub-rutina como un sub-sistema casi independiente; y eso hace que el sistema completo sea más fácil de añadir, modifi­ car, y comprender (véase la discusión clásica sobre la importancia de la organización jerárquica en la naturaleza en Simón 1969). Cada rutina en la jerarquía puede pensarse como definiendo algún (sub)objetivo en un sistema total dirigido-a-objetivos. Pasar el control a una sub-rutina equivale a activar un sub-objetivo, y el control es devuelto cuando esc sub-objetivo está consumado. Es tan potente esta idea que sus carencias han pasado desapercibidas durante muchos años.

En año tan temprano como 1962, sin embargo. Alien Newell (Newell 1962) resaltó parte de la rigidez de tal organización. En tanto cada sub-rutina sea un «especialista» estrecho, tal como una rutina para buscar una lista, la usual comunicación altamente restringida entre rutina y stib-rutrna funciona bien: puedes sin más pasar los ar­ gumentos y una dirección de retorno a esa sub-rutina y darle control. Entonces volverá con una respuesta cuando haya acabado. Pero si la sub-rutina no es un especialista tan estrecho, podría ayudar a poder comunicar cada tarea en términos más flexibles. Más aún, podría ayu­ dar si la evolución de las sub-rutinas pudiera ser observada sobre la marcha para evitar que use una cantidad no garantizada de tiempo y recursos (por ejemplo, memoria) en alguna tarea relativamente menor o en una tarca que algún otro proceso pudiera poder determinar que está abocada al fracaso. Del mismo modo, ayudaría si la sub-rutina pudiera informar de sus resultados más flexiblemente: especialmente si pudiera informar acerca de lo que ha ido mal en los casos en los que ha fallado. Cómo convertir estos desiderata en formas computacionales eficientes ha sido una de las principales preocupaciones de diseño a la hora de desarrollar lenguajes de programación en inteligencia artificial. Se puede caracterizar una variedad de distintas estructuras de con­ trol en términos de dos distinciones: ( I) entre enviar control (cuando la iniciativa reside en el locus antiguo) y capturar control (cuando la iniciativa reside en el locus nuevo), y (2 ) entre dirigir un mensaje a un receptor especificado y difundirlo a todas las rutinas' o «módulos» de una vez. Por ejemplo, en el caso estándar de jerarquia-subrutina, el control siempre es enviado (por la rutina que ya lo tiene), y se dirige un mensaje (que contiene parámetros y una dirección de retorno) especí­ ficamente a la rutina a la que se le da control; y cuando el sub-objetivo se consigue, el control es enviado de vuelta, junto con un mensaje de resultado. En la llamada de procedimiento invocada por patrones, tales como las empleadas en Planner o Prolog, cuando se necesita realizar una larca, se difunde un mensaje describiendo el objetivo, y entonces el control es capturado por algún módulo diseñado para responder a ese mensaje de objetivo particular. Esta es también la idea básica de lo que a veces se llama una estructura de control de pizarra, de la cual el viejo sistema Pandemónium (véase, por ejemplo, Lindsay y Norman 1977) y el más novedoso sistema de reconocimiento del habla Hearsay-11 (Erman. Hayes-Roth, Lesser. y Reddy 1980) son ejemplos.

Los sistemas de producción son casos especiales de procedimientos de llamada de procedimiento invocada por patrones. En los sistemas de producción los mensajes son también difundidos, y el control es captu­ rado. Pero cuando finaliza la producción, de nuevo simplemente difunde un mensaje. Su ciclo de control básico se llama ciclo de reconocimientoacción. en contraste con el ciclo más convencional de carga-ejecución de la computación convencional. El trabajo actual sobre sistemas de producción se describe en el capítulo 3. La distinción entre si se invocan los procesos explícitamente median­ te comandos, indirectamente mediante la ocurrencia de otros eventos, o implícitamente mediante ciertas condiciones cumplidas es importante en las ciencias de la computación. La distinción se relaciona estrecha­ mente con la diferencia entre un test y una «interrupción» (el segundo de los cuales puede ocurrir en relación arbitraria con un proceso). La distinción entre procesos invocados por datos y procesos invocados por procesos (característicos de los así llamados procedimientos demon, que incluyen los procedimientos 0 I 2 3 1 0 ]

[R e g is tra d o r g e n e rall

[g u a rd a r | 8 0 0 ) P ro g ra m a B

[R e g is tra d o r d e d ire c ció n ]

[leer I 100]

In te rp re ta d o r

Ig u a r d a r I 8101

[R e g is tra d o r in stru ccio n e s] Pro g ram a C

U n id a d d e d ato s

[g u a r d a r I 8 10 ] [e s c r ib ir I 1 0 ]

F ig u r a

3.1

Estructura de un ordenador digital simple sistema. Hay un conjunto de componentes, un procesador, una memoria principal, etc. unidos por enlaces de comunicación (el enlace que co­ necta prácticamente todo se conoce como bus). A lo largo de los enlaces fluyen corrientes de bits. Un vistazo dentro del procesador (en la parte inferior izquierda de la figura) nos revela más detalles anatómicos de los componentes conectados por enlaces: varias memorias de registro: una unidad de datos para llevar a cabo diversas operaciones como la adi­ ción, intersección, desplazamiento y demás; y una unidad de intérprete para llevar a cabo las instrucciones del programa. La memoria principal contiene unas cuantas instrucciones de un programa. La dirección en el registro de direcciones del programa apunta a una de ellas, que se lleva al registro de programa y se descodifica. La parte izquierda de la instrucción se usa para seleccionar una de las operaciones básicas del ordenador y la parte derecha se usa para acceder a una celda de la memoria principal, cuyo contenido se recupera y se convierte en un argumento para la operación. Los actos repelidos de extraer la siguiente instrucción, interpretarla y realizar la operación sobre el argumento se conocen como el ciclo de extracción-ejecución.

La figura [3. 1 J especifica la arquitectura de un ordenador digital (con cierta licencia literaria). Describe un sistema mecánico que se comporta de un modo determinado. El lenguaje que se ha usado para describirlo da mucho por sentado, al referirse a registros, enlaces, descodificadores, etc. Se precisa una mayor especificación acerca de estos componentes y de cómo operan, para decir cómo pueden realizarse en tecnología de circuitos y finalmente en física electrónica, todo lo cual puede darse aquí por sentado. La conducta de esta máquina depende del programa y de los datos almacenados en la memoria. La máquina, en efecto, puede exhibir esen­ cialmente cualquier conducta según el contenido. A estas alturas todos estamos al corriente de la extraordinaria variedad de tales programas: calcular estadísticas, llevar inventarios, jugar, editar originales, ejecutar herramientas de máquina, etc, así como transformar la interacción de la máquina con el entorno para que tenga lugar por medio de una amplia variedad de lenguajes, dispositivos gráficos y demás. Todo esto sucede debido a la conjunción de tres factores: la arquitectura del ordenador, que permite la interpretación de programas; la flexibilidad de los progra­ mas para especificar la conducta, tanto para el consumo externo como para crear programas adicionales que se usen en el futuro; y un mon­ tón de memoria para mantener un montón de programas junto con sus correspondientes datos de modo que pueda darse una amplia variedad de conducta. La figura [3.1 J es sólo la punta del iceberg de las arquitecturas com­ putacionales. Sin embargo, contiene las ideas esenciales y sirve para presentarlas de forma concreta. La arquitectura Je Ja co^tiirión La figura [3.11 compendia la invención del ordenador, un mecanismo que puede exhibir conducta indefinidamente flexible, compleja, reactiva y orientada a la tarea. En los humanos se puede observar conducta flexi­ ble y adaptativa de una abundancia y variedad sin límites aparentes. Una hipótesis natural es que sistemas como los de la figura [3.11 revelan los mecanismos básicos del modo en que los humanos consiguen su propia flexibilidad y. por tanto, del modo en que funciona la mente. Es una responsabilidad capital del capítulo [21 [(y un tema del capí­ tulo [ 11)1 mostrar de qué modo se ha transformado esta observación en

uno de los fundamentos principales de la ciencia cognitiva. La base em­ pírica para esta transformación ha provenido de la inmensa diversidad de tareas que se han efectuado con los ordenadores incluyendo, aunque sin limitarse a ella, la corriente de sistemas de inteligencia artificial (IA). Se ha impelido una fuerza irresistible a esta transformación a partir de la teoría de mecanismos computacionales (Hopcroít & Ullman 1979), que prescinde de mucho de lo que parece especial en la figura [3.11 y mues­ tra la suficiencia y la necesidad de los mecanismos computacionales, así como el modo en que tales mecanismos se relacionan con sistemas que tienen representaciones de su mundo externo (esto es, que tienen se­ mántica). Las arquitecturas que resultan de esta teoría se conocen como arquitecturas simbólicas. Tal y como se expuso en el capítulo [2 J, podemos describirlo huma­ no en diferentes niveles de sistema. En la parte superior se encuentra el nivel del conocimiento, que describe a la persona como alguien que tiene metas y que conoce cosas acerca del mundo y en la cual el conocimiento se pone al servicio de sus metas (por el principio de racionalidad). La persona puede operar en el nivel del conocimiento sólo porque es así mismo un sistema de nivel simbólico, que es un sistema que opera en términos de representaciones y operaciones de procesamiento de infor­ mación realizadas sobre estas representaciones. El nivel simbólico debe realizarse también en términos de algún sustrato, y la arquitectura es ese sustrato definido en un lenguaje descriptivo apropiado. En los ordena­ dores éste resulta ser el nivel de transferencia entre registros, en el que se transportan los vectores de bits desde una unidad funcional (como un sumador) hasta otra, sujetos al paso por puertas lógicas al cargo de bits de control. En los humanos se trata del nivel de circuitos neuronales, que en el momento actual parece correctamente descrito como redes de conexiones inhibidoras y excitadoras, interconectadas y sumamente pa­ ralelas, que procesan un medio de señales continuas. Por debajo de éste existen, por supuesto, otros niveles de descripción: neuronas, orgánulos, macromoléculas. y así descendentemente. Esta disposición de niveles de sistema parece muy especial: después de todo, es el ojo de la aguja a través del que han de pasar los sistemas para poder ser inteligentes. No obstante, existe una inmensa variedad de arquitecturas y una inmensa variedad de sustratos físicos en los que implementarlas. No existe aún una estimación real de esta doble variedad o de sus consecuencias, excepto que son sumamente vastas y diversas. Resulta relativamente fácil entender una arquitectura dada cuando se nos presenta, aunque puede haber una buena cantidad de detalles por los

que navegar. Sin embargo, resulta difícil percibir las consecuencias conductuales de una arquitectura, porque se encuentra muy recubierta por los programas que ejecuta. Y es extremadamente difícil comparar dife­ rentes arquitecturas, puesto que cada una presenta su propio marco total que puede dividir el mundo de manera radicalmente distinta. A pesar de estas dificultades, la ciencia cognitiva precisa determinar la arquitectura que subyace a la cognición humana y la sostiene. La arquitectura no determina por sí misma la conducta. Los restantes colaboradores principales son: la meta que intenta conseguir la persona, el entorno de tarea en el que ésta está actuando y el conocimiento que tiene. La primera no es solamente el conocimiento de las condiciones o situación deseadas, sino también el compromiso de dirigir la conduc­ ta para alcanzar tales condiciones. El segundo es la situación objetiva, junto con las restricciones objetivas sobre el modo en que la persona puede interactuar con la situación. El tercero es la situación subjetiva de la persona en relación a la tarea. El conocimiento implicado para llevar a cabo una tarea cualquiera es variado y extenso, y deriva de múltiples fuentes. Estas fuentes incluyen el enunciado o las indicaciones con que se presenta la tarea, la interacción inmediatamente anterior con la situa­ ción de la tarea, la experiencia a largo plazo con situaciones análogas o similares, la educación previa, incluyendo la adquisición de destrezas, y la socialización y culturización que proporcionan la orientación general. Todas estas fuentes de conocimiento efectúan su contribución. La meta, la tarea y, por supuesto, el conocimiento constituyen la caracterización de una persona en el nivel del conocimiento. El papel principal de la arquitectura es hacer esto posible al sostener el procesa­ miento de representaciones simbólicas que portan el conocimiento. Si lo hiciera de modo perfecto, la arquitectura no aparecería como un factor independiente para determinar la conducta, lo mismo que no lo hacen la acetilcolina o los átomos de azufre. Sería simplemente el andamiaje que explica cómo se realizan en nuestro mundo físico los determinantes efectivos (tarea y conocimiento). Pero la caracterización del nivel del conocimiento dista de ser perfec­ ta. Como acostumbraban a decir los lingüistas, puede haber una gran dis­ tancia entre la competencia y la actuación. La arquitectura se transparenta de muchas maneras, tanto grandes como pequeñas. Sin duda, buena parte de la psicología cognitiva consiste en calcular esas maneras: velocidad de procesamiento, errores de memoria, lapsus lingüísticos, ilusiones percep­ tivas. fallos de racionalidad en la toma de decisiones, efectos de interfe-

reneia del material aprendido, etc, etc. Estos factores se basan en parte en la arquitectura. Algunos aspectos de la conducta pueden también tener su origen en mecanismos y estructuras definidos a niveles inferiores: funcio­ namiento neuronal, propiedades de los músculos, imperfecciones en la lente de la córnea, la estructura macromolecular de Jas drogas, los efectos del ascenso de la temperatura, etc. Sin embargo, cuando la arquitectura no logra sostener adecuadamente una conducta orientada a metas basada en el conocimiento da lugar, por lo general, a características que considera­ mos psicológicas. Visto de este modo, buena parte de la psicología supone la investigación de la arquitectura. Lo que suministra la noción de arquitectura es el concepto de sistema to­ tal de mecanismos que se requieren para conseguir una conducta inteligente flexible. Normalmente las investigaciones psicológicas operan aisladamente aunque con una sensación justificada de que los mecanismos que se inves­ tigan (memoria, aprendizaje, recuperación de la memoria o lo que sea) son necesarios e importantes. La arquitectura añade el contexto de sistema total dentro del cual operan tales mecanismos separados, proporcionando res­ tricciones adicionales que determinan la conducta. La arquitectura también trae a primer plano mecanismos adicionales que deben estar implicados y que han recibido menos atención en psicología experimental, por ejemplo, las operaciones elementales y el control. Este requisito de integración no es simplemente un condimento agradable. Toda actuación humana comple­ ta recurre a muchas de las funciones psicológicas que investigamos pieza por pieza: percepción, codificación, recuperación, memoria, composición y selección de respuestas simbólicas, toma de decisiones, órdenes motoras y respuestas motoras efectivas. En la teoría y experimentación psicológica se han corrido riesgos considerables al concentrarse en una porción de con­ ducta, mientras se deja el resto como fondo inarticulado. Una teoría de la arquitectura es una propuesta de un mecanismo cognitivo total, más que de un único aspecto del mecanismo. Una en­ carnación que se proponga para una arquitectura, como un sistema de simulación, pretende ser un mecanismo completo para la cognición hu­ mana. La forma de su memoria encama una hipótesis sobre la forma de las especificaciones simbólicas humanas para la acción; el modo en que se crean o modifican sus programas encama una hipótesis sobre el modo en que se crean o modifican las especificaciones de la acción humana; y así sucesivamente (Newell 1987). Para resumir, el papel de la arquitectura en ciencia cognitiva es el de ser el elemento central en una teoría de la cognición humana. No es

el determinante único, ni siquiera el predominante, de la conducta de la persona, pero es el determinante de lo que hace a la conducta psi­ cológica, antes que un reflejo de las metas de la persona a la luz de su conocimiento. Tener una teoría de la cognición es tener una teoría de la arquitectura. 2. Requisitos de la arquitectura cognitiva ¿Por qué debería ser la arquitectura cognitiva de un modo o de otro? Toda arquitectura proporciona programabilidad. que produce conducta indefinidamente flexible. ¿Por qué no daría lo mismo una arquitectu­ ra que otra? Tenemos que abordar esta cuestión como preliminar a la discusión de la naturaleza de la arquitectura cognitiva. Tenemos que comprender los requisitos que moldean la cognición humana, especial­ mente aparte de la necesidad de computación universal. La arquitectura cognitiva debe proporcionar el soporte necesario para todos estos re­ quisitos. La siguiente es una lista de requisitos que podrían moldear la arquitectura (adaptada de Newell 1980): 1 . Comportarse flexiblemente en función del entorno. 2. Exhibir conducta adaptativa (racional, orientada a metas). 3. Operar en tiempo real. 4. Operar en un entorno detallado, rico y complejo: a. percibir una inmensa cantidad de detalles cambiantes, b. usar enormes cantidades de conocimiento, c. controlar un sistema motor de muchos grados de libertad. 5. Usar símbolos y abstracciones. 6 . Usar un lenguaje, tanto natural como artificial. 7. Aprender del entorno y de la experiencia. 8 . Adquirir capacidades durante el desarrollo. 9. Vivir autónomamente dentro de una comunidad social. 10. Exhibir autoconciencia y un sentido del yo. Estos requisitos expresan nuestro conocimiento comün, pero cien­ tíficamente informado, acerca de los seres humanos en su hábitat. No hay modo de saber hasta qué punto está completa la lista, pero sin duda incluye muchos requisitos relevantes. (1) Listamos en primer lugar el requisito de comportarse flexible­ mente en función del entorno, puesto que es la capacidad central que proporcionan las arquitecturas. Si un sistema no puede obligarse a res-

ponder de la manera que se precise, a duras penas puede ser inteligente. La única finalidad de esta lista, desde luego, es ir más allá del primer íiem. (2) La flexibilidad por sí misma es tan sólo un medio: debe estar al servicio de metas y relacionada racionalmente con la obtención de los objetos y condiciones que permiten que el organismo sobreviva y se propague. (3) La cognición debe operar en tiempo real. Esta exigencia del entorno es a la vez importante y omnipresente. Choca directamente con el requisito de flexibilidad, donde el tiempo de computación es un recurso esencial. (4) El entorno en el que habitan los humanos tiene importantes características, aparte de ser dinámico: es rico en combi­ naciones y detallado, cambia simultáneamente en muchos frentes, pero con muchas regularidades en cada escala temporal. Esto afecta al sis­ tema cognitivo de varias maneras, (a) Debe haber múltiples sistemas perceptivos que exploten los múltiples aspectos dinámicos; todos ellos deben operar de modo concurrente y dinámico, y algunos deben tener un ancho de banda elevado, ib) Deben existir memorias muy extensas puesto que el entorno proporciona la oportunidad de conocer muchas cosas relevantes, y en un mundo en evolución, y por tanto competitivo, las oportunidades que el mundo ofrece a algunos origina requisitos para todos, (c) Un sistema motor que se desplace e influya en un mundo com­ plejo requiere una determinación continua de muchos grados de libertad a un ritmo dictado por el entorno. (5) La cognición humana es capaz de usar símbolos y abstracciones. (6 ) También es capaz de usar un lenguaje, tanto natural como artificial. Estos dos requisitos podrían venir a ser la misma cosa, o bien podrían imponer exigencias un tanto distintas. Ambos se encuentran íntimamen­ te relacionados con el requisito de flexibilidad y podrían ser redundantes respecto a éste. Pero podrían existir aspectos adicionales de importancia en cada uno de ellos. No es preciso resolver todo esto para la lista, que trata de conseguir cobertura más que parsimonia o independencia. (7) Los humanos deben aprender del entorno, no de modo ocasional sino continuamente y no un poco sino bastante. Esto también proviene de la multitud de regularidades a diversas escalas temporales que se encuentran disponibles para el aprendizaje. ( 8) Es más, muchas de nues­ tras capacidades se adquieren durante el desarrollo. Cuando el neonato aparece por vez primera se encuentra, ciertamente, carente de muchas capacidades, pero éstas parecen ser exactamente las capacidades de alto nivel necesarias para adquirir las capacidades adicionales que necesita. Así que se da una restricción de «la gallina y el huevo», que hace alu­ sión a una especialización significativa que haga posible el desarrollo.

Al igual que con los requisitos de símbolos y lenguaje, la relación entre aprendizaje y desarrollo es oscura. Cualquier cosa que esta resulte ser, ambos requisitos tienen su puesto en la lista. (9) Los humanos deben vivir de modo autónomo dentro de una co­ munidad social. Este requisito combina dos aspectos. Un aspecto de la autonomía es la capacidad para verse libre de las dependencias del en­ torno. En relación a la autonomía de los ordenadores y robots actuales, esto implica que necesitamos capacidades substancialmente incremen­ tadas. Por otra parte, mucho de lo que hemos aprendido de la etología y de la teoría social habla a favor de la dependencia de los individuos hacia las comunidades en las que se han criado y residen (von Cranach, Foppa. Lepinies & Ploog 1979). Las capacidades adicionales para una autonomía de bajo nivel no invalidan la amplia necesidad de sociali­ zación y de inserción en una estructura social de apoyo. Si los huma­ nos abandonan sus comunidades* se vuelven ineptos y disfuncionales en muchos respectos. (10) El requisito de autoconciencia es un tanto oscuro. Ciertamente tenemos un sentido del yo. Pero no resulta evidente qué papel funcional juega la autoconciencia en la organización total de la mente. La investigación ha subrayado la importancia de la metacognición, teniendo en cuenta las capacidades del yo en relación al entorno de tarea. Pero el vínculo entre la metacognición y la noción completa de un sentido del yo permanece oscuro. Se puede considerar la cognición humana como un sistema de pro­ cesamiento de información que constituye una solución para lodos los requisitos de la lista y quizás para otros de los que aún no tenemos cono­ cimiento. La flexibilidad, el fundamento para afirmar que la cognición humana está construida sobre una arquitectura, es sin duda un punto destacado, pero dista de ser el único. Cada uno de los otros juega algún papel para hacer de [a cognición humana lo que es. El problema de este capítulo no es qué forma toma la cognición en conjunto en respuesta a estos requisitos, ése es el problema de la ciencia cognitiva en conjunto. Nuestro problema es qué es lo que implica la lista para la forma de la arquitectura. Para cada requisito existe un corpus de conocimiento científico y general, más o menos bien desarrollado. Pero la cognición es siempre el resultado de la arquitectura más el contenido de las memorias, combinados bajo el distintivo de ser adaptativo. Esto tiende a ocultar la estructura interna y revela sólo la conducta del nivel del conocimiento. Así pues, extraer las implicaciones para la arquitectu­ ra requiere un a n á lisis.

Hay distintos enfoques posibles para tales análisis, aunque aquí sólo podemos mencionarlos brevemente. El más importante es el de acer­ carse a la arquitectura en el plano temporal; si la conducta programada cuenta con poco tiempo para actuar entonces hay una posibilidad de que la arquitectura se trasluzca. Un buen ejemplo es la exploración de la conducta de respuesta inmediata que ha establecido un terreno de conducta automática, como algo distinto del terreno de la conducta con­ trolada, más deliberada (Schneider & Shiffrin 1977, Shiffrin & Schneider 1977). Otro enfoque es el de buscar regularidades universales. Si se transparenta alguna regularidad a pesar de todos los tipos de variación, puede que refleje algún aspecto de la arquitectura. Un buen ejemplo es la ley potencia de la práctica, según la cual el tiempo que lleva realizar una tarea repetida, sin que importe casi qué tarea, mejora de acuerdo a una ley potencia del número de intentos (Newell & Rosenbloom 1981). Se han hipotetizado mecanismos de arquitectura para dar cuenta de ella. (Rosenbloom & Newell 1986). Aún otro enfoque es el de construir ar­ quitecturas experimentales que sostengan algunos de los requisitos de la lista. Estas ayudan a generar potenciales mecanismos que cumplan varios requisitos, pero también revelan la auténtica naturaleza del requi­ sito. Muchos de los esfuerzos en IA y en el desarrollo de herramientas y entornos de software para IA encajan en este molde (una conferencia reciente (VanLehn 1989) proporciona una buena muestra). Los requisitos funcionales no son las únicas fuentes de conocimien­ to acerca de la arquitectura cognitiva. Sabemos que la arquitectura cog­ nitiva se encuentra realizada sobre tecnología neuronal y que fue creada por la evolución. Ambos factores tienen efectos importantes sobre la arquitectura. Tampoco los vamos a estudiar. [Otros capítulos de este vo­ lumen tratan sobre las consecuencias de la estructura neuronal del cere­ bro], y las consecuencias de la evolución, aunque seductoras, resultan difíciles de discernir. 3. La naturaleza de la arquitectura Describiremos ahora la naturaleza de la arquitectura cognitiva. Da­ remos ésta en términos de funciones, en vez de estructuras o mecanis­ mos. Esto es en parte porque la arquitectura se define en términos de lo que hace para la cognición. Pero también porque, tal y como nos ha descubierto la informática, hay una variedad sumamente amplia de estructuras y de mecanismos que han resultado capaces de proporcio­

nar las funciones centrales. Así que no ha surgido ningún conjunto de estructuras y mecanismos que sean lo bastante necesarios para llegar a ser los rasgos de criterio. El carácter puramente funcional de las arqui­ tecturas es especialmente importante cuando nos movemos desde los ordenadores digitales actuales hacia la cognición humana. Aquí, la tec­ nología del sistema subyacente (circuitos neuronales) y la tecnología de construcción (evolución') son muy diferentes, de modo que podemos esperar encontrarnos con que las funciones se realizan de modo bien distinto al de la tecnología digital actual. En general, la arquitectura proporciona el soporte para una función dada más que proporcionar la función entera. Conno la arquitectura pro­ porciona un modo en el que el software (esto es. el contenido) puede guiar la conducta de manera flexible, el software puede proporcionar esencialmente todas las funciones intelectuales o de control. Tan sólo en diversas condiciones restrictivas, de velocidad, fiabilidad, acceso a los propios mecanismos de la arquitectura y demás, es necesario ejecutar la totalidad de ciertas funciones directamente sobre la arquitectura. Desde luego, puede resultar eficiente ejecutar sobre la arquitectura funciones que también el software podría proporcionar. Desde una perspectiva biológica o de ingeniería no existe una razón intrínseca para preferir un modo de llevar a cabo una función antes que otro. Confluyen cuestiones de eficiencia, modificabilidad. construibilidad, coste de recursos, y dis­ ponibilidad de recursos para determinar qué mecanismos se usarán para realizar una función y cómo se repartirán entre el soporte de arquitectura y el programa más los datos. La siguiente lista ofrece algunas funciones conocidas de la arqui­ tectura: 1. Memoria: a. Contiene estructuras que contienen ejemplares (tokens) de símbolos. b. Modificable de modo independiente a algún nivel de detalle. c. Memoria suficiente. 2. Símbolos: a. Patrones que proporcionan acceso a estructuras simbólicas distales. b. Lhi ejemplar de un símbolo es la aparición de un patrón en una estructura. c. Símbolos suficientes.

3. O p er a c io n e s:

a. Procesos que toman estructuras simbólicas como entrada y producen estructuras simbólicas como salida. b. Composicionalidad completa. 4. Interpretación: a. Procesos que toman estructuras simbólicas como entrada y producen conducta al ejecutar operaciones. b. Interpretabilidad completa. 5. Interacción con el mundo externo: a. Interfaces perceptivos y motores. b. Memoria intermedia e interruptores. c. Exigencias de acción en tiempo real. d. Adquisición continua de conocimiento. Resaltamos que estas funciones son sólo las que se conocen en la actualidad. Especialmente con sistemas naturales como la cognición hu­ mana, pero incluso con sistemas artificiales, no conocemos codas las funciones que se realizan .2 Las fuentes básicas de nuestro conocimiento de las funciones de la arquitectura es precisamente lo que se ha omitido en el apartado anterior, esto es, la evolución de las arquitecturas de los ordenadores digitales y la correspondiente teoría abstracta de máquinas que se ha desarrollado en informática. No vamos a fundamentar la lista detalladamente en estos antecedentes, pero quien pretenda trabajar se­ riamente en arquitecturas cogniiivas debería estar al corriente de ellos (Minsky 1967, Bell & Newell 1971, Hopcroft & Ullman 1979, Siewiorek. Bell & Newell 1981, Agrawal 1986, Fernández & Lang 1986, Gajski, Milutinovic. Siegel & Furth 1987). A continuación nos ocuparemos de los elementos de esta lista. Sistemas simbólicos La función central de la arquitectura es sostener un sistema con ca­ pacidad de computación universal. Por tanto las funciones iniciales de nuestra lista son aquellas que se requieren para proporcionar esta capa­ cidad. Deberíamos poder generar la lista simplemente mediante un aná­ 2 Esto es en parte porque las funciones son elementos conceptuales en un análisis Je los sistemas naturales, y por tanto qué funciones existan dependerá del esquema de análisis.

lisis de las máquinas universales existentes. Sin embargo, hay muchas variedades de sistemas universales. En efecto, un rasgo notable de la historia de la investigación de la computación universal ha sido la crea­ ción de muchas formulaciones alternativas e independientes de la uni­ versalidad, que han resultado ser todas equivalentes. Máquinas de Tu­ ring. algoritmos de Markov, máquinas de registro, funciones recursivas, redes neuronales de Pitts-McCulloch, producciones de Post. sistemas de etiquetas, además de todo tipo de organizaciones de ordenadores digi­ tales: todas ellas encierran un modo de formular una máquina univer­ sal. Estas máquinas universales son todas equivalentes en flexibilidad y pueden simularse mutuamente. Pero al igual que las arquitecturas (y por las mismas razones) cada formulación es por sí misma un marco, y a menudo presentan un diseño bastante específico e idiosincrático, como la cinta, la cabeza lectora y el formato de instrucciones por quíntuplas de una máquina de Turing. Aunque no le falte cierto encanto (¡especial pero muy general!), esto tiende a oscurecer las funciones generales que se requieren. La formulación que hemos elegido es el sistema simbóli­ c o (Newell 1980), que es equivalente a todas las demás. Sin embargo, el papel destacado que otorga a los símbolos ha resultado útil en las dis­ cusiones sobre la cognición humana y. al evitar los detalles específicos de operación, resulta menos idiosincrática que otras formulaciones. Los cuatro primeros elementos de la lista de funciones proporcionan la capacidad para ser un sistema simbólico: memoria, símbolos, operacio­ nes e interpretación. Sin embargo, ninguna de estas funciones (ni siquiera los símbolos) es la función de representación del mundo externo. Cier­ tamente los símbolos proporcionan una función de representación inter­ na, pero la representación del mundo externo es una función del sistema computacional en conjunto, de modo que la arquitectura sostiene esa re­ presentación, pero por sí misma no la proporciona. (Véase el capítulo [2 ] para comprender cómo es posible esto, y cómo nos movemos del nivel del conocimiento, que se refiere al mundo externo, hacia el nivel simbólico, que contiene los mecanismos que proporcionan la capacidad de referencia (aboutness). Memoria y estructuras de memoria. El primer requisito es memoria, es decir, estructuras que persistan a lo largo del tiempo. En los ordena' Se les ha llamado si nenias simbólicos físicos (Newell & Simón 1976) para enfa­ tizar que su noción de símbolo deriva de la informática y de la inteligencia artificial, por contraposición con la noción de símbolo en las artes y humanidades, que puede que resulte o no la misma. Aquí nos bastará con la expresión abreviada.

dores hay una jerarquía de memoria que se extiende desde los registros de trabajo del procesador central (como el registro de direcciones), a los registros usados para estados temporales (como un acumulador o una pila de operandos, a la memoria primaria (que es de acceso aleatorio y que contiene los programas y datos activos), a la memoria secundaria (discos), a la memoria terciaria (cintas magnéticas). Esta jerarquía se caracteriza por sus constantes temporales (velocidad de acceso, velo­ cidad de escritura y tiempo estimado de residencia) y por su capacidad de memoria, en relación inversa: cuanto más lenta sea la memoria, más cantidad disponible de ella habrá. La memoria más rápida es una parte esencial de la dinámica operacional del sistema y ha de considerarse conjuntamente con él. La memoria a largo plazo, de mayor capacidad, satisface la exigencia de gran cantidad de memoria que se precisa para la cognición humana. La memoria se compone de estructuras, llamadas estructuras sim­ bólicas porque contienen ejemplares de símbolos. En los ordenadores todas las memorias contienen los mismos tipos de estructuras, esto es. vectores de bits (bytes y palabras), aunque ocasionalmente se encuentran múltiplos mayores de tales unidades (bloques y registros). A un nivel de detalle lo bastante grande, las estructuras de memoria deben poder mo­ dificarse de modo independiente. Hay dos razones para esto. En primer lugar, la variedad del mundo externo es combinatoria: comprende mu­ chas dimensiones independientes, con múltiples valores, situadas (e ite­ radas) por todo el espacio y el tiempo. Sólo una estructura de memoria combinatoria puede mantener información acerca de un mundo seme­ jante. En segundo lugar, las dependencias predefinidas en la estructura de memoria, al tiempo que facilitan ciertas computaciones, tienen que dificultar finalmente la habilidad del sistema para computar de acuerdo a los dictados del entorno. Al no reaccionar a las dependencias del en­ torno, las dependencias de la memoria se convierten en un estorbo, aun cuando quizá sea posible compensarlo mediante computación adicional. Desde luego, dentro de ciertos límites (que aquí llamamos el nivel de detalle) las estructuras pueden exhibir diversas dependencias, lo cual puede resultar útil.4 Símbolos y ejemplares de símbolos. Los ejemplares de símbolos son patrones en las estructuras simbólicas que proporcionan acceso a estruc■ * Nótese, sin embargo, que en ios ordenadores que existen ha demostrado ser funcio­ nal llevar la independencia (an abajo como sea posible, hasta el bit.

turas de memoria distales, esto es, a estructuran que se encuentran en otra parte de la memoria."' En las arquitecturas de ordenador estándar un símbolo es una dirección de memoria y un ejemplar de un símbolo es una cadena concreta de bits en una palabra concreta que se puede usar como una dirección (transportándola hasta el registro de dirección de memoria, como en la figura [3.1]). La necesidad de símbolos6 se plantea debido a que no es posible que toda la estructura implicada en una computación sea ensamblada anticipadamente en el espacio físico de la computación. Así que es necesario desplazarse a otras partes (distales) de la memoria para conseguir la estructura adicional. En términos del nivel del cono­ cimiento esto es lo que se requiere para hacer que lodo el conocimien­ to del sistema se involucre en el logro de una meta. No es posible, en general, conocer de antemano todo el conocimiento que va a usarse en una computación (pues esto implicaría que la computación ya ha sido llevada a cabo). Por tanto los ingredientes para un mecanismo simbólico son algún patrón dentro de las estructuras que se están procesando (el ejemplar) que puede usarse para abrir una ruta de acceso a una estructura distal íy que puede suponer una búsqueda en la memoria) y una ruta de recuperación por medio de la cual se puede comunicar con la estructura distal para que informe el espacio local de la computación .7 Operaciones. El sistema e?' capaz de realizar operaciones sobre es­ tructuras simbólicas para componer nuevas estructuras simbólicas. Hay muchas variaciones de tales operaciones en cuanto a aquello que hagan cuando construyen estructuras nuevas o cuando modifican estructuras viejas, y en cuanto al modo en que dependen de otras estructuras de símbolos. La forma que toman tales operaciones en los ordenadores es­ tándar es la aplicación de un operador a un conjunto de operandos, tal y como se especifica en un formato fijo de instrucción (véase la tigu' Las estructuras de acceso pueden estar construidas (y lo están en abundancia) den­ tro del software de un sisiema; nosotros estudiamos la capacidad básica de la arquitec­ tura que sostiene tales mecanismos de software. ‘s Nótese que el término símbolo se usa aquí para un tipo de estructura y de meca­ nismo dentro de un sistema simbólico y no. como en sim bolizar, como un sinónimo para algo que representa. Rstu noción de símbolo, sin embargo, requiere al menos repre­ sentación interna: las direcciones designan estructuras de memoria, los estímulos de entrada deben proyectarse a estructuras internas lijas y los códigos de operador designan opera­ ciones. 7 Hs concebible que esto pueda entenderse para incluir el mundo externo como un nivel dtstal en la jerarquía de memoria del sistema (más allá del nivel terciario^. Los ejemplares de símbolos especificarían direcciones en el mundo externo, y las rutas de acceso y recuperación implicarían actos perceptivos y moiores.

ra [3.1]). Los lenguajes de programación de alto nivel generalizan esto a todo el alcance de un formalismo aplicativo. donde (F x¡. x2, .... xt)) ordena al sistema que aplique la función F a los operandos x¡..... xn para p rod u cir una estru ctu ra n u ev a.

Interpretación. Algunas estructuras (no todas) tienen la propiedad de determinar que se produzca una secuencia de operaciones simbólicas en estructuras simbólicas específicas. Estas estructuras se conocen de diversos modos, como códigos, programas, procedimientos, rutinas o planes. El proceso de aplicación de las operaciones se conoce como interpretación de la estructura simbólica. En los ordenadores estándar esto se produce por medio del ciclo de extracción-ejecución (compárese con la figura [3.1]), mediante el cual se accede a cada instrucción, sus operandos se descodifican y se distribuyen en diversos registros, y se ejecuta la operación. La simplicidad de este esquema corresponde a la simplicidad del lenguaje máquina y viene dictada por la complejidad de aquello que pueda realizarse de modo eficiente y fiable directamente so­ bre el hardware. Se pueden compilar lenguajes procedí mentales (de alto nivel) más complejos en un programa elaborado en un lenguaje máquina más simple, o se pueden ejecutar sobre la marcha (esto es, interpreta­ tivamente) por el microcódigo de un subcomputador simple. Hay otras alternativas posibles, por ejemplo, construir una máquina específica de propósito especial que incorpore las operaciones del programa y activar entonces la máquina. Todas ellas vienen a ser lo mismo: la capacidad para convertir estructuras simbólicas en conducta. El sistema integrado. Tenemos ya todos los ingredientes de un sistema simbólico. Estos son suficientes para producir conducta indefinidamente flexible (requisito 1 de la lista). La figura [3.2] muestra la interacción básica. Las operaciones pueden construir estructuras simbólicas que se pueden interpretar para especificar nuevas operaciones que construyan aún más estructuras simbólicas. Este bucle asegura la construcción de conducta arbitraria en función de otras exigencias. Los únicos requi­ sitos adicionales son ciertas propiedades de suficiencia y completud. Sin suficiente memoria y suficientes símbolos el sistema será incapaz de realizar tareas que exijan datos y referencias intermedias lo bastante voluminosas, simplemente porque se quedará sin recursos. Sin comple­ tud en el bucle no se podrán producir ciertas secuencias de conducta. Esto tiene dos caras: una composicionalidad completa, de modo que los operadores puedan construir cualquier estructura de símbolos, e interpretabilidad completa, de modo que sea posible que haya estructuras de símbolos interpretables para cualquier disposición de las operaciones.

Estru ctura

Estru ctura

sim bolice

sim b o lira

F ig u r a

Estru ctura -------- ►

sim bólica

3.2

El bucle hásico de interpretación y construcción Bajo la completud deberíamos incluir la fiabilidad: si los mecanismos no operan como se haya postulado (incluyendo la memoria), entonces no tienen por qué seguirse los resultados. La universalidad es un modo simple y elegante de exponer lo que supone ser flexible, al llevar la flexibilidad hasta el límite .8 Los fallos en suficiencia y completud no amenazan necesariamente a la flexibili­ dad de modo crítico. En un mundo finito todos los recursos son finitos, pero también lo es la estancia del organismo sobre la tierra. Los fallos en la completud son un poco más difíciles de evaluar porque el modo en que se satisfaga puede ser extremadamente enrevesado e indirecto (incluyendo el uso de mecanismos de detección y corrección de errores para ocuparse de la fiabilidad finita). Pero en general hay un efecto de continuo en términos reales respecto a la gravedad y la extensión del fallo. Sin embargo, no hay ninguna teoría disponible que nos informe acerca de las aproximaciones a la universalidad. Además de proporcionar flexibilidad, los sistemas simbólicos pro­ porcionan un apoyo importante para varios de los otros requisitos de la 8 Como han mostrado los famosos resultados de Turing. Church y otros, este límite no incluye toda posible dependencia funcional sino sólo una extensa subclase de ellas, conocida como funciones compumbtes.

primera lista. Para la adaptabilidad (requisito 2) proporcionan la habili­ dad de representar metas y de hacer que la acción se condicione a ellas. Para el empleo de enormes cantidades de conocimiento (requisito 4.b), proporcionan estructuras simbólicas en las que se puede codificar el co­ nocimiento, así como memorias arbitrariamente extensas con la habili­ dad añadida de acceder al conocimiento distal cuando se precise. Para los símbolos, abstracciones y lenguaje (requisitos 5 y 6 ) proporcionan la habilidad de manipular representaciones. Para el aprendizaje {requi­ sito 7) proporcionan la habilidad de crear estructuras simbólicas a largo plazo. Interacción con el mundo externo Los sistemas de símbolos son componentes subsumidos en un sis­ tema mayor que vive en un mundo dinámico real, y su función global es la de crear interacciones apropiadas de este sistema mayor con ese mundo. Los interfaces del sistema mayor con el mundo son dispositivos sensoriales y motores. Exactamente dónde cobre sentido decir que ter­ mina la arquitectura y que empiezan los distintos subsistemas de entra da/salida dependerá del sistema en particular. Todo el procesamiento de información hasta los mismos transductorcs de energía en la piel podría estar construido sobre un diseño común y formar parte de una única arquitectura, o podrían existir múltiples arquitecturas periféricas de dis­ tinto diseño, o podrían existir múltiples sistemas especializados para la transducción y la comunicación que no fueran arquitecturas según nues­ tra definición. A pesar de esta variabilidad, podemos identificar varias funciones comunes: La primera es relativamente obvia, la arquitectura tiene que proporcionar los interfaces que conectan los dispositivos sen­ soriales y motores con el sistema simbólico. Qué hagan exactamente estos interfaces y dónde se localicen es función del modo en que se trace la frontera entre el sistema cognitivo central (el sistema simbólico) y los sistemas periféricos. La segunda surge de la asincronía entre los mundos interno y exter­ no. Los sistemas simbólicos son un medio ambiente interior, protegido del mundo externo, en el que puede tener lugar un procesamiento de in­ formación al servicio del organismo. Una consecuencia es que el mundo externo y el mundo simbólico interno funcionan asincrónicamente. Así pues, debe haber un almacenamiento intermedio (buffering) de informa­ ción entre los dos en ambas direcciones. Cuántas memorias intermedias

y de qué características dependerá de las constantes temporales y de las tasas de las múltiples entradas y salidas. Si los transductores son mucho más lentos que el procesamiento interno el mismo transductor, por su­ puesto. se convierte en una memoria lo bastante precisa. Ademán deben existir mecanismos de interrupción para hacer frente a la transferencia de procesamiento entre múltiples fuentes de información asincronas. La tercera función surge del carácter de las exigencias en tiempo real del mundo externo (requisito 3 de la primera lista). El ambiente proporciona un caleidoscopio de oportunidades y amenazas que cam­ bia continuamente, con sus propias constantes temporales. Una conse­ cuencia para la arquitectura es que haya capacidad de interrupción, de modo que el procesamiento pueda cambiar a tiempo para las nuevas exigencias. Ya se ha postulado la mecánica de la interrupción, pero las exigencias en tiempo real dejan igualmente claro un requisito de eva­ luación precognitiva, esto es. de evaluación que tenga lugar antes de la evaluación por parte del sistema cognitivo. Una exigencia que es más difícil de especificar con exactitud, pero que no obstante es real, es que el procesamiento se oriente hacía una obtención rápida de respuestas. Esta no puede ser una exigencia incondicional, si consideramos fijas las constantes temporales de la tecnología de implementación ípara la cognición humana los circuitos neuronales). puesto que computar más rápido algunas cosas implica computar más lentamente otras y, más en general, existen complejidades computacionales intrínsecas. Aún así, se recomiendan las arquitecturas que proporcionan una computación efec­ tiva con límites de tiempo. La cuarta función surge como consecuencia de un entorno cambian­ te: el sistema no puede conocer de antemano todo lo que precisa saber sobre un entorno semejante. Por tanto, el sistema debe adquirir conti­ nuamente conocimiento del entorno (parte del requisito 7) y debe hacer­ lo en constantes temporales dictadas por el entorno (una forma menos obvia del requisito 3). Los sistemas simbólicos tienen la capacidad de adquirir conocimiento, así que al menos en este respecto no está invo­ lucrada ninguna función nueva de la arquitectura. Sin embargo, el co­ nocimiento que se va a adquirir entra desde el entorno en tiempo real y no bajo el control del sistema. Se sigue que el aprendizaje también debe acontecer esencialmente en tiempo real. Esto es en parte simplemente la dinámica de la bañera: por término medio la cantidad de agua que entra a una bañera (aquí, la experiencia codificada) debe ser igual a la cantidad que se desagua (aquí, la experiencia procesada para convertirse en conocimiento). Pero a esto se asocia el hecho de que el agua nunca

cesa de fluir al interior, así que no hay ocasión para que se procese en los ratos libres. Resumen Hemos intentado listar las funciones de la arquitectura cognitiva, que va a proporcionar el soporte de la cognición humana, tal y como se caracterizó en la lista de requisitos para moldear la arquitectura. Toma­ dos conjuntamente, el sistema simbólico y las funciones en tiempo real cubren una gran parte de la funcionalidad primitiva que se necesita para los requisitos 1-7. No aseguran que los requisitos vayan a cumplirse, pero proporcionan el soporte necesario. Por ahora hay poco que decir acerca del soporte de la arquitectura respecto al desarrollo (requisito 8). La dificultad estriba en nuestro co­ nocimiento mínimo de los mecanismos implicados en hacer posibles las transiciones del desarrollo, incluso en un nivel psicológico (Klahr 1980). Hay una diferencia significativa en que el desarrollo ocurra a través del tipo de aprendizaje general que sostienen los sistemas simbólicos, esto es, la creación de estructuras de símbolos a largo plazo, o en que lo haga por mecanismos distintos. Incluso si el desarrollo fuera una parte del apren­ dizaje general después de los primeros años, podría requerir mecanismos de arquitectura especiales al comienzo de la vida. Tales requisitos podrían moldear la arquitectura de muchas otras maneras. La autonomía en un entorno social es otro requisito (número 9 en la lista) en el que no podemos aún concretar funciones adicionales que haya de sostener la arquitectura. No obstante, respecto al tema más general de la autonomía, algunas cuestiones que han resultado ser importantes en arqui­ tectura de ordenadores incluyen la protección, la asignación de recursos y el manejo de las excepciones. La protección permite que múltiples com­ ponentes de un sistema se comporten de modo concurrente sin estorbarse mutuamente. La asignación de recursos permite que un sistema trabaje con sus recursos fi nitos de tiempo y memoria, reciclando recursos a medida que van quedando libres. El manejo de las excepciones permite que un sistema se recupere de las situaciones de error que en caso contrario requerirían la intervención de un programador (por ejemplo, una división entre cero o la detección de una inconsistencia en una base de datos lógica). Las cuestiones de autoconciencia (requisito !0) han sido reciente­ mente un tópico de investigación activa en informática, bajo el estan­

darte de la arquitectura de metanivel y de la reflexión (los artículos en Maes &. Nardi 1988 proporcionan una buena muestra). Las funcionali­ dades estudiadas incluyen cómo puede un sistema modelarse, controlar­ se, modificarse y razonar sobre sí mismo. Las técnicas para el manejo de excepciones resultan ser un caso especial de la habilidad de un sistema para razonar sobre sí mismo y modificarse. En el aspecto psicológico el trabajo sobre metacognición nos ha hecho conscientes del modo en que afecta a la actuación el conocimiento (o desconocimiento) de las propias capacidades de una persona (Brown 1978). Hasta ahora, este trabajo no parece tener claras consecuencias para la arquitectura, dado que está en­ focado en el desarrollo y uso de estrategias adaptativas que no parecen requerir un acceso especial al estado de ejecución instantáneo del siste­ ma, que es obviamente la cuestión del soporte de arquitectura. 4. Ejemplo de arquitecturas: Act* y Soar Tenemos ahora un análisis de las funciones de la arquitectura cognitiva y el modo general en que ésta responde a los requisitos de nuestra primera lista. Para concretar este análisis vamos a examinar dos arqui­ tecturas cognitivas, Act" (Anderson 1983) y Soar (Laird. Newell & Rosenbloom 1987). Act' es la primera teoría de la arquitectura cognitiva con suficiente detalle y completud que merezca esc nombre. Es fruto de un largo desarrollo (Anderson & Bovver 1973. Anderson 1976) y han tenido lugar nuevos desarrollos desde que se escribió el libro definitivo ( Anderson 1986, Anderson & Thompson 1988). Soar ha hecho una apa­ rición más reciente como teoría cognitiva (Newell 1987, Polk & Newell 1988. Rosenbloom, Laird & Newell 1988). Su historia inmediatamente anterior es como arquitectura de IA (Laird, Rosenbloom & Newell 1986. Steir et al. 1987), pero hunde sus raíces en trabajos psicológicos previos (Newell Simón 1972, Newell 1973, Rosenbloom & Newell 1988). El usar dos arquitecturas proporciona cierta variedad para ayudar a clari­ ficar las cuestiones y además permite cierto grado de comparación. Sin embargo, nuestro propósito es poner en claro la naturaleza de la arquitec­ tura cognitiva, más que emitir un juicio entre ambas arquitecturas. Visión general Comenzaremos con un rápido vistazo general a los dos sistemas y a continuación procederemos a recorrer iterativamente las funciones de la

segunda lista. La figura [3.3] nos da la estructura básica de A ct\ Hay una memoria declarativa a largo plazo en forma de red semántica. Hay una me­ moria procedí mental a largo plazo en forma de producciones. Se asocian fuerzas a cada elemento de la memoria a largo plazo (tanto en los nodos de la red como en las producciones) en función de su uso. Cada produc­ ción tiene un conjunto de condiciones que examinan los elementos de una memoria de trabajo y un conjunto de acciones que crean nuevas es­ tructuras en la memoria de trabajo. La memoria de trabajo está basada en la activación: contiene la porción activada de la memoria declarativa y estructuras declarativas generadas por el disparo de las producciones y por la percepción .9 La activación se propaga automáticamente (en fun­ ción de la fuerza del nodo) a través de la memoria de trabajo y de ahí a otros nodos conectados en la memoria declarativa. La memoria de tra­ bajo puede contener metas que sirven como importantes fuentes de ac­ tivación. La activación, junto con la fuerza de la producción, determina la rapidez con que se desarrolla el emparejamiento de producciones. La selección de las producciones que se dispararán es un proceso competi­ tivo entre las producciones que encajan con los mismos datos. Se crean nuevas producciones al compilar los efectos de una secuencia de dis­ paros de producciones y de recuperaciones de la memoria declarativa, de modo que las nuevas producciones puedan ir directamente desde las situaciones iniciales a los resultados finales.10 Cada vez que se crea un nuevo elemento en la memoria de trabajo, hay una probabilidad fija de que se almacene en la memoria declarativa. La figura [3.4] ofrece la correspondiente visión general de Soar. Hay una única memoria a largo plazo, un sistema de producciones, que se usa tanto para el conocimiento declarativo como para el procedí men­ tal. Hay una memoria de trabajo que contiene una jerarquía de metas, información asociada con la jerarquía de metas, preferencias acerca de lo que debe hacerse, información perceptiva y órdenes motoras. La inte­ racción con el mundo exterior se produce a través de interfaces entre la y Otra manera de ver la relación entre la memoria de trabajo y la memoria declarativa a largo plazo es como dos manifestaciones de una sola memoria declarativa subyacente. Cada elemento de esta memoria subyacente tiene dos bits ajustables de modo indepen­ diente asociados con él: si el elemento está activo (que determina si está en la memoria de trabajo) y si es permanente (que determina si está en la memoria declarativa a largo plazo). ,() En Anderson 1983 se describe Act' de forma que tiene dos métodos adicionales para crear nuevas producciones, la generalización y la discriminación, pero más adelante se mostró que eran innecesarios (Andersnn 1^86).

M e m o r ia

M e m o r ia

(Je c a r a tiv a

p r o d u c tiv a

Enc^e

Al (Titeen aje

M e m ond R e c u p e r a c ió n

E je c u c ió n

cíe tra b a jo

C o d ific a c ió n

A c t u a c io n e s M u n d o e x te rn o

F igura 3.3

Vista general de la arquitectura cognitiva Act* (Anderson 1983)

M e morí 3 prod jc tiv a

E le c c ió n

Eri(_d|e

Trüi e o

Memoru de tr jb á jo Decisión

?

S stemss p erceptivos

í

Sentidos

F igura 3.4

▼ .Ti olo res

M sculo'j

Vista general de la arquitectura cognitiva Soar

memoria de trabajo y uno o más sistemas perceptivos y motores. Todas las tareas se formulan como búsquedas en espacios de problemas, esto es, se parte desde algún estado inicial en un espacio y se encuentra un estado deseado aplicando operadores que abarcan el espacio. En vez de tomar decisiones acerca de qué producción ejecutar —todas las produc­ ciones que se emparejan con éxito se disparan en paralelo— se toman decisiones acerca de qué espacios de problemas, estados y operadores se utilizan. Estas decisiones están basadas en preferencias recuperadas en la memoria de trabajo desde la memoria de producciones. Cuando una decisión resulta ser problemática (porque el conocimiento es incomple­ to o inconsistente), la arquitectura crea automáticamente una submeta y la solución de problemas se torna la tarea de resolver el impasse en la toma de decisiones. Esto genera una jerarquía de metas y, por tanto, de espacios de problemas. Se crean continuamente nuevas producciones a partir de las huellas de la experiencia de Soar con la solución de proble­ mas basada en metas (un proceso llamado troceo (chunking)). Memoria La memoria se identificará al preguntarse qué es lo que persiste en el tiempo que pueda ser creado y modificado por el sistema. Tanto Acf como Soar tienen jerarquías de memorias que varían tanto en constantes temporales como en volumen. En el extremo pequeño y rápido, ambas tienen memorias de trabajo. La memoria de trabajo es una memoria tran­ sitoria que no puede mantener los datos durante un tiempo prolongado. En Act" esto es evidente porque la memoria de trabajo es un subconjunto activado de la memoria declarativa y por tanto crece y mengua con el procesamiento de la activación. En Soar la memoria de trabajo aparece como una memoria distinta. Su carácter a corto plazo deriva de que está vinculada a metas y sus espacios de problemas, de modo que desaparece automáticamente a medida que se resuelven estas metas. Aparte de la memoria de trabajo ambas arquitecturas tienen me­ morias permanentes de tamaño ilimitado, tal y como precisa la univer­ salidad. Act tiene dos de estas memorias, la memoria declarativa y la memoria de producciones, con fuerzas asociadas a cada elemento de cada memoria. La ruta normal que toma el conocimiento nuevo en Act' es desde la memoria de trabajo hacia la memoria declarativa y de aquí a la memoria de producciones. La memoria declarativa viene antes que la memoria de producciones en la jerarquía porque tiene tiempos menores

de almacenamiento y de acceso (aunque no puede conducir directamente a la acción). Soar tiene sólo una memoria permanente de tamaño ilimita­ do, la memoria de producciones, que se usa tanto para el conocimiento declarativo como para el proced imental. Soar no utiliza fuerzas. La imagen expuesta es que Act+ tiene dos memorias totalmente distintas y que Soar tiene una que es similar a una de las memorias de Acf!. Sin embargo, esta descripción superficial típica oculta algunos aspectos importantes. Uno es que las producciones de Act* y Soar no funcionan del mismo modo en sus sistemas respectivos (a pesar de que tengan esencialmente la misma forma condición-acción). Las produc­ ciones de AcL corresponden a operadores de solución de problemas. Este es esencialmente el modo en que se usan las producciones en el mundo de la IA y de los sistemas expertos. Las producciones de Soar operan como una memoria asociativa. La parte de la acción de una producción contiene las estructuras de símbolos que se mantienen en la memoria; la parte de la condición proporciona la ruta de acceso a estas estructuras simbólicas. El disparo de una producción de Soar es el acto de recuperar sus estructuras simbólicas. Los operadores se implemcntan en Soar por medio de colecciones de producciones (o búsqueda en las submetas). Otro rasgo oculto es que la memoria de producciones de Act* se realiza como una estructura de red similar en muchos aspectos a su red semántica. El efecto principal es que la activación gobierna el ritmo de emparejamiento de producciones del mismo modo en que la activación se propaga a lo largo de la red declarativa. Así que estas dos memorias no son tan distintas como podría parecer. Tanto en Act como en Soar el nivel de detalle de la memoria a largo plazo (la unidad modificable de modo independiente) es relativamente lino, al tratarse de la producción individual y, para la memoria declara­ tiva de Act", del nodo y la conexión. Esta es una unidad mucho mayor que la palabra en ordenadores convencionales (en unos dos órdenes de magnitud) pero mucho menor que el marco o el esquema (de nuevo en unos dos órdenes de magnitud). Esta una característica importante de la arquitectura. El marco y el esquema se han introducido bajo la hipótesis de que la unidad de organización de la memoria tiene que ser relati­ vamente grande para expresar el carácter organizado del pensamien­ to humano (Minsky 1975). No es fácil hacer comparaciones de tamaño entre unidades de organización de la memoria porque este es un punto en el que se pone especialmente de manifiesto la naturaleza de cosmovisión idiosincrática que tienen las arquitecturas, y toda organización

de memoria tiene diversas unidades jerárquicas mayores y menores. No obstante, tanto Act* como Sour se encuentran del lado del nivel fino de detalle. Las estructuras de memoria de Act* y Soar son las estructuras sim­ bólicas discretas familiares a partir de sistemas como Lisp. Existen di­ ferencias de detalle. Soar tiene una disposición uniforme de objetos con conjuntos de atributos y valores. Act* tiene varias estructuras de datos primitivas: atributos y valores (que se consideran el código proposicional abstracto), cadenas (que se consideran el código temporal) y matri­ ces (arrays) métricas (que se consideran el código espacial). El requisito primario de una estructura de datos es el de variabilidad combinatoria y todas estas estructuras lo poseen. Las consideraciones secundarias se refieren a las operaciones que se requieren para leer y manipular las estructuras de datos, de acuerdo a lo que vengan a representar las estruc­ turas. Así pues, los ordenadores estándar tienen invariablemente múlti­ ples estructuras de datos, cada una de ellas con operaciones primitivas asociadas, por ejemplo, para la aritmética o el procesamiento de textos. Act* se inspira aquí en esta práctica estándar. Símbolos Los símbolos se identificarán al encontrar mecanismos que propor­ cionen acceso distal a estructuras de memoria que no estén ya involucra­ das en el procesamiento. Para Act* y Soar éste será el emparejamiento de patrones del sistema de producciones, que es un proceso que co­ mienza con estructuras simbólicas en la memoria de trabajo y que de­ termina el disparo de una producción en cualquier lugar de la memoria a largo plazo. Aquí los ejemplares de símbolos son las combinaciones de elementos de la memoria de trabajo que encajan con las condiciones de la producción. Cada parte de la izquierda de una producción es un símbolo. Para Soar este es el único mecanismo para el acceso distal (pues la memoria de trabajo es esencialmente local). Para Act* hay además un mecanismo para el acceso distal a su memoria declarativa, de hecho una combinación de dos mecanismos. Primero, cada ejemplar que se trae a la memoria de trabajo por el disparo de una producción (o por la percepción) contacta con su nodo correspondiente en la red semántica declarativa. Segundo, la propagación de activación opera entonces para proporcionar acceso a los nodos asociados.

Resulta útil identificar el pac de características que dan su sabor particu­ lar al acceso simbólico en los sistemas de producción. La primera caracte­ rística es el carácter dependiente del contexto que tiene el emparejamiento de producciones. Las direcciones de máquina simples actúan como símbo­ los independientes del contexto. No importa qué otras estructuras existan, la dirección hace que la información se recupere de la misma posición." En un sistema de producciones un patrón particular puede ser un símbolo que da como resultado un acceso independiente del contexto a las estructu­ ras de memoria, o (de modo más típico) puede conjugarse con patrones de contexto adicionales para fonnar un símbolo más complejo que restringe el acceso para que se produzca sólo cuando está presente el contexto. El segundo rasgo es el carácter de reconocimiento que tiene el empa­ rejamiento de producciones. Los ordenadores tradicionales acceden a la memoria bien a través de punteros de posiciones de memoria arbitrarias (de acceso aleatorio), bien por el acceso secuencial a posiciones adyacen­ tes (grandes almacenes secundarios). En los sistemas de producciones los símbolos se construyen con el mismo material que se procesa para la tarea, de modo que el acceso a la memoria tiene un carácter de reconocimien­ to, asociativo o accedido por el contenido. Todas los esquemas pueden sostener la universalidad; sin embargo, el esquema de reconocimiento responde a dos requisitos cognitivos adicionales. Primero, el acceso en (aproximadamente) tiempo constante a la totalidad de la memoria respon­ de al requisito de tiempo real. Esto incluye acceso aleatorio y memorias de reconocimiento, pero excluye a los sistemas de acceso secuencial tales como las máquinas de Turing. Pero deben construirse esquemas de acceso específicos relevantes para la tarea, o el sistema quedará condenado a ope­ rar por generación y prueba (y lo mismo podría >er una máquina de cinta). Las memorias de reconocimiento construyen las rutas de acceso a partir de los ingredientes de la tarea y por consiguiente evitan los actos deliberados de construcción, que son precisos para los esquemas de posición-puntero. Este puede ser en realidad un requisito esencial para un sistema de aprendi­ zaje que tenga que desarrollarse enteramente por sí mismo. La programa­ ción estándar implica programadores inteligentes que inventen esquemas de acceso específicos basados en un análisis profundo de una tarea. 11 El direccionamicnto virtual (virtual a ddm sin g) es un mecanismo que introduce una cantidad tija de contexto, por ejemplo, una dirección de base. 12 Como siempre, sin embargo, existen contrapartidas. Los esquemas de recono­ cimiento son menos flexibles comparados con los esquemas de posición-puntero, que son un medio genu mámente independiente de la tarea para construir esquemas de acceso y. por consiguiente, pueden adaptarse por completo a la (urea corre spon di ente.

Opemc iones Las operaciones se identificarán al preguntar cómo se construyen nue­ vas estructuras y cómo se establecen en Ja memoria a largo plazo. En los sistemas de ordenador estándar la forma en la que se dan las operaciones viene dictada por las necesidades de interpretación, esto es, por la estructura del lenguaje de programación. De modo típico, todo se ajusta dentro de una estructura de operación-operando y hay un único conjunto heterogéneo de todos los códigos de operación pnmitivos: cargar, almacenan sumar, restar, y, o, bifurcarse en cero (brcmch-nn-zero), ejecutar, etc. Algunas de éstas son operaciones que producen nuevas estructuras simbólicas en la memoria, pero otras afectan al control o se ocupan de las entradas y salidas. Los sistemas de producciones, en su definición clásica, operan tam­ bién de este modo. Las acciones de la derecha son estructuras operaciónoperando que pueden especificar procedimientos generales, aunque hay un conjunto estándar de operaciones predefinidas (crear, reemplazar, borrar, escribir...). En algunos es posible ejecutar en la derecha una pro­ ducción o sistema de producciones especificado, y de este modo propor­ ciona un control sustancial a la parte derecha. Pero Act y Soar usan un esquema bastante distinto. La acción de la derecha se convierte esencialmente en la operación de crear estructuras en la memoria de trabajo. Esta operación combina localización. modificación y creación: trae las estructuras que existan a la memoria de trabajo, crea estructura* de memoria de trabajo que relacio­ nan estructuras existentes y crea estructuras nuevas si es que no existen. Esta operación es coextensiva con la recuperación de conocimiento de la memoria a largo plazo (disparo de producciones). La dependencia de la operación respecto a estructuras existentes (es decir, sus entradas) se produce al emparejar ias condiciones de la producción. Es este empareja­ miento con lo que va se encuentre en la memoria de trabajo el que permite que se distingan las múltiples funciones de focalización, modificación y creación y el que se produzcan automáticamente, por así decirlo, en las circunstancias apropiadas. De acuerdo con esto el acto de recuperación desde la memoria a largo plazo (hacia la memoria de trabajo) no sucede como una operación distinta que reproduzca el contenido de la memoria a largo plazo en la memoria de trabajo. Más bien cada recuperación es un acto de computación (de hecho la computación tiene lugar tan sólo con­ juntamente con tales recuperaciones), de modo que la memoria de trabajo no es nunca la misma que la memoria almacenada y siempre es en alguna medida una adaptación del pasado al presente.

En Act4 y Soar el almacenamiento de información en la memoria a largo plazo está separado del acto de computación en la memoria de tra­ bajo. Viene incorporado en forma de aprendizaje de nuevas produccio­ nes, que se llama compilación de producciones en Act* y troceo en Soar pero que son, no obstante, operaciones similares. El contexto de adqui­ sición de producciones es la ocasión en que se da satisfacción o término a una meta, y la producción que se construye abarca desde las condi­ ciones que se daban antes de la meta hasta las acciones que provocaron la resolución final. La producción se añade simplemente a la memoria de producciones a largo plazo y resulta indistinguible de cualquier otra producción. Esta producción es funcional y produce en un paso lo que originalmente precisaba muchos pasos. También constituye una forma implícita de generalización en tanto que sus condiciones se extraen del contexto total de la memoria de trabajo en el momento del aprendizaje, y así pueden ser evocadas en situaciones que pueden ser arbitrariamente distintas de forma irrelevante para estas condiciones. La compilación de producciones y el troceo van bastante más lejos del soporte mínimo para el aprendizaje a partir de la experiencia que proporciona un sistema simbólico estándar. Sin que medie un esfuerzo o elección deliberados, adquieren automáticamente conocimiento nuevo que está en función de su experiencia respectiva. Acf tiene otras formas de memoria aparte de las producciones y debe tener necesariamente operaciones de almacenamiento en cada una de ellas. Todas ellas son operaciones automáticas que no se producen bajo el control deliberado del sistema. Una es la fuerza de las producciones, que gobierna la rapidez en que se procesan y. por consiguiente, si se volverán activas en una situación concreta. Cada disparo con éxito de una producción aumenta un poco su fuerza y, por tanto, aumenta la probabilidad de que se dispare si es que es satisfecha (otra forma de aprendizaje de la experiencia). La segun­ da es el almacenamiento en la memoria declarativa. Aquí hay simplemente una probabilidad constante de que un elemento recién creado se convierta en parte permanente de la memoria declarativa. El aprendizaje declarativo responde al requisito de aprendizaje del contexto. En Soar el troceo realiza esta función además de su función de aprendizaje de la experiencia. Interpretación La interpretación se identificará al encontrar en qué punto la con­ ducta del sistema se hace dependiente de las estructuras simbólicas en

su memoria a largo plazo, en particular, de las estructuras que el propio sistema creó anteriormente. Un modo aparentemente equivalente es en­ contrar qué estructuras de memoria corresponden al programa en los sistemas de ordenador típicos, es decir, las estructuras simbólicas que especifican una secuencia de operaciones: haz esto, después haz lo otro, después haz aquello, aunque también admite condicionales y llamadas a subprocedimientos. Esto es, se buscan estructuras de símbolos compac­ tas que controlen la conducta a lo largo de un intervalo prolongado. Buscaremos en vano estructuras de símbolos semejantes en las des­ cripciones básicas de las arquitecturas de Act* y Soar. (Por supuesto, pueden existir estructuras de programa, pero requieren intérpretes del software). Sin embargo, se produce claramente conducta dependiente de la memoria y se deriva de múltiples fuentes: sistemas de producciones, conocimiento de control para la solución de problemas y estructuras de meta*. La primera fuente es en ambos sistemas la forma de la interpretación inherente a los sistemas de producciones. Un sistema de producciones desmenuza el control en trozos (chunks) independientes (las produccio­ nes individuales) diseminados por toda la memoria de producciones, y a cada ciclo entran elementos de datos de la memoria de trabajo. Este régimen de control a menudo se conoce como dirigido por los datos. por contraste con el dirigido por las metas, pero esta caracterización pasa por alto algunos aspectos importantes. Otro modo de enfocarlo es como un ciclo reconocimiento-acción por contraste con el clásico ciclo extracción-ejecución que caracteriza a los ordenadores estándar De acuerdo con este enfoque, una dimensión importante de la inter­ pretación es la cantidad de toma de decisión que tiene lugar entre los pasos. El ciclo extracción-ejecución tiene básicamente un solo puntero en un plan y tiene que dar pasos deliberados (realizando pruebas y rami­ ficaciones) para conseguir alguna condicionalidad en absoluto. El ciclo reconocimiento-acción abre la interpretación en cada momento a todo aquello que la actual memoria de trabajo pueda sugerir. Esto sitúa al emparejamiento de producciones dentro del ciclo de interpretación. La segunda fuente es el conocimiento de control que se usa para seleccionar operadores de solución de problemas. En A cf las produc­ ciones son los operadores de solución de problemas. Como se ha des­ crito en el párrafo anterior, la selección de producciones está en función del emparejamiento entre los elementos de la memoria de trabajo y las condiciones de la producción. Sin embargo, también entran en juego al­

gunos factores adicionales para determinar el ritmo de emparejamiento y, por tanto, el que una producción se seleccione para su ejecución. Un primer factor es la activación de los elementos de la memoria de trabajo que se emparejan. Un segundo factor es la fuerza de la producción que se empareja. Un tercer factor es la competición entre producciones que encajan con los mismos elementos de la memoria de trabajo de maneras diferentes. En Soar los operadores de solución de problemas se seleccionan a través de un ciclo de decisión de dos fases. Primero, durante la fase de elaboración se accede a la memoria de producciones a largo plazo repetidamente (las recuperaciones iniciales pueden evocar recuperacio­ nes adicionales) y en paralelo (no hay resolución de conflictos), hasta alcanzar la aquiescencia. Puede recuperarse cualquier elemento, pero entre éstos hay preferencias que dicen qué operadores son aceptables, rechazables o preferibles a otros. Cuando se ha acumulado toda la in­ formación posible, el procedimiento de decisión criba las preferencias disponibles y toma la siguiente decisión, que así conduce al sistema al siguiente ciclo. En realidad Soar usa este mismo intérprete básico para algo más que la mera selección del operador a ejecutar. Siempre está tratando de tomar la decisión precisa para operar en un espacio de problemas: para decidir qué espacio de problemas usar, qué estado usar en ese espacio de problemas, qué operador usar en ese estado y qué estado usar como resultado del operador. Esto es lo que obliga a que toda la actividad tenga lugar en los espacios de problemas. Esto contrasta con el ordena­ dor estándar, que asume que toda la actividad se produce al seguir un programa arbitrario. La tercera fuente de conducta dependiente de la memoria es el uso de estructuras de meta. Act proporciona un soporte especial de arqui­ tectura para una jerarquía de metas en su memoria de trabajo. La meta actual es una fuente importante de activación que opera, por tanto, cen­ trando la atención al hacer destacar las producciones que la tienen entre sus condiciones. La arquitectura se encarga de las tarcas de guardar las submetas completadas con éxito y de mover el foco hacia subsiguien­ tes submetas, proporcionando un recorrido de búsqueda en profundidad por la jerarquía de metas. Así pues, caracterizar el procesamiento como dirigido por los datos vs dirigido por las metas es un tanto erróneo. Act" es un ejemplo paradigmático de un sistema de IA que usa metas y mé­ todos para lograr la adaptabilidad (requisito 2 de la primera lista). Las

tareas complejas se controlan por medio de producciones que constru­ yen la jerarquía de metas al añadir conjunciones de metas que hay que lograr en el futuro. Soar usa una estrategia mucho menos deliberada para la generación de metas. Cuando el procedimiento de decisión no puede producir una única decisión a partir de la colección de preferencias que vengan a acu­ mularse (porque, por ejemplo, no quedan opciones aceptables o quedan varias opciones indistinguibles) se alcanza un impasse. Soar asume que esto indica una carencia de conocimiento: con conocimiento adicional de sus preferencias se habría alcanzado una decisión. Por tanto, crea una submeta para resolver este impasse. Un impasse se resuelve en el momento en que se generan preferencias, de cualquier naturaleza, que conducen a una decisión de un nivel superior. Así pues. Soar genera sus propias submetas a partir de los impasses que pueda detectar la arqui­ tectura, en contraste con A ct\ que genera sus submetas a través de la acción deliberada de sus producciones. El efecto de las submetas delibe­ radas se logra en Soar por la combinación de un operador, que se genera y selecciona deliberadamente, y un impasse que se produce si no existen producciones que implementen el operador. En la submeta para este im­ passe el operador actúa como la especificación de una meta a alcanzar. Interacción con el mundo externo Act', como es típico en muchas teorías de la cognición, se concentra en la arquitectura central. Se asume que la percepción y la conducta motora tienen lugar en sistemas de procesamiento adicionales fuera del escenario central. La entrada llega a la memoria de trabajo, que de este modo actúa como una memoria intermedia entre el flujo impredeciblc de sucesos ambientales y el sistema cognitivo. Sin embargo, aparte de esto la arquitectura sencillamente no se ha elaborado en estas direcciones. Soar comienza a ser una arquitectura completa, que incrusta la ar­ quitectura central dentro de una estructura para interactuar con el mundo externo. Como se muestra en la figura 13.41, Soar se considera como el controlador de un sistema dinámico que inato actúa con un entorno ex­ terno dinámico (situado en la parte inferior de la figura). Hay procesos que transducen la energía del entorno en señales para el sistema. Se co­ nocen colectivamente como percepción, aunque se encuentran ligados tan sólo en la vertiente sensorial (la transducción desde el entorno). De modo similar, hay procesos que afectan al entorno. Se conocen colec­

tivamente como sistema motor, aunque se encuentran ligados tan sólo en la vertiente de la acción física. Como en Act*, la memoria de trabajo sirve como memoria intermedia entre el entorno y la cognición central. El sistema total consiste en algo más que ir de la percepción a la cognición central y de aquí al sistema motor. Hay producciones, cono­ cidas como producciones de codificación y producciones de descodi­ ficación. Son idénticas en estructura y forma a las producciones de la cognición central. Difieren sólo en su independencia del ciclo de deci­ sión: sencillamente van por libre. En el aspecto de la entrada, a medida que los elementos llegan autónomamente desde el sistema perceptual, las producciones de codificación proporcionan lo que podríamos llamar un análisis sintáctico (parsing) perceptivo, que deja los elementos en una forma que la cognición central pueda considerar. En el aspecto de la salida, las producciones de descodificación proporcionan lo que po­ dríamos llamar la descodificación en un programa motor de las órdenes emitidas por el sistema cognitivo en la forma que use e) sistema motor El propio sistema motor puede devolver elementos a la memoria de tra­ bajo (posiblemente analizados por las producciones de codificación), permitiendo que sean monitorizados y ajustados. Toda esta actividad no está bajo control: estas producciones recono­ cen y ejecutan a voluntad, de modo concurrente entre sí y con la cognición central. El control es ejercido por la cognición central, que ahora podemos ver que consta básicamente de la arquitectura del mecanismo de decisión, del cual fluye el ciclo de decisión, los impasses, la pila de metas y la or­ ganización del espacio de problemas. Además, la cognición central opera esencialmente como una forma de control supervisor localizado que se ejerce sobre las actividades autónomas y continuas de la memoria de tra­ bajo generadas por los sistemas perceptivos, los sistemas motores, y sus producciones de codificación v descodificación asociadas. Esto permite comprender una cuestión de arquitectura que ha con­ sumido mucha atención, a saber, ¿dónde reside el carácter serial de la cognición? La cognición central es sin duda serial, que es a lo que obliga el mecanismo de decisión, y por tanto sólo puede tomar en considera­ ción parte de lo que suceda en la memoria de trabajo. El sistema serial se encuentra impuesto sobre un mar de actividad paralela autónoma para asumir el control, esto es, para que el sistema pueda evitar que ocurran acciones que no son de su interés. Así pues, la serial idad es un rasgo de diseño del sistema. La serialidad puede producirse también por otras ra­ zones. que se pueden resumir en líneas generales como restricciones de

recursos o embudos. Tales embudos pueden provenir de la naturaleza de la tecnología subyacente y ser por tanto una limitación del sistema. Las capacidades de interrupción se identificarán al hallar dónde pue­ de cambiar la conducta de una línea a otra que es radicalmente diferente. En Act* el cambio ocurre por medio de la propiedad básica de selección máxima que tiene un mecanismo de activación: el proceso que pueda ofrecer la mayor activación puede hacerse con el control de la conducta. En Soar el cambio se produce por medio del ciclo de decisión: podrá controlar la conducta aquello que pueda poner en orden las preferencias convenientes comparadas con las alternativas que compiten. El cambio puede así producirse en un nivel fino de detalle. Tanto para Act" como para Soar su mecanismo básico de cambio es también un mecanismo de interrupción, puesto que las alternativas procedentes de todo el sistema compiten en pie de igualdad. Esto surge del carácter abierto de los sis­ temas de producciones que contactan con la totalidad de la memoria a cada ciclo. Así que a cada instante pueden producirse cambios radica­ les de rumbo. Esto contrasta con los ordenadores estándar. Aunque es posible que haya cambios arbitrarios a cada instrucción (por ejemplo, bifurcarse en cero a un programa arbitrario), tales cambios deben deter­ minarse deliberadamente y por medio del programa (preconstruido) que ya tiene el control. Por tanto, la cuestión para el ordenador estándar es cómo interrumpirse, mientras que la cuestión para Soar y Actv (y presu­ miblemente para la cognición humana) es cómo mantenerse enfocado. El aprendizaje a partir del ambiente conlleva el almacenamiento a largo plazo de estructuras que están basadas en las entradas al siste­ ma. Act"' almacena nuevas entradas en la memoria declarativa con una probabilidad fija, a partir de la cual las entradas pueden ingresar en la memoria de producciones por medio de la compilación, un proceso que debería poder ir al ritmo de las exigencias de un entorno cambiante. Soar almacena nuevas entradas en la memoria de producciones a través del troceo. Esto implica que una entrada debe usarse en una submeta para llegar a almacenarse y que el ancho de banda del entorno hacia la memoria a largo plazo estará en función del ritmo al que puedan usarse las entradas del entorno. Resumen Acabamos de instanciar las funciones de la arquitectura cognitiva paj a dos arquitecturas, Soar y A ct\ usando sus puntos comunes y sus di­

ferencias para evidenciar cómo realizan estas funciones sus estructuras. Los puntos comunes de Act' y Soar son considerables, principalmente porque ambas están construidas alrededor de sistemas de producciones. Hemos visto que los sistemas de producciones o. de modo más general, las arquitecturas basadas en el reconocimiento son una especie de ar­ quitectura que responde al requisito de tiempo real, que es claramente uno de los que moldean más poderosamente la arquitectura, aparte de la necesidad básica de computación simbólica. El paso hacia los sistemas de producciones es, sin embargo, sólo el primero de tres avances importantes que han desplazado a Actr y Soar conjuntamente hacia una parte del espacio de arquitecturas muy dife­ rente de la de todos los ordenadores clásicos. El segundo avance es el abandono del formalismo de aplicación que supone aplicar operaciones a los operandos. Este abandono no es una parte intrínseca de los sis­ temas de producciones, como lo evidencia el uso casi universal de la aplicación en la parte de la acción de las producciones. Este segundo avance encierra las operaciones realizadas sobre estructuras simbólicas dentro de los actos de recuperación de la memoria. El tercer avance es la separación del acto de almacenar estructuras simbólicas en la memoria a largo plazo, los mecanismos de aprendizaje de Act' y Soar, de los actos deliberados de realizar tareas. Hay algunas diferencias de arquitectura entre Act y Soar. aunque no todas parecen ser diferencias substanciales cuando se las examina cuidadosamente. Un ejemplo es la memoria dual declarativa y procedimental de A cf frente a la memoria única de producciones de Soar. Otra es el uso de la activación en Acf frente al uso de ejecuciones de producción acumuladas (la fase de elaboración) de Soar. Una tercera es el compromiso con espacios de problemas múltiples y el mecanismo de impasse de Soar frente al entorno de espacio único con submetas deliberadas de A ct\ Así pues, estas arquitecturas difieren lo bastante al explorar una región del espacio de arquitecturas. La desventaja de usar para la exposición dos arquitecturas estre­ chamente relacionadas es que no conseguimos hacer que se aprecie lo variado y rico en alternativas que es el espacio de arquitecturas. For­ zando un poco podríamos afirmar que hemos tocado tres puntos en el espacio de arquitecturas: arquitecturas clásicas (von Neumann), sis­ temas clásicos de producciones y A cf y Soar. Pero podríamos haber examinado de modo provechoso lenguajes de aplicación (por ejemplo, Lisp; cf. Steele 1984), lenguajes de programación lógica (por ejemplo,

Prolog; cf. Clocksin & Mcllish 1984), sistemas de marcos (o de esque­ mas) (por ejemplo, KLONE; cf. Brachman 1979). arquitecturas de pizarra (por ejemplo. BBl; cf. Hayes-Roth 1985), y también otras. Así mismo, podríamos haber explorado el efecto del paralelismo, que tiene por sí mismo muchas dimensiones relativas a la arquitectura. Esto último se ha excluido porque viene motivado principalmente por la necesidad de explotar o compensar la tecnología de implementación. aunque (como se ha señalado muchas veces) puede servir también como respuesta al requisito de tiempo real. 5. La utilidad de las arquitecturas Dado que la arquitectura es un componente del sistema cognitivo humano, no es preciso justificar el que se invierta esfuerzo científico en ella. Comprender la arquitectura es un proyecto científico por derecho propio. La arquitectura, no obstante, en cuanto marco en que se realiza todo el procesamiento y en cuanto locus de restricciones estructurales sobre la cognición humana, se presentaría como el elemento central de una teoría de la cognición. Esto parecería implicar que la arquitectura toma parte en todos los aspectos de la cognición. Lo que mantiene a esta implicación a raya es el hecho (señalado ya repetidas veces) de que las arquitecturas se ocultan bajo el nivel del conocimiento. Para muchos aspectos de la vida cognitiva humana lo que cuenta son las metas, la si­ tuación de la tarea y el conocimiento general (incluyendo la educación, socialización, y culturización). Por tanto la arquitectura puede ser crítica para la cognición, lo mismo que lo es la bioquímica, pero con conse­ cuencias sólo circunscritas para la conducta en curso y su estudio. ¿Cómo se usa entonces una teoría detallada de la arquitectura en ciencia cognitiva. aparte de para llenar su propio hueco del cuadro? Hay cuatro respuestas parciales a esta cuestión, de las que nos ocuparemos seguidamente. Establecimiento de parámetros generales La primera respuesta presupone que la arquitectura tiene grandes efectos sobre la cognición, pero que estos efectos se pueden resumir en un pequeño conjunto de parámetros muy generales. La siguiente lista reúne un conjunto de estos parámetros, que son familiares a todos los

científicos cognitivos: el tamaño de la memoria a corto plazo, el tiempo que precisa una operación elemental, el tiempo para realizar un mo­ vimiento en un espacio de problemas y el ritmo de adquisición de la memoria a largo plazo: 1. Unidad de memoria: 1 trozo compuesto por 3 subtrozos. 2. Tamaño de la memoria a corto plazo: 3 trozos más 4 trozos de la memoria a largo plazo. 3. Tiempo para cada operación elemental: 100 ms. 4. Tiempo para cada paso en un espacio de problemas: 2 seg. 5. Tiempo para aprender material nuevo: 1 trozo cada 2 seg. No es posible razonar sólo desde los parámetros. Los parámetros siempre implican un modelo de fondo. Incluso para completar la lista es necesario definir una unidad de memoria (el trozo) que entonces ya implica una estructura de memoria jerárquica. Igualmente, juntar una secuencia de operaciones elementales y sumar sus tiempos ya es definir una estructura de procesamiento funcionalmente serial. Los diagramas de bloques que han sido un distintivo estándar de la psicología cognitiva desde mediados de los 50 (Broadbent 1954) expre­ san el tipo de estructura mínima de arquitectura implicada. En su mayoría son demasiado esquemáticos, en concreto, proporcionan tan sólo una ima­ gen de las memorias y de sus rutas de transferencia. En la figura 13.5] se muestra una versión algo más completa, llamada el procesador humano modelo (Card. Moran & Newell 1983). que indica no sólo las memorias sino una estructura de procesador con tres procesadores paralelos: percep­ tivo, cognitivo y motor. Los sistemas perceptivo y motor suponen múlti­ ples procesadores concurrentes para diferentes modalidades y sistemas musculares, pero sólo hay un único procesador cognitivo. Los parámetros de ambas figuras tienen mucho en común. Por supuesto, la figura 13.5] es un imagen estática. Su misma carencia de detalle da a entender una estruc­ tura de procesamiento de lo más simple. De hecho se puede suplementar con algunos principios generales de operación moderadamente explícitos (Card. Moran & Newell 1983), como el que la incertidumbre siempre incrementa el tiempo de procesamiento. Estos principios son de alguna ayuda al usarla, pero están lejos de hacer del esquema una arquitectura completa. En particular, las operaciones elementales y los detalles de in­ terpretación permanecen esencialmente sin definir. Si el modo en que la arquitectura influencia la conducta se puede resumir en un pequeño conjunto de parámetros más un simple modelo

F igura 3.5

Diagrama de bloque del modelo del procesador humano (Card, Moran, y Newell 1983) abstracto de fondo, entonces la contribución de) estudio de la arquitec­ tura es doble. En primer lugar, dado un esquema establecido como el de la figura [3.5], hay que concretar los parámetros, comprender su varia­ bilidad, descubrir su mutabilidad, evaluar los límites de su uso, etc. En segundo lugar, el modelo general de procesamiento puede estar equivo­ cado. no por ser una aproximación muy general (que está presupuesto) sino por ser el tipo equivocado de formulación. Si se reemplazara por un tipo diferente de formulación, entonces las inferencias podrían ser más fáciles, quizás fuera posible un conjunto más amplio de inferencias, etc. Un ejemplo semejante de los años 70 es la sustitución del modelo de la memoria como almacenes múltiples por un modelo que contiene una

única memoria dentro de la cual se distingue la información sólo por la profundidad en la que se ha procesado (Craik & Lockhart 1972). La forma de la conducta cognitiva simple Realizar una tarea compleja conlleva efectuar una secuencia de operaciones básicas en un orden condicionado a los dalos de entrada. Hay muchas cosas de interés psicológico que dependen de que se co­ nozca la secuencia de operaciones que realizan los humanos en una tarea dada y se ha concentrado mucho esfuerzo en psicología, experi­ mental y teórica, para encontrar tales secuencias. Esto resulta especial­ mente cierto de tareas que son principalmente cognitivas, en las que las operaciones perceptivas y motoras sólo juegan un pequeño papel en la secuencia total. La arquitectura dicta tanto las operaciones básicas como la forma en las que se especifican los ordenamientos de las operaciones, esto es. el modo en que se codifican simbólicamente las especificaciones de la arquitectura. Por tanto la arquitectura juega algún papel para determinar tales secuencias. Sin embargo, para tareas de cualquier complejidad es posible realizar la conducta con éxito de maneras muy distintas. En el fondo esto es simplemente el hecho bruto de que exis­ ten métodos o algoritmos diferentes para una tarea dada, como cuando podernos buscar en un espacio en profundidad, o en amplitud o prime­ ro el mejor (besi-first). o sumar una columna de números empezando por arriba o por abajo. Así pues, anotar la secuencia de operaciones que sigue un sujeto para una tarea compleja, dada únicamente la arqui­ tectura y la tarea, es casi imposible. Está demasiado subdeterminado y los otros factores, que resumimos como el conocimiento del sujeto, son todos ellos importantes. A medida que disminuye el tiempo para realizar una Jarea, sin em­ bargo, disminuyen las opciones respecto a qué secuencias podrían rea­ lizar una tarea. En efecto, supongamos que la constante temporal de las operaciones de datos primitivas de la arquitectura es de unos 100 ms y que solicitamos que se realice una tarea en unos 0.1 ms, entonces la respuesta es clara sin más que añadir: no puede realizarse. La simpli­ cidad de la tarea no representa ninguna diferencia (por ejemplo, ¿son idénticos dos nombres?). Supongamos que la tarea tiene que realizarse en unos 100 ms. Entonces un examen minucioso de los procesos básicos de la arquitectura revelará lo que puede hacerse en un solo periodo de

operación. Si la actuación es posible en absoluto, probablemente será única: hay un solo modo de comprobar la identidad de nombres en una única operación básica, aunque es concebible que una arquitectura pu­ diera ofrecer un número finito de alternativas. A medida que aumenta el tiempo disponible, aumenta lo que puede llevarse a cabo y aumenta el número de modos de realizar una determinada tarea. Si se dispone de 100 scg. entonces hay probablemente varios modos de determinar si dos nombres son idénticos. No obstante, la restricción vuelve a darse si las exigencias de actuación aumentan deprisa. Por tanto, hay una región en la que conocer la arquitectura posi­ bilita plantear conjeturas plausibles acerca de las secuencias de ope­ ración que usarán los humanos en una tarea. Consideremos la tarea de búsqueda en la memoria explorada por Sternberg y [discutida por Bovver & Clapper en el capítulo [7]J en relación a la metodología de factores aditivos. El sujeto ve en primer lugar un conjunto de itenis H, Py Z y después un ítem de prueba Q y debe decir lo más rápido posible si el ítem de prueba era uno de los de la secuencia. Hay tres regulari­ dades que hicieron famoso a este experimento. Primero, el tiempo de respuesta es lineal respecto al tamaño del conjunto inicial (tiempo de respuesta = 400 + 3 • 40 = 520 ms para el caso de arriba), lo cual su­ giere poderosamente el empleo de búsqueda (y prueba) serial a 40 ms por ítem. Segundo, se mantiene la misma relación lineal con la misma pendiente de 40 ms por ítem tanto si el ítem está en la lista como si no. Esto contradice la estrategia obvia de finalizar la búsqueda cuando se encuentre un ítem que coincide con el de prueba, lo cual conduciría a una aparente tasa media de búsqueda para ítems de prueba positivos que fuera la mitad que la de los Ítems negativos: por término medio se examinaría sólo la mitad de ta lista para un ítem de prueba positivo anles de encontrarlo. Tercero, la tasa de búsqueda (40 ms por ítem) es muy rápida: los humanos emplean más de 100 ms por letra para decirse el alfabeto a sí mismos. fComo nos informan Bower & Clapper [capítulo 7J,J esta situación experimental se ha explorado de muchas maneras diferentes y ha dado lugar aun importante método experi mental (el de factores aditivos) para evaluar cómo toman parle los diferentes factores en los fenómenos. Para nosotros el foco se centra en la velocidad a la que parecen suceder las cosas. Los acelerados tiempos de reacción de unos 400 ms se acercan ya a la arquitectura, y los fenómenos que suceden un orden de magni­ tud más rápido (40 ms por ítem) deben acercarse al límite inferior de la arquitectura. Esto es especialmente patente cuando se considera que

las neuronas son esencialmente dispositivos de 1-ms, de modo que los circuitos neuronales son dispositivos de 10-ms. Con sólo los fenómenos de Sternberg, incluyendo estos límites ajus­ tados, no se pueden inferir los mecanismos que los realizan. De hecho la situación de Sternberg se ha estudiado para mostrar que no se puede siquiera inferir si la ^búsqueda» tiene lugar en serie o en paralelo. Con una arquitectura dada, sin embargo, las cosas se vuelven muy distintas. Por ejemplo, con Act*, las constantes temporales implican que a las pro­ ducciones les lleva un tiempo relativamente largo disparar, del orden de los 100 ms. Así, el efecto Sternberg no puede ser debido a disparos múltiples de producciones. Por consiguiente, debe tratarse de un fenó­ meno de propagación de la activación. De hecho la explicación ofrecida por Anderson para el efecto Sternberg se basa en la propagación de la activación (Anderson 1983, pp. 119-120). Hay dos producciones, una para decir sí si el ítem de prueba está allí y otra para decir no si no lo está, que definen el modo en que el sujeto realiza la tarea, y después un cálculo basado en el flujo de activación muestra que éste se aproxima al efecto. El aspecto importante para nosotros es que las dos producciones son el modo obvio de especificar la tarea en Act’ y hay pocas alternati­ vas, si las hay. Si pasamos a Soar, hay un análisis análogo. Primero, las restric­ ciones generales de tiempo suponen que las producciones deben ser mecanismos de 10-ms, de modo que el ciclo de decisión es básica­ mente un mecanismo de lOOrns. aunque las tareas aceleradas le obli­ garían a reducir el tiempo (Newell 1987). Por tanto, la elección y ejecución de operadores llevarán demasiado tiempo para usarlas en la búsqueda y procesamiento de los items del conjunto (a 40 ms cada uno). Por consiguiente, el efecto Sternberg debe ocurrir dentro de un único ciclo de decisión y el procesamiento del conjunto debe ocurrir al ejecutar un pequeño número de producciones (de una a tres) para cada ítem. El hecho de que el ciclo de decisión tienda a la aquiescen­ cia parecería estar relacionado con el que se procesen todos los items del conjunto, tanto si el ítem coincide como si no. Estas restricciones no concretan el programa exacto para la tarea de búsqueda en la me­ moria de modo tan completo como en A ct\ pero especifican muchas de sus características. Nuevamente el punto importante aquí es que cuanto más cerca de la arquitectura esté la tarea, podremos predecir mejor a partir de la estructura de la arquitectura el programa real que usan los humanos.

Una arquitectura proporciona una forma de unificación para la ciencia cognitiva, que surge, como hemos visto, de que todos los hu­ manos lleven a cabo todas las actividades por medio del mismo con­ junto de mecanismos. Como también hemos visto, estos mecanismos comunes trabajan mediante el contenido (esto es, el conocimiento), que varía según personas, tarcas, ocasiones e historia. Por tanto, hay una inmensa variabilidad de conducta y muchos fenómenos de la vida cognitiva se deben a estas otras fuentes. Un papel potencial importante para los estudios de la arquitec­ tura es el de revelar las conexiones ocultas entre actividades que en base al contenido y la situación parecen bastante distantes entre sí. Las conexiones surgen, por supuesto, debido a que se basan en los mismos mecanismos de la arquitectura, de modo que, una vez dada la arquitectura, puede que no sean sutiles ni oscuras. Un ejemplo de esto es el modo en que el troceo ha venido a jugar un papel central en muchas formas de aprendizaje diferentes, como la adquisición de macro-opcradores, la adquisición de heurísticos de búsqueda-control, la adquisición de conocimiento nuevo, la compilación de restriccio­ nes, el aprendizaje a partir de indicaciones externas, etc, e incluso en conductas que tradicionalmente no se consideran de aprendizaje como la creación de planes abstractos (Steier et al. 1987). Anteriormente se desarrollaban mecanismos de propósito especial para estas diversas actividades. Además del deleite que procede directamente del descubrimiento de la causa de cualquier regularidad científica, revelar las conexiones distales es útil pues se suma a la restricción que está disponible al descu­ brir la explicación de los fenómenos. Un ejemplo, otra vez del dominio de Soar, es el modo en que el troceo, cuya ruta en Soar era a través de un modelo de la práctica humana, ha proporcionado el comienzo de un modelo muy restringido del aprendizaje verbal (Rosenbloom, Laird & Newell 1988). Usar el troceo como la base del aprendizaje verbal le obliga a proceder de modo reconstructivo —aprender a recuperar un ítem que se ha presentado requiere la construcción de una representa­ ción interna del ítem a partir de estructuras que ya era posible recupe­ rar— y está conduciendo al modelo, por razones funcionales, a un punto en que tiene muchas similitudes con el modelo EPAM de aprendizaje verbal (Feigenbaum & Simón 1984).

Uno de los pruritos de los científicos cognitivos desde los primeros días de la simulación computacional de la cognición es que para hacer que funcione una simulación es necesario especificar muchos procedimientos y estructuras de datos que no tienen justificación psicológica. No hay nada en la estructura del programa de simulación que indique qué procedimien­ tos (o en general qué aspectos) pretenden ser psicológicos y cuáles no. Un resultado pequeño pero real de las arquitecturas completas es pro­ porcionar alivio para este prurito. Una propuesta de arquitectura es una propuesta de un sistema operacional completo. No se requieren procesos adicionales y ni siquiera son posibles. Así. cuando se produce una simula­ ción dentro de una arquitectura tal, todos los aspectos del sistema poseen pretensiones empíricas. Esto puede verse en el caso de Soar: se afirma que el ciclo de decisión es el modo en el que los humanos efectúan elecciones sobre qué hacer y que los impasses son reales y conducen al troceo. Se afirma que toda producción es psicológicamente real y que corresponde a un bit accesible de conocimiento humano. Y las afirmaciones continúan. Se puede hacer un conjunto similar de afirmaciones para Act\ Muchas de estas afirmaciones (para Act" o Soar) pueden ser, y sin duda lo son, falsas. Este es meramente el destino de las teorías inadecuadas e incorrectas que no consi­ guen corresponder a la realidad. Pero no hay un estatus especial para aque­ llos aspectos que no se cree que representen lo que sucede en la mente. Todo lo que esto hace es eliminar el estatus especial un tanto peculiar de las teorías basadas en la simulación y devolver estas teorías al terreno ocupado por todas las demás teorías científicas. Hay a menudo aspectos de la arquitectura que son desconocidos y que se encuentran cubiertos por supuestos explícitos, que están sujetos a análisis. A menudo se pos­ tulan sin más aspcctos importantes de una teoría total, como el que los contenidos iniciales de la mente resulten del aprendizaje previo y de las condiciones externas, y la conducta es de modo invariable sumamente sensible a esto. El análisis hace frente lo mejor que puede a tales inccrtidumbres y el problema no es diferente con las arquitecturas.

6. Conclusiones Un modo apropiado de terminar este capítulo es planteando algunas cuestiones que revelan algunos pasos importantes adicionales que se requieren para aspirar a conseguir una teoría adecuada de la arquitectura

cognitiva. Estas cuestiones tienen sus raíces en aspectos más generales de la ciencia cognitiva, pero nuestra atención se centra en las consecuen­ cias para la arquitectura cognitiva. La lista de requisitos que podrían moldear la arquitectura contiene algunos elementos cuyos efectos sobre la arquitectura no conocemos aún, en particular las cuestiones de adquirir capacidades durante el de­ sarrollo, de vivir autónomamente en una comunidad social y de exhibir autoconciencia y un sentido dei yo (requisitos 8- 10 ). Otra cuestión es el efecto sobre la arquitectura del hecho de ser una creación de la evolución biológica que se originó a partir de estructuras previas moldeadas por los requisitos de la función previa. Así pues, es­ peraríamos que la arquitectura estuviera acusadamente moldeada por la estructura de los sistemas perceptivo y motor. De hecho, sabemos por los estudios anatómicos y fisiológicos que extensas cantidades del ce­ rebro y la médula espinal están dedicadas a estos aspectos. La cuestión es qué tipo de arquitectura se desarrolla si evoluciona a partir de los sistemas perceptivo y motor de los mamíferos, que existen corno contro­ ladores sofisticados pero incapaces aún de la flexibilidad que proviene de la programabilidad completa. Por debajo del nivel de la organización de los sistemas perceptivo y motor, por supuesto, está su realización en grandes circuitos ncuronales densamente interconectados. Aquí, con los esfuerzos conexionistas (capítulo [4]) se está intentando vigorosamente comprender cuáles son las consecuencias para la arquitectura. Una cuestión análoga es la relación de la emoción, el sentimiento y el afecto con la cognición. A pesar del interés recientemente desperta­ do y de una larga historia en la psicología (Frijda 1986), no existe aún una integración satisfactoria de estos fenómenos en la ciencia cognitiva. Pero el sistema mamífero está claramente construido como un sistema emocional, y necesitamos entender de qué modo moldea esto la arqui­ tectura, si es que lo hace en absoluto.1^ Concluimos indicando que la mayor cuestión abierta con respecto a la arquitectura en ciencia cognitiva no reside en todos estos fenómenos cuyo impacto en la arquitectura sigue siendo oscuro. Más bien es nuestra falta casi total de experiencia en trabajar con arquitecturas cognitivas comple­ tas. Nuestras teorías cuantitativas y razonablemente precisas han sido es­ 1' Los sentimientos y emociones pueden tratarse como análogos a las sensaciones de modo que pudieran afectar al contenido del sistema cognitivo. incluyendo incluso señales insistentes, pero sin afectar de todos modos a la forma de la arquitectura.

trechas; nuestras teorías generales han sido amplias y vagas. Incluso donde nos hemos aproximado a una arquitectura razonablemente comprehensiva (Act' es el ejemplo principal), trabajar con ella ha sido lo bastante arcano y difícil para que no hayan emergido comunidades de científicos cualificados en su arte. Así que sabemos poco acerca de qué rasgos de una arquitectura dan cuenta de qué fenómenos, qué aspectos de una arquitectura conectan qué fenómenos con otros, y cómo son de sensibles a las variaciones en la arquitectura las diversas explicaciones. Prácticamente la única experiencia que tenemos con los usos de las arquitecturas descritos en la sección [5] es el análisis con parámetros generales. Estos tipos de comprensión no emergen de un solo estudio o de muchos estudios realizados por un único investigador. Provienen de que haya mucha gente que explora y ajusta la arquitectura para muchos pro­ pósitos diferentes hasta que las derivaciones de los diversos fenómenos de la arquitectura se hacen estándar y se comprenden. Provienen, como con tantos aspectos de la vida, de vivirlos.

Referencias A graw al , D. P. 1986. A d va n ced C om pu ter A rch itectu re. W ashington, DC: C om puter Society Press. A nderson , J. R. 1976. L anguage, M em ory and Thought. Hillsdale, NJ: Erlbaum. A n d fr so n , J. R. 1983. The A rchitecture o f C o rn il ion. C am bridge, M A: Har­ vard U niversity Press. A n d e r so n , J. R. 1986. «K n ow led ge com pilation: The general lcam ing m cchanism s». In R. S. M icha! ski, J. G. C arbonell, and T. M itchell, eds. M achine L earn in g: An A rtificial In telligen ce A pproach . Vol. 2. L os A ltos, CA: M or­ gan K aufm ann Puhlishers, Inc. A n d er so n , J. R., and B ow er , G. 1973. H um an A sso cia tive M em ory. W ashing­ ton, DC: W inston. A n d er so n , J. R.. and T h o m pso n , R. 1988. «U se o f analogy in a production system architecture». In S. V osniadou and A. Ortony, eds. S im ilarity and A n alógicaI R eason in g. N ew York: C am bridge U niversity Press. B ell . C. G ., and N ew ell, A. 1971. C om pu ter Structures: R eadin gs an d Exam p les. N ew York: M cG raw -H ill. B ra ch m an , R. J. 1979. «On the ep istem ological status o f sem antic netw orks». In N. V. F indler , cd. A sso cia tive N etw o rks: R epresen tation a n d U se o f K n ow ledg e b y C om pu iers. N ew York: A cadem ic Press. B ro a d ben t , D. E. 1954. «A m echanical m odel for human attention and im m ediate m em ory». P sy ch o lo g ic a l R eview 64: 205.

B r o w n , A. L. 1978. -> -> -►

0 1

I o

lizar generalizaciones adecuadas y comportarse de forma razonable ante patrones que no les han sido presentados previamente. La similaridad de los patrones en el sistema eonexionista viene determinada por su solapamiento. El solapamiento en tales redes es determinado fuera del sistema de aprendizaje mismo —por aquello que produce los patrones. La restricción de que patrones input similares producen outputs si­ milares puede conllevar una falta de habilidad del sistema para aprender determinadas aplicaciones del input al output. Cuando la representación proporcionada por el mundo extemo es tal que la estructura de simila­ ridad de los patrones input y output es muy diferente, una red sin repre­ sentaciones internas (es decir, una red que no posea unidades ocultas) será incapaz de realizar las aplicaciones necesarias. Un ejemplo clásico de ésto es el problema de la disyunción exclusiva (XOR) ilustrado en la tabla 4.1. Aquí vemos que aquellos patrones que menos se solapan son los que se supone que generan valores output idénticos. Este problema y otros muchos del mismo tipo no pueden ser resueltos con redes que carecen de unidades ocultas con las que crear sus propias representa­ ciones internas de los patrones input. Es interesante observar que si los patrones input incluyesen un tercer input con valor 1 cuando los dos

primeros valores también tienen 1 , un sistema de dos capas sería capaz de resolver el problema, tal y como se muestra en la figura 4.2. Minsky y Papert (1969) nos dejaron un análisis cuidadoso de las con­ diciones bajo las que estos sistemas son capaces de llevar a cabo las co­ rrespondencias adecuadas. Mostraron que las redes de este tipo son inca­ paces de resolver problemas en muchos casos interesantes. Por otra parte, como estos mismos autores también observaron, la existencia de una capa de unidades ocultas del simple tipo del perceptrón, tal y como se muestra en la figura 4.3, con la que podría aumentarse el patrón input original, per­ mitiría siempre realizar una recodificación (es decir, una representación interna) de los patrones inpui en las unidades ocultas, donde la similaridad de los patrones entre las unidades ocultas admite cualquier corresponden­ cia requerida de las unidades input á las unidades output. Por consiguiente, si disponemos de las conexiones conectas desde las unidades input a un conjunto suficientemente grande de unidades ocultas, siempre podremos encontrar una representación que ejecutará cualquier correspondencia del input al output a través de las unidades ocultas. En el caso del problema de la disyunción exclusiva, la adición de un aspecto que detecta la con­ junción de las unidades input modifica la estructura de similaridad de los patrones lo suficiente como para posibilitar que la solución sea aprendida. Como se muestra en la figura 4.4, ello puede hacerse simplemente con una unidad oculta. Los números de las flechas representan las fuerzas de las conexiones entre las unidades. Los números escritos dentro de los círculos representan los umbrales de las unidades. El valor +1.5 para el umbral de la unidad oculta garantiza que sólo se activará en el caso de que las dos unidades input están activadas. El valor 0.5 de la unidad output asegura que se activará solamente cuando reciba un input positivo neto mayor que 0.5. El peso de —2 de la unidad oculta a la unidad output garantiza que ésta unidad no se activará cuando las dos unidades input se encuentran ac­ tivadas. Debe observarse que, desde el punto de vista de la unidad output. la unidad oculta es tratada simplemente como otra unidad input. Es como si los patrones input consistieran en tres unidades, en lugar de dos. La existencia de redes como la anterior ilustra el poder potencial de las unidades ocultas y las representaciones internas. El problema es, como observaron Minsky & Papert, que así como tenemos garantizada una regla de aprendizaje muy simple para todos los problemas que pue­ den ser resueltos sin unidades ocultas, por ejemplo, el procedimiento de convergencia del perceptrón (o la variante propuesta originalmente por Widrow & Hoff. 1960), no contamos con una regla de aprendizaje igualmente poderosa para las redes multicapa.

t ln t*rn *l

Unitt

In p u t P i u « m *

F igura 4.3

Una red multicapa en donde los patrones input son recodificados por unidades de representación internas

F i g u r a 4 .4

Una red simple XOR con una unidad oculta Está claro que si aspiramos a utilizar estas redes conexionistas con propósitos de computación general, debemos contar con un esquema de aprendizaje capaz de aprender sus propias representaciones internas. Esto es precisamente lo que nosotros (Rumelhart, Hinton y Williams, 1986) he-

mos hecho. Heñios desarrollado una generalización del procedimiento de aprendizaje del perceptran denominado la regla delta generalizada, que capacita al sistema para aprender a computar funciones arbitrarias. Las restricciones aplicables a las redes sin representaciones internas automoditícadoras ya no resultan aplicables. El procedimiento básico de apren­ dizaje consiste en un proceso a dos pasos. En primer lugar, se aplica un inpui a la red; entonces, despucs de que el sistema haya estado procesando durante algún tiempo, determinadas unidades de la red son informadas de los valores que debieran tener en ese momento. Si han obtenido los valores deseados, los pesos no se modifican. Si difieren de dichos valores, entonces se modifican los pesos de acuerdo con la diferencia entre el valor real obtenido por las unidades y los valores a obtener. Esta diferencia se convierte en una señal de error. Esta señal de error tiene que ser remitida entonces a las unidades que contactan con las unidades output. Cada una de estas unidades recibe una medida de error que es igual al error de todas las unidades con las que conecta por el peso de la conexión con la unidad output. Entonces, sobre la base de la señal de error, se modifican los pe­ sos de las unidades dentro de esa «segunda capa», después de lo cual la señal de error es remitida a otra capa. Este proceso continúa hasta que la señal de error llega a las unidades input, o hasta que es retro-pasada un número fijo de veces. Entonces se presenta un patrón input nuevo \ el proceso se repite. A pesar de que este proceso puede parecer difícil, es realmente muy simple y fácil de implementar en estas redes. Como se muestra en Rumelhart, Hinton y Williams. 1986. este proceso siempre modificará los pesos de tal forma que la diferencia entre los valores output reales y los deseados irá reduciéndose. Además se puede demostrar que este sistema funciona en cualquier red. Minsky y Papert (1969, pp. 231-232), en su pesimista discusión acer­ ca de las perceptrones, tratan las máquinas multicapa. Ellos afirman que El perceptrón ha acreditado ser m erecedor de estudio, a pesar de (e incluso debido a!) sus serias lim itaciones. P osee m uchas caracleríslicas que atraen la atención: su linealidad; su atractivo teorem a de aprendi­ zaje; su clara y paradigmática sim plicidad com o una clase de com pu­ tación paralela. N o hay ra/ón para suponer que cualquiera de estas vir­ tudes no se da en !a versión m ulticapa. N o obstante, consideram os que es un problema importante a investigar la clarificación (o el rechazo) de nuestra estim ación intuitiva en el sentido de que la extensión es estéril. Q uizá llegue a descubrirse algún teorem a de convergencia poderoso, o puede que se encuentre alguna razón profunda del fracaso en dar con un «teorem a de aprendizaje» interesante para la máquina m ulticapa.

Aunque nuestros resultados sobre el aprendizaje no garantizan que vayamos a encontrar una solución para todos los problemas resolubles, nuestros análisis y resultados de simulación han demostrado que, en la práctica, este esquema de propagación de error alcanza soluciones en virtualmente cualquier caso. En dos palabras, creemos haber respon­ dido al desafío de Minsky y Papert y hemos dado con un resultado de aprendizaje lo suficientemente poderoso como para demostrar que su pesimismo acerca del aprendizaje en las máquinas multicapa estaba equivocado. Una forma de considerar el procedimiento anteriormente descrito es como un computador paralelo al que, habiéndole sido mostrados ejem­ plares adecuados inpm/output especificando alguna función, se progra­ ma a sí mismo para computar dicha función en general. Es bien conoci­ do que los computadores paralelos son muy difíciles de programar. Aquí tenemos un mecanismo del que no necesitamos conocer de hecho cómo escribir el programa que permita al sistema hacerlo. Degradación dulce. Finalmente, los modelos conexionistas son can­ didatos interesantes para los modelos de ciencia cognitiva debido a su propiedad de degradación dulce en presencia de daño o de sobrecarga de información. La habilidad de nuestras redes para aprender lleva a la promesa de ordenadores que literalmente pueden aprender su modo de comportarse entre componentes defectuosos, debido a que cada unidad participa en el almacenamiento de muchos patrones, y como cada patrón incluye muchas unidades diferentes, la pérdida de unos pocos compo­ nentes podrá degradar la información almacenada, pero no la perderá. Por la misma razón, estas memorias no debieran conceptualizarse como poseyendo determinada capacidad fija. Más bien, se da simplemente más y más interferencia de almacenamiento y mezcla de piezas de in­ formación similares a medida que la memoria se va sobrecargando. Esta propiedad de degradación dulce imita la respuesta humana en muchos aspectos, y constituye una de las razones por las que estimamos que es­ tos modelos de procesamiento de información humana son plausibles.

2. El estado de la cuestión Los últimos años han contemplado una explosión virtual de la in­ vestigación en el campo conexionista. El trabajo ha sido particularmente interdisciplinar. desarrollado por psicólogos, físicos, expertos en com­

putación, ingenieros, neurocientíñcos y otros científicos cognitivos. Se han organizado numerosos congresos nacionales e internacionales que se reúnen cada año. En estas circunstancias resulta difícil dar cuenta de un campo que se desarrolla tan rápidamente. Aún así, la lectura de la producción reciente indica unos pocos temas en esta actividad. Estos temas incluyen el estudio del aprendizaje y la generalización (especial­ mente el uso del procedimiento de aprendizaje de retro-propagación), aplicaciones a la neurociencia. propiedades matemáticas de las redes — tanto en términos de aprendizaje como en relación con el problema de las relaciones entre el estilo conexionista de computación y los paradig­ mas de computación más convencionales— y finalmente, el desarrollo de una base implementacional para la realización física de los sistemas conexionistas de computación, especialmente en los campos de la óptica y la VSLI analógica. Aunque existen otros muchos desarrollos interesantes e importan­ tes, voy a concluir con un breve resumen del trabajo al que yo mismo me he dedicado fundamentalmente durante los últimos años, es decir, el estudio del aprendizaje y la generalización en las redes multicapa. Aún cuando este resumen debe ser necesariamente selectivo, debería servir como ejemplo de buena parte del trabajo actual en el campo. Aprendizaje y generalización El procedimiento de aprendizaje por retro-propagación ha llegado a ser posiblemente el método más popular para entrenar redes. Este proce­ dimiento ha sido utilizado para entrenar redes sobre dominios de pro­ blemas que incluyen el reconocimiento de caracteres, el reconocimiento del habla, detección por sonar, establecimiento de correspondencias en­ tre deletreo y sonidos, control motor, análisis de estructuras molecu­ lares, diagnóstico de enfermedades oculares, predicción de funciones caóticas, jugar al backgammon, realizar parsing 1 de oraciones simples, y muchas, muchísimas otras áreas de aplicación. Quizá el aspecto más importante de estos ejemplos es el rango tan enorme de problemas a los que puede aplicarse con provecho el procedimiento de aprendizaje por retro-propagación. A pesar de esta impresionante amplitud de lemas y 1 Nota del traductor: Parsmg significa analizar las oraciones en sus componentes simples. Puesto que esta palabra, aunque es inglesa, es de uso corriente en los dominios de ciencia cognitiva y lenguaje, hemos optado por dejarla tal cual en la traducción.

del éxito de algunas de sus aplicaciones, queda un buen número de im­ portantes problemas abiertos. Los problemas teóricos de interés básico pertenecen a tres áreas principales: (1) El problema de la arquitectura — ¿Existen arquitecturas útiles más allá de las redes habituales de tres capas que se usan en la mayor parte de estas áreas, adecuadas para determinadas áreas de aplicación? (2) El problema del escalamiento (,scaling)— ¿Cómo podemos reducir el abundante tiempo de aprendi­ zaje que parece necesitarse en las áreas de aplicación más difíciles e interesantes? (3) El problema de la generalización —¿Cómo podemos estar seguros de que una red entrenada sobre la base de un subconjunto de un conjunto de ejemplos va a generalizar correctamente a un conjunto completo de ejemplares? Una arquitectura A pesar de que la mayor parte de las aplicaciones han utilizado la simple red de retro-propagación de tres capas con una capa input, una capa de unidades ocultas, y una capa de unidades output, se ha propuesto un gran número de arquitecturas interesantes —cada una de ellas para solucionar algún problema de interés particular. Por ejemplo, existe una serie de arquitecturas ^especiales» que han sido propuestas para mode­ lar fenómenos secuenciales tales como el control motor. Quizá la más importante de ellas es la propuesta por Mike Jordán (1986) para la pro­ ducción de secuencias de fonemas. La estructura básica de esta red viene ilustrada en la figura 4.5. Está compuesta de cuatro grupos de unidades: Unidades plan. que dicen a la red qué secuencia se e^ta produciendo. Estas unidades son fijadas al comienzo de una secuencia y no cambian. Unidades contexto: recuerdan dónde se encuentra el sistema en la se­ cuencia, reciben inputs a partir de las unidades output de los sistemas y también de sí mismas, constituyendo una memoria de la secuencia pro­ ducida hasta entonces. Unidades ocultas: combinan la información de las unidades plan con la de las unidades contexto para determinar qué output debe ser producido a continuación. Unidades output: producen los valo­ res output deseados. Esta estructura básica, con numerosas variaciones, ha sido utilizada con éxito en la producción de secuencias de fonemas (Jordán, 1986). secuencias de movimientos (Jordán, 1989), secuencias de notas en una melodía (Todd, 1989), secuencias de giros en un bar­ co simulado (Miyata, 1987), y para otras muchas aplicaciones. Una red para el reconocimiento de secuencias parecida ha sido usada por Elman (1988) con el fin de procesar oraciones una por una, y Mozer (1988)

F i g u r a 4.5

Una red recurrente del tipo de las desarrolladas por Jordán (1986) para aprender a ejecutar secuencias ha desarrollado e investigado otra variante. La arquitectura utilizada por Elman queda ilustrada en la figura 4.6. Esta red también posee tres con­ juntos de unidades: unidades input, donde la secuencia a reconocer es presentada elemento por elemento; un conjunto de unidudes, contexto, que reciben de, y envían inputs a las unidades ocultas, constituyendo así una memoria para acontecimientos recientes; un conjunto de unidades ocultas, que combinan el input que reciben con su memoria de inputs an­ teriores, bien para nombrar la secuencia, bien para predecir el siguiente elemento de la secuencia, o para ambas cosas. Otro tipo de arquitectura que ha recibido atención fué sugerida por Hinton y utilizada por Elman y Zipser (1987), Cotrell, Munro y Zipser (1987) y otros muchos. Esta arquitectura ha llegado a convertirse en par­ te del instrumental (toolkit) habitual de la retro-propagación. Se trata del denominado método de autocoditícación del conjunto patrón. En este caso, la arquitectura básica está compuesta por tres capas de unidades como en los casos convencionales: no obstante, las capas input y output son idénticas. La idea consiste en pasar el input a través de un pequeño número de unidades ocultas y reproducirlo sobre las unidades output. Esto requiere que las unidades ocultas realicen un tipo de análisis de componentes de los patrones input de principio no lineal. En este caso, ello corresponde a un tipo de extracción de aspectos críticos. En muchas

aplicaciones sucede que estos aspectos proporcionan una descripción compacta de los patrones. Se han investigado otras muchas arquitec­ turas. El espacio de arquitecturas útiles e interesantes es amplio y su investigación continuará durante muchos años. El problema del escalamiento El problema del escalamiento ha recibido algo menos de atención, aunque ha emergido claramente como un problema central de los proce­ dimientos de aprendizaje de tipo reiro-propagación. El punto básico es que los problemas difíciles necesitan muchos intentos de aprendizaje. Por ejemplo, no es infrecuente necesitar decenas, o incluso cientos de miles de presentaciones de patrón para aprender problemas moderadamente difíci­ les —es decir, problemas cuya solución requiere desde decenas o millares hasta cientos de miles de conexiones. Estos problemas necesitan compu­ tadores grandes y rápidos, y llegan a ser impracticables aquellos proble­ mas que necesitan más de unos pocos cientos de miles de conexiones. Por consiguiente, es un asunto de importancia averiguar cómo hacer más rá­ pido el aprendizaje de modo que resulte posible aprender problemas más difíciles con un número de exposiciones más razonable. Las soluciones propuestas entran en dos categorías básicas, lina línea de ataque es me­ jorar el procedimiento de aprendizaje mediante la optimización dinámica de los parámetros (es decir, modificar el porcentaje de aprendizaje siste­ máticamente durante el proceso), o bien utilizar más información en el procedimiento de cambio de pesos (es decir, el denominado procedimien­ to de retro-propagación de segundo orden donde las segundas derivadas también son computadas). A pesar de que se han conseguido algunas mejoras mediante el uso de estos métodos, persiste todavía el problema del escalamiento en determinados dominios de problemas. Parece que la dificultad fundamental es que los problemas difíciles requieren un número muy grande de ejemplares, independientemente de la eficiencia con la que se utilice cada ejemplar. La otra línea se ha desarrollado a partir de la consideración del aprendizaje y la evolución como continuos entre sí. Según esta concepción, el hecho de que las redes empleen mucho tiempo en aprender es algo que cabe esperan ya que tendemos a comparar su con­ ducta con la de organismos que cuentan con largas historias evolutivas. Desde este punto de vista, la solución es arrancar el sistema en el momento más apropiado posible para que pueda aprender el dominio de problemas. Shepherd (1989) ha argumentado que este enfoque resulta crítico para una comprensión cabal de los fenómenos que se están modelando.

T

Output Untts

/

/

/

F igura 4 .6

Una red recurrente del tipo de las desarrolladas por FJman (1988) para aprender a reconocer secuencias Un ultimo abordaje del problema del escalamiento es a través de la medularidad. Resulta posible dividir el problema en subproblemas más pequeños y entrenar subredes con esos subproblemas. Así, las redes pueden ser agrupadas al final para resolver el problema completo des­ pués de que todos los módulos han sido entrenados. A este respecto, una ventaja del enfoque conexionista es que el entrenamiento inicial sólo necesita ser correcto aproximadamente. Puede utilizarse una vuelta final de entrenamiento para aprender las interfaces entre los módulos. El problema de la generalización Un último aspecto del aprendizaje que ha sido considerado es la na­ turaleza de la generalización. Es evidente que la propiedad más impor­ tante de las redes no es que aprenden un conjunto de correspondencias, sino que aprenden la función implícita de los ejemplares bajo estudio, de tal forma que responden con propiedad a aquellos casos que no han sido observados todavía. Aunque existen muchos casos de generaliza­ ción exitosa (ver el aprendizaje de las correspondencias entre el deletreo y los fonemas en el Nettalk de Sejnowski y Rosenberg. 1987), existe una cierta cantidad de casos en los que las redes no generalizan correc­ tamente (ver Denker et al. 1987). Una forma fácil de entender ésto es

observar que para la mayor parte de los problemas existen suficientes grados de libertad en la red como para que se de un ámplio número de soluciones a los problemas, todas genuinamente diferentes, y cada solución constituye una forma diferente de generalizar los patrones no vistos. Es evidente que no todas ellas pueden ser correctas. Yo he pro­ puesto una hipótesis que desvela ciertas esperanzas de promover una generalización mejor (Rumelhart, 1988). La idea básica es la siguiente: el problema de la generalización es esencialmente el problema de la inducción. Dado un conjunto de observaciones, cuál es el principio ade­ cuado para aplicar a todos los casos. Debe notarse que la red puede ser contemplada en cualquier intervalo temporal como una especificación de la hipótesis inductiva. He propuesto que sigamos una versión de la navaja de Occam y seleccionemos la red más simple y más robusta que resulte consistente con las observaciones realizadas. El supuesto de la robustez es simplemente la plasmación de un tipo de hipótesis de conti­ nuidad en el sentido de que las variaciones pequeñas en los patrones in­ pul deberían tener poco efecto en el output y en la conducta del sistema. El supuesto de simplicidad consiste únicamente en escoger —de entre todas las redes que dan cuenta correctamente de los datos input— la red con menos unidades ocultas, menos conexiones, más simetrías entre los pesos, y así sucesivamente. He formalizado este procedimiento y modi­ ficado el procedimiento de aprendizaje por retro-propagación de forma que prefiere las redes simples y robustas, y en igualdad de condiciones, seleccionará dichas redes. En muchos casos sucede que esas redes son precisamente las que mejor realizan el trabajo de generalizar.

Referencias C o t t r e l l , G. W., M u n r o , P. W. & Z i p s e r , D. (1987) o «i.e.» sugiere elaboración. «de modo similar»

sugiere paralelo, «por ejemplo» sugiere ejemplificación y «pero» sugie­ re contraste o expectativa violada»*. Afirmaciones semejantes se han hecho en la Teoría de la Estructura Retórica (Mann y Thompson 1986) y en explicaciones de análisis sintáctico del discurso (Polanyi y Scha 1984, Reichman-Adar 1984). Grosz y Sidner (1986) sostienen una tesis sobre el papel de los sin­ tagmas de entrada que contrasta con las anteriores. Como se ha indicado antes, hemos argumentado que la estructura de un discurso en realidad comprende tres estructuras interrelacionadas. En esta perspectiva los sin­ tagmas de entrada pueden proporcionar información sobre uno o más componentes de la estructura (tripartita) global (Grosz y Sidner 1986, pp. 196-199). Por ejemplo, ciertos sintagmas de entrada, tales como eso me recuerda o de todos modos. indican cambios en el estado atencional — el primero indica un empujón a un nuevo espacio focal y el segundo un salto a un espacio establecido previamente. Nótese que aunque al cam­ bio de estado atencional señalado por eso me recuerda le acompaña la adición de nuevos componentes a la estructura intencional, el sintagma de entrada por sí solo no especifica de qué cambio se trata. Con de todos modos no hay ningún cambio de estructura intencional. La expresión a propósito proporciona la información de que el hablante va a empren­ der una digresión y que. en consecuencia, se va a extender la estructura intencional con una nueva jerarquía intencional distinta a la existente. La expresión por ejemplo indica que la intención subyacente al segmen­ to del discurso siguiente —aquél cuyo comienzo se marca mediante el segmento de entrada— está dominada en la estructura intencional por la intención subyacente al segmento del discurso anterior. La mayoría de los investigadores, independientemente de su postu­ ra sobre lo que constituye realmente el discurso, creen que los sintagmas de entrada no son en general ni necesarios ni suficientes para determinar la estructura del discurso. Hay muchos casos en los que es bien posible determinar la estructura, de un discurso, o una parte, que carece de sintag­ mas de entrada. Igualmente, hay muchos discursos, o partes de éstos, que contienen sintagmas de entrada que sólo sugieren la estructura subyacente o que, dicho de otro modo, proporcionan restricciones sobre la serie de estructuras posibles. Por último, la estructura de un discurso depende de la 4 Hobbs (1985) sostiene que los hablantes no sólo usan los sintagmas de entrada para señalar la estructura discursiva, sino que tratar de insertarlos en un discurso completo puede ser útil para el analista que trata de discernir su estructura.

información proporcionada por las proferencias que contiene y el modo en el que esa información está interconectada. Los sintagmas de entrada sim­ plifican la labor de determinar estas interconexiones. Se ha mostrado que el proceso de determinación de las relaciones semánticas interoraciona­ les (Cohén 1984) y de reconocimiento de planes (Litman and Alien 1988) puede ser restringido teniendo en cuenta los sintagmas de entrada. Prosodia y Gesticulación La prosodia es otro instrumento eficaz para señalar la estructura del discurso. Los estudios de discursos producidos espontáneamente han mos­ trado que los cambios en la longitud de pausa (Chafe 1979, 1980) y en la velocidad del habla (Buttcrvvorth 1975) están correlacionados con los límites de los segmentos del discurso. Hirschberg, Pierrehumbert, Litman y Ward han proporcionado datos de una estrecha correlación entre cier­ tas características prosódicas y componentes específicos de la estructura discursiva tripartita propuesta por Grosz y Sidner (Hirschberg et al. 1987. Hirschberg y Pierrehumbert 1986). El registro tonal puede señalar los lí­ mites de los segmentos del discurso (Silverman (1987) llegó a la misma conclusión): la acentuación puede proporcionar información sobre el esta­ do atencional, y el tono puede marcar la estructura intencional. Además, el estilo y la acentuación pueden ayudar a distinguir el uso de una expresión como ahora como sintagma de entrada del uso en que la expresión contri­ buye directamente al significado oracional (Hirschberg y Litman 1987). La gesticulación es otro instrumento útil, al menos en las conver­ saciones cara a cara, para señalar la estructura discursiva. Hay estudios que muestran que la gesticulación tiende a coincidir con los límites de los segmentos discursivos (Kendon 1972, Marslen-Wilson et al. 1982) y puede proporcionar información sobre el foco de atención y la estructu­ ra intencional (McNeill 1979, McNeill and Levy 1982).

4. Fenómenos de nivel sintagmático El contexto discursivo tiene efectos sobre la interpretación de sin­ tagmas individuales dentro de una sola proferencia. El significado de pronombres y descripciones definidas se ve bastante obviamente in­ fluenciado por el contexto en el que son usados; los problemas rela­ tivos a la influencia del contexto sobre los procesos de generación e

interpretación de tales sintagmas se encuentran entre los más estudiados en procesamiento del discurso. También ha sido abordado el problema, relacionado con los anteriores, de representar apropiadamente los sin­ tagmas nominales cuantificacionalev En la subsección siguiente discu­ tiremos una serie de aproximaciones a estos problemas de referencia de sintagmas nominales. La referencia puede ser a objetos así como a even­ tos, lo que da lugar a problemas a discutir en la subsección segunda. La adjunción de modificadores o la elipsis discursiva son otros problemas de nivel sintagmático que han sido tratados desde la perspectiva del pro­ cesamiento del discurso. De los tres componentes de la estructura del discurso, el estado aten­ cional es el que tiene mayor efecto sobre los problemas de interpretación en el nivel sintagmático. La investigación sobre expresiones refe rene iales es la que más directamente ha usado modelos atencionales, mientras que las aproximaciones a la adjunción de modificadores y a la elipsis discursi­ va no han hecho más que empezar a usarlos. Aunque todavía no hay una descripción completa del conjunto de las restricciones discursivas (ni de las perceptuales) relevantes para ninguno de estos problemas de nivel sin­ tagmático. los investigadores han identificado y experimentado con una serie de representaciones y algoritmos centrales para éstas. Pronombres y Descripciones Definidas La preocupación principal de las teorías y modelos computacionales del uso de expresiones referenciales ha sido determinar la entidad (o entidades) a la que refiere un pronombre o una descripción definida5. Se ha investigado tanto el problema de especificar la serie de posibles re­ ferentes que una primera descripción hace disponible como el de elegir entre las distintas posibilidades. Para el problema de identificar el referente de un sintagma anafórico6 se han adoptado dos aproximaciones. En una aproximación (Hobbs 1979) la identificación del referente se subsume a procesos más generales de s Este énfasis difiere del de gran parte de In lingüística americana, en la que han sido centrales las restricciones que impiden la co-especificación de proponombres (véase, por ejemplo, la investigación sobre anáfora pronominal de Reinhart (1983) y Lasnik ( 1976)). 0 Usamos aquí anáfora y anafórico para referimos a aquellos sintagmas que refieren a entidades que han sido mencionadas previamente en ei discurso y que co-especifican (com­ párese con Sidner 1983) junio con algún sintagma que aparece previamente en el discurso.

inferencia. En la otra aproximación se consideran primarias las cuestiones de cómo interactúan las expresiones referenciales con el estado atencional (Grosz 1977, Sidner 1981, Reichman-Adar 1984, Grosz and Sidner 1986). La investigación en la primera aproximación sólo considera problemas de interpretación de las expresiones referenciales, mientras que la investiga­ ción dentro de la segunda también se preocupa de especificar restricciones sobre la generación de expresiones rcfcrcnciales adecuadas. Para la segunda aproximación los conceptos de foco y proceso de focalización (Grosz 1977, Grosz 1978b, Grosz 1981, Grosz and Sidner 1986) han desempeñado papeles centrales en el tratamiento de las descripciones definidas, usadas para primera referencia o como sintagmas nominales anafóricos. En este trabajo la focalización se define como el movimiento del foco de atención de los participantes en el discurso según éste avanza. Se han identificado dos niveles de focalización, global y local (Grosz 1977, Grosz and Sidner 1986). La focalización global se modela mediante una pila de espacios focales; afecta al uso e interpretación de descripciones definidas. La focalización a nivel local se modela con centros y centraliza­ ción. El centro de un segmento dado es un elemento del estado atencional y al comienzo de cada nuevo segmento se introduce un nuevo centro. La centralización afecta al uso y la interpretación de pronombres. Cada espacio individual de la pila focal global contiene representa­ ciones de las entidades enfocadas por los participantes durante cierto seg­ mento del discurso así como el propósito del segmento discursivo. Las entidades actualmente en foco (esto es, en algún espacio de la pila focal) son las primeras candidatas para ser referentes de las descripciones defi­ nidas; son también el origen de las entidades enfocadas implícitamente (esto es, un sintagma puede referir a un ítem relacionado con algo de un espacio focal actual; por ejemplo, la portada puede usarse para referirse a la portada de un libro cuando ese libro está en el foco). El conjunto de entidades en el foco global proporciona también restricciones sobre el contenido de las descripciones definidas subsiguientes; por ejemplo, un hablante debe incluir suficientes descriptores para distinguir la entidad a la que se quiere referir de otras entidades en el foco. Grosz (1977) ideó un conjunto de mecanismos focalizadores para la interpretación de sintagmas nominales definidos en un sistema que participaba en un diálogo sobre una tarea .7 Los mecanismos traían enti­ 7 Para este sistema los propósitos de segmento discursivos eran tratados como tareas y subtareas.

dades al foco a medida que el discurso se desplazaba a una subtarea de la tarea general y las retiraban del foco global cuando se completaba la subtarea. La posición en el foco global era dependiente de la subtarea más inmediata; las otras subtareas incompletas y sus entidades asocia­ das estaban en el foco global, pero eran menos prominentes que aquéllas asociadas a la subtarea más inmediata. Los procedimientos para la inter­ pretación de sintagmas nominales definidos y anafóricos y de las prime­ ras referencias enfocadas implícitamente eligen los ítems entre aquéllos que están en el foco global. Las técnicas de focalización podían predecir el referente anafórico de un sintagma nominal definido como el tornillo cuando se ha traído al foco el tomillo de la polea. Limitaban también la búsqueda necesaria para hallar la representación de una entidad men­ cionada previamente —aquella^ entidades que no estaban en el foco no estaban disponibles, y aquéllas en el foco y asociadas a la subtarea más inmediata se buscaban antes que las menos prominentes. Por ejemplo, el tornillo seria entendido como un referente del tomillo de la polea sólo cuando la polea fuera más prominente que algún otro tomillo (por ejemplo, el tornillo del taladro) en el foco global; en caso contrario se elegiría como referente al tomillo del taladro. Appelt y Kronfeld (1987) han utilizado los mecanismos de focali­ zación para la generación de expresiones referenciales de primer uso. Además Kronfeld (1986) ha proporcionado los conceptos de descripcio­ nes funcionalmente pertinentes (esto es, aquéllas cuyo contenido se re­ quiere para distinguir el referente) y descripciones conversacionalmente pertinentes (esto es, aquéllas cuyo contenido proporciona información sobre la relación del referente con otros aspectos de la conversación). Estos conceptos redefinen la distinción clásica de Donnellan (1966) en­ tre descripciones referenciales y atributivas en términos del papel que un sintagma desempeña como instrumento de referencia y como contri­ buyente al contenido del discurso. El foco inmediato (Sidner 1979) guía la interpretación y la genera­ ción de los pronombres de tercera persona así como los usos anafóricos de esto (éste, ésta) y eso (ése, ésa). La focalización inmediata opera den­ tro de los segmentos discursivos individuales; localiza la entidad más relevante en cualquier proferencia dentro del segmento, basándose en características del contexto precedente, particularmente en propiedades de la proferencia precedente. Sidner (1979. 1981, 1983) desarrolló un conjunto de algoritmos para predecir la elección de focos locales en el discurso y su desplazamiento a medida que el discurso avanzaba. Sus algoritmos hacían uso de los conceptos de un foco discursivo y un foco

actor, es decir, entidades mencionadas en la proferencia que estaban localmente en foco debido a la estructura sintáctica y a las relaciones temáticas de la proferencia. Un conjunto de reglas, que utilizaban los focos inmediatos y un conjunto de nuevos focos potenciales, predecía la interpretación intendida de pronombres en proferencias subsiguientes. McKeown (1985) y McDonald (1983) adaptaron los algoritmos de fo­ calización para generar pronombres en el texto. La teoría de centrado de Grosz, Joshi y Weinstein (Joshi y Weinstein 1981, Grosz et al. 1983) reemplazó la noción de focos inmediatos por la de centros: un centro de mirada-hacia-atrás (Cb) que corresponde aproximadamente al foco del discurso y varios centros de mirada-haciaadelante (Cf) que corresponden a los nuevos focos potenciales. Como en la teoría de Sidner los centros cambian de acuerdo con el compor­ tamiento de las expresiones referenciales en cada proferencia del dis­ curso. La teoría difiere en que no tiene correlato alguno del foco actor y en que da cuenta de los usos múltiples de un mismo pronombre per­ mitiendo que se pronominal icen otras entidades distintas de Cb siempre que ésta también lo esté. La teoría de centrado simplifica la explicación de Sidner de la focalización local eliminando la necesidad del foco del discurso así como del foco actor y proporcionando una explicación de ciertas interpretaciones de pronombres que resultan problemáticas en la teoría de los focos inmediatos. Aunque el foco de atención es crucial para comprender la anáfora, la forma y el contenido de los sintagmas y proferencias que primero evocan las entidades a las que refiere la anáfora también contribuye vi­ talmente a su comprensión. Webber (1980, 1983) introdujo la noción de sintagmas «que evocan entidades discursivas». Con esto quiere decir que los sintagmas traían al discurso, o evocaban naturalmente, una co­ lección bien estructurada de representaciones de las entidades (reales) referidas. Para la interpretación de la anáfora definida y la elipsis de sintagma verbal estaban disponibles las entidades discursivas. Definió el concepto de descripción invocadora de entidad discursiva (ID) para formalizar su noción y postuló un conjunto de representaciones y reglas específicas para crear estas IDs por la aplicación sucesiva de las reglas. Las reglas de Webber operaban sobre representaciones semánticas complejas, que incluían cuantificadores incrustados y cuantificación sobre conjuntos de individuos. Las reglas producían IDs para cada posible interpretación de los sintagmas nominales y sintagmas ver­ bales de lina proferencia, pero Webber no exploró cómo determinar

computacionalmente qué interpretación era la intendida sobre la base de descripciones anafóricas subsiguientes. Sidner (1983), sin embar­ go, esbozó una explicación de cómo la focalización podría propor­ cionar la información necesaria. En trabajos posteriores Kamp (1981) y Heim (1982) han propuesto formalismos alternativos semejantes; Guenthner y sus colaboradores (1986) describen un sistema que utiliza el formalismo de Kamp. Dos intentos de construcción de sistemas han investigado métodos para computar las representaciones de sintagmas nominales complejos como parte del proceso de determinar (una re­ presentación de) el significado de una oración (Dahl 1987, Pollack y Pereira 1988). Entre las expresiones referenciales menos investigadas en la inves­ tigación computacional del discurso se encuentra el uso de la deixis8. Fíllmore (1975) subeategorizó cuatro tipos de deixis: espacial, tempo­ ral, social y discursiva. La estructura del discurso puede restringir los dos últimos tipos como se ejemplifica por sintagmas como los prime­ ros. usado para referirse a los dos primeros elementos de una lista (una instancia de deixis discursiva), y nosotros (una instancia de discurso social). Sidner (1979) exploró algunos casos de deixis discursiva, pero queda por hacer un tratamiento general. La referencia a eventos La investigación del discurso se ha ocupado de dos problemas cau­ sados por la referencia a eventos: identificar el evento al que se refiere una referencia anafórica y determinar el relativo orden temporal de los eventos descritos en el discurso. Las referencias anafóricas usan típicamente formas pronominales tanto puras (lo, esto, eso) como en el ejemplo 1 , o con el verbo hacer (hace así, lo hace, hace eso), como en el ejemplo 2. La forma con hacer y el pronombre puro parecen comportarse de manera diferente. Aunque hay algunas investigaciones sobre las formas con hacer (Sidner 1979. Sidner 1981. Robinson 1981), queda por hacer una explicación detalla­ da de todas las referencias directamente anafóricas a eventos. * Deixis, del griego para ^apuntar», se usa para referirse a sintagmas demostrativos (por ejemplo, este libro y eso) y a otros constructor lingüísticos cuya interpretación de modo semejante requieren apuntar a alguna circunstancia de la proferencia (por ejemplo, aquí y ahora).

(1) Juan corre todos los días de la sem ana. E se es su principal m odo de ejercicio. ése = el correr de Juan todos los días. (2) Juan corre todos los días de la sem ana. Lo hace por razones de salud. lo h ace - acto de correr lodos lo s días de la sem ana.

El orden temporal relativo se ve afectado por el tiempo y el aspecto verbales, así como por modificadores adverbiales; también depende de cambios en el estado atencional. En el discurso siguiente (de Webber 1987) el evento descrito en la proferencia 1, El, ocurre en algún punto en el pasado, la proferencia 2 describe un evento E2 que ocurre antes que E l, el evento E3 de la proferencia 3 ocurre tras E2 y antes que El y está situada en la localización descrita en la proferencia 2 , y el evento E4 de la proferencia 4 ocurre después de E l. (1 ) Juan fue a casa de M aría. (2) En el cam ino, se detuvo en una floristería a por rosas. (3) C og ió 5 rojas y 3 blancas. (4) L am entablem ente no con sigu ieron animarla.

Dos de las propuestas principales de una teoría de referencia a even­ tos, la de Webber (1987) y la de Hinrichs (1986) y Partee (1984), pro­ porcionan una explicación del orden relativo de los eventos. Webber también proporciona una explicación del reconocimiento del orden de los eventos basada en el foco temporal y el movimiento de foco, con­ ceptos análogos al del foco inmediato (Sidner 1983, Grosz et al. 1983) para la anáfora definida. Relaciones de modificación en los sintagmas nominales Las relaciones de modificación entre partes de un sintagma nominal complejo plantean dos problemas para la interpretación o generación de referencia. El primero es relativo a la selección de una única descripción subyacente (intendida) de las relaciones estructurales y funcionales entre las entidades descritas por el sintagma nominal complejo; esta descripción única debe seleccionarse entre un número de tales decripciones posibles. Por ejemplo, la descripción intendida del sintagma the pump dispenser descansa en descubrir la relación funcional entre los dos objetos; la bom­ ba y la máquina. El segundo problema para interpretar las relaciones de

modificación es identificar la entidad referida (usando, claro está, alguna técnica para determinar las relaciones posibles). Los problemas de identi­ ficación pueden ser bastante difíciles para sintagmas nominales comple­ jos con modificadores preposicionales usados en un contexto que incluya varios posibles referentes para cada parte simple del sintagma nominal. El problema se ilustra con el sintagma the cat in The hat usado en un contexto donde hay dos gatos, dos sombreros, pero sólo un gato en un sombrero (uno de los sombreros). Aunque el referente esté aquí claro, ninguna bús­ queda simple de un único gato o bien un único sombrero en el contexto puede servir como base para la búsqueda del referente. La investigación de los sintagmas nominales complejos ha explo­ rado marcos para usar información lingüística con objeto de predecir la posible estructura de sintagmas nominales complejos {comparar con Isabelle 1984). Las aproximaciones computacionales a estos problemas se han ocupado de los problemas conjuntos de representar apropiadamente el conocimiento del dominio necesario para determinar la interpretación intendida y de definir procesos para la búsqueda de este conocimiento. En contraste con éstas, las aproximaciones recientes (Mcllish 1982, Haddock 1987) a la identificación del referente (que han considerado sintagmas preposicionales adjuntos más que nominales complejos) se han concentrado en el concepto de evaluación incremental de referencia usando técnicas de satisfacción de restricciones. Estas técnicas asumen que el núcleo nominal, el sintagma nominal incrustado en el sintagma preposicional y la relación especificada por la preposición forman un conjunto de restricciones sobre la elección de referentes candidatos para el sintagma nominal entero; estas restricciones pueden aplicarse incrementalmente a medida que se construye el sintagma para buscar el re­ ferente intendido. Estas aproximaciones asumen alguna representación del estado atencional que delimita un pequeño conjunto de referentes posibles y sirve para limitar la búsqueda emprendida por la satisfac­ ción incremental de restricciones. Sólo muy recientemente (Pollack and Pereira 1988) se ha explorado una teoría que incorpora los aspectos de la evaluación incremental con la búsqueda de métodos para nominales complejos discutidos previamente. Elipsis discursiva La elipsis discursiva es la omisión (o elisión) en una proferencia de un sintagma requerido sintácticamente cuando el contenido necesario

para determinar la interpretación de la proferencia elidida puede recu­ perarse de una proferencia previa. El tratamiento adecuado de la elipsis discursiva requiere que se considere el discurso (en vez de la oración) como unidad primaria de comunicación. Se han investigado dos tipos de elipsis discursiva. En el primer tipo el material elidido puede recupe­ rarse directamente de la representación del significado de la proferencia previa. En el segundo la estructura intencional proporciona la fuente del material elidido; en este caso el contenido elidido puede no aparecer directamente en ninguna proferencia anterior. Las aproximaciones del primer tipo (Hendrix et al. 1978, Webber 1983) han considerado la elipsis tanto nominal como verbal. Han con­ siderado la elipsis como un fenómeno similar a la anáfora discursiva porque la elipsis también se interpreta estableciendo sintagmas mencio­ nados previamente y sus representaciones discursivas como la fuente para reconstruir el material. De modo diferente al caso de la anáfora discursiva, los sintagmas elididos no deben referirse al mismo acto o entidad que el sintagma mencionado previamente, como se muestra en el ejemplo siguiente: (1) Fred b esó a su madre. John tam bién 0. 0 = besó a su propia madre o, alternativam ente, besó a la madre de Fred.

En vez de eso la representación discursiva del sintagma mencionado previamente proporciona el material para construir la representación del sintagma elidido9. Las aproximaciones del segundo tipo han utilizado la estructura intencional como la fuente para el material elidido. Las proferencias elididas se ven como contribuciones al propósito general de un discur­ so o un segmento discursivo. Mientras el entorno discursivo contenga información suficiente no se necesita utilizar una proferencia completa; un sintagma o una parte de una oración contribuirá lo mismo. Fragmen­ tos elípticos como (1) (de Alien 1979) y (2) (de Carberry 1985) abajo pueden verse como contribuciones directas al propósito discursivo; no se necesita reconstrucción alguna de ninguna oración completa en la que el fragmento esté incrustado. 9 Esta concepción contrasta con la de Halliday y Hasan (1976), que ven la elipsis como una forma de sustitución textual.

i 1) (dicho a la persona de la cabina de inform ación en una esta ­ ción del ferrocarril'! ¿FJ tren a W indsor? (2 ) Q uiero obtener un título. L icenciado en Inform ática. N ingún curso por la noche.

Alien (1979) demostró que tales sintagmas pueden asociarse direc­ tamente con un acto de habla que a su vez identifica una parte del plan del hablante para actuar en un dominio de interés. Los modelos de reco­ nocimiento de planes de Alien y Perrault (1980), Carberry (1985) y Litman (1985) recalcaron la posición de Alien y vincularon el fragmento con actos de habla y con los planes de los hablantes (esto es, planes en un dominio de acción). Concibiendo la acción como la raíz de la ex­ plicación de por qué ocurre el discurso, estos investigadores ilustraron que algunas formas de elipsis pueden verse en términos de la estructura intencional del discurso en lugar de en términos de un conjunto de rela­ ciones con otras proferencias.

5. Reconocimiento de planes Las explicaciones contemporáneas de reconocimiento de planes en la comprensión del discurso se derivan en gran medida de dos grandes teorías del filósofo Grice: su teoría del significado no natural 10 (Grice 1957, 1968) y su teoría de la ímplicatura (Grice 1975. 1978). En la teo­ ría del significado no natural de Grice lo que los hablantes comunican cuando utilizan el lenguaje depende crucialmente de sus intenciones. La teoría de la implicatura descansa sobre la observación de que mucho de lo que se comunica intencionalmentc en el uso del lenguaje no se expresa explícitamente; la misma teoría muestra cómo los hablantes pueden comunicar más de lo que expresan explícitamente en sus pro­ ferencias. En ambas teorías se ve a los hablantes como productores de proferencias con la intención de que sus oyentes reconozcan las inten­ ciones subyacentes a esas proferencias. La colección de intenciones subyacentes a cualquier preferencia incluirá pues, pero no estará li­ mitada a, una intención de que al menos una parte de tal colección sea reconocida. I!l Los significados no naturales incluyen el tipo de significados transmitidos en el lenguaje y deben distinguirse de los significados naturales, por ejemplo, que el humo «significa» fuego.

La comprensión del lenguaje requiere pues determinar las intencio­ nes que tienen los hablantes: hacerse una idea de qué planes persiguen, en parte realizando una proferencia. El reconocimiento de planes en la conversación es una tarea viable precisamente porque el hablante tiene la intención de que el oyente la realice. El hablante no puede conse­ guir el efecto perseguido a menos que el oyente reconozca el plan del hablante; por ello el hablante incluirá en la proferencia lo que crea ser información suficiente para que el reconocimiento del plan sea posi­ ble para el oyente. Esta característica del reconocimiento de planes en la conversación lo distingue del problema de determinar los planes de un agente simplemente mediante la observación de sus acciones sin interaccionar con él. Este último problema, llamado «reconocimiento del ojo de la cerradura» por su semejanza con el problema de mirar a un agente a través del hojo de la cerradura e inferir su siguiente acción, es en general mucho más difícil11. Al construir modelos detallados del proceso de reconocimiento de planes en el discurso, los investigadores no sólo han recurrido a la obra de Grice sino también a las ideas de Austin (1962) y de Searle (1969. 1975) de que el lenguaje se utiliza no sólo para «decir» cosas sino también para «hacer» cosas. En otras palabras, el comportamiento comunicativo debe verse primariamente como acción intencional. Se sigue de ello que en gran medida se pueden aplicar al análisis de la acción lingüística los mis­ mos instrumentos que se usan para analizar la acción no lingüística —una idea desarrollada originalmente en gran medida por el trabajo de Cohén y Perrault (1979), Alien (1983) y Perrault y Alien (1980). En particular, los modelos de IA de reconocimiento de planes en el discurso han hecho uso de técnicas de representación y razonamiento sobre la acción original­ mente desarrolladas por aquéllos interesados en el problema de la forma­ ción automática de planes'2. No obstante, antes de pasar a la discusión de estos modelos, merece la pena señalar el rango de fenómenos discursivos para los que es importante el reconocimiento de planes. Considérese una persona que se acerca a la persona de la venta­ nilla de información de la estación de trenes y le dice, «¿Sabe usted " Para ejemplos de sistemas para el reconocimiento del hojo de la cerradura, véase F¡schere[ al. 19X5, Genesereth 1979. McCue y Les.ser 1983. y Schmidtet al. 1978. La obra de Austin y de Searle ha sido también terriblemente influyente fuera de la IA. inspirando todo un campo de investigación llamado teoría de los actos de habla, con investigadores en cada una de las principales disciplinas de la ciencia cognitiva. Levinson (1983. capítulo 5) proporciona un buen resumen de la obra en teoría de los actos de habla. Véanse también los artículos de Cohén, Morgan y Pollack (1990).

cuándo sale el próximo tren a Detroit?» con la intención de que se le diga la hora de salida del siguiente tren a D etroit'\ El plan comunica­ tivo del hablante es hacer una petición —que se le diga cuando sale el siguiente tren a Detroit —y hacer tal petición profiriendo su pregunta. Si la persona de la ventanilla reconoce este plan, puede responder coo­ perativamente realizando la acción solicitada (asumiendo, claro está, que es capaz de hacerlo y no tiene ninguna razón para preferir no hacerlo). Es decir, puede contestar diciendo «A las 12:30» en lugar de simplemente «Sí». Normalmente los actos comunicativos se realizan como parte de planes mayores, y a menudo es necesario para un oyente inferir tam­ bién esos planes mayores. En este ejemplo si la persona de informa­ ción reconoce que el plan comunicativo del hablante es probablemente parte de un plan para ir a Detroit, puede proporcionarle a éste informa­ ción adicional que le facilite su objetivo. Puede decirle, por ejemplo, de qué vía sale el siguiente tren a Detroit o puede criticar su plan, diciéndole que aunque el siguiente tren a Detroit sale en 15 minutos, es un tren local, y que el expreso que sale en 45 minutos le llevará antes a su destino. El reconocimiento de planes es pues importante para responder adecuadamente a las proferencias del hablante en el discurso interactivoM. Es también importante para comprender la coherencia de pro­ ferencias de cláusulas múltiples. Considérese una persona distinta que le dice a la de la ventanilla de información «Voy a Detroit. ¿Dónde está la vía 7?» Es reconociendo el plan que pueda tener el hablante como puede determinar por qué es coherente la proferencia del ha­ blante; efectivamente, el reconocimiento del plan es lo que le permi­ te comprender completamente la proferencia. Es esencial para poder entender la coherencia de proferencias de múltiples cláusulas en el discurso tanto interactivo como no interactivo. De hecho varios estu­ dios de reconocimiento de planes se han centrado en la comprensión de relatos, una forma de discurso esencialmente no interactivo (Bruce 1981, Wilensky 1983). 13 Los ejemplos de la «estación de tren» han sido muy discutidos en la literatura. Fueron inspirados por un conjunto de diálogos grabados en en el puesto de información de la estación de Toronto (Horrigan 1977). El ejemplo discutido aquí fue analizado en primer lugar por Alien (1983). 14 La generación de respuestas adecuadas puede depender también de distinguir en­ tre respuestas inlendidas y no intendidas (aunque útiles) (Sidner 1983. 1985).

Como se señaló en la subsección anterior, la idea de que el uso del lenguaje debería ser visto como acción intencional condujo a modelos del discurso que hacen uso de técnicas ya desarrolladas para el razo­ namiento sobre las acciones (no lingüísticas). En particular la repre­ sentación de planes y acciones utilizada en la mayoría de sistemas de reconocimiento de planes es una extensión directa de la representación desarrollada por primera vez en el sistema STRIPS (Fikes and Nilsson 1971) y luego extendida en el sistema NOAH (Sacerdoti 1977). Dado que la representación STRIPS tiene ciertas limitaciones de expresivi­ dad. ha habido desde mediados de los 80 un resurgimiento del interés en el proceso de formación de planes, y se han elaborado diversos esque­ mas de representación alternativos1^. Sin embargo, las técnicas básicas de reconocimiento de planes se han desarrollado para representaciones de acciones del estilo de STRIPS. En estas representaciones los estados del mundo se modelan como conjuntos de proposiciones, y las acciones se modelan como operadores que hacen corresponder un estado del mundo con otro. Cada operador tiene un encabezado, que da su nombre a la acción representada, una lista de precondiciones, que describe las proposiciones que han de ser verdaderas para que se pueda realizar la acción, y una lista de efectos, que describe lo que resulta verdadero por la realización de la acción. Un plan se analiza como una secuencia de acciones y estados del mundo. Concretamente Iu r 5,,..., 5n [, a n] es un plan para transformar un estado Sfí en un estado 5n bajo el supuesto de que — todas las precondiciones de a, son verdaderas en S(l\ — todos los efectos de a son verdaderos en S ; — en cada estado intermedio S todos los efectos de a Jy todas las precondiciones de a , son verdaderas. La formación de planes es el proceso de encontrar un plan que transforme el estado presente del mundo en un estado en el que algún conjunto de objetivos sea cierto. En el caso más simple un plan puede proyectarse como un proceso de grafo-búsqueda, en el que los nodos del grafo representan acciones o estados del mundo, y las conexiones lícitas entre los nodos se determinan por las relaciones entre estados y n

iv

í

I

15 Georgeft (1987) proporciona un buen repaso a estos desarrollos recientes; Georgeff y Lansky ( 1986a) han editado una colección de artículos importantes.

acciones especificadas en el conjunto de operadores (ver capítulo 7 de Nilsson 1980). Esta concepción simple puede refinarse permitiendo que cada ope­ rador incluya un cuerpo así como una lista de precondiciones y accio­ nes. El cuerpo de un operador puede ser una lista de subacciones cuya realización constituye la realización de la acción nombrada por el enca­ bezado o bien una lista de subobjetivos cuya consecución constituye la realización de la acción del encabezado. Cuando los operadores incluyen cuerpos, el proceso de formación de planes puede ser jerárquico: puede buscarse primero una secuencia de acciones y estados intermedios que son relativamente abstractos y después elaborarla en planes más y más detallados. La formación jerárquica de planes es a menudo mucho más eficiente que la formación lineal de planes (Sacerdoti 1977, Stefik 1981, Tatc 1984. Wilkins 1984)16. En reconocimiento de planes un agente observa a otro que realiza alguna acción o secuencia de acciones e intenta determinar qué plan está siguiendo el último. En el discurso las acciones observadas son las proferencias de un hablante17; así H (de hablante) denotará al agente cuyo plan está siendo inferido y O (de oyente) denota al agente que está infiriendo el plan de H. Supongamos que H observa a O realizando una acción a en un estado S( en el que todas las precondiciones de a son verdaderas. Entonces O puede concluir que el objetivo de H al realizar la acción a es conseguir uno o varios de los efectos de a. De hecho el razonamiento de O puede ir más allá. Si algún efecto de a. digamos e, es una precondición de otra acción |3. O puede concluir que H tiene la intención de realizar (1 El proceso puede repetirse: O puede concluir que //tiene la intención de conseguir algún efecto de |3, etcétera. Gene­ ralmente este proceso de razonamiento termina cuando O determina que //tiene la intención de conseguir algún objetivo de dominio típico. Una de las primeras y más influyentes formulaciones del recono­ cimiento de planes fue la de Alien (1979, 1983). Alien proporcionó un conjunto de reglas de reconocimiento de planes junto con una estrategia heurística para controlar su aplicación. Una regla típica de reconoci­ miento de planes es la Regla Acción-Efecto. 16 Rosensehein (1981) proporciona un análisis lógico de planes jerárquicos; Wilkins (1985) clarifica diversas distinciones importantes que deben hacerse entre procesos de planificación jerárquicos. 17 Naturalmente aquí, como a lo largo de este capítulo, por ^hablante» nos referimos al agente que produce lenguaje, sea ese lenguaje oral o escrito.

Bel(0, Int(//, a)) —> Bel (O, Int(//, e)) si e es un efecto de a. Esta regla puede glosarse como «si el oyente (o de modo más gene­ ral el agente que infiere) cree que el hablante (o de modo más general el que actúa) tiene la intención de realizar alguna acción a, entonces el oyente puede decidir que el hablante tiene la intención de hacer que cierta proposición e sea verdadera, si e es un efecto de la realización de a (en el estado del mundo en que se realice a ).»18 Para que el proceso de reconocimiento de planes comience es nece­ sario un supuesto de intencionalidad. Esto es, dado que O observa que //realiza una acción a, la Regla Acción-Efecto sólo se aplica si O con­ cluye que S realizó a intencionalmente. El supuesto de intencionalidad no es problemático en casos en los que el reconocimiento de planes se realiza en conversación: si H dice algo a O, es bastante razonable que O suponga que la proferencia de //e ra intencional. Otras reglas vinculan proposiciones a acciones de las que son pre­ condiciones y subacciones a acciones que las contienen. Estas reglas, más la ya discutida, se usan para lo que se denomina encadenamien­ to hacia delante: razonamiento desde una acción observada hacia Jos efectos de esa acción, y desde estos efectos a acciones subsiguientes que se han hecho posibles, etcétera. Los sistemas de reconocimiento de planes también incluyen normalmente reglas para el encadenamiento hacia atrás. Un agente que infiere puede razonar también acerca de los objetivos que el que actúa probablemente tiene y desde ahí hacia atrás acerca de que acciones que satisfarían esos objetivos, cuáles son las precondiciones de esas acciones, etcétera. La Regla Efecto-Acción de Alien es un ejemplo de una regla de inferencia de planes para utilizar en el encadenamiento hacia atrás: Bel(0, Int(//, e)) —> Bel (O, Int(//, a)) si e es un efecto de a. Además de las reglas simples de encadenamiento hacia delante y hacia atrás, muchos sistemas de reconocimiento de planes tienen reglas adicionales que se aplican sólo a acciones de búsqueda de información. Por ejemplo, muchos sistemas relacionan la acción de «determinar si p», para alguna proposición p , con la acción de «conseguir que p.» Estas 18 En realidad una regla como la de Acción-Efecto se utiliza para inferir no sólo que H tiene la intención de hacer que e sea verdadera, sino que H tiene la intención de conse­ guir c haciendo a —esto es, que el plan de H incluye a la subsecuencia [a, e).

reglas, junto con reglas para manipular lo que se denomina inferencia de planes anidados, sin embargo, pueden verse como casos particulares de reglas más simples (Kautz 1985). Es importante señalar que las reglas de inferencia de planes no deben interpretarse como implicaciones lógicas sino más bien como descripciones de inferencias «probables» pero no-deductivas que un agente puede hacer al realizar reconocimiento de planes. Kautz (1990) presenta una formalización precisa del proceso de utilización de es­ tos principios de inferencia probable para realizar reconocimiento de planes, proporcionando teorías de modelos, de demostración y algo­ rítmicas fundadas en la teoría de la circunscripción de McCarthy (McCarthy 1980, 1984). La aplicación de las reglas de inferencia de planes se controla nor­ malmente por un conjunto de heurísticas, que se designan tanto para hacer que el proceso de reconocimiento sea más eficiente como para asegurar que los planes más verosímiles se encuentren antes que los menos verosímiles. Algunas de las heurísticas de control se basan en nociones de sentido común sobre la naturaleza de los planes y se aplican igualmente bien al proceso de inferir los planes del interlocutor con­ versacional de uno y a inferir los planes de un agente que uno está me­ ramente observando. Por ejemplo, una heurística tal dirige un sistema de reconocimiento de planes contra la tendencia de considerar como candidatos a planes que contengan acciones cuyos efectos sean verda­ deros en el momento en que se vaya a realizar la acción. Esta heurística es razonable tanto cuando el reconocimiento de planes se produce en el discurso como cuando no: en general los planes no contienen acciones superfluas. Por otra parte, un número importante de heurísticas de control sólo se justifica en reconocimiento de planes en conversación al fundarse en la noción griceana de reconocimiento intendido: que el hablante tiene la intención de que sus oyentes reconozcan al menos un subconjunto de sus intenciones. Esta idea motiva heurísticas de reconocimiento de planes tales como la heurística de bifurcación, que afirma que la proba­ bilidad de que un plan candidato sea el que un hablante tiene realmente es inversamente proporcional al número de alternativas a las que puede extenderse (Alien 1983), y la del supuesto de rama única. que afirma que si un hablante cree que en cierta fase del discurso se podría inferir más de un plan, es su responsabilidad dar a conocer aquél que tiene —el oyente sólo debe inferir hasta el punto de una ruptura potencial (Sidner

1985). Tales heurísticas median contra inferencias difíciles sobre el su­ puesto de que los hablantes en general intentan producir proferencias que facilitan un reconocimiento de planes relativamente simple. Sólo como un ejemplo de la aplicación de las técnicas básicas de reconocimiento de planes en el discurso, considérese a un viajero que dice. «¿Cuándo sale el próximo tren a Detroit?» De acuerdo con Alien, podemos codificar esta acción proferencial como SOLICITARÍA

O.

INFORM-REFí/y. O, tiem po))).

Es decir, H ha solicitado a O que le informe de la referencia de cierta constante tiempo 1, que denota la hora de partida del tren siguiente a De­ troit'9. Aplicando la Regla Acción-Efecto al operador SOLICITAR E ncabezado: SOLICITAR) A gente 1, A gente2. A cción ) Efecto: Q U E R E R (A gcn tc2, H A C E R (A gente2, A cción))

O puede concluir que H puede querer que O quiera informar a H de la hora de salida del tren a Detroit. El razonamiento ulterior per­ mite que O finalmente infiera el plan entero que se muestra en la fi­ gura 1.1 .:o Los arcos del grafo del plan se han etiquetado con reglas de inferen­ cia de encadenamiento hacia delante, pero está claro que alguna parte del grafo en realidad pudo haberse encontrado utilizando encadenamiento hacia atrás. Para inferir este plan también se necesitan varios operadores adicionales. Uno es el operador EMBARCAR; la construcción de los demás se la dejamos al lector como ejercicio. Encabezado: EM BA RC A R *.A gente. Tren, E stación) Precondición: EN (A gen te, ubicación-salida(Tren), hora-salida(Tren)) E fecto: A -B O R D O (A gen te. Tren) l l , 4 c B } Algúnw = { I A n B ^ 0 } Ningúnw = {< A . B > I A n 6 = 0} LaM ayoríavv = {< A , B > I ca rd (A r , B) > ca rd (A -B ) } H

Para relacionar el concepto de verdad en un modelo con nuestro concepto ordinario de verdad necesitamos la noción de modelo es­ tándar. Con este lenguaje el modelo estándar es el modelo cuyo domino D wo consiste en los cuerpos celestes de nuestro sistema solar. A los nombres les son asignadas sus referencias usuales, por ejem­ plo. Tierrazo es el planeta Tierra y Luna 1*'0 es el satélite de la Tierra. Análogamente a cada predicado le es asignada su extensión usual. Por ejemplo. Planeta^ es el conjunto de todos los planetas en nuestro sis­ tema solar y Centro1'" es et conjunto de las cosas que están en el centro del sistema solar, esto es, el conjunto cuyo único elemento es el Sol. Mué ve Alrededor”" es el conjunto de pares tales que a órbita alrededor de b, y demás. Dado este marco, podemos comenzar a dar una semántica para el fragmento A. Como se señaló, uno de los objetivos principales es exami­ nar las condiciones bajo las que una oración O cualquiera es verdadera en un modelo w cualquiera. Sin embargo, también necesitamos asignar valores semánticos a ciertas otras expresiones complejas del lenguaje. Así, necesitamos asignar una extensión a to d o sintagma predicativo, y no únicamente a los básicos. Por ejemplo, en el análisis de la siguiente oración ( 1) A lguna C osa x A[N ingún Planeta y A[x M ué ve A) rededor y]] n e c e s ita r e m o s co n ta r c o n u n a e x te n sió n para el sin ta g m a p r e d ic a tiv o

(2) xA[Ningún Planeta yAlx Mué ve Al rededor y] 1 Supongamos que ,4 es el conjunto de todas las cosas en w y B es la extensión de (2 ), intuitivamnele, el conjunto de las cosas que no se mueven en torno a ningún planeta. Como ya mencionamos, la oración * Mediante card (A) representamos la cardinal idad del conjunto A. El lector no fa­ miliarizado con la noción de cardinalidad sólo necesita reparar en que es una medida del tamaño de los conjuntos. Aunque conviene reparar en que esta caracterización de LaMayoría es casi con toda certeza un modelo excesivamente simple del determinante -0 v O es lógicamente verdadera, al margen de qué colección W elijamos. Asimismo, de acuerdo con nuestras defi­ niciones, vemos que O, a 0 2 implica 0 2 y que Todo P Q a Alguna Cosa P implica LaMayoría P Q. Mucha gente cree que las nociones de verdad lógica e implicación lógica son sólo captadas por las definicio­ nes de arriba cuando VVes la colección de todos los modelos. Discu­ tiremos esto con más detalle en la sección relativa al problema de la factorización. Mientras tanto, en nuestra explicación, conservaremos VVcomo un parámetro. Veamos algunas implicaciones específicas que involucran determinantes. Primero consideraremos una clase de im­ plicaciones que se cumplen para todos los determinantes. El tipo de implicación que tenemos in mente puede ser ilustrado con el siguiente ejemplo: La mayoría de los planetas son mayores que Neptuno. La mayoría de los planetas son planetas que son mayores que Neptuno.

Esta es una inferencia válida. Esto es, cualquier situación que es descrita con verdad por la primera (oración) debe de ser descrita con verdad por la última (oración). Nótese que la validez de la inferencia no depende del hecho de que utilicemos el determinante «La mayoría». Sería igualmente válida si hubiéramos usado, digamos, «todo», «nin­ guno», «pocos», «ambos» o «exactamente tres». Es más, la inferencia también opera en el otro sentido: La mayoría de los planetas son planetas que son mayores que Neptuno. La mayoría de los planetas son mayores que Neptuno.

De nuevo la validez de la implicación no depende de qué determi­ nante es usado. Si nuestra semántica para el fragmento A es un modelo adecuado del castellano, debería predecir que para cualquier determinante Det y cualesquiera dos predicados P y Q, las oraciones Det P Q y Det P (P a

Q) son lógicamente equivalentes10. Para ver que esto es así primero se­ ñalaremos. en términos de la teoría de con juntos, una propiedad impor­ tante de las extensiones de nuestros determinantes. Si R es una relación extensional entre subconjuntos de D, entonces se dice que R vive de su primera coordenada (o es una relación conservadora) supuesto que para todo A, B q D, e R si y sólo si e R. El lector puede fácilmente verificar que para cada determinante Det del fragmento A (esto es, todo, alguna, ningún y la mayoría) la exten­ sión Det'1 vive de la primera coordinada. Esta simple observación desde la teoría de conjuntos muestra que las oraciones en cuestión son en la explicación ordinaria lógicamente equivalentes. Así, la semántica pro­ porciona una predicción correcta. Además, esperamos que en la medida en que extendamos la semántica a otros determinantes, las extensiones asignadas a ellos siempre vivan de su primera coordenada. Ahora consideremos una inferencia que es lógicamente válida para algunos determinantes pero no para otros. ¿Para qué determinantes del Viejo Zaelandish, Det P (Q a R) implicará lógicamente Det P Q? Consi­ deremos un par de ejmplos en castellano. La mayoría de los planetas son gaseosos y mayores que la Tierra. La mayoría de los planetas son mayores que la Tierra.

Aquí, parecc que cualquier situación descrita con verdad por la pri­ mera oración es descrita con verdad por la última oración. Sin embargo nótese que en este caso la validez es dependiente del determinante parti­ cular que hemos utilizado. La siguiente, por ejemplo, no es válida Pocos planetas í>on rocosos y mayores que la Tierra. Pocos planetas son mayores que la Tierra.

Los siguientes determinantes del castellano apoyan este tipo de in­ ferencia: cada, rodo, alguna, (a! menos) clos, (al menos) tres, la mayo­ ría, muchos, ambos. Por contra, no apoyan la inferencia los siguientes: pocos, ninguno, nada, a lo sumo dos. exactamente dos. 0Qué es lo que explica la diferencia .1 De nuevo, nuestra teoría semántica predice las 10 Dos oraciones son lógicamente equivalentes si cada una de ellas implica la otra. Puesto que liemos incluido predicados conjuntivos en el Viejo Zaelandish. el leeior de­ bería tomar P ,-\ Q corno abreviatura de vA[(vP) a ( vQ)]. donde v es alguna variable que no está libre en P o Q.

inferencias válidas correctas y es fácil aislar la propiedad que explica su validez. Decimos que una relación entre subconjuntos de D es monó­ tona (creciente) en su segunda coordenada a si para todo A, B c D, si e R y B c B ", entonces e R. La inferencia en cuestión es una implicación lógica exactamente en esos casos en los que el de­ terminante es monótono creciente en su segundo argumento. Para cada uno de los determinantes todo, alguna y la mayoría del fragmento A, su extensión en cualquier modelo es monótona en su segunda coordenada y para éstos la inferencia es válida. Por contra, la extensión de ninguna no es monótona creciente y la inferencia no es válida. Estos resultados simples son ejemplos del poder explicativo de la aproximación modeloteórica, del tipo de respuestas claras y precisas que proporciona sobre las relaciones de implicación en el lenguaje que se estudia. Inferencia. En nuestra explicación de la verdad lógica y la impli­ cación introdujimos un parámetro para una colección W de modelos. Podemos explotar este parámetro para hacer unos pocos comentarios sobre la relevancia de esta explicación en el estudio de las arquitecturas cognitivas que subyacen a la inferencia, la contrapartida psicológica de la implicación. Según la explicación modelo-teórica de la implicación, saber que una oración O es lógicamente verdadera es saber que es verdadera al margen de cómo esté configurado el mundo no lingüístico. Asimismo, saber que O Implica lógicamente O" es saber que O'es verdadera si O es verdadera al margen de cómo el mundo no lingüístico esté configurado. No se hizo ningún intento para describir un mecanismo mediante el cual el hablante del lenguaje podría llegar a conocer esto. En particular, la explicación no proporcionó nada parecido a un algoritmo que un hablante pudiera usar para determinar si una oración es lógicamente verdadera o no. Hay una buena razón para esto. Simplemente no hay un algoritmo para determinar si una oración cualquiera del fragmento A es lógica­ mente verdadera. A esto se conoce como el teorema de Church11. Si la 11 Hay muchas suti le/as en esta materia en las que no podemos entrar aquí. Sabemos que hay una axiomatización completa de las verdades lógicas, si uno toma W como la colección de todos los modelos: finitos e infinitos. Esto implica que la colección de las verdades lógicas del lenguaje es ^- en Filosofía de la Lógica, aunque resulte controvertida para algunos, corresponde a una aplicación de esta distinción: mientras que una proposición es un objeto conceptual, un enunciado es algo concreto (aunque su contenido sea abstracto), en el sentido de que un enunciado es una fila específica de símbolos que expresa una proposición. En general, un «caso» es la realización concreta de un Atipo». Aplicado a los símbolos, debemos distinguir entre un símbolo considerado como una entidad puramen­ te conceptual («tipovV y una realización concreta de ese símbolo («caso»). La distinción, tanto en computación como en psicología, es sumamente importante, porque son los «casos», y no los «tipos», los que tienen poderes causales.

del concepto de representación. Y tampoco se puede evitar la oscuridad hablando en jerga más técnica, en términos de computación y manipu­ lación formal de símbolos. La comprensión que tienen los científicos de la computación sobre la naturaleza de estos fenómenos es también bási­ camente intuitiva. La discusión de Smith sobre los lenguajes de progra­ mación señala algunas confusiones fundamentales dentro de las ciencias de la computación. Su afirmación de que habitualmente los científicos de la computación hacen una distinción teórica demasiado tajante entre las funciones de control de un programa y su naturaleza como sistema si ntáct ico-formal, resulta especialmente pertinente aquí. La división teórica criticada por Smith es evidente en el enfoque, ampliamente difundido, de la programación como «cálculo-dual». El enfoque del cálculo dual postula una distinción teórica estricta entre la estructura representacional declarativa (o denotacional) y el lenguaje procedimental que lo interpreta cuando se ejecuta el programa. Desde luego, la representación del conocimiento y el intérprete se escriben a veces en dos formalismos completamente diferentes (como el cálculo de predicados y L1SP, respectivamente). Sin embargo, ambos son ex­ presados, con frecuencia, en un mismo formalismo; por ejemplo, LISP (un acróstico para lenguaje LISt-Processing) permite expresar hechos y procedimientos de modos formalmente similares, y lo mismo sucede con PROLOG (PROgramación-en-LÓGica). En estos casos, el enfoque del cálculo dual dictamina que el (simple) lenguaje de programación sea descrito teóricamente en dos modos totalmente diferentes. Para ilustrar la distinción en cuestión, supongamos que nos interesa una representación de las relaciones familiares utilizable para obtener respuestas a preguntas acerca de ese tema. Podríamos decidirnos por em­ plear una estructura de listas para representar hechos como que Leonard es el padre de Maggie. O podríamos preferir una representación basada en marcos (fram es\ en donde el hueco de nombre pertinente en el mar­ co PADRE podría ser satisfecho simultáneamente por «LEONARD» y «MAGGIE». Por otra parte, podríamos escoger una fórmula del cálculo de predicados expresando que existen dos personas (es decir, Leonard y Maggie), y que Leonard es el padre de Maggie. Por último, podríamos emplear la oración castellana «Leonard es el padre de Maggie». Cada una de estas cuatro representaciones podría escribirse/dibujar­ se para nosotros en papel (como lo están las reglas en el libro usado por el Searle de la habitación), para interpretar si hemos aprendido a utilizar la notación relevante. Alternativamente, podrían ser introducidas en una

base de datos de un ordenador. Pero para hacerlas utilizables por el or­ denador, se necesita la presencia de un programa intérprete capaz (por ejemplo) de encontrar el ítem «LEONARD» cuando nosotros «pregun­ temos» quién es el padre de Maggie. Nadie en su sano juicio optaría por incorporar estructuras de listas en un ordenador sin dotarlo, al mismo tiempo, de un procesador de listas, ni por darle marcos sin un meca­ nismo de rellenar huecos, ni por introducirle oraciones en inglés sin procedimientos de análisis sintáctico (parsing). (Análogamente, quien supiera que Searle no habla portugués no daría al Searle de la habitación un libro de reglas en portugués a menos que estuviera preparado para enseñarle primero dicha lengua.) Smith no niega la existencia de una importante distinción entre el significado denotacional de una expresión (en general: qué mundos rea­ les o posibles le pueden corresponder) y su consecuencia procedimental (en general: qué hace, o da lugar a). El hecho de que la expresión «(PA­ DRE (MAGGIE))» sea isomorfa con una cierta relación de parentesco entre dos personas reales (y podría ser proyectada por nosotros en tal relación) es una cosa. El hecho de que la expresión «(PADRE (MA­ GOTE))» pueda causar que cierto ordenador localice «LEONARD» es otra bien diferente. Si no fuera así, el enfoque del cálculo dual no se habría desarrollado. Pero él argumenta que, mejor que persistir en el enfoque del cálculo dual, sería más elegante y menos confuso adoptar una teoría «unificada» de los lenguajes de programación, diseñados para cubrir tanto los aspectos denotativos como los procedí mentales. Smith muestra que muchos términos básicos de ambos aspectos del cálculo dual tienen tanto características teóricas comunes, como dife­ rencias significativas. La noción de variable, por ejemplo, se entiende, en cierto sentido, de forma similar tanto por el lógico como por el cien­ tífico de la computación: ambos permiten que a una variable se le pue­ dan asignar valores distintos en diferentes tiempos. Siendo esto así, es redundante tener dos teorías específicas acerca de lo que es una variable. Sin embargo, hasta cierto punto, el lógico y el científico de la computa­ ción entienden algo diferente por este termino: el valor de una variable en el lenguaje de programación LISP (por ejemplo) es otra expresión de LISP, mientras que el valor de una variable en lógica es normalmente algún objeto externo al formalismo mismo. Estas diferencias deberían aclararse—al menos para evitar confusiones cuando un sistema inten­ ta razonar acerca de variables utilizando variables. Brevemente, nece­ sitamos una definición única de «variable» que permita tanto su uso declarativo (en lógica) como su uso procedimental (en programación).

Después de mostrar que comentarios similares se aplican a otros térmi­ nos computacionales básicos, Smith plantea una explicación unitaria de la semántica de LISP y describe un nuevo cálculo (MANTIQ) diseñado con el enfoque unificado en mente. Como sugiere el ejemplo del uso de variables para razonar acer­ ca de variables, una teoría unificada de la computación podría aclarar cómo es posible el conocimiento reflexivo. Porque, dada una teoría así, las representaciones de datos y procesos del sistema —incluyendo pro­ cesos internos al sistema mismo— serían esencialmente comparables. Esta ventaja teórica tiene relevancia psicológica (y fue una motivación importante del trabajo de Smith). Para nuestros propósitos inmediatos, sin embargo, el punto crucial es que una teoría fundamental de programas y de la computación, debería tener en cuenta que una función esencial de un programa de ordenador es hacer que ocurran cosas. Mientras la lógica simbólica puede verse como un mero juego sobre un cálculo formal sin interpretar (como el cálculo de predicados), y la lógica computacional puede verse como el estudio de relaciones atemporales abstractas en «máquinas» especificadas matemá­ ticamente (como las máquinas de Turing). las ciencias de la computación no pueden ser descritas apropiadamente de ninguna de las dos formas. Del argumento de Smith se sigue que la caracterización familiar de los programas de ordenador como todo sintaxis y nada de semántica está equivocada. Las consecuencias procedimentales inherentes a cualquier programa de ordenador le sirven de punto de apoyo para la semántica, dónele la semántica en cuestión no es denotacional, sino causal. La ana­ logía está con la comprensión del inglés del Searle de la habitación, no con su comprensión del chino. Esto viene implicado igualmente por la discusión de A. Sloman (1986a; 1986b) acerca del sentido en que las instrucciones programadas y los símbolos de la computación deben ser vistos como poseedores de alguna semántica, aunque sea restringida. En una semántica causal, el significado de un símbolo (simple o complejo) se busca por referencia a sus nexos causales con otros fenómenos. Las preguntas centrales son «¿qué hace que el símbolo se construya y/o active?» y «¿qué sucede como resultado de ello?» Las respuestas mencionarán a veces sucesos y objetos externos visibles para un observador, y otras no. Si el sistema es un humano, un animal, o un robot, puede tener fa­ cultades causales que le permitan referirse a restaurantes y brotes de soja

(las complejidades filosóficas de la referencia a objetos externos, inclu­ yendo los no observables, pueden pasarse por alto aquí, aunque Sloman realiza un provechoso examen de estos problemas). Pero cualquie­ ra que sea el sistema de procesamiento de la información en cuestión, las respuestas describirán a veces procesos computacionales puramente internos—por medio de los que se construyen otros símbolos, se activan otras instrucciones. Los ejemplos incluyen los procesos interpretativos dentro de la mente del Searle de la habitación (comparable quizás a los procedimientos semánticos y de análisis definidos para el procesamien­ to del lenguaje natural) que son activados por las palabras inglesas, y los procesos computacionales dentro de un programa de análisis de textos como el de Schank. Aunque tal programa no pueda utilizar el símbolo «restaurante» para significar restaurante (porque no tiene vínculos cau­ sales con restaurantes, comida, etc.), sus símbolos internos y procedi­ mientos incorporan alguna comprensión, siquiera elemental, de otras materias —por ejemplo, de qué es comparar dos estructuras formales. Puede dar la impresión de que la «comprensión» implicada en este caso es tan mínima que esta palabra no debería ser usada. Así sea. Como aclara Sloman, la pregunta importante no es «¿cuándo comprende algo una máquina?» (una pregunta que implica, erróneamente, que hay al­ gún límite claro en el que cesa la comprensión), sino «¿qué necesita ser capaz de hacer una máquina (sea biológica o no) para poder com­ prender?». Esta pregunta es relevante no solo para la posibilidad de una psicología computacional, sino también para su contenido. En conclusión, mi discusión ha demostrado que el ataque de Searle a la psicología computacional está mal fundado. Considerar el Searle de la habitación como una instanciación de un programa de ordenador no supone afirmar que carezca de toda comprensión. Ya que las teorías de una psicología computacional formal deberían vincularse a programas de ordenador en lugar de a la lógica formal, la psicología computacional no es, en principio, incapaz de explicar cómo se conecta el significado a los procesos mentales.

Referencias B o d en , M .A . (1 9 70 ). «lnlentionulity and P hysical System s». P hilosn ph y n f S cien ce 37: 200-14. C hisholm , R.M . (1 9 67 ). W ntentionality.» In P. Edwards (ed.). The E n cic lo p e­ d ia o f P hilosoph y. Vol. IV. pp. 2 0 1 -2 04 . N ew York: M acm illan.

D e n n e t t , D .C . (1 9 71 ). «Intentional S ystem s.» J. P hilosophy 68: 8 7-10 6. Repr.

in D .C . D ennett, B rain storm s: P h ilo so p h ica l E ssays on M in d an d P sych o ­ lo g y , pp. 3-22. C am bridge, M ass.: M IT Press, 1978. F o d o r , J A . (1 9 80 ). «M eth od ological S olip sism C on si dered as a R esearch Strategy in C ogn itive S cien ce.» B ehavioral and Brain S cien ces 3: 63-110. Repr. in J.A. Fodor. Representations: P h ilo so p h ica l E ssays on the F ou n dation s o f C o g n itive S cien ce, pp. 2 2 5 -5 6 . Brighton: H arvester Press, 1981. HohSTADTER, D .R . (1 9 7 9 1 G o d el Escher, B ach: A n E te m a l G olden B raid. N ew York: B asic B ook s. — , (1 9 85 ). «W aking U p from the B oolean Drcam ; Or, Subcognition as C om putation.» In D .R . H ofstadter, M eta m a g ica l Them as: Q u estin g fo r the E ssen ce o fM in d a n d P a ttern , pp. 6 31 -6 5. N ew York: V iking. N e w e l l , A . (1980). «Physical Sym bol System s.» C ogn itive Science 4: 135-83. S c h a n k , R .C ., and A b e l s o n , R.P. (1 9 77 ). S cripts, Plans, G oals, a n d U n ders­ tan ding. H illsd ale. N J: Erlbaum . S e a r l e , J.R. (1 9 69 ). Speech A cts: An E ssay in the P h ilo so ph y o f L anguage. Cam bridge: C am bridge U niversity Press. — . (1980). «M inds. Brains, and Program s.» B eh a vio r a n d B rain S cien ces 3: 417 -2 4. — ,(1 9 8 3 ). IntentionaU ty: An E ssay in the P h ilo so ph y o f M ind. C am bridge: Cam bridge U niversity Press. S lo m a n . A. (1986a). «R eference W ithout C ausal L inks.» In B. du B oulay and L.J. S teels (ed s.). Seventh E uropean C on feren ce on A rtificia l Intelligen ce, pp. 3 69 -8 1. Am sterdam : N onh-H olland. — .(1 9 8 6 b ). «W hat Sorts o f M achines Can Understand the S ym b ols T hey U se?» Proc. A ristotelian S oc. Supp. 60: 61-80. S m it h , B.C. (1 9 82 ). R eflection a n d S em an tics in a P ro ced u ra l L anguage. C am ­ bridge, M ass.: M IT Ph.D. dissertation and Technical Report L C S/T R -272. S tic h . S.C. (1 9 83 ). From Folk P sych olog y to C og n itive S cien ce: The C ase A gain ts B elief. C am bridge, M ass.: M IT Press/Bradford B ook s.

INDICE ANALÍTICO Y DE NOMBRES

A Abelson, R.A., 185, 188 A bel son, R.P., 194, 200, 226, 338. 348, 350,367 Acción, 252, 253, 255, 258 Acentuación, 239 Act*. 12, 108-128, 130, 132 Adjunción de modificadores. 240 Agrawal, D.P., 99, 132 A lien, J.F.. 12. 45, 68, 71, 87, 206, 239. 247, 248. 249, 250, 252, 253, 254, 255, 257, 258, 260, 264, 265, 326 Anderson, A.R- 73 Anderson, J.R., 62, 63, 70,108, 109, 110, 128, 132, 133,201.220 Antrobus, J.S., 73 Appell, D., 242, 260 Aprendizaje, 154, 160 Arquitectura, 7, 12, 49. 88-99 Arquitectura clásica, 31, 37 Arquitectura cognitiva, 13, 25, 31, 47, 50, 53, 54. 56. 57, 58, 59, 61, 65, 66, 87, 94, 97, 107. 108. 110. 121, 130, 131,297 Arrazola, X., 8 Artefacto, 25. 28, 44, 5 1. 85 Aserción, 193, 197. 198, 200, 208. 210, 278. 280. 286, 299, 300 Austin. J.L., 188,249, 260 Ayuso, M.C., 15,20

B Backus, J., 33, 51, 70 Badre, A.. 226 Banerji, R , 72 Bara, B.G .,206, 223 Barclay, J R., 194,220 Banvise, J., 8, 17, 20, 269, 314. 315, 316 Baucrie. R., 316 Baylor, G.W.. 58, 71 Bell, C.G., 99, 132, 134, 278. 279. 280, 299 Berwick, R.C., 260 Beth, E.W., 204, 220 Bien, J.S.. 198. 227, 322, 331, 336 Bishop, J., 221 Black, J.B., 185, 189 Bobrow, D.G,. 231, 260, 266 Boden. M. A.. 8, 12, 14, 18,20. 188,349, 353,366 Bonar,J„ 211,226 Boole, G., 36 Bouma, H.. 134 Bovair, S., 214, 223 Bower, G.H., 108, 127. 132, 134. 222 Brachman, R.J., 123, 132 Brady, M.. 260. 266 Braine, M.D.S., 199. 207, 210, 220 Bramer, M., 189 Brand, M.. 225 Bransford, J.D., 71, 194. 220 Bresnan, J., 226

Clark. A., 13,21. 194, 209.220 Clocksin, W.F.. 123, 133 Cohén, P.R.. 232, 235, 237, 239, 249, 255,259.260-265 Colby, K.M., 72. 188 Colé, P„ 262, 266 Collins, A., 266 Composicionalidad, 99 Compositividad, 271 Comprensión, 231 Computación. 7, 10, 12, 13, 16, 17, 18. 19. 23, 24, 27, 28, 29, 36-46, 53, 56, 57, 94. 95, 99, 101. 102. 106, 115, 116. 122. 136. 137, 138. 146. 157, 158, 160, 194, 232, 349, 361, 362, Cálculo. 31, 34, 128. 199, 200, 333, 344, 363,365 Comunicación, 45, 46, 83. 89. 105, 186. 359, 3 6 1 .3 63 ,3 6 4,3 6 5 Calificación (problema de la), 336 247 .270,272 Carberry, B.S., 247. 248, 257, 260 Condiciones de verdad, 82. 217, 218, Carbonell. J.G.. 132. 134 280,286 Conductismo, 78. 191 Card, S.. 124, 125. 133 Carey, S., 212.220 Conexionismo, 12,21 Carpenter. P.A., 58, 71 Connell, J.,39. 73, 210.226 Conocimiento. 17, 30, 31, 37, 40, 46. 54. Carslile, J.H.. 264 55, 57, 65, 66. 67, 68, 70, 77. 79. 80. Cerebro, 12, L7. 36, 50, 63. 70, 97. 131, 136. 137, 138, 143, 187, 191, 193, 81. 82. 84, 85, 9 1,92 , 93. 94, 96, 97. 99, 100, 102, 105, 106. 107. 108, 109. 325. 343, 351, 352. 353, 354, 357. 358, 359. 362 111.112,115.116, 117. 119. 123, 126, Chafe, W.L., 239.260 129, 130. 138, l¿3, 144. 152, 182, Champion, L.A., 219. 225 193, 194. 196. 197, 201. 207. 212. Chapman. M.. 226 214. 216, 217. 218. 219. 229, 231, Cbamiak, E,. 230, 260 233, 236, 246, 271, 272, 280, 286, 321, 324, 325, 327, 328, 331, 332, Chase. W.G., 71, 72. 133,224 Cheng, P.N., 2 0 1, 220 333,336, 344,353, 361.365 Chemiak, C„ 321.346 Conocimiento (dependiente del), 11, 25 Chisholm, R.M., 353, 366 Conocimiento (nivel del). 35. 36, 59, Chomsky. N.. 9, 1 6 .2 1 .2 5 ,4 1 ,4 7 . 199. 326 220 Contenido. 46, 53, 55. 61, 89, 90. 96, 98. 114. 115, 129, 131. 146, 152, 153, Church. A,. 26, 104,296 Churchland, P.S.. 63 154. 194. 199, 200, 201, 203, 211. Ciencia cognitiva, 9. 10. 18, 21, 22, 23. 218. 241, 242, 243. 246. 247, 270, 24. 28, 32, 35. 38, 41, 42. 44, 47, 49, 278, 279. 286, 299. 301, 303, 307, 50, 53. 56, 60, 62, 64, 66-70, 87, 88, 345,362. 366 90, 92, 94, 96, 123. 129, 131. (35, Contenido del conocimiento, 36, 212. 136, 147. 152. 159, 160, 217. 218. Contenido semántico. 31. 269, 271. 302, 249. 273, 297, 298. 328. 359 360 Circunscripción, 254. 340, 343 Contexto discursivo. 236, 239

Broadbent, D.E., 124, L32 Brown, A.L.. 108, 133 Brown, G.S., 56, 71 Brown, I.D., 65, 71 Brown, J.S., 2 0 1, 211, 220 Brown, K., 226 Bruce 250, 258, 260 Buchanan. B.G., 201,220 Butterworth, B.. 239, 260 Bym c, R.. 15, 16, 21, 206, 210, 211, 219

c

Control (el problema del), 25, 42-47, 51, 7 2 .8 0 ,9 1 ,9 3 .9 8 , 106, 115, 116. 117, 120. 121. 129, 133, 160, 161, 172. 182. 184. 185, 223. 224, 225. 254. 328.339, 363 Cooper. L.A.. 66. 73, 167 Cooper. R.. 316 Cooper. W.E.. 71 Cotrell, G.M.. 162 Craik. F.I., 126, 133 Craik. K., 15. 191, 219. 220 Croucher, M,. 189 Cuerpo, 18. 39. 63. 83, 182, 216, 252, 357

D Dahl, D .A .,244. 261 Darmstadter, H., 346 Davidson, D.. 7. 10. 75. 224. 316 Davies. 47, 71 Davis, M.. 26, 71, 200. 220 Davis, R.. 201.220 Degradación natura) (o dulce), 146 Deícticos. 299, 300. 301 Deixis, 244, 261 de Klccr. J.. 201. 211,220 Demostrativos, 244, 299 Denke^J-, 164, 165 Dennel, D.C., 8,217, 222 Descartes. R., 25 Descripciones definidas, 16. 229. 230, 231,239.241 Descripciones referenciales. 242 Descripción invocadora de entidad (ID), 243 de Sousa, R., 346 Diamond, J.. 341, 347 Discurso, 8, 14, 15, 16, 17, 41. 192. 194-198. 207, 208, 210, 217, 218, 219, 229-259.287, 288, 293,300, 301, 308 Discurso (comprensión del), 14. 15. 192, 248 Discurso (estructura del). 16. 229-240. 244,257 Discurso (procesamiento del), 16, 17,41, 229-233,235, 240, 258

Dixon, R.A.. 226 Dominio, 15. 30, 34. 38, 40. 41, 48, 49, 53. 61, 63, 66, 67, 69. 129, 152, 163, 211-215.229.230,231,233, 235, 236, 246. 248. 252, 258, 287, 288, 293. 298, 300, 301, 302, 305, 308. 361 Donders, F.C., 64, 71 Donnellan. K.S., 242. 261. 263 Dowty, D.. 271, 315, 316 Doyle, J..200, 224.339.347 Dreyfus. H.L., 217, 220. 319, 320. 331, 334,347 du Boulay, B.. 211,220, 367 Dunckcr, K.. 58. 71 Dyer, M.G., 185. 189

E Edelson, T.. 189 Edwards, R, 366 Egan, D.E., 209, 220 Fgli, II., 225 Ehrlich, K., 194,221.226 Eüfort. W.. 265 Elman, J.. 161, 162. 164, 165 Elsendoom, B.A.G., 134 Encabezado, 255 Encadenamiento hacia atrás, 253, 255 Encadenamiento hacia delante, 253. 255 Equivalencia fuerte, 23, 24, 47, 50, 57, 5 9 .6 1 .6 2 Erman, L.D.. 45, 71. 166 Escalamiento (el problema del), 161, 163, 164, 182. 187 Espacios focales. 236. 241 Especialistas de palabras. 231 Estado íifcncional, 230, 233. 236, 238, 2 39,2 40 .2 4 1, 245. 246 Estado de activación, 139. 140, 142, 144 Estructura. 12. 13. 15. 16, 25, 27, 31, 34, 38, 39, 40, 45, 49, 50. 54. 55, 61, 69, 87, 88, 93, 96, 97, 98, 101, 102, 103, 109,112.113,115. 119, 120. 124,128. 130,131,138,144,155,156. 161, 170, 172, 183,191,194,202,215,216,218.

219, 229-240, 243. 244, 246, 247, 248. 257,271.2 8 4,2 9 7.30 5,30 6 .3 26 ,3 42 , 361, 362, 363 Estructura de árbol, 234 Estructura discursiva, ver Discurso íes­ tructura del) Etchemendy. J., 8. 17, 20, 269, 314, 315, 316 Evaluación incrementa] de referencia, 246 Evans. J. St. B. T.. 199, 221 Eventos, 46. 65, 70. 213, 214, 216, 230, 2 31,235,240. 244, 245 Extensión. 15, 17,26, 104, 158.251,287, 289, 290. 291, 293, 295, 296. 298, 303, 304, 306, 309.356 Ezquerro, J.. 7, 8

F Falkenhainer, B., 215, 221 Falmage, R.J., 225 Farlcy, A,. 58, 71 Fauconnier, G., 198, 221 Feigenbaum, E.A., 129, 133, 201, 220,

Fodor, J.A., 29, 31, 36, 37, 58. 70, 71, 1 9 6 ,2 1 6 ,2 2 1 ,3 6 1 ,3 6 7 Foppa, K., 96, 134 Forbus. K .D.,211, 215,221 Formación de planes, 251, 252, 258 Formalismo. 26. 51, 103, 122, 172, 244, 351. 361. 363. 364 Fourier. 48. 69 Franks, J.J.. 194. 220 Frazier, L.. 58. 71 Frege, G.. 26. 36 Frijda, N.H., 131, 133 Función, 10, 12, 23, 26, 27, 28, 30, 32, 33, 34. 38, 39, 40, 48, 52, 53, 57, 59, 60, 61, 62, 65. 69, 70, 88, 94, 98, 99, 100. 103, 105, 106, 109, 116, 117, 121. 131, 140-146, 151, 159, 164, 175, 177, 193,212,215,236, 272-277, 287. 288, 291, 303. 305, 306. 307, 346, 353. 358, 365 Función semántica, 32, 33, 34 F unt.B .V .,55.71 Fimh, B.P., 99

G

221

Feldman, J.A., 137, 166 Fennell, R.D., 166 Fenomenologia. 183, 193, 322, 323. 324, 343 Fenstad. J.E.. 316 Ferguson, C.A., 223 Fernández, E.B.. 99, 133 Feynman, R.P, 201 r 221 Fikes, R.E., 251. 261, 335, 347 Findler, N.V.. 132 Finin, T., 261 Fischer, G„ 249. 261 Flores, F., 218, 227 Flynn, R.A., 134 Focalización (proceso de) 115, 241, 242, 243. 244. 278 Focalización global, 241 Focalización local, 243 Foco, 118, 127, 187, 231, 236, 239, 241, 2 42 .2 4 3 ,2 4 5 ,2 5 7 Foco inmediato, 242, 245

Gabriel, R.P., 134 Gajski, D.D., 99, f33 Galanter, E., 44, 72, 191,224 Gárdenfors, P., 316 Gamham, A., 194, 195, 196. 198, 219, 221 ,2 23 .2 2 5 Garvey, A., 219, 222 Generalización automática, 154 Gcnesereth, M.R., 249, 261 Gencner, D., 2 1 1, 215, 220, 221. 222, 224, f

Georgeff. M.P., 251, 258,261 Gesticulación. 239 Gibson. J J..40 , 345.347 Gick, M.L.. 215, 221 Gilhooly, K .J.,219. 221 Givon, T., 260, 264 Glaser, R., 133 Glenberg, A.M., 198, 221 G ódel.K ., 26, 211,367

Cieguen. J., 232, 264

Golding, A.. 134 Goldman, A. A.. 18,21 Goldstein. G.D., 72 Goodman, N„ 323. 332, 347 Goodson, J.L., 266 Grafo-búsqueda, 251 Grecn, G„ 213. 224 Green, T. R. G., 212. 222 Greenspan, J., 211, 226 Grice, H.P., 236, 248. 249. 261. 262. 271. 315 Grimes-Farrow. D.D.. 220 Groenendijk, J., 223, 263 Grossberg, S„ 145, 166 Grosz, B.J., 8, 16, 20, 229. 230, 231, 232. 233, 235, 236, 238. 239, 241, 243, 2 4 5 ,2 5 9 ,2 6 2 .3 0 4 Guenthner, F., 244, 262 Guiones. 46, 338,339, 361 Guthrie, E.R.. 43 Gutmann, M.. 211, 224 Guyotc, M.J.. 203, 222

H Haddock, N.J., 246, 262 H ara^,F.G .,214, 222 Halle. M., 226 Halliday, M„ 247, 262 Halvorsen, RK., 316 Himkamcr, J., 196, 226 Hamian, G .,224, 316 Harnish, R.M., 167, 225 Hasan. R . 247, 262 Haugeland. J., 217, 222, 318, 347 Hayes, P.J., 18, 47. 72, 199, 218, 222, 3 1 8 ,3 1 9 ,3 2 4 ,3 2 6 ,3 3 4 . 344. 347 Hayes-Rorh, B .,45,71, 123.133.219. 222 Hebb, D.O., 145, 166 Heider, F., 189 Heim, I., 244, 262 Hendrix, G.. 247, 262 Hétero-fenomelológia. 329 Heurística, 69, 252, 254 Heurística de bifurcación, 254

Hewett, M., 219, 222 Hewitt, C„ 200. 222 Hilbert, A., 26, 36 Hinrichs, E., 245, 262 Hinton, G.E., 157, 158, 162, 166, 167. 213,222 Hobbs, J„ 222, 233. 235, 237, 238. 240, 263 H oc.J.M .,222 Hoff. M.E.. 145, 156, 167 Hofstadter D.R.. 217, 222, 329, 342, 347, 359,362. 367 Hoíland, J.D., 133, 220, 222, 224, 227, 262.266, 367 Holuoak, K.J., 221 Hopcroft, J.E., 91, 99, 133 Hopficld, J.. 150, 151, 165, 166 Horrigan. M.K., 250, 263 Horsntein, N., 222 Hovvard, J., 165, 346 Hutchins, E„ 211,222 Huttenlocher, J., 208. 222

I Implicación lógica, 294, 296, 298, 299 Implicatura, 248 Inder, R., 203, 223 Inferencia, 36, 37. 40. 66, 173, 183. 198, 199, 200, 201, 204, 209, 210. 215, 241.282, 294, 295 ,2 96 ,2 9 8 Inferencia (proceso de), 15, 207 Inferencia (reglas de), 15, 29, 199, 200, 201, 209. 210, 230, 253, 254. 255, 257,258. 361 Inferencia lógica, 53, 55 Inferencia probable, 254 Inferencia silogística, 202 Inferencia válida, 294, 295, 296 Inferencia no-monónota. 337 Infones. 311, 314 Inhelder, B„ 199,223 Inteligencia Artificial, 10, 18, 154,318 Intencionalidad, 12, 253. 269, 349, 351-359, 362 Intérprete, 28, 85, 89, 118, 361, 363, 364

Isabelle, D., 246, 263 Isard. S.D., 47. 71 J

Jackel. L., 165 Jackendot'f, R., 203. 223 Jacob i, G.T.. 72 Jacobovits, 261 James, W., ! 33, 206 Janssen, T.. 223. 263 Johansson. G., 39 Johnson, M.K., 46. 71 Johnson, M.V., 219, 222 Johnson-Laird, P. N., 8,14. 15, 16, 21. 170, 189. 191, 192, 194. 195. 197. 198, 199, 200. 201. 203, 206, 210. 214. 217, 219. 220. 221, 223, 224, 225. 227, 297 Jordán, M.I., 16!. 162. 166 Joshi, A., 243, 263 Joshi, A.K... 262 Just, M.A., 58, 71 K

Kahneman, D.. 197. 201, 208, 213, 223. 226 Kamp. H.. 244, 263,316 Kamp. J.A.W., 198. 203. 223 Kantowitz, B.H.. 73 Kaplan, D., 299. 300. 302. 315 Kaplan, R.M., 267 Karltunen. L., 198, 223 Kautz, H .A ..254, 263 Keanc, M .,215. 219, 223 Keil, F.. 212, 223 Kempton, W., 213. 223 Kendon, A.. 239, 263 Kieras. D.E.. 214. 223 Kintch, W.. 227 Kintsch, W.. 198, 216, 223 Klahr.D., 107, 133 Klein. E., 262 Knuth, D .E .,48, 71

Kohler. W.. 27, 71 Kong, K.L.. 64. 70. 73 Korta, K .,8 .2 2 9 Kosslyn, S.M.. 55, 66, 72 Kowalski, R.A., 199, 224 Kripke.S., 305. 307, 315 Krocrber. P„ 265

L Laird, J.E., 7, 12, 21, 87. 108, 129, 133. 134 Lañe. T., 99. 133 i angholm. T., 316 Lansky. A.L.. 251, 258, 261 Larkin, J.H.. 212, 224 Larrazabal. J.M., 7 Lasnik. H.. 240, 263 Lehmann. H., 262 Lehnert. W.G.. 185. 189, 231, 235, 263, 264 Leighton, R.. 201, 221 Lemke, A.. 261 Lenat. D.B., 201.220 Lenguaje.9, II, 16, 1 7 ,1 8 ,1 9 ,3 1 ,3 6 ,3 7 , 41, 47, 49, 30. 51, 53. 90. 91, 94, 95, 9 6.103, 105, 115, 146, 152. 160. 169. 170, 180, 185, 186, 193. 196, 197, 199, 216, 217. 218. 229. 230, 231. 232. 248. 249, 251, 252, 269-289. 293. 296. 300. 301, 302, 304, 306, 309, 310, 313, 314, 315, 327, 350, 356.357-366 Lenguaje (comprensión del), 17, 41, 47. 249 Lenguaje (interpretación del), 217, 309 Lenguaje (procesamiento del), 9,17, 152. 230, 232. 350. 356. 360. 366 Lenguaje (uso del), 251, 269, 275. 2S1, 366 Lenguaje artificial, 281 y siguientes Lenguaje formal, 146 Lenguaje máquina. 103 Lenguaje mental, 196. 216, 327

Lenguaje natural, 185, 186, 230, 231, 272, 276, 277, 281, 284. 302, 350, 356,359 Lenguaje natural (semántica del), 185, 314 Lenguaje natural (sintaxis del), 281, 357 Lenguaje procedimental, 363 Lepinies. W., 96. 134 Lesser. V.R., 45. 71. 249, 264 Levemhal, H., 211, 224 Levesque, H., 259, 260. 261 Levin, J.A., 264 Levinson, S.C.. 249. 264 Levy, D.M., 233, 235.264 Levy, E., 239, 264 Lewis, C.. 214, 224. Lewis, D.K., 217, 224, 271, 305, 307. 308 .3 15 ,3 1 6 Linde, C„ 232, 233. 234. 264 Lindero, K., 198.221 Lindsay, P.H., 45.72 Litman, D„ 239, 248, 257, 258, 263, 264 Lochhead, J., 221 Lockhart, R.S., J26. 133 Lógica formal. 9, 31, 32, 210, 366 Lógica mental. 199, 209. 210, 216 Lógica modal, 17 Lógica no-monótona, 339 Lógica simbólica, 30, 349, 365 Lógica temporal, 340 Lyonj». W„ 183. 189

M Maes. P.. 108, 133 Maní. K., 195, 224 Máquina de Turing, 26, 28. 29, 52. 55, 5 9 .6 0 .1 0 0 Marcadores, 237 Marco (problema del), 8, 18, 317. 318, 319. 320, 321. 323, 326, 330-334, 337,339, 3 4 3 .3 4 4 ,3 4 5 .3 4 6 Marcos, 46, 123, 246. 338. 339, 340. 363, 364 Markov, 100 Marr, D., 38, 39, 40, 41, 48, 69, 72. 193. 224

Marslen-Wilson, W., 264 Martin, P., 207. 263 Martínez, F., 7, 13, 21 Martinich, A.P., 316 McCarthy, J., 18, 47, 254, 264, 318, 319, 320, 326, 336. 337. 340, 343, 347 McCawley. J., 223 McClelland. J.L., 67. 73, 166 McCloskey, M .,213. 224 McCorduck. P.,201,221 McCue, D„ 249, 264 McCulloch. W.S.. 12,21, 100 McDermott. D. 200, 224, 339, 340, 344, 347 McDonald, D.D., 243, 264 McGonigle. B., 226 McKcown, K„ 235, 243, 264 MeNeill. D„ 239, 264 Mellish, C.S., 123, 133, 246, 265 Mcltzcr, B .,7 1 .7 2 , 347 Memoria. 9, 12, 29, 32, 41, 42, 45. 50, 51, 52, 67, 70, 75. 84, 89, 90, 92. 93. 100-128, 135, 137, 146, 152, 153. 159, 161, 162. 184, 196.219. 342 Memoria a corto plazo. 42, 124 Memoria a largo plazo, 101. 109. 112. 113, 115, 116, 117, 121, 122. 124. 219 Memoria de trabajo, 109, 111. 113. 115-120 Mente, 9, 10, 11, 14-18. 27, 28, 35. 36. 43, 50, 56, 85, 87, 88, 90, 96. 130, 169, 170. 171, 184, 185. 187, 191. 198, 210, 213, 218. 271. 294. 340. 346, 353, 354, 357. 359, 365, 366 Merry, M„ 189 Mesarovio, M.D., 72 Meyer, D„ 211,224 Meyer, M„ 198, 221 Michalski, R.S., 132, 134 Michie, D.. 71, 72, 201, 224, 347 Migura, I7., 8 Miller. G.A.. 9. 44, 72, 191, 197, 214, 224,226 Millikan, R.G., 344, 347 Miluttnovic, V.M., 99, 133

Minsky, M.. 99, 112, 133, 139, 152. 154, 156, 158, 159. 166, 200, 224, 335, 337,338, 347 Mitchell, T., 132, 134 Miyata, Y., 161, 166 Modelización, 14, 19, 31, 139, 142, 274, 275,282, 308,314, 343.345 Modelos mentales, 14, 15, 191, 192, 193, 194, 197, 198, 201, 202. 203, 206, 207, 208, 211, 212. 214-219, 297, 298 Monk. J„ 211,220 Montague, R„ 16, 21. 305, 307, 315, 316 Moon, D.A.. 134 Moore, M.A.. 264 Moore, R., 222. 318 Moran, T.P., 58. 72. 124, 125, 133, 212, 214, 222,224 Morgan, J.L.. 132, 134, 166. 167, 249, 2 6 1 ,2 6 2 .2 6 3 ,2 6 4 , 265, 266 Morril, G„ 262 Mozer, N.C., 161, 166 Munro, P.W., 162, 165 Murray. D., 222 Myers, T . 226

O

Oakhill, J.V.. 194, 195, 196, 198, 206, 221,225 Oatley, K... 170, 189,211,219. 225 O ’ConneU, D.N., 39. 73 Oden, G.C.. 217, 225 Operadores. 103, 111,112. 117, 118.128, 129,251. 2 5 2 ,2 5 5 ,2 5 8 ,2 5 9 Optimización, 139, 146, 152, 163 Ordenador. 10, 24, 25, 28, 29. 30, 32, 34, 35, 40, 42, 43, 44, 49, 50. 51, 53, 68, 70, 75, 76, 77, 79, 80, 84. 85, 88, 89, 90, 102.115,117. 118, 121,135,136, 137, 138, 182. 187, 188, 191, 216, 325, 337, 349, 350. 351, 352, 355, 356,359-366 Ortony, A., 132, 222 Osherson. D.N., 199, 225 P

Papert, S.. 139. 152. 154. 156, 158, 159, 166 Partículas, 237 _ Patrón de conectividad, 140, 143 Payne, S.J..212, 222 N Penetrabilidad Cognitiva, 35, 66 Pensamiento. 10, 15, 31, 36, 43, 44, 49, Nardí, D.. 108, 133 75, 77. 78, 79, 80, 81, 83, 84, 85, 112, Neely, R.B.. 166 173, 198, 215, 219, 269, 318, 320. Neumann, von, 70. 122, 136, 345. 362 3 2 3 .3 2 7 .3 3 3 ,3 3 9 ,3 4 0 Newell, A., 7, 9, 12, 21, 24, 28, 37, 41, Perceptrón, 145, 154, 156, 158 42, 45, 56, 58, 68, 72. 87, 93, 94, 97, 99, 100, 108, 124. 125, 128. 129, 132. Pereira. F.C.N., 244, 246, 265 Pérez Miranda, L.A., 5, 7, 8, 9, 22 133. 134, 191, 200, 203, 206, 207, Perkins, D.N., 221 224, 225. 3 26 ,3 4 7 .3 5 2 .3 6 2 ,3 6 7 Perrault, R.C., 248, 249, 255, 260, 261, Nickerson, R., 224 265 Nícod, J., 56. 72 Perers, S.. 316 Nilsson, N.J., 251, 252, 261. 265. 347 Peterson. K.. 265 Nisbett. R.E., 201,222 Piaget. J.. 199. 223 Nivel físico, 31 Pierrehuinbert, J„ 239, 263 Nivel semántico, 68, 341. 344 Pitts, W.H., 12.21, 100 Nivel simbólico, 32, 91. 100 Planes (planificación), 13, 68, 103. 129, NO AH, 251 Norman, D.A., 45, 72, 213, 224 170, 171, 183, 185, 230, 235, 239, 248-259,317,326,330, 340 Numeral, 31, 33, 34. 272, 276

Plogg, D., 134 Poggio.T., 39, 72, 193,225 Polanyi. L.. 232, 233, 234, 238, 265 Polanyi. M.. 70. 72 Polk, T.A.. 108, 134.203.225 Pollack, M.E., 8, 16, 21, 229. 244, 246. 249, 258. 259. 261, 262. 263. 264. 265,304 Posner. M.L. 7. 8, 18, 20, 21, 42. 65, 72, 219 Post, E.. 26. 100 Power, M.J.. 219, 225 Precedencia de satisfacción. 236 Pribram, K.H., 4 4,72 , 191 Procesamiento, 9, 12, 13, 16, 17. 25, 27, 35, 36, 41, 42, 48, 53, 57, 58, 64. 65, 66, 67, 75, 87. 91, 92, 96, 105, 106, 111. 113, 118. 119, 123, 124, 125, 128,(35-146,151,152,159,229-236, 240, 257, 258, 323, 343, 345, 349, 350. 356, 358. 360, 362,366 Procesamiento del discurso, ver Discurso (procesamiento del) Procesamiento del lenguaje, ver Lengua­ je (procesamiento del) Procesamiento interactivo. 152 Producción. 46, 56, 76, 79. 109-118, 122, 130, 144, 160, 161. 174. 178. 179. 200,218, 352 Productividad, 17,31 Proferencia. 230, 232, 235, 236. 237, 239, 242-250, 253, 257, 279. 286, 299, 300, 301, 302, 308. 311.312 Programa, 9, 12. 16, 18. 26. 40. 48, 49. 51, 56, 57, 75, 76, 84, 85. 89, 90, 98, 103, 117, 118, 120, 121, 128. 130. 136, 137. 138,159.209, 214,231. 274.275, 276,340, 342,349, 350, 351, 356-366 Pronombres, 16. 229, 230, 231, 239, 241, 242,243,301 Prosodia, 235, 239 Putnam, H., 7L 84 Pylyshyn. Z.W., 7. 10. 1 1 ,2 1 ,2 3 ,2 9 ,3 1 , 35. 36. 37, 50, 53, 60, 62, 63, 64. 65, 69. 70. 71, 72. 73, 87, 185, 189, 216, 2 2 5 .3 (8

R Razonamiento, 9, 14, 15, 29, 30, 31. 32. 36, 37, 41, 49, 67, 172, 173. 192. 199-203. 206-213, 217, 218, 219, 249, 251, 252, 253, 255, 256, 323, 329,337. 340, 343, 358 Reconocimiento del ojo de (a cerradura, 249 ' Reconocimiento de planes, 230, 239, 248-259 Reconocimiento pretendido, 330 Reddy.D.R.. 45.71, 152. 166 Referente, 11. 197. 240. 242, 246. 359 Registro tonal, 239 Regla de Acción-Efecto, 252. 253, 255 Regla de activación, 143 Regla de aprendizaje, 140, 145, 153. 156 Reichardt, W.E., 193,225 Reichgelt, H.> 198,225 Reichman-Adar, R.. 232, 234, 238, 241, 265 Reilly, J.S., 223 Reinhart, T„ 240, 265 Reiser. B.J., 185, 189 Reiter. R„ 199. 225, 260, 265, 340, 347 Relaciones, 10, 19, 39, 47, 54. 55. 80, 81, 84. 160, 193. 197, 209, 210, 212, 214, 215,230-239. 243. 245, 246. 248, 251, 2 7 1. 278, 280, 287, 288,296,303-314, 327, 340, 344, 345, 346, 356, 363, 365 Relaciones retóricas, 233, 235, 236. 237 Relevancia, 10, 18, 46, 63, 206, 273, 296, 335,365 Representación, 18. 30. 35. 55, 56. 58, 100, 129. 140, 142, 145, 152, 154, 155, 156, 157, 173, 175. 19L 193, 195, 204, 207, 210, 213. 216. 217, 219, 242. 244. 246, 247, 249. 251. 259, 287, 288, 303, 311. 319. 326. 327, 335, 362 Representación del conocimiento, 9. 15 192. 200,211,363 Representación lingüística. 196. 197, 198,216,218 Representación mental, 54. 192, 212, 216

Resolver-conflictos, 258 Rips, L.J., 199,2 16 ,2 1 7,2 2 5 Robinson, A., 244, 265 Robinson, J.A.. 199,226 Rogers, H.. 209, 226 Roseman, 1.. 181, 185, 189 Rosenberg, C., 164, 167 Rosenblatt, F., 166 Rosenbloom, P.S., 7, 12, 21, 87, 97, 108, 129.133,134 Roscnschein, S., 185, 252, 265 Rueda Cognitiva. 340, 341 Rumain, B.. 210. 226 Rumelhart. D.E., 7. 12, 21, 67, 73, 87, 135, 157. 158. 165. 166, 167, 232, 234,266 Russell, B.. 26 Russell, J.. 217. 226 Ryle, G., 170, 189,328,348

s Sacerdoti, E.D., 251, 252. 262, 266 Sag, I., 196, 226, 262 Sagalowicz, D., 262 SAM, 231 Sanford, A., 194. 226 Satisfacción de restricciones, 139. 146, 147, 150, 151, 152,246 Scha. R., 238, 265 Schank, R.C., 72, 188, 194. 200, 226, 338, 348, 350, 355, 366, 367 Schiele, F.,212, 222 Schiffrin, D., 232. 266 Schmidt. C.F., 249, 266 Schneider, W., 97, 134 Schneiderman, B., 226 Schoenfeld, W„ 262 Schwab. T., 261 Schwartz, D„ 165 Searle. J.R., 18, 21, 249, 266, 319, 349-367 Sejnowski, T.J., 63, 164, 166, 167 Selfridge, O., 344, 348

Semántica, 8, 10, 17, 29-36, 81-91. 185. 234,237,269-291. 294,295,300-312. 321,3 50 .3 6 2, 365,372 Semántica (interpretación), 30, 32, 33. 34 Semántica (red), 109. 112, 113, 196 Semántica (teoría), 277, 279, 280, 282. 286, 287. 295, 297,310 Semántica cognitiva, 274, 276 Semántica compositiva, 272 Semántica de Mundos Posibles, 17, 302. 309 Semántica de Situaciones, 17, 298. 308. 3 09 ,3 1 0 ,3 1 1 ,3 1 4 Semántica de los lenguajes de programa­ ción. 364, 365 Semántica del lenguaje natural. 185.276. 314 Semántica formal, 198 Semántica léxica, 271 Semántica matemática. 274 Semántica modelo-teórica. 8. 17. 276. 277, 278. 279, 285. 286. 29?, 298. 307, 308 Shadbolt, N.. 198: 226 Shepard, R.N., 65. 73 Shepherd. R.N.. 163, 167 Shiffrin. R.M., 97. 134 Shivers. O.G.. 134 SHRDLU, 230, 231 Shwartz, S.P., 55, 72 Sidner, L.C., 8. 16. 21, 229. 230. 232. 233, 235, 236, 238-245. 250. 254. 257, 259. 262, 266, 304 Siegel, V.M., 99, 133 Significado.1 0 ,1 6 ,2 7 .2 9 ,3 0 ,7 9 .8 1 .8 4 . 85, 88, 152. 193, 196, 198, 209. 210. 217, 229, 230,231.232, 239.2 247, 248, 270,271,272, 273,2 279. 280, 286,299,301, 302.3 306, 307, 308,310,312, 313.3 349. 3 5 1 ,3 6 0 ,3 6 4 ,3 6 5 . 366 Silverman, K., 239, 266 Similaridad, 146, 154, 155, 156, 269 Simón, H.A., 9, 10, 21, 44, 58, 72. 73, 87, 100, 108, 129, 133, 134. 189. 191,224 Sintagma de entrada, 237. 238, 239

Sintagma nominal, 242, 245, 246, 283, 2 8 5 .2 9 1 .3 0 6 ,3 1 3 Sintagma predicativo. 283, 288, 289. 290, 291,293 Sistematicidad. 31. 37 Skinner, T.. 16, 21 Slocum. J., 262 Sloman, A.. 7. 13,22, 169, 172, 181, 182, 188, 1 8 9 .3 65 ,3 6 6.3 6 7 Slovic. P.. 223, 226 Smith. B.C.. 226. 362. 363. 364. 365. 367 Smith. E.R.. 201. 219. 226 Smolensky. P-. 167 Soar, 12.87, 108-113. 115-119. 121, 122, 1 2 8 ,1 2 9 ,1 3 0 .1 3 3 .1 3 4 .2 2 5 Solía, B.. 165 Soloway, £., 2 11. 22b Solso.R .. 221 Spcnccr Brown. G.. 56 Spencer-Smith, R., 198. 226 Sperling, G., 42, 73 Sridharan. N.S.. 266 Stalnaker, R., 307, 308, 316 Steele, G.L.. 122. 134 Steels, B.. 367 SteTik. M . 252, 266 Steicr. D.E., 129. 134 Steinberg. 261 Stenning, K., 198,226 Stemberg, R.J., 209, 222. 223, 226 Stemberg, S., 42, 73, 127, 128 Stevens, A.L.. 211, 220. 221, 222, 224. 227 Stcvcns, K.A.. 39, 73 Stcvcns, R.. 225 Stich, S.C., 361.367 Stokhof, M.. 223,263 STRIPS, 251, 261, 347 Supuesto de rama única, 254

T Tatc, A., 252, 266 Técnicas de reconocimiento incremental, 257 Teoría de actos de habla. 255

Teoría de centrado, 243 Teoría de la circunscripción, 254 ter Meulen. A., 223 Test de Turing, 7, 10, 75. 77, 78. 79. 80, 82, 83, 85 Thagard. P.. 201, 215, 222 Thomason, R., 21, 316 Thompson, R., 108, 132 Thompson, S.A., 233, 235, 238, 264 Todd. P„ 161. 167 Tono, 209,239 Touretzky, D., 166, 167 Townsend, J.T., 62. 73 Traugott, E.C., 223 Turing, M.A., 7, 10, 18. 22, 2 4,26 ,2 7,28 , 29, 36, 52, 55, 59, 60, 69, 73, 75-80. 82,83, 85, 100. 104, 114, 365 Tversky, A., 197, 201, 208, 213, 223, 226 Tyler, L .K .,58 .7 2, 264

u Ullman, J.D.. 91. 99, 133 Ullman, S.. 39. 40, 66, 73 Underwood. G.. 225 Unidades de procesamiento, 137. 139. 140, 142, 143 Unruh, A., 134

V van Benthem, J., 316 van der Veer, G.C., 222 van Dtjk, T.A., 196. 198,223.227, 234. 266 VanLehn, K„ 97, 134 Vasta, R., 133 Verdad cognitiva, 298 Verdad lógica, 294, 296-300, 309, 310 Vicente, A., 7 von Craníich, M., 96, 134 von Stechow, A., 225 Vosniadou, S., 132, 221, 222

w W alker.D., 231,262, 266 Walker, E.C.T., 71 Wall, R., 316 Wallach, H„ 39, 73 Waliz, D.L., 227 Ward, G.L., 239, 263 Wason, P.C., 199, 201, 220, 223, 225. 227 Wasserman, G.S., 64,70, 73 Watson, J.B., 16, 2 7 8 ,2 7 9 ,2 8 0 ,2 9 9 Webber, B.L., 198, 227, 243, 245, 247, 262, 266, 267 Weil, E.M., 209, 226 Weinreb, D.L., 134 Weinstein, S., 243. 262, 263 Wertheimer, M., 214, 227 Weyraych. R.W., 227 White, R., 188 Whitehead, A., 26 Widrow, G., 145, 156, 167 Wilensky, R„ 250, 258, 267

Wilkins, D.E., 252. 267 Wilks, Y., 198, 227 Williams, D„ 157, 158. 166 Winograd, T„ 217, 227, 230, 267 Winston, PH ., 72, 132, 133, 224 Wittgenstein, L„ 193. 227, 320 W'ittner, B., 165 Woodfield, A., 347 Woods. W.A., 230, 267 Woolridge, D., 348

Y Yost, G.R., 134 Young, R.M., 58, 73, 212, 227 Yovítts, A., 72

z Zipser, D., 162, 165