Clark Andy - Estar Ahi - Cerebro Cuerpo Y Mundo en La Ciencia Cognitiva
description
Transcript of Clark Andy - Estar Ahi - Cerebro Cuerpo Y Mundo en La Ciencia Cognitiva
ANDY CLARK
ESTAR AHÍCerebro, cuerpo y mundo
en la nueva ciencia cognitiva
PAIDÓS 4Barcelona • Buenos Aires • México
Título original: Being there: Putting Brain, Body, and World TogetherAgain Publicado en Inglés por The Mit Press, Cambridge, Massachusetts
Traducción de Genis Sánchez Barberán Revisión técnica de Fernando Martínez Manrique
Cubierta de Ferran Caries y Montse Piass
Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del -Copyright-, bajo tas sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprogratia y el tratamiento informático, y la distribución de ejemplares de el!¿ mediante alquiler o préstamo públicos.
© 1997, Massachusetts Institute ol Technology © 1999 de la traducción, Genis Sánchez Barberán © 1999 de todas las ediciones en castellano,
Ediciones Paidós Ibérica, S. A.,Mariano Cubf, 92 - 08021 Barcelona y Editorial Paidós, SAICF,Defensa, 599 - Buenos Aires. http://www.paidos.com
ISBN: 84-493-0670-1 Depósito legal: B. 2.014-1999
I
Impreso en A&M Gráfic, s.l„08130 Sta. Perpetua de Mogoda (Barcelona)
Impreso en España - Printed ¡n Spain
A mi padre, Jim Clark, el chicarrón escocés que me enseñó a preguntarme...
Sumario
Agradecimientos . ................................................................... ..................... 13Prólogo: Del conexionismo a ¡a mente corpórea y em bebida___ . . . . 15Prefacio: Pensamiento profundo contra acción flu ida............................ 31Bases ............................................................. ..................... ......................... .... 35Introducción: Un automóvil con cerebro de cucaracha ......................... 39
Primera parte
DE EXCURSIÓN POR I.A MENTE
1. Agentes autónomos: un paseo por 3a luna ............................ .. 491.1 Bajo el volcán ..................................... ................ ..................... 491.2 Desfile de robots ...................... , ................................................... 501.3 Mentes sin modelos .................... ................................................. 611.4 N ich os.............................................................................. ............... 631.5 ¿Sensibilidad para los detalles? ............................................ .. 651.6 El robot refinado ..................................................................... 71
2. El niño situado.............................................................. ....................... 752.1 Yo, robot ....................................................................................... 752.2 Bucles de acción ........................................... ............................... 762.3 Desarrollo sin diseños........................................ ......................... 792.4 «Montaje blando» y soluciones descentralizadas .................... 832.5 Mentes con andamiajes................................................................. 862.6 La mente como espejo frente a la mente como controladora . 88
10 I Estar ahí
3. Mente y mundo: la frontera p lástica.................................................. 933.1 La mente escurridiza........................................................................ 933.2 Las redes neuronales: una revolución inconclusa.................... 933-.3 Apoyarse en el entorno............................ .................................... 1003.4 Planificación y resolución de problem as................................... 1043.5 Después del archivador ............................................................... 109
4. Sabiduría colectiva al estilo de los hongos m ucilaginosos............. 1134.1 Aquí llega el mucílago ................................................................. 1134.2 Dos formas de em ergencia............................................................ 1164.3 Tripulaciones m arinas..................................................................... 1194.4 Las raíces de la arm onía............................................................... 1204.5 Modelos de la mente oportunista................................................ 123Intermedio: una historia condensada.................................................. 126
Segunda parte
EXPLICAR LA MENTE EXTENDIDA
5. Robots en evolución .............................. ............................................. 1315.1 Las elusivas estratagemas de la mente corpórea y embebida . 1315.2 Un telón de fondo evolutivo......................................................... 1325.3 Los algoritmos genéticos como instrumentos de exploración 1335.4 Inteligencia corpórea en evolución ............................................ 1355.5 La batalla de los simuladores (¡Viva lo auténtico!)............... .. 1395.6 Cómo comprender los agentes evolucionados,
corpóreos y em bebidos................................................................. 142
6. Emergencia y explicación ..................................... .............................. 1496.1 ¿Estilos diferentes?................... ................................................... 1496.2 De las partes a los to d o s ............................................................... 1506.3 Los sistemas dinámicos y la explicación basada en la
emergencia....................................................................................... 1606.4 Matemáticos e ingenieros........... .............. 1666.5 Decisiones, decisiones ................................................................. 1706.6 El cerebro contraataca ................................................................. 174
7. La imagen neurocientífica................................................................... 1777.1 ¿Cerebros? ¡Para qué! ................................................................. 1777.2 Los dedos del m o n o ........... .......................................................... 179
Sumario I 11
7.3 La visión de los primates: de la detección decaracterísticas a los filtros sintonizados..................................... 182
7.4 Hipótesis del control neuronal.................................................... 1847.5 Refinar la representación ............................................................ 190
8. Ser, computar, representar................................................................... 1938.1 ¿Noventa por ciento de vida (artificial)?................................... 1938.2 ¿Qué es eso que llamamos representación?.............................. 1938.3 Representación orientada hacia la acción ............................ 2008.4 Programas, fuerzas y programas parciales................................... 2048.5 Seguir el ritm o.................................................................................. 2138.6 Causalidad recíproca continua...................................................... 2158.7 Problemas ávidos de representación .............................. 2198.8 Raíces..................................................................................................2248.9 Representacionalismo m ínim o...................................................... 228
Tercera parte
MÁS ALLÁ
9. Mentes y mercados .............................. . ......................... ...................2339.1 Cerebros salvajes, mentes andamiadas......................................... 2339.2 Perdidos en el supermercado.........................................................2359.3 ¿Oficinas inteligentes?..................... 2399.4 Dentro de la m áquina............................................... 2419.5 Entornos de d iseño..........................................................................245
10. Lenguaje: el artefacto defin itivo...........................................................24710.1 El poder de la palabra ...............................................................24710.2 Más allá de la comunicación................................................. .... 24810.3 Cambio de espacios ..................................................................... 25510.4 Pensar sobre el pensar: el efecto del m an glar........................26310.5 La adaptación del lenguaje al cerebro .....................................26710.6 ¿Dónde acaba la mente y empieza el resto del m u n d o?---- 270
11. Mentes, cerebros y atunes: un resumen en salm uera......................277
Epílogo: habla un cerebro........... ...................... 281Bibliografía ......................................................................................................287Indice analítico y de nom bres..................................................................... 301
Agradecimientos
Parte de los capítulos 6 y 9 y del epílogo se basan en los siguientes artículos escritos por mí. Agradezco a los compiladores y editores su autorización para utilizar este material.
• «Happy complings: Emergence, exploratory styles and embodied, em- bedded cognition», en Readings in tbe Philosopby o f Artificial Life, M. Bo- den (comp.), Oxford University Press.
• «Economic reason: The interplay of individual learning and external structure», en Frontiers o f hutilutional Economics, J . Drobak (comp.), Aca- demic Press.
• «I am John’s brain», en Journal o f Consciomness Stttdies, 2 (1995), n° 2, págs. 144-148.
La procedencia de las figuras se acredita en las notas al pie correspondientes.
Prólogo: Del conexionismo a la mente corpórea y embebida
La visión un tanto idealizada que la ciencia cognitiva tiene de sí misma (por ejemplo, Gardner, 1985) es la de un área en la que confluyen los esfuerzos interdisciplinarios de fuentes tan diversas como la inteligencia artificial, la psicología, la lingüística o las neurociencias. Cada una de estas disciplinas es a su vez una ciencia en movimiento, en la que cada semana están apareciendo nuevas tecnologías, nuevas hipótesis y un caudal de datos que resulta difícil conjugar en un todo coherente. Si a esto añadimos que la materia de estudio, el fenómeno de lo mental, está plagada de embrollos filosóficos, nos encontramos con una ciencia que está en un proceso continuo de redefinición de sus límites, de sus tareas y de su aparato conceptual. Es fácil que al adentrarse en busca de explicaciones uno se encuentre inmerso en unas arenas movedizas que amenazan con tragarle. Como sabe todo aquel que haya visto una película de la jungla, la mejor manera de salir de unas arenas movedizas no es por medio de brazadas bruscas y movimientos violentos, sino sujetándose a alguna liana y tirando firmemente pero con paciencia. Estar ahí, el tercer libro de Andy Clark, nos proporciona una de esas lianas.
A diferencia de sus dos obras anteriores, Microcogn ilion («Microcogni- ción», 1989) y Associative Engines («Motores asociativos», 1993), centradas principalmente en analizar los supuestos que hay detrás del enfoque cone- xionista de la cognición y en articular las consecuencias de este enfoque para la concepción general de la mente, el conexionismo no es el tema central de Estar ahí, aunque siga ocupando un lugar preeminente. De hecho, y muy en consonancia con el enfoque de la ciencia cognitiva que se va a ofrecer, no es fácil ni conveniente identificar un aspecto determinado como el tema o argumento central de este libro, sino que existe toda una colección de conceptos clave que se entrelazan en un tejido explicativo común. Nociones como descentralización, emergencia, sistemas dinámicos, reconocimiento de pa
16 ! Estar ahí
trones, conducta adaptativa, van a conformar un entramado caleidoscopio), aderezado por una multitud de ejemplos de procedencia tan diversa como la robótica, la etología, la economía o el desarrollo infantil. Todo ello con el objeto de recuperar para la ciencia cognitiva cuestiones relativas al cuerpo y al ambiente, que no sólo rodean a la mente sino que, de acuerdo con el autor, forman con ella un mismo sistema.
A pesar del carácter notablemente diferente de este último libro respec to a los trabajos anteriores, hay un rastro de preocupaciones y motivos afines a lo largo de las tres obras. El objeto de este prólogo, por tanto, es poner a la vista la evolución del pensamiento de Clark en el contexto de sus primeras obras sobre conexionismo, de modo que el lector pueda apreciar, al menos a grandes rasgos, el proceso que desemboca en la imagen de la mente corpórea y embebida que se plasma en Estar ahí.
Las redes del pensamiento
Los sistemas conexionistas irrumpieron con fuerza en el ruedo cognitivo a mediados de la década de los ochenta. En ese momento la concepción dominante entre quienes emplean modelos computacionales de las funciones mentales se basa en la manipulación de representaciones simbólicas discretas y sintácticamente estructuradas por medio de reglas sensibles a dicha es tructura. Las representaciones se conciben como símbolos capaces de recibir una interpretación semántica en función de la relación particular que posean con el ambiente o con otros símbolos. Son, asimismo, capaces de combinarse con otros símbolos para formar estructuras más complejas. Los procesos cognitivos, por su parte, serán de carácter algorítmico. Una determinada función se realizará a través de una serie de transformaciones de estructuras simbólicas. Las transformaciones vienen dadas por un conjunto de reglas que determinan los pasos permisibles a partir de cada estado del sistema. El enfoque que se deriva de esta visión ha recibido distintas etiquetas, más o menos afortunadas, como cognitivismo clásico, paradigma simbólico, computacionalismo ortodoxo, enfoque de representaciones y reglas, o el acróstico GOFAI (Good Old-Fasbioned Artificial bitelligence o inteligencia artificial al viejo estilo).
En oposición a este tipo de organización, los distintos tipos de sistemas conexionistas están constituidos por unidades simples interconectadas formando una red cuya estructura está inspirada, de un modo muy general, en las características de la arquitectura neuronal del sistema nervioso, por lo que también reciben el nombre de redes neuronales artificiales. Las unidades o nodos poseen un determinado grado de activación, la cual se propaga
Prólogo I 17
a través de las conexiones hacia otras unidades, activándolas o inhibiéndolas en mayor o menor medida según el peso y valor (positivo o negativo) de las conexiones. Para llevar a cabo una tarea es preciso entrenar a la red, de manera que modifique los pesos de las conexiones entre las unidades hasta que se asiente en una solución estable al problema. La conducta del sistema es así el producto de la interacción de sus elementos. Este enfoque también ha sido bautizado de diversas maneras, como conexionismo, paradigma subsimbólico, neurocomputacionalismo o enfoque PDP (Procesamiento Distribuido en Paralelo).
El conexionismo atrajo inmediatamente la atención de un nutrido grupo de insatisfechos con las aproximaciones computacionalistas simbólicas tradicionales. Entre ellos se contaban investigadores de muy distintos credos, tales como holistas, asociacionistas, eliminativistas, neurocomputacionalistas o anticomputacionalistas. Esta diversidad de partidarios se debe, en parte, al carácter opaco de los procesos en los que se basa la conducta de una red co- nexionista. La actividad es producto de los vínculos asociativos existentes entre las unidades de la red, de ahí la etiqueta (o, para algunos, la acusación) de asociacionista. El sistema integra simultáneamente (en paralelo) un cúmulo de elementos de información que determinan conjuntamente la respuesta del sistema ante un estímulo determinado, de ahí la etiqueta de bolista. Por otra parte, los neurocomputacionalistas confiaban en que los nuevos sistemas permitirían integrar los datos procedentes de la neurociencia en modelos com- putacionales que idealizasen el funcionamiento de los sistemas nerviosos. Así, el conexionismo permitiría vislumbrar la forma básica de las representaciones en los sistemas biológicos. Los detractores del computacionalismo, por el contrario, veían en el carácter emergente de la conducta de la red con respecto a la actividad de las unidades un punto de apoyo para rechazar cualquier interpretación representacional y computacional de las estructuras y procesos internos responsables de dicha conducta. Los eliminativistas, sin embargo, interpretaban la falta de vínculos claros entre las entidades que identificamos en nuestras explicaciones psicológicas de andar por casa (entidades tales como creencias y deseos) para decretar la expurgación de nuestro lenguaje psicológico científico de semejantes entidades ficticias.
A la hora de contrastar el enfoque conexionista con el simbólico, el desconcierto ha seguido siendo la norma. Las redes eran empleadas con éxito en la solución de problemas del mismo tipo que en el enfoque convencional, y la vocación de sus primeros promotores era más reformista que revolucionaria con respecto a la ortodoxia cognitiva. No obstante, las redes se resistían al análisis clásico en términos de estructuras (los datos) y procesos (los programas) que caracterizaba a la inteligencia artificial típica. A primera vista es evidente que existe alguna diferencia entre ambas familias y para ca
18 I Estar ahí
racterizarla se han señalado aspectos como los primitivos computacionales que emplean, la metodología de construcción del sistema, la capacidad represen racional, la adecuación a los datos procedentes de la neurofisiología, la posesión de reglas, el nivel de explicación en el que se sitúan, el grado o tipo de innatismo que permiten, el modo de tratar las actitudes preposicionales, el tipo de contenido, el tipo de conceptos y un sinfín de aspectos más; y prácticamente respecto a cada diferencia señalada ha habido quien ha argumentado que tal diferencia no existe.
El conexionismo pedía a gritos un análisis de sus cualidades y supuestos que permitiera ubicar con mayor claridad su lugar dentro del estudio de la cognición. Microcognition, el primer libro de Clark, es uno de los hitos principales en la tarea de llevar a cabo este análisis. Su objeto es delinear qué imagen de la mente y de la ciencia cognitiva se sigue si aceptamos los postulados conexionistas. Clark evita los posicionamientos rupturistas y las confrontaciones estériles para rescatar una imagen de la cognición que haga justicia tanto a tres décadas de ciencia clásica como a los deseos de renovación.
Una propiedad crucial con la que exhibir la diferencia entre los sistemas conexionistas y sus predecesores simbólicos es la transparencia semántica. En expresión de Clark U989, pág. 18), un sistema posee transparencia semántica cuando «es posible describir una correspondencia nítida entre una descripción semántica simbólica (de nivel conceptual) de la conducta de un sistema y una interpretación semántica proyectable de los objetos de su actividad computacional formal representados internamente». Las descripciones de nivel conceptual son, en general, aquellas que nos proporcionan los predicados psicológicos ordinarios que utilizamos para hablar de la conducta propia y ajena. En estas descripciones tienen un papel destacado las referencias a creencias, deseos y otros términos con los que designamos estados mentales, tales como ver, esperar, intentar, suponer, etc., pero también pertenece a este nivel todo aquello que identificamos normalmente como un concepto. Así, al ver un perro uno categoriza de una determinada manera una porción de realidad, esto es, la hace corresponder a un concepto.
Los sistemas clásicos son inherentemente transparentes. Los objetos de computación son los símbolos que se transforman en las transiciones de estado del sistema. Muchos de estos símbolos poseen una interpretación semántica que corresponde a las entidades del nivel conceptual y los distintos estados mentales se diferencian en términos de los roles funcionales en que se puede hacer intervenir a los símbolos. Las reglas que gobiernan las transiciones están definidas de modo que la conducta global del sistema sea semánticamente coherente a través del tiempo, generalmente haciendo que el sistema respete una serie de principios lógicos. En el caso de los sistemas conexionistas, por el contrario, la transparencia desaparece: los procesos com-
Prólogo I 19
putacionales que tienen lugar en una red neurona) no se llevan a cabo sobre elementos que posean una interpretación directa en el nivel conceptual. Incluso cuando se trata de una red local (aquella en que cada unidad sí corresponde a una entidad de nivel conceptual, como objetos o proposiciones), la conducta viene determinada por el funcionamiento conjunto de todas las unidades, no por la transformación serial de unos símbolos en otros. Cada una de las pequeñas porciones de información codificadas en las unidades y en los pesos o fuerzas de las conexiones puede considerarse como una restricción débil que influye en el resultado final de la conducta de la red. Una lección del conexionismo, por tanto, es que la relación entre los pensamientos y lo computacional puede ser más laxa que lo supuesto inicialmente.
Otro importante principio defendido en Microcognition es la multiplicidad de la mente. La polémica entre clásicos y conexionistas gravita, en buena parte, en una sucesión de intentos de mostrar que el enfoque respectivo es capaz de constituir el sustrato único en el que se desarrolla toda la actividad mental. En la terminología de Pylyshyn (1984), se puede decir que ambos campos se consideran capaces de proporcionar la arquitectura funcional, esto es, una suerte de punto fijo sobre el que se definen todas y cada una de las funciones mentales.
Clark rechaza el supuesto de uniformidad que subyace en esta discusión: no tenemos motivos para pensar que todas las funciones mentales tengan que asentarse sobre el mismo tipo de arquitectura computacional. Al igual que es posible programar un determinado soporte computacional para que opere simulando el modo de funcionamiento de un soporte distinto, es posible que el hardware de la mente esté formado en ocasiones por un sistema PDP que simula un sistema simbólico. Esto no significa, como algunos proponen (por ejemplo, Smolensky, 1988), que lo simbólico sólo sea una descripción aproximada de un mecanismo causal genuinamente conexionista; más bien, lo simbólico podría constituir en ocasiones la descripción funcional correcta. Lo cierto es que no tiene por qué existir un solo tipo de relación entre ambos tipos de sistemas a lo largo de toda la mente. Es mejor concebir que existe una pluralidad de máquinas virtuales adaptadas para distintos propósitos en el curso de la evolución, máquinas que dejan traslucir sus propiedades en dominios de problemas diferentes.
La idea de la multiplicidad de la mente cobra nuevos giros en Estar ahí, especialmente en el énfasis en los procesos descentralizados. La imagen simbólica de la mente está a menudo asociada con la presencia de un sistema central que recibe y procesa la información de una variedad de sistemas periféricos. Por ejemplo, en la concepción modular de Fodor (1983) este procesador central llevaría a cabo la fijación de creencias atendiendo a toda la evidencia suministrada por los sistemas modulares de entrada, tales como la
20 ] Estar ahí
percepción visual o el lenguaje, para enviar la decisión adoptada a un sistema motor de salida encargado de ejecutar la orden en cuestión. Clark, sin embargo, muestra una abigarrada colección de ejemplos en que la figura del sistema central desaparece y la mente se multiplica a lo largo de un sistema de entidades individuales enfrascadas en una tarea común. Podemos ver descentralización tanto en las conductas colectivas de las sociedades de insectos, como en la estructura neuronal del sistema nervioso o en la organización de las funciones de un determinado grupo humano.
Descentralización no entraña desorganización: el medio en el que se desarrolla la conducta en cuestión impone una serie de restricciones que configuran el resultado final tanto como la dinámica interna de los agentes implicados. Si el conexionismo, al igual que los modelos clásicos, no puede fundamentar toda la cognición, los recursos de procesamiento de base estadística con que cuenta necesitan ser complementados y potenciados. Estar ahí examina los modos en que tanto la misma constitución corporal como la manera en que ésta se relaciona con un ambiente que posee su propia estructura y dinámica pueden proporcionar dicha complementariedad, en un delicado equilibrio de factores internos y externos.
Lo interno y lo externo: el caso de la sistematicidad
El desplazamiento desde una posición conexionista baria una visión que otorga mayor relieve al papel del cuerpo y el medio externo es en parte una consecuencia natural de las propias ventajas y debilidades de las redes neu- ronales artificiales. Podemos tomar como ejemplo una de las más arduas polémicas entre el cognitivismo clásico y el conexionismo: el argumento de la sistematicidad, desarrollado por Fodor y Pylyshyn (1988). Existe una relación intrínseca entre pensamientos como Juan ama a María y María ama a Juan, de modo que las mentes capaces de pensar el primero son así mismo capaces de pensar el segundo. Una propiedad como ésta puede explicarse si consideramos que el medio en que se desarrollan los pensamientos posee una estructura de constituyentes que corresponden a cada uno de los elementos identificables en el pensamiento correspondiente {Juan, ama y María). Estos constituyentes son combinables entre sí, de modo que el significado del compuesto viene determinado por el significado de los componentes más simples que intervienen. En otras palabras, la composicio- nalidad del lenguaje y el pensamiento sería un factor explicativo crucial para la sistematicidad.
El argumento de la sistematicidad se emplea contra el conexionismo aduciendo que los sistemas conexionistas no poseen estructura de constitu
Prólogo I 21
yentes, con lo cual no son capaces de explicar una propiedad omnipresente de lo mental. Pero lo que es más, de acuerdo con Fodor y Pylyshyn, poseer dicha estructura es, sumado a la presencia de procesos sensibles a ella, una característica que define a los sistemas clásicos. En consecuencia, si los co- nexionistas son capaces de dotar a sus sistemas de una estructura de constituyentes, lo máximo que habrán logrado es implementar un sistema clásico en una red neuronal artificial. Dicho de otro modo, la auténtica explicación psicológica seguiría siendo de naturaleza simbólica y el conexionismo sólo habría proporcionado el mecanismo, descrito a un nivel demasiado bajo para los propósitos de la ciencia cognitiva, en el que el sistema de símbolos se realiza. El conexionista se encuentra así ante un dilema: o bien sus modelos no son capaces de explicar la sistematicidad porque carecen de la estructura necesaria, o si lo hacen en realidad parasitan la explicación clásica.
Ante este dilema la reacción de algunos partidarios del conexionismo (por ejemplo, Smolensky, 1988) es desarrollar metodologías para dotar a las redes de constituyentes y mostrar al mismo tiempo que los sistemas obtenidos no son implementaciones de modelos clásicos. Estas propuestas han sido objeto de una larga disputa con los cognitivistas clásicos, disputa difícil de resolver por cuanto comporta cuestiones espinosas (por ejemplo, cuándo podemos decir que un sistema tiene una estructura de constituyentes o qué condiciones deben cumplirse para afirmar que un sistema realiza o imple- menta a otro). Otros (por ejemplo, van Gelder, 1990) desarrollan una noción de composicionalidad que no requiere la concatenación de símbolos, una composicionalidad funcional que podría responder a las necesidades de los procesos conexionistas.
En la posición adoptada por Clark, los intentos de emplear la sistematicidad como objeción contra el conexionismo son fútiles, puesto que la sistematicidad no es una propiedad de la arquitectura interna de la mente. Clark (1989, cap. 8) insiste en que el hecho empírico a explicar es la sistematicidad de la conducta, no la sistematicidad del pensamiento. Esta última propiedad hace referencia a un hecho conceptual. No se trata de que no podamos encontrar organismos que posean capacidades mentales no sistemáticas (en el sentido de que falte la conexión intrínseca reclamada por Fodor y Pylyshyn), sino que precisamente la ausencia de sistematicidad sería motivo suficiente para no atribuir mente a tales entidades. En otras palabras, forma parte de nuestro concepto de mente el hecho de que los pensamientos estén sistemáticamente relacionados. Clark no niega que las causas internas (es decir, computaciona- les) tengan relevancia constitutiva para el pensamiento, pero no ve la necesidad de que se preserve una correspondencia 1:1 entre pensamientos y estados computacionales. Ello se debe a que la individuación de los pensamientos depende de otros factores (las conductas) cuya influencia es holística.
22 I Estar ahí
La adscripción de un determinado pensamiento a un agente, apunta Clark, se hace en función de una amplia porción de la conducta del agente. Supongamos que un organismo es capaz de responder a una determinada relación entre dos objetos aRb (por ejemplo, a es más alto que b) pero no a bRa (por ejemplo, un animal al que fuera posible entrenar para que respondiera ante aRb, pero no ante bRa). De un hecho como éste no concluimos, argumenta Clark, que el organismo es capaz de pensar aRb e incapaz de pensar bRa, sino más bien que «su patente incapacidad de tener un espectro de pensamientos que involucren a a, b y la relación mayor-que debería frustrar el intento de adscribirle el pensamiento ‘a es mayor que b' en primera instancia». (1989, pág. 147).
En Associative Engittes, la sistematicidad va a ser contemplada más bien como una propiedad de determinados entornos. Se puede establecer un contraste entre «la sistematicidad como algo impuesto en una criatura por la forma básica de su arquitectura cognitiva y la sistematicidad como un rasgo de uno o más dominios (esto es, como algo a aprender por parte de una criatura a medida que intenta dar sentido a un conjunto de datos de entrenamiento)». (1993, pág. 148). En un entorno sistemático existen patrones recurrentes de estados de cosas, por ejemplo, individuos y propiedades asociados de maneras estables, que un mecanismo cuya capacidad básica es el reconocimiento de patrones puede llegar a aprehender. Un entorno sistemático por excelencia lo constituye el lenguaje. Su sugerencia, por tanto, es vincular las condiciones de aparición de la sistematicidad con las de la adquisición de un lenguaje público estructurado sintácticamente. Pero el problema es, a sus ojos, tan intratable que recomienda ponerlo entre paréntesis mientras se investigan ulteriores métodos de procesamiento sensible a la estructura.
La actividad de un organismo en su entorno pasa a un primerísimo plano en Estar a h í, no sólo para la adscripción de estados mentales sino como parte integrante de ellos. Desde el cognitivismo tradicional, la conducta constituye una de las fuentes (o la principal) de evidencia acerca de las propiedades y capacidades mentales. Pero lo mental propiamente dicho es algo que interviene entre los estímulos (la entrada o input, en términos de procesamiento de información) y las respuestas (la salida o output). A diferencia de esto, Clark va a proponer que la interacción cuerpo-mundo es constitutiva de la mente. Esta posición podría parecer a primera vista un retorno al conductismo de viejo cuño, para el cual no existe lo mental como elemento explicativo ni ontológicamente sólido, sino tan sólo cadenas de estímulos y respuestas observables. Pero la postura de Clark dista mucho de esta disolución de la mente que realiza el conductista. Muy al contrario, su intención es extender lo mental, de modo que podamos abandonar la idea de una esfera
desconectada de los avatares del cuerpo que realiza las acciones y del ambiente en que éstas se llevan a cabo.
Esta extensión puede interpretarse en dos fases o momentos. El primero tiene que ver con la metodología explicativa. Los constructos necesarios y suficientes en una explicación cognitiva abarcan mucho más que los estados internos del sistema a explicar. No solamente se trata de que estos estados nos sean ininteligibles e indetectables si no es desentrañando las condiciones externas en que la acción del sistema se lleva a cabo; se trata de que la explicación misma será radicalmente incompleta si no hacemos referencia a tales condiciones. Esta ¡dea se encuentra ya plenamente presente en Associative Engines y permite repensar desde la perspectiva conexionista una clase amplia de fenómenos mentales olvidados en buena medida por la ciencia cognitiva. Se trata de los fenómenos relacionados con el desenvolvimiento de la conducta en el tiempo, por ejemplo, todos aquellos implicados en el proceso de desarrollo y cambio conceptual. Los análisis de la ciencia cognitiva al uso (por ejemplo, Von Eckardt, 1993) dictaminan que su objeto de estudio típico es la cognición adulta, normal y típica. Los estudios del desarrollo de las funciones mentales tienen sólo una función secundaria, en la medida en que ayuden a esclarecer el funcionamiento de una mente formada. Una desafortunada consecuencia de este enfoque es la concepción de la mente como un estadio «a alcanzar», una suerte de horizonte ideal cuyas bases constitutivas es posible estudiar con independencia de su proceso de adquisición.
Los procesos de cambio en el tiempo forman, sin embargo, una parte consustancial del estudio de la mente para Clark. En estos procesos el ambiente interviene de una manera crucial. Una red neuronal no alcanza una solución con igual facilidad (o incluso no la alcanza en absoluto) a partir de distintos conjuntos de entrenamiento. La disposición y dosificación de la información a lo largo del aprendizaje puede ser crucial para que el sistema no se asiente inicialmente en soluciones erróneas de las que es muy difícil hacerle salir. Es preciso que la red discurra a través de una apropiada trayectoria representacional de modo que acceda a las representaciones básicas en primer lugar y aprenda las complejas una vez consolidadas las primeras. El mundo proporciona lo que Clark denomina el andamiaje de esas trayectorias, tema en el que Estar ah í va a ahondar. En otras palabras, el proceso de desarrollo adquiere un perfil que no se debe tanto a la naturaleza del mecanismo de procesamiento interno, como a la naturaleza y disposición de los datos con que se entrena al sistema. En la explicación de la sistematicidad deben figurar, por tanto, parámetros relativos a la arquitectura y parámetros relativos al proceso temporal de adquisición de propiedades del dominio. La sistematicidad de las capacidades es consecuencia de este proceso de apren dizaje.
Prólogo I 23
24 I Estar ahí
Los aspectos temporales desempeñan un papel destacado en Estar ahí, en un doble sentido. Primeramente, respecto a la necesidad de considerar las conductas de los sistemas en tiempo real para calibrar los recursos que son capaces de ofrecer respuestas eficientes rápidas; en segundo lugar, respecto al desarrollo de dichas conductas eficientes tanto desde el punto de vista evolutivo como ontogenético. Ello va a requerir nuevos instrumentos de análisis más apropiados para captar el despliegue de actividad en el tiempo. Uno de estos instrumentos es la teoría matemática de sistemas dinámicos, a la cual Clark presta detallada atención.
El segundo momento de esta extensión de lo mental va a ser ontológico, esto es, se refiere a la propia naturaleza de la mente e implica difuminar los confines que delimitan dónde acaba la mente y dónde comienza el entorno. Lo mental se extiende hacia los dominios en los que actúa, de modo que «gran parte de lo que identificamos como nuestras capacidades mentales en realidad pueden ser propiedades de los sistemas más amplios, y extendidos en el entorno, de los que los cerebros humanos mismos son sólo una parte {importante)» (1997, pág. 214; esta edición, pág. 255). En la concepción clásica, los estados mentales internos se relacionan con el mundo externo por medio de mecanismos de transducción, es decir, dispositivos que transforman la energía presente en un determinado medio (luz, sonido, etc.) en información manejable en un medio completamente distinto (por ejemplo, un sistema de símbolos). En expresión de Pylyshyn (1984), la transducción constituye «el puente entre lo físico y lo simbólico», o lo que es lo mismo, entre lo no mental y lo mental. Esto permite contemplar los fenómenos cog- nitivos como un coto cerrado que recibe información a partir de toda una serie de periféricos y que realiza sus acciones a través de diferentes efectores. Pero como señala Dennett (1996, pág. 74), la realidad biológica es que existen transductores y efectores prácticamente en cada esquina del organismo, en los niveles mismos de las sinapsis neuronales o de las secreciones químicas. La consecuencia es que lo externo y lo interno se entremezclan empezando por nuestro propio cuerpo.
Clark comparte esta idea de indisolubilidad de la unión entre mente y cuerpo, esto es, la idea de una mente esencialmente corporeizada (embodied). Esta mente corpórea se encuentra además encajada o embebida (embedded) en el mundo-en el que actúa. Las trayectorias representacionales, por tanto, no tienen su principio y fin dentro de la organización interna, sino que los mismos elementos del ambiente que proporcionan el andamiaje pueden verse como parte integrante de la trayectpria. La unidad de estudio, en consecuencia, ya no serán las transiciones de estado internas, sino que abarca las interacciones con el entorno, en las cuales dichas transiciones son un componente posiblemente mucho más pequeño que lo sospechado en el enfoque clásico.
Prólogo I 25
En resumidas cuentas, el caso de la sistematicidad muestra cómo cambiar la forma de un problema al reconceptualizar como externa una propiedad que inicialmente se atribuye a la arquitectura interna. Si la sistematicidad es una propiedad del dominio externo con el que interacciona un agente y lo mental se extiende hacia lo externo, entonces toda explicación de la sistematicidad debe incluir los procesos que se realizan en esa interacción entre agen te y entorno. Los requisitos de estructura de constituyentes y procesos sensibles a dicha estructura no tienen por qué demandar una arquitectura clásica dentro del agente, toda vez que podemos incluir estructuras del ambiente y procesos sensibles a dichas estructuras dentro de nuestras explicaciones cog- nitivas. Esto permite al conexionista esquivar el dilema de Fodor y Pylyshyn: la arquitectura cognitiva puede seguir siendo fundamentalmente un sistema PDP siempre y cuando podamos explicar los procesos de interacción que permiten que un sistema de reconocimiento de patrones explote la estructura sistemática que el mundo le proporciona.
Para los detractores del enfoque conexionista, éste puede parecer un caso paradigmático de cómo hacer de la necesidad virtud, puesto que es la propia carencia de la estructura interna necesaria en las redes neuronales lo que empuja al teórico a buscar una solución (descabellada, para el clásico) extendida en el entorno. Probablemente, como el mismo Clark señala, no sea posible solucionar la disputa en ausencia de ulteriores trabajos empíricos, trabajos que muestren si es posible o no dar cuenta de funciones mentales complejas partiendo de un dispositivo básico de reconocimiento de patrones y un ambiente estructurado. Pero el mensaje de fondo es claro: independientemente de la forma que la arquitectura de la mente acabe por tener, es bien posible que debamos aligerar el tipo de representaciones internas que el organismo precisa.
Representación sin textos
El desarrollo de la inteligencia artificial (IA) se puede organizar en tomo a tres grandes debates (Franklin, 1995). El primero tendría que ver con la posibilidad misma de existencia de la disciplina, esto es, de la validez tanto de la metáfora del ordenador como de los supuestos filosóficos y metodológicos de la IA para proporcionar una comprensión satisfactoria de los fenómenos mentales. El segundo debate sería la polémica simbólico-conexionis- ta. El tercer debate se centraría en la cuestión de las representaciones y en él se ven inmersas tanto la IA como la ciencia cognitiva en general. Aunque no puede decirse que los dos primeros debates se hayan disipado por completo ni tampoco que ninguno de ellos haya alcanzado una solución satisfactoria,
26 I Estar ahí
el más acuciante en el momento presente es el debate sobre la representación.
Es un tema común de la filosofía de la mente hablar de la intencionalidad como una de las propiedades cruciales de los fenómenos mentales. Estados tales como percepciones, creencias o deseos tienen la característica de estar «dirigidos hacia», de tener un contenido que se refiere a algún otro aspecto de la realidad o incluso a lo inexistente. Si veo un gato, creo que mañana será martes o deseo que vengan los Reyes Magos, mis estados mentales apuntan hacia objetos y estados de cosas que son el objeto de mis pensamientos. Es un problema filosófico y cognitivo de primer orden elucidar cómo es posible que lo mental exhiba esta propiedad. La representación constituye el moderno ensayo de una solución a este problema. Aunque hay muchas nociones de representación, podemos decir que en términos generales implica la idea de una entidad que sustituye o «está pOD> otra, a la cual se refiere o denota. La idea de representación resulta más clara en los sistemas de representación externos, como las palabras y los dibujos, así que no es extraño que las teorías acerca de la representación interna hayan tomado a menudo como modelo esos otros sistemas.
Desde la aparición de E l lenguaje del pensamiento (Fodor, 1975) la teoría representacional de la mente se ha presentado como «el único juego en la ciudad». Los argumentos a favor de las representaciones estructuradas como elemento explicativo ineludible de los fenómenos cogniti- vos siempre han añadido como colofón la coletilla «({alguien tiene algo mejor?». En consecuencia, el rechazo categórico a las representaciones tiene un aire de bravata, de mera estratagema por parte del aparato de propaganda de unos científicos deseosos de llamar la atención sobre su trabajo pero que «en el fondo» saben que el estudio de la mente no puede prescindir de ellas en casi todos los ámbitos de interés. El empleo de nuevas herramientas descriptivas no ligadas al vocabulario representacional, como las de la teoría de sistemas dinámicos, puede funcionar para una gama de fenómenos de bajo nivel, como deambular o evitar obstáculos. Pero cuando se trata de dar cuenta de las capacidades del sistema que responden a las propiedades semánticas del entorno, las representaciones se hacen ineludibles. Así, cuando se trata de que el sistema distinga ‘pared’ como algo bien distinto de ‘suelo’, y no como un mero conjunto de estímulos ante los que reaccionar, nos enfrentamos al problema de dotar al agente de una estructura conceptual. Uno de los aspectos claves de la IA clásica consiste en elegir la conceptualización adecuada para la resolución del problema dentro de un dominio determinado. Esto supone desarrollar el tipo de representación más acorde para representar los aspectos esenciales de dicho dominio.
Prólogo I 27
La crítica de muchos partidarios del enfoque dinámico es que las con- ceptualizaciones intentan resolver el problema abarrotando los modelos mentales de detalles del mundo que no requieren ser representados. El clásico malgasta recursos computacionales en dotar a su sistema de una fuerza expresiva (por ejemplo, por medio de lógicas cada vez más potentes) que es en el mejor de los casos innecesaria y, en el peor, un auténtico obstáculo en la resolución de problemas. En consecuencia, es preferible abandonar la noción de representación y sustituirla por la de un sistema acoplado con el mundo, que toma de éste los elementos necesarios en el momento en que los precisa, sin necesidad de representarlos internamente.
El problema es cómo mantener la idea de representación recogiendo a un tiempo lo que tienen de cierto las críticas dinámicas. En Associative En- gines Clark no duda de que cualquier inteligencia que merezca la pena va a requerir el concurso de lo conceptual, pero descarta la visión clásica de los conceptos como «sólidos mentales» (1993, cap. 1} que se transparentan desde las entidades que identificamos en el habla ordinaria hasta los estados internos responsables causalmente de nuestros pensamientos y acciones. En su lugar, los conceptos podrían tener un carácter mucho más activo, relacionado con la capacidad de poner en práctica diversas habilidades. Poseer y emplear un concepto podría ser en el fondo una acción de reconocer o completar un patrón y la naturaleza exacta del proceso computacional que subyace en este reconocimiento no tiene por qué mantenerse invariable a lo largo de todas las apariciones del concepto. De hecho, el propio carácter inestable de los conceptos desaconseja este postulado. El rechazo de la solidificación de los conceptos es congruente con críticas desde dentro de la IA, que sugieren que la división tradicional entre percepción y cognición es insostenible para poder hablar de conceptos fluidos (por ejemplo, Hofstadter y otros, 1995).
El antirrepresentacionalista yerra el tiro porque apunta al blanco equivocado. Como señala Cummins (1989), es posible distinguir entre el problema de la representación y el problema de las representaciones. El primero hace referencia a qué es lo que hace que representar sea posible, cuál es la fuente de la representacionalidad, y el segundo a qué caracterización presentan los estados y procesos representacionales. La solución de Clark puede entenderse como una reorientación de los ataques del andrrepresentacio- nalismo desde el primero al segundo problema. Lo que los críticos esgrimen como un ataque frontal contra la noción misma de representación resulta ser, si lo observamos bien, un ataque contra las representaciones, esto es, contra una de las respuestas ofrecidas a la pregunta por la naturaleza de esos correlatos mentales de la realidad: una respuesta creada a imagen y semejanza de los textos lingüísticos, cuyas representaciones exhiben propiedades de
28 I Estar ahí
tipo lógico-sintáctico. Si en Assoáative Engtnes Clark propone sustituir la imagen clásica de la mente como texto por la imagen de la mente como procero, en Estar ah iva a permitir que ese proceso abarque más que los sucesos con base cerebral, permitiendo al teórico dinámico entrar en el juego explicativo. No obstante, el texto no desaparece del todo: el lenguaje público proporciona a la mente todos los recursos textuales que necesita un dispositivo de reconocimiento de patrones. No es preciso moldear las características computacionales de éste en términos cuasiíingüísticos, puesto que el mismo lenguaje es capaz de adaptarse de modo inverso a un mecanismo que fue seleccionado por demandas ambientales bien distintas.
Conclusión: ¿un nuevo paradigma?
Desde que el filósofo Thomas Kuhn caracterizara el desarrollo de una ciencia en términos de paradigmas, marcos normativos que se constituyen en un proceso histórico y que pueden desaparecer tras un proceso de ciencia re volucionaria, da la impresión de que el sueño de todo científico cognitivo que tiene entre sus manos alguna nueva herramienta o teoría es el de convertirla en la base de un nuevo paradigma para el estudio de la mente. Una idea tentadora, por tanto, es calificar la imagen de la mente corpórea y embebida como un nuevo paradigma. Sin embargo, una de las lecciones, a mi entender, del trabajo de Clark es que no debemos apresurarnos a rechazar el bagaje conceptual con el que contamos antes de considerar las posibilidades de una revisión menos traumática.
La visión de la ciencia cognitiva que Clark presenta en Estar ahí puede calificarse, al igual que su trabajo sobre el conexionismo, de «razonadamente ecléctica». No es el de Clark el único enfoque que conjuga una perspectiva favorable a los mecanismos conexionistas con una lectura desde la teoría de sistemas dinámicos (tal es, por ejemplo, la visión de Horgan y Tienson [1996], para quienes las matemáticas de los sistemas dinámicos constituyen un marco que engloba el computacionalismo tradicional como un caso especial). Ni es tampoco el único en intentar tender puentes entre disciplinas que trabajan en distintos niveles (como es el caso de Hardcastle [1996], que desarrolla yna idea de teoría cognitiva que cruza desde lo biológico hasta lo psicológico). Pero el rango de dominios empíricos que recorre y el esfuerzo integrador de todos ellos en una visión coherente es de mayor calado. La ciencia cognitiva es una amalgama de disciplinas que se disputan el papel vertebrador y Clark está dispuesto a admitir un heterogéneo cúmulo de trabajos como parte integrante del estudio de la mente, no sólo como investigaciones situadas en los márgenes de la tradición dominante y conspirando
Prólogo I 29
contra ésta. Una de las riquezas de Estar ahí es e! modo en que dirige nuestra atención hacia pautas generales y motivos básicos que aparecen de modo recurrente en los ámbitos y niveles más insospechados. Así, podemos presenciar la influencia de las restricciones impuestas por la disposición parti cular del ambiente tanto si este ambiente consiste en un nicho ecológico, en un entramado de leyes económicas o en la presencia perenne del lenguaje.
Confieso que mis propias intuiciones divergen respecto a algunas de las consecuencias que se desprenden de esta visión de la mente. Por ejemplo, la imagen del lenguaje como sistema representacional externo sometido a una adaptación inversa a los recursos computacionales de la mente parece desconectar en demasía los productos lingüísticos de los propios organismos productores, desatendiendo las características de organización interna que permiten que una mente cree un lenguaje en primer lugar. Igualmente, mientras como metáfora me parece sugerente la concepción de una mente que se filtra y extiende hacia el entorno próximo, como tesis ontológica me resulta difícil de aceptar. Pero son tantas las intuiciones ordinarias que la moderna ciencia de la mente ha hecho añicos, que no parece conveniente rechazar incluso estas conjeturas aparentemente extemporáneas sin someterlas primero al mas severo escrutinio, tanto en sus aspectos conceptuales como empíricos.
Los conceptos clave de este libro también exigen un esfuerzo de acomodación por parte del lector acostumbrado al punto de vista de la ciencia cog- nitiva más clásica. Le solicita que abandone su propia actitud mental centra- lizadora de buscar en alguna parte del libro la explicación o el conjunto de elegantes ecuaciones definitivas que da sentido a la totalidad; que sea paciente mientras ve emerger entre la barabúnda de insectos artificiales y mundos simulados un patrón común que sus dispositivos de reconocimiento deben ir entrenándose para captar; y que adapte su propia mirada al ritmo de la dinámica interna de la ciencia cognitiva que, como cualquier otro sistema vivo, también se desarrolla en el tiempo y obedece a la interacción de una miríada de mentes activas y mundos (reales y simulados) estructurados.
Referencias
Clark, A., Microcognilion: Philosophy, CognitiveScience and Parallel Distributed Processing, Cambridge, MA: MIT Press, 1989.
Clark, A., Associative Engines: Conncctionism, Concep/s and Representational Changa, Cambridge, MA: MIT Press, 1993.
Clark, A., Being There; Putting Brain, Body, and World Togelher Again, Cambridge, MA: MIT Press, 1997.
Cummins, R., Meaning and Mental Representalion, Cambridge, MA: MIT Press, 1989.
30 1 Estar ahí
Dennett, D. C., Kittdsof Minds, Nueva York, Basic Books, 1996.Fodor, J. A., The Language o f Thought, Nueva York, Crowell, 1975 (trac!. cast.:E/
lenguaje del pensamiento, Madrid, Alianza, 1984)Fodor, J. A., The Modularity o f Miad, Cambridge, MA: Bradford/MIT Press, 1983
(trad. cast.:L/ modularidadde la mente, Madrid, Morata, 1986).Fodor, J. A. & Pylyshyn, Z. \V„ «Connectionism and Cognitive Architecture: A Cri-
tical Analysis», Cognition, 28, 1988, págs. 3-71.Franklin, S., Artificial Minds, Cambridge, MA: Bradford/MIT Press, 1995.Gardner, H., The Mind's New Science, Nueva York, Basic Books, 1985 (trad. cast.:Lt
nueva ciencia de la mente Barcelona, Paidós, 1988).Hardcastle, V. G., How to Build a Theory in Cognitive Science, Albany, Nueva York,
State University of New York Press, 1996.Hofstadter, D. and the Fluid Analogies Research Group, Fluid Concepts and Creati
ve Analogies, Nueva York, Basic Books, 1995.Horgan, T. & Ticnson, J., Connectionism and the Phtlosophy o f Psychology, Cam
bridge, MA: MIT Press,1996.Pylyshyn, Z. W., Computation and Cognition Cambridge, MA: Bradford/MIT Press,
1984 (trad. cast.: Computación y conocimiento, Madrid, Debate, 1988).Smolensky, P., «On the Proper Treatment of Connectionism», Behavioral and Brain
Sciences, 11 ,1988, págs. 1-23.Van Gelder, T„ «Compositionality: A Connectionist Variation on a Classical The-
me», Cognitive Science, 14, 1990, págs. 355-384.Von Eckardt, B., What Is Cognitive Science '■>, Cambridge, MA: MIT Press, 1993.
Prefacio
Pensar a fondo o actuar con fluidez
Si tuviera el lector que construir un agente inteligente, ¿por dónde empezaría? ¿Qué cree que es ese algo especial que separa el mundo no pensante de las rocas, las cascadas y los volcanes, de los reinos de la inteligencia sensible? ¿Qué es lo que permite que algunas partes del orden natural sobrevivan percibiendo y actuando, mientras el resto se queda al margen, inerte y sin pensamiento?
«Mente», «intelecto», «ideas»: éstos son los elementos que marcan la diferencia. Pero, ¿cómo los debemos entender? Estas palabras evocan reinos nebulosos. Hablamos de «intelecto puro» y decimos del sabio que está «sumido en el pensamiento». Nos cuesta muy poco dejarmos seducir por la visión de Descartes de la mente como una esfera totalmente distinta de los reinos del cuerpo y el mundo.1 Una esfera cuya esencia no debe nada a los accidentes del cuerpo y del entorno: el famoso (en lo bueno y en lo malo) «fantasma en la máquina».1 2
Esta extrema oposición entre mente y materia ya hace tiempo que ha sido abandonada. En su lugar nos encontramos con una amplia coalición de ciencias de la mente cuya meta común es llegar a comprender cómo es materialmente posible el pensamiento mismo. Esta coalición recibe el nombre de ciencia cogniíiva y durante más de treinta años los modelos computacionales de la mente han estado entre sus instrumentos más importantes. Teorizando
1. Descartes describió la mente como una sustancia inmaterial que se comunicaba con el cuerpo mediante la interfaz de la glándula pineal. Véanse, por ejemplo, Meditations II y IV en The Philosophical Works o f Descartes, Cambridge University Press, 1991 (trad. cast.: Meditaciones metafísicas, Madrid, Alfaguara, 1997).
2. Véase Gilbert Ryle, The Coneept o/Mmd, Hutdiinson, 1949 (trad. cast.: El concepto de lo mental, Buenos Aires, Paidós, 1967).
32 I Estar ahi
en el vértice entre la ciencia ficción y la ingeniería pura y dura, las personas que trabajan en un subcampo conocido como inteligencia artificial (IA)’ han tratado de dar un cuerpo computational a las ideas sobre cómo puede surgir la mente a partir del funcionamiento de una máquina física que, en nuestro caso, es el cerebro. Como dijo Aaron Sloman en una ocasión, «Todo fantasma inteligente debe contener una máquina».3 4 5 Según parece, el cerebro humano es el puntal mecanicista de la mente humana. Cuando la evolución produjo cerebros complejos, cuerpos móviles y sistemas nerviosos, abrió la puerta (por medios puramente físicos) a maneras totalmente nuevas de vivir y de adaptarse, maneras que nos colocan en un lado de una línea divisoria natural, dejando en el otro a los volcanes, las cascadas y el resto de la creación cognitivamente inerte.
Pero, a pesar de todo, persiste una versión de la antigua oposición entre mente y materia. Persiste en la manera en que estudiamos el cerebro y la mente, excluyendo como «periféricos» los papeles desempeñados por el resto del cuerpo y el entorno local. Persiste en la tradición de modelar la inteligencia como la producción de soluciones codificadas simbólicamente a problemas expresados mediante símbolos. Persiste en la falta de atención a las maneras en que el cuerpo y el entorno local forman parte, literalmente, de los bucles de procesamiento que ocasionan la acción inteligente. Y persiste en la elección de los dominios de problemas: por ejemplo, modelamos el juego del ajedrez mediante programas como Deep Thought1 cuando aún no hemos podido conseguir que un robot real atraviese con éxito una sala abarrotada y seguimos sin poder modelar completamente el éxito adaptativo de una cucaracha.
En el contexto natural del cuerpo y el mundo, las maneras en que los ce rebros resuelven problemas se transforman radicalmente. No se trata de una cuestión filosófica profunda (aunque tiene profundas consecuencias). Es una cuestión práctica. Jim Nevíns, que trabaja en una planta de montaje controlada por ordenador, cita un buen ejemplo. Ante el problema de conseguir que una máquina controlada por ordenador ensamble unos componentes con extrema precisión, una solución consiste en explotar múltiples bucles de
3. La inteligencia artificial estudia cómo hacer que los ordenadores realicen tareas para las que se considera que hace falta inteligencia, conocimiento o comprensión.
4. Sloman, «Notes on consciousness». /USB Quarterly 72 (1990), págs. 8-14.5. Deep Thought (‘Pensamiento Profundo’) es un programa de ajedrez que juega al nivel de
gran maestro. Se basa en una búsqueda exhaustiva que examina cerca de un millardo de movimientos posibles por segundo. En cambio, los expertos humanos en ajedrez parecen emplear me nos la búsqueda y basarse más en estilos de razonamiento muy diferentes; véase, por ejemplo, H. Simón and K. Gilmartin, «A simulation of memory for chess positions», Cognitive Psycbology 5 (1973), págs. 29-46.
Prefacio I 33
retroalímentación. Estos bucles pueden decir al ordenador si ha fracasado en el ajuste para que lo intente otra vez con una orientación ligeramente diferente. Esta es, si se quiere, la solución formulada mediante «pensamiento puro». La solución basada en el «pensamiento corpóreo» es bastante diferente. Basta con armar los brazos de la máquina de montaje con articulaciones de goma, permitiendo que cedan a lo largo de dos ejes espaciales. Una vez hecho esto, el ordenador puede prescindir de los detallados bucles de re- troalimentación ya que las piezas «se mueven y deslizan hasta su lugar como si se estuvieran calculando continuamente millones de minúsculos ajustes de retroalímentación hacia un sistema rígido».* En esencia, todo esto significa que tratar la cognición como una pura resolución de problemas equivale a separarnos del mismísimo cuerpo y el mismísimo mundo en los que nuestros cerebros han evolucionado para guiarnos.
¿No sería más fructífero pensar en los cerebros como controladores de la actividad corpórea? Este pequeño cambio de perspectiva tiene grandes consecuencias para nuestra manera de construir una ciencia de la mente. De hecho, exige una reforma radical de nuestra manera de concebir la conducta inteligente. Nos exige abandonar la idea (común desde Descartes) de lo mental como una esfera distinta del ámbito del cuerpo; abandonar la idea de unas limpias líneas divisorias entre percepción, cognición y acción;6 7 abandonar la ¡dea de un centro ejecutivo donde el cerebro lleva a cabo el razonamiento de alto nivel;8 y, sobre todo, abandonar los métodos de investigación que separan artificialmente el pensamiento de la actuación corpórea.
Lo que emerge es nada menos que una nueva ciencia de la mente; una ciencia que, por cierto, se basa en los frutos de tres décadas de investigación en colaboración, pero cuyos instrumentos y modelos son sorprendentemente diferentes: una ciencia cognitiva de la mente corpórea. Este libro da testimonio de esta ciencia. Describe parte de sus orígenes, expone su sabor y hace frente a algunos de sus problemas. Seguramente no será la última ciencia nueva de la mente. Pero es un paso más en ese viaje tan fascinante de la mente en su intento de conocerse a sí misma y de comprender cuál es su lugar en la naturaleza.
6. Este ejemplo se cita en Michie yjohnson, 198-1 y se comunica en Clark, 1989. El pasaje en sí procede de la pág. 95 de Michic yjohnson.
7. La expresión existente más clara de este punto de vista es probablemente el «marco de enacción» desarrollado en Varela y otros, 1991
8. Véase especialmente Dcnnctt, 1991
Bases
Estar ahí no ha surgido de la nada. La imagen de la mente unida inextricablemente a cuerpo, mundo y acción, ya visible en Being and Time de Martin Heidegger (1927), encuentra una clara expresión en Structure ofbe- havior, de Maurice Merleau-Ponty (1942). Algunos de los temas fundamentales están presentes en el trabajo de los psicólogos soviéticos, especialmente de Lev Vygotsky; otros deben mucho al trabajo de Jean Piaget sobre el papel de la acción en el desarrollo cognitivo. Entre las discusiones previas en la literatura de la ciencia cognitiva, destacan por su importancia e influencia Maturana y Vareta, 1987, Winograd y Flores, 1986 y, especialmente, The Embodied Mind (Varela y otros, 1991). The Embodied Mind se encuentra directamente en las raíces de varias de las tendencias identificadas y estudiadas en esta obra.
Creo que mi propio contacto con estas tendencias empezó con la obra de Hubert Dreyfus What Computen Can't Do, publicada en 1979. El persistente acoso de Dreyfus a la inteligencia artificial clásica contribuyó a motivar mis propias exploraciones de modelos computadonales alternativos {los enfoques del conexionismo o del procesamiento distribuido en paralelo; véanse Clark, 1989 y Clark, 1993) y a consolidar mi interés en imágenes biológicamente plausibles de la mente y la cognición. Di mis primeros pasos en 1987 con un breve artículo también titulado (y no por coincidencia) «Being There» [Estar ahí], donde el tema explícito de la discusión era la cognición corpórea y embebida en el entorno. Desde entonces, el conexionismo, la neurociencia y la robótíca en mundo real han hecho unos grandes progresos. Y aquí, especialmente en la explosión de la investigación en la robótica y en la denominada vida artificial (véanse, por ejemplo, los artículos de Brooks y Maes, 1994), encontramos por fin el impulso más inmediato de la presente discusión. Por fin (me parece a mí) aparece una imagen más redonda, con-
36 I Estar ahi
víncente e integradora, que reúne muchos de los elementos de las discusiones previas en un marco de referencia rico en ilustraciones prácticas y ejem píos concretos. Esta imagen, más amplia e integradora, es la que aquí me propongo exponer y examinar.
La postura que desarrollo debe mucho a varios autores y amigos. Sin duda alguna, en el primer lugar de la lista se encuentran Paul Churchland y Dan Dennett, cuyas reconstrucciones cuidadosas y al mismo tiempo imaginativas de la mente y la cognición han sido la inspiración constante que subyace a todo mi trabajo. Más recientemente, he aprendido mucho en mis interacciones y conversaciones con los especialistas en robótica Rodney Brooks, Randall Beer, Tim Smithers y John Hallam. También me han informado, entusiasmado y desafiado varios fans de la teoría de los sistemas dinámicos, en particular Tim van Gelder, Linda Smith, Esther Thelen y Michael Wheeíer. Además, hay varios miembros del Sussex University Evolutionary Robotics Group que me han inspirado, enfurecido y siempre fascinado, especialmente Dave Cliff e Inman Harvey.
Un agradecimiento muy especial a Bill Bechtel, Morten Christiansen, David Chalmers, Keith Butler, Rick Grush, Tim Lañe, Pete Mandik, Rob Stufflebeam y a todos mis amigos, colegas y estudiantes del programa PNP (Philosophy/Neuroscience/Psychology) de la Universidad de Washington en St. Louis. También aquí tuve la buena fortuna de conocer a Dave Hilditch, cuyos pacientes intentos de integrar las visiones de Merleau Ponty con la ciencia cognitiva contemporánea fueron fuente de alegría e inspiración. Gracias también a Roger Gibson, Larry May, Marilyn Friedman y Mark Rollins, así como a todos los miembros del Departamento de Filosofía de la Universidad de Washington por su inestimable ayuda, apoyo y crítica.
David van Essen, Charlie Anderson y Tom Thach, de la Escuela Médica de la Universidad de Washington, merecen un agradecimiento especial por introducirme en el funcionamiento de la auténtica neurociencía, aunque precisamente aquí la expresión de mi agradecimiento no debe implicar culpa alguna por cualquier vestigio de error o malentendido. Doug North, Art Den- zau, Norman Schofield y John Drobak hicieron mucho por aligerar y alentar la breve incursión en la teoría económica que aparece en el capítulo 9: gracias también a los miembros del Hoover Institute Seminar on Collective Choice de la Universidad de Stanford. No debería olvidarme de mi gato, Lolo, que mantenía las cosas en su verdadera dimensión sentándose sobre muchas versiones del manuscrito, ni del Santa Fe Institute, que me ofreció tiempo de investigación y Reacciones críticas básica en varios momentos cruciales: gracias especialmente a David Lañe, Brian Arthur, Chris Langton y Melanie Mitchell por hacer que mis diversas estancias allí fueran tan productivas. Gracias también a Paul Bethge, Jerry Weinstein, Betty Stanton y al
Bases I 37
resto del personal de The MIT Press: vuestro apoyo, consejo y entusiasmo me han ayudado enormemente. Beth Stufflebeam me proporcionó una fantástica ayuda durante la preparación del manuscrito. Y Josefa Toribio, mi esposa y colega, me ha ofrecido una combinación perfecta de crítica, apoyo e inspiración. Mi más sincero agradecimiento a todos.
Introducción:un automóvil con cerebro de cucaracha
¿Dónde están las mentes artificiales prometidas por la ciencia ficción de los años cincuenta y el periodismo científico de los sesenta? ¿Por qué incluso nuestros mejores artefactos «inteligentes» son aún tan insoportable y mortalmente tontos? Una posibilidad es que, sencillamente, hemos malin- terpretado la naturaleza de la inteligencia misma. Concebíamos la mente como una especie de dispositivo de razonamiento lógico asociado a un almacén de datos explícitos: una especie de combinación entre una máquina lógica y un archivador. Al adoptar esta perspectiva, desatendíamos el hecho de que las mentes han evolucionado para hacer que ocurran cosas. Desatendíamos el hecho de que la mente biológica es, antes que nada, un órgano para controlar el cuerpo biológico. Las mentes hacen movimientos y los deben hacer con rapidez: antes de que el depredador nos pille o de que nuestra presa consiga escapar. Las mentes no son dispositivos incorpóreos de razonamiento lógico,
Este simple cambio de perspectiva ha generado algunos de los trabajos más apasionantes e innovadores en el estudio contemporáneo de la mente. La investigación de modelos computacionales basados en «redes neurona- íes» ha empezado a desarrollar una visión radicalmente diferente de la estructura computacional de la mente. La investigación en la neurociencia cog- nitiva ha empezado a sacar a la luz las maneras, siempre sorprendentes, con que los cerebros reales emplean sus recursos neuronales y sinápticos para resolver problemas. Y una oleada creciente de trabajos sobre robótica simple y en mundo real (por ejemplo, conseguir que una cucaracha robot camine, busque alimento y evite peligros) nos enseña cómo pueden los seres biológicos llevar a cabo en el mundo real las acciones rápidas y fluidas necesarias para la supervivencia. Donde convergen estas investigaciones vislumbramos una nueva visión de la naturaleza de la cognición biológica: una visión que
40 I Estar ahí
coloca el almacenamiento de datos explícitos y la manipulación lógica en su lugar, es decir, como complemento secundario de la dinámica y los complejos bucles de respuesta que unen entre sí cerebros, cuerpos y entornos reales. Al parecer, la cognición natural no tiene tiempo (literalmente) para archivadores.
Naturalmente, no todo el mundo está de acuerdo. Un ejemplo extremo del punto de vista opuesto es un reciente intento de inculcar el sentido común a un ordenador, previa inversión de 50 millones de dólares, dándole una inmensa colección de conocimientos explícitos. Este proyecto, conocido como CYC (abreviatura de encyclopedia), pretende construir manualmente una vasta base de conocimientos que abarque una parte importante del conocimiento general que tiene a su disposición un ser humano adulto. Iniciado en 1984, el proyecto CYC se propuso llegar a codificar cerca de un millón de unidades de conocimiento hacia 1994. Para introducir los datos de este proyecto, una sola persona tardaría dos siglos. Se esperaba que al final de este proceso CYC daría «el gran salto»: llegaría a un punto en el que podría leer y asimilar directamente textos escritos y, a partir de ahí, «autopro- graman> el resto de su base de conocimientos.
Desde mi punto de vista, el aspecto más notable del proyecto CYC es su fe extrema en el poder de la representación simbólica explícita: su fe en la interiorización de estructuras construidas a imagen de las cadenas de palabras de un lenguaje público. El lenguaje de representación del proyecto CYC codifica la información en unidades (marcos) como la siguiente:
MissouriCapital: (Jefferson City)Residentes: (Andy, Pepa, Beth)Estado de: (Estados Unidos de América)
Aunque este ejemplo está simplificado, la estructura básica siempre es la misma. La unidad tiene «descripciones» «ranuras» (los tres subtítulos de arriba) y cada ranura tiene como valor una lista de entidades. Las ranuras pueden hacer referencia a otras unidades (por ejemplo, la ranura «Residentes» puede actuar como un puntero hacia otra unidad que contenga más información y así sucesivamente). Este sistema de unidades y ranuras está aumentado por un lenguaje más potente (el lenguaje de restricción CycL, [CYC Constraint langtiage]) que permite la expresión de relaciones lógicas más complejas como «Para, todo elemento, si un elemento es X entonces tiene la propiedad Y». El razonamiento de CYC también puede explotar varios tipos simples de inferencia. Sin embargo, la idea básica es dejar que el conocimiento codificado haga casi todo el trabajo y mantener la estructura de in
Introducción: un automóvil con cerebro de cucaracha I 41
ferencia y control simple y dentro de los límites de la tecnología actual. Los creadores de CYC, Douglas Lenat y Edward Feigenbaum (1992, pág. 192), argumentan que el embudo para la inteligencia adaptativa es el conocimiento, no la inferencia o el control.
La base de conocimientos de CYC intenta hacer explícito todo lo que sabemos de nuestro mundo pero que normalmente no nos molestamos en decir. Por tanto, CYC se propone codificar unidades de conocimiento que todos tenemos pero que rara vez enumeramos, como las siguientes (ibíd., pág. 197):
La mayoría de los automóviles de hoy circulan sobre cuatro ruedas.Si nos dormimos mientras conducimos, nuestro automóvil no tardará mucho
en salirse de la calzada.Si hay algo grande entre nosotros y lo que queremos, probablemente debe
remos rodearlo.
La idea es que, después de haber codificado explícitamente una gran parte de este «conocimiento consensuado de la realidad», CYC llegará a un nivel de comprensión que le permitirá responder con una inteligencia ge- nuina. Incluso se espera que CYC emplee el razonamiento analógico para abordar con buen criterio situaciones novedosas, encontrando paralelismos parciales en otras partes de su inmensa base de conocimientos.
CYC es un proyecto ambicioso e importante. Sin duda, la base de datos de sentido común que ahora codifica será de gran utilidad práctica como recurso para el desarrollo de mejores sistemas expertos. Pero deberíamos distinguir dos objetivos posibles para CYC. Uno sería ofrecer el mejor simulacro posible del sentido común mediante un sistema informático fundamentalmente no pensante. El otro sería crear, a partir del fondo de conocimientos de CYC, el primer ejemplo de una mente artificial genuina.
Hasta la fecha, en el rendimiento de CYC no hay nada que indique que el segundo objetivo esté al caer. CYC parece destinado a convertirse en un «sistema experto» más grande y más elaborado, pero todavía esencialmente frágil y falto de entendimiento. Y el hecho de añadir más y más conocimientos a CYC no será una solución. La razón es que CYC carece de los tipos más básicos de respuestas de adaptación al entorno. Esta deficiencia no tiene nada que ver con la relativa escasez de los conocimientos que el sistema codifica explícitamente. Más bien es atribuible a la falta de un acoplamiento fluido entre el sistema y un entorno real que plantee problemas reales de acción y sensación. Como veremos, incluso la humilde cucaracha manifiesta este tipo de acoplamiento fluido: una versión del tipo de inteligencia práctica, sólida y flexible de la que carecen casi todos los sistemas informáticos. ¡Pero un ser tan sencillo mal puede ser acusado de contar con
42 I Estar ahí
un gran almacén de conocimientos representados explícitamente! Por tanto, el proyecto CYC, entendido como un intento de crear una comprensión y una inteligencia genuinas en una máquina, falla por su base de una manera rotunda y total. Las raíces de la inteligencia y la comprensión no se encuentran en la presencia y la manipulación de estructuras de datos explícitas y de tipo lingüístico, sino en algo más terrenal: el ajuste de respuestas básicas a un mundo real que permite a un organismo corpóreo sentir, actuar y sobrevivir.
Este diagnóstico no es nuevo. Importantes críticos filosóficos de la inteligencia artificial han puesto en duda durante mucho tiempo el intento de in ducir la inteligencia por medio de la manipulación incorpórea de símbolos y también han insistido en la importancia de! razonamiento situado (es decir, del razonamiento llevado a cabo por seres corpóreos que actúan en un entorno físico real). Pero ha sido demasiado fácil atribuir estas incertidumbres a algún tipo de misticismo residual, a una fe carente de rigor científico en una esencia mental parecida al alma, o a un rechazo testarudo a permitir que la ciencia entre sin autorización en el terreno favorito de los filósofos. Pero ahora, cada vez es más evidente que la alternativa a la visión centrada en la «manipulación incorpórea de datos explícitos» de la inteligencia artificial no es apartarse de la ciencia pura y dura; es profundizar en una ciencia más dura todavía. Es colocar la inteligencia en el lugar que le corresponde: en el acoplamiento entre los organismos y el mundo que se encuentra en la raíz de la acción fluida cotidiana. Del CYC al ciclismo: así es el giro radical que caracteriza a las nuevas ciencias de la mente corpórea.
Consideremos, por ejemplo, a la humilde cucaracha. La cucaracha es depositaría de un considerable corpas de conocimientos sobre el sentido común de las cucarachas. ¡Por lo menos, así es como debe aparecer ante cualquier teórico que piense que el conocimiento explícito es la clave para un comportamiento sensato en el mundo real! Porque la cucaracha es una formidable artista del escapismo, capaz de emprender una acción de huida forjada por una multitud de factores externos e internos. He aquí una breve lista, extraída del detallado estudio de Ritzmann (1993) sobre las habilidades de evasión de la cucaracha americana, Periplaneta americana:
La cucaracha siente las corrientes de aire provocadas por el movimiento de un depredador que ataca.
Distingue las corrientes producidas por los depredadores de las corrientes y brisas normales.
No evita el contacto con otras cucarachas.Cuando inicia un movimiento de huida, no corre simplemente al azar. En
cambio, tiene en cuenta su propia orientación inicial, la presencia de obstáculos (como paredes y rincones), el grado de iluminación y la dirección del aire.
Introducción: un automóvil con cerebro de cucaracha I 43
jClaro que siempre se escabulle! Como indica Ritzmann, esta malla de consideraciones contextúales conduce a una respuesta mucho más inteligente que el simple reflejo de «detectar al depredador y echar a correr al azar» que los expertos en cucarachas {que los hay) creyeron otrora que todo lo explicaba. La complejidad adicional se capta con precisión en las descripcio nes que hace Ritzmann de un automóvil con una «inteligencia» comparable. Este automóvil percibiría a los vehículos que se aproximan, pero ignoraría a los que se movieran de una manera normal. Si detectara una colisión inminente, iniciaría automáticamente un giro que tuviera en cuenta su propio estado actual (diversos parámetros de la aceleración y del motor) y la orientación y la superficie de la carretera, evitando meterse en más peligros. Parece claro que un automóvil con la inteligencia de una cucaracha estaría muy por delante de la industria automovilística más puntera de hoy en día. Sin embargo, a primera vista no es probable que la frase «Compre usted el automóvil con cerebro de cucaracha» tuviera mucho éxito como eslogan publicitario. Nuestros prejuicios contra las formas básicas de inteligencia biológica y a favor de las «máquinas lógicas-archivadoras» más grandes y elaboradas son demasiado profundos.
¿Cómo consigue la cucaracha controlar sus huidas? Ahora empezamos a entender los mecanismos neuronales. Las corrientes de aire son detectadas por dos cercas (estructuras parecidas a antenas situadas en la parte posterior del abdomen) cubiertos con pelos sensibles a la velocidad y la dirección del aire. Los movimientos de escape sólo se activan si la aceleración del aire es igual o superior a 0,6 m/s2: así es como la cucuaracha distingue una brisa ordinaria de la embestida de un atacante. El intervalo entre la sensación y la respuesta es muy breve: 58 milisegundos para una cucaracha quieta y 14 milisegundos para una cucaracha en movimiento. La respuesta inicial es un giro que tarda entre 20 y 30 milisegundos (Ritzmann, 1993, págs. 113-116). El circuito neuronal básico que subyace a este giro está formado por poblaciones de neuronas cuyas posiciones y conexiones se conocen hoy bastante bien. En este circuito intervienen más de cien intemeuronas que actúan para modular las diversas órdenes de giro en función de la información contextual sobre la posición actual de la cucaracha y el estado del entorno local. La información básica sobre el aire es transmitida por una población de interneuronas ventrales gigantes, pero la actividad final se basa en los resultados de la modulación de muchas otras poblaciones neuronales sensibles a esos aspectos contextúales.
Ante la impresionante exhibición de rutinas de escape de la cucaracha, un teórico podría postular erróneamente que almacena de alguna clase de base de datos cuasi lingüística. De acuerdo con el espíritu de CYC, podríamos imaginar que la cucaracha accede a marcos de conocimiento que incluyen elementos como éstos:
44 I Estar ahí
Si me atacan, no me estrellaré directamente contra una pared.Si algo grande se interpone entre la comida y yo, intentaré rodearlo.Las brisas suaves no son peligrosas.
Como el filósofo Hubert Dreyfus (1991) y otros han señalado, el problema es que los cerebros verdaderos no parecen emplear estos recursos lin- guaformes, parecidos a textos, para codificar respuestas hábiles ante el mundo. Y mejor que sea así, ya que como estas estrategias exigirían el almacenamiento de enormes cantidades de datos explícitos y la búsqueda consiguiente, no podrían producir las rápidas respuestas que requiere la acción real. De hecho, tras una breve reflexión vemos claramente que la tarea de anotar los conocimientos «de sentido común» necesarios para capturar todo lo que sabe un adulto humano no tendría fin. j Es probable que incluso para capturar de manera detallada el conocimiento corpóreo de una cucaracha hicieran falta varios volúmenes!
Pero, ¿de qué otra manera podría avanzar la inteligencia artificial? Un enfoque prometedor se basa en lo que se ha dado en llamar teoría de agenten autónomos. Un agente autónomo es un ente capaz de sobrevivir, actuar y moverse en tiempo real y en el seno de un entorno complejo y un tanto realista. Muchos agentes autónomos artificiales existentes son verdaderos robots capaces de caminar como insectos y de evitar obstáculos. Otros son simulaciones por ordenador de robots de ese tipo que, en consecuencia, sólo se pueden mover y actuar en entornos simulados hechos por ordenador. Existen polémicas entre los investigadores que sólo son partidarios de las situaciones y de los robots reales, y los que se contentan con explotar «meras» simulaciones, aunque los dos bandos coinciden en destacar la necesidad de modelar conductas realistas y básicas y de desconfiar de las soluciones excesivamente intelectualizadas al estilo de las del «razonamiento explícito incorpóreo».
Teniendo presente esta imagen general de la investigación sobre los agentes autónomos, volvamos muy brevemente a nuestra protagonista, la cucaracha. Randall Beer y Hillel Chiel han creado simulaciones informáticas y ro- bóticas plausibles de la locomoción y la huida de la cucaracha. Para modelar la respuesta de escape, Beer y Chiel intentaron desarrollar un modelo de agente autónomo muy constreñido por datos etológicos y neurocientíficos. El objetivo era acercarse lo más posible hoy en día a los datos biológicos reales. Para ello, combinaron la metodología de los agentes autónomos con modelos al estilo de las redes neuronales. También impusieron a este modelo computacíonal unas restricciones coherentes con lo que se sabe de la verdadera organización neuronal de (en este caso) la cucaracha. Utilizaron una red neuronal para controlar el cuerpo de un insecto simulado (Beer y Chiel
Introducción: un automóvil con cerebro de cucaracha I 45
1993). Los circuitos de esta red estaban limitados por los datos conocidos sobre las poblaciones y las conexiones neuronales que subyacen a la respuesta de escape de las cucarachas reales. Después de un entrenamiento, el controlador de la red neuroñal fue capaz de reproducir en el cuerpo del insecto simulado todas las características fundamentales de la respuesta de escape mencionada anteriormente. En los capítulos que siguen trataremos de comprender, en parte, cómo se logran estos éxitos. Veremos con detalle cómo se combinan los tipos de investigación acabados de esbozar con ideas evolutivas, neurocientíficas y psicológicas para poder esclarecer una amplia gama de conductas, tanto simples como complejas. Y también exploraremos la sorprendente variedad de estrategias adaptativas de que disponen los agentes corpóreos y embebidos en un medio: los seres que se mueven por su mundo y actúan sobre él.
Estos comentarios introductorios pretenden destacar un contraste fundamental entre la visión incorpórea, intemporal e intelectualista de la mente, y la imagen de la mente como controladora de la acción corpórea. Esta imagen de la mente como controladora nos obliga a tomarnos en serio las cuestiones del tiempo, el mundo y el cuerpo. Un dispositivo controlador debe generar con rapidez acciones apropiadas en función de la interacción en curso entre el cuerpo y su entorno cambiante. El sistema de planificación de la inteligencia artificial clásica suele ponerse cómodo y tomárselo con calma para, al final, producir una descripción expresada simbólicamente de un curso de acción plausible. El agente planificador corpóreo debe entrar en acción con rapidez, antes de que la acción de otro agente le quite la vida. Aún no está claro si las codificaciones simbólicas similares al texto tienen algún papel que desempeñar en estas decisiones de vida o muerte, pero hoy sí parece claro que no es un papel estelar.
El camino que conduce a una comprensión computadonal completa de la mente está bloqueado -parafraseando a Lenat y Feigenbaum- por un colchón. Durante muchos años, los investigadores se han desviado para rodearlo, han tratado de ignorarlo, han hecho de todo excepto ponerse a trabajar para quitarlo de ahí. Lenat y Feigenbaum piensan que este colchón es el conocimiento y que los enigmas de la mente se disiparán en cuanto se haya construido una gran base de conocimientos repleto de fórmulas explícitas de sabiduría de sentido común. Las lecciones de la cognición natural nos enseñan otra cosa. El colchón no es conocimiento sino capacidad de respuesta básica, en tiempo real y en el mundo real. La cucaracha tiene un tipo de sentido común del que carecen los mejores sistemas artificiales de hoy, y seguramente no es gracias a las codificaciones explícitas ni a las deducciones lógicas que nos pueden servir en algunos ámbitos de cariz más abstracto. En su raíz, nuestras mentes también son órganos para iniciar con rapidez el pro
46 I Estar ahí
ximo movimiento en situaciones reales. Son unos órganos exquisitamente preparados para la producción de acciones que se despliegan en el espacio local y en tiempo real. Cuando la mente se formula como un dispositivo controlador de la acción corporal, el conocimiento otrora recibido se desvanece capa tras capa. La distinción entre percepción y cognición, la noción de unos centros de control ejecutivo en el cerebro y una visión muy extendida de la racionalidad misma, son puestas en duda. También peligra el aparato metodológico que estudia la mente y el cerebro con muy escasa consideración hacia las propiedades del entorno local o las oportunidades proporcionadas por la acción y el movimiento corporal. La forma fundamental de las ciencias de la mente cambia continuamente. En los capítulos que siguen, deambularemos por el paisaje de la mente bajo este cambio de iluminación.
Primera parte
DE EXCURSIÓN POR LA MENTE
Bueno, ¿y con qué crees que comprendes? ¿Con la cabeza? ¡Bah!Nlk'OS K a z a n t ZAKIS, Zorba el griego
El noventa por ciento de la vida consiste, simplemente, en estar ahí.WOODY A lle n
1 Agentes autónomos: un paseo por la luna
1.1 Bajo el volcán1
En el verano de 1994, un robot explorador de ocho patas y 770 kg de peso llamado Dame II descendió por una pared muy empinada hacia el fondo del cráter de un volcán activo cerca de Anchorage, Alasita. En el transcurso de una misión de seis días, Dante II exploró las paredes y el fondo del cráter empleando una mezcla de control autónomo (autodirigido) y externo. Dante II es producto de un proyecto financiado por la NASA, con base en la Universidad de Camegie Mellon y en otros lugares, cuya meta final consiste en desarrollar robots verdaderamente autónomos con el fin de recoger y transmitir información detallada sobre las condiciones ambientales locales de otros planetas. Se espera enviar a Marte otro robot mucho más pequeño y en gran parte autónomo en 1996, y el explorador lunar LunaCorp, que está basado en el software de Dante II, tiene una plaza reservada en el primer lanzamiento comercial a la luna, previsto para 1997.
Los problemas a los que se enfrentan estos proyectos son muy instructivos. Los robots diseñados para explorar mundos lejanos no pueden depender de una comunicación constante con científicos situados en la tierra: los desfases de tiempo pronto conducirían a un desastre. Estos robots se deben programar para que busquen unas metas generales explorando y transmitiendo información. Para misiones largas deberán reabastecerse de energía, quizá explotando la energía solar. Deberán ser capaces de funcionar ante dificultades inesperadas y resistir varias clases de daños. En resumen, deberán satisfacer muchas de las exigencias {aunque, desde lue-
t. Ei material acerca de Dante II se basa en un informe realizado por Peter Monaghcn (Chronicle o f Higber Educatton, 10 de agosto de 1994, págs. A6-A8).
50 I De excursión por la mente
go, no tocias) que la naturaleza ha planteado a los organismos móviles en evolución.
El intento de construir robots móviles robustos conduce con sorprendente rapidez a un replantcamiento radical de muchas de nuestras cómodas y viejas ¡deas sobre la naturaleza de la inteligencia adaptativa.
1.2 Desfile de robots
Elmer y Elsie
Los antepasados históricos de los sofisticados robots de hoy con aspecto animal (a veces llamados «animatas») fueron un par de «tortugas» cibernéticas construidas en 1950 por el biólogo W. Grey Walter. Estas «tortugas» -llamadas Elmer y Elsie2 3- empleaban unos sencillos sensores de luz y de tacto y unos circuitos electrónicos para buscar luz, aunque evitando la luz intensa. Además, cada tortuga llevaba unos pilotos luminosos que se encendían cuando los motores estaban en marcha. Incluso un equipo incorporado tan simple como éste condujo a unas intrigantes muestras de conducta, especialmente cuando Elmer y Elsie interaccionaban entre sí (al ser atraídos por la luz de los pilotos) y con el entorno local (que incluía algunas fuentes de luz por cuya proximidad competían y un espejo que condujo a un divertido «baile» de autoseguimiento). Lo extraño es que, a ojos de un observador casual, sería más fácil ver vida y propósito en la conducta de estas creaciones tan simples que en los diagnósticos incorpóreos hechos por sistemas expertos tradicionales y de campanillas como MVCIN.3
2, Veanse, por e|cmplo, W. Grey Walter, «An imitation of life», Scientific American, 182 (1959), rT 5, págs. 42-45; Steven Lcvy, Artificial Ltfe The Qnesi for a New Creatton (Pantheon, 1992), págs. 285 284.
3, El trabajo inicial en inteligencia artificial, como el trabajo de Newell y Simón (1972) sobre el «Solucionador general de problemas» (General Problem Solver), tendían a acentuar el razonamiento y la resolución de problemas de utilidad general. Sin embargo, pronto se hizo evidente que, para muchos propósitos, una base de conocimientos detallados y ricos adaptado a un domipio de actividad especifico era un determinante crucial para el éxito. Este descubrí miento condujo a una explosión de trabajos con los denominados «sistemas expertos» a los que se proporcionaban datos específicos de ciertas tareas obtenidos de expertos humanos y que, en consecuencia, eran capaces de alcanzar niveles bastante elevados de competencia en dominios restringidos como el diagnostico medico. El programa MYCIN (Shortlíffe, 1976) se basaba en un conjunto de reglas y directrices explícitamente formuladas, como la siguiente regla para extracciones de sangre: «Si 1) el lugar de cultivo es sangre, 2) el organismo es gram negativo, 3) el organismo tiene forma de varilla y 4) el paciente es un receptor en peligro, entonces hay indicios de que la identidad del organismo sea pseudomonas aernginose»
Agentes autónomos: un paseo por la luna I 51
Herbert
Uno de los precursores de las recientes investigaciones sobre los agentes autónomos es Rodney Brooks, del MÍT Mobile Robot Laboratory, Los robots móviles (mobile robots o «mobots») de Brooks son robots reales capaces de funcionar en entornos reales, desordenados e imprevisibles como una oficina abarrotada. Dos características importantes de la investigación de Brooks son la utilización de micromundos horizontales y el empleo de descomposiciones basadas en la actividad dentro de cada sección horizontal.
El contraste entre micromundos horizontales y verticales se establece en Clark, 1989 y, en términos diferentes, en Dennett, 1978b. La idea es sencilla. Un micromundo es un ámbito de estudio restringido: no podemos resolver a la vez todos los enigmas de la inteligencia. Un micromundo vertical aísla como objeto de estudio una pequeña parte de la competencia cognitiva de nivel humano. Como ejemplos cabe citar jugar a ajedrez, generar las formas pretéritas de verbos ingleses y planificar un picnic, todas ellas actividades que han sido objeto de anteriores programas de inteligencia artificial. El problema evidente es que cuando nosotros, los seres humanos, resolvemos estos problemas avan zados, podemos echar mano de recursos computación ales forjados por otras necesidades más básicas para las que la evolución equipó a nuestros antecesores. Por tanto, las soluciones ingeniosas y orientadas al diseños para estos problemas tan recientes pueden ser muy diferentes de las soluciones naturales dic tadas por la necesidad de explotar la maquinaria y las soluciones ya existentes. Podemos ser maestros de ajedrez gracias a nuestra capacidad para reconocer patrones, seleccionada para que pudiéramos reconocer parejas, alimentos y depredadores. En contraste con lo anterior, un micromundo horizontal es la
(Feigenbaum, 1977, pág. 1.016). Estos sistemas demostraron ser frágiles y limitados. Degeneran rápidamente en una estupidez automatizada si el usuario traspasa una fina línea divisoria gramatical o de expresión, o si emplea términos que tienen abundantes significados del mundo real que no se reflejan explícitamente en la base de datos específica de la tarea (por ejemplo, el automóvil oxidado al que se le diagnosticó sarampión; véase Lcnat y Feigenbaum, 1992, pág. 197). ¿Cómo se puede evitar este deslizamiento hacia la estupidez? Una posibilidad es que basta con «turboalimenar» los tipos de enfoques tradicionales antes mencionados. SOAR (Laird y otros, 1987) es un intento de crear una versión más poderosa del Solucionador general de problemas. CYC (véanse la introducción a este volumen, y Lenat y Feigenbaum, 1992) es un intento de crear esta base de conocimientos más grande y más rica. SOAR y CYC comparten el compromiso con el empleo abundante de formas simbólicas tradicionales e inspiradas en el texto para la codificación de conocimientos y metas. Pero puede que el problema fundamental resida en el enfoque tradicional mismo: que el modelo de la inteligencia como manipulación incorpórea de cadenas de símbolos dentro de la cabeza o del ordenador sea erróneo en sí mismo. La presente obra explora algunas de las alternativas.
52 I De excursión por la mente
capacidad conductual completa de un ser (verdadero o imaginario) completo pero relativamente simple. Al estudiar estos seres, simplificamos los problemas de la inteligencia de nivel humano sin perder de vista elementos biológicos básicos como las respuestas en tiempo real, la integración de diversas funciones motrices y sensoriales y la necesidad de hacer frente a los daños.
Brooks (1991, pág. 143) establece cuatro requisitos para sus seres artificiales:
Deben hacer frente de una manera adecuada y oportuna a los cambios de su entorno dinámico.
Deben ser robustos en relación con su entorno...Deben poder mantener múltiples metas...Deben hacer algo en el mundo; su existencia debe tener algún propósito.
Los «seres» de Brooks se componen de varios subsistemas o «capas» productoras de actividad. Estas capas no crean ni pasan codificaciones o re- codificaciones de entradas (inputs) explícitas y simbólicas. En cambio, cada capa es, en sí misma, una ruta completa que va de la entrada a la acción. La «comunicación» entre capas distintas se limita a pasar alguna señal simple. Una capa puede estimular, interrumpir o anular la actividad de otra. La organización resultante es lo que Brooks denomina una «arquitectura de sub- sunción» (porque las capas pueden subsumir mutuamente su actividad pero no pueden comunicarse de una manera más detallada).
Por tanto, un ser se podría componer de tres capas (Brooks 1991, pág. 156):
Capa 1: evitar objetos mediante un anillo de sensores de sonar ultrasónico. Estos sensores hacen que el mobot se detenga si se encuentra con un objeto directa mente frente a él y le permiten reorientarse hacia una dirección desbloqueada.
Capa 2: cuando la capa de evitar objetos está inactiva, un dispositivo incorporado puede generar rutas aleatorias para que el mobot «deambule» sin rumbo fijo.
Capa 3: esta capa puede anular la capa de deambulación y establecer una meta distante que lleve al mobot a un escenario totalmente nuevo.
Una característica esencial de esta metodología es que se pueden añadir capas progresivamente y que cada incremento produce un ser completo y funcional. Obsérvese que estos seres no dependen de un depósito central de datos o de un dispositivo planificador o razonador central. En cambio, vemos en ellos una «colección de conductas que compiten entre si» orquestada por las entradas del entorno. No existe una línea divisoria clara entre la percepción y la cognición, ningún punto donde las entradas perceptivas se traduzcan a un código central compartido por varios dispositivos de razonamiento incorporados. Esta imagen de múltiples dispositivos especializados
Agentes autónomos: un paseo por la luna I 53
de resolución de problemas, orquestados por entradas del entorno y por tipos relativamente simples de señalización interna es, como argumentaré en un capítulo posterior, un modelo neurocientíficamente plausible incluso para los cerebros más avanzados.
Herbert,4 construido en el MIT Mobot Lab durante los años ochenta, explotaba el tipo de arquitectura de subsunción acabada de describir. La misión de Herbert era recoger latas de refresco vacías esparcidas por el laboratorio. No era una tarea trivial; el robot tenía que desenvolverse en un entorno abarrotado y cambiante, evitar tirar cosas, evitar tropezar con la gente, e identificar y recoger las latas. Nos podemos imaginar un dispositivo planificador clásico tratando de resolver este complejo problema real empleando abundantes datos visuales para generar un mapa interno detallado del entorno actual, distinguir las latas y planificar una ruta. Pero esta solución es a la vez costosa y frágil: el entorno puede cambiar rápidamente (como cuando entra alguien en la sala) y e! procesamiento visual intensivo (por ejemplo, el reconocimiento de escenas y objetos al nivel humano) se encuentra hoy en día más allá del alcance de cualquier sistema programado.
Como hemos visto, las arquitecturas de subsunción adoptan un enfoque muy diferente. La meta es conseguir la conducta compleja, robusta y en tiempo real que emerge como resultado de interacciones simples entre subsistemas productores de conductas relativamente independientes. A su vez, estos subsistemas están controlados de una manera bastante directa por las propiedades del entorno encontrado.5 No existe un control central o un plan global. En cambio, el entorno mismo orienta al ser hacia el éxito gracias a algunas respuestas conductuales básicas. En el caso de Herbert, estas conductas simples incluían rutinas de evitación de obstáculos (detenerse, reorientarse, etc.) y de locomoción. Estas rutinas se interrumpían cuando su sencillo sistema visual detectaba un contorno parecido al de una mesa. Cuando Herbert se encontraba al lado de una mesa, las rutinas de locomoción y evitación de obstáculos cedían el control a otros subsistemas que barrían la mesa con un láser y una cámara de vídeo. Cuando detectaba el perfil básico de una lata, el robot giraba hasta situar el objeto con aspecto de lata en el centro de su campo de visión. En este momento las ruedas se paraban y se activaba un brazo
4. Véase información sobre Herbert en Connell, 1989.5. Ron McCIamrock 0995) comunica un caso procedente de Marr en el que un bucle de
control sale de la cabeza y se extiende al entorno local. En palabras de McCIamrock (pág. 85): «Resulta que las moscas no saben del todo que, para volar, deben agitar las alas. No emprenden el vuelo enviando una señal del cerebro a las alas. En cambio, existe un enlace de control directo entre las patas y las alas de modo que cuando las patas dejan de estar en contacto con una superficie, las alas de la mosca empiezan a agitarse. Para despegar, la mosca simplemente da un salto y deja que la señal procedente de las patas active las alas».
54 I De excursión por la mente
mecánico que, equipado con unos sencillos sensores, exploraba cuidadosamente la superficie de la mesa que tenia delante. Cuando Herbert encontraba la forma característica de una lata se activaba la conducta de agarrar y, una vez recogida la lata, Herbert continuaba su búsqueda.
Por tanto, Herbert es un «ser» sencillo que no tiene almacenado ni un plan a largo plazo ni un modelo de su entorno. Sin embargo, considerado como un animal artificial que busca latas en el nicho «alimenticio» proporcionado por el ecosistema del Mobot Lab, Herbert manifiesta una especie de inteligencia adaptativa simple donde la cooperación mutua entre sensores, circuitos incorporados y el entorno externo conduce al éxito.
Añila
Rodney Brooks cree que unos robots más pequeños y flexibles que el torpe y pesado Dame serian más adecuados para las necesidades de la exploración espacial. Atóla6 pesa poco más de kilo y medio y usa múltiples «minicerebros» («máquinas de estado finito») especializados para controlar un conjunto de conductas locales que, unidas, hacen que se desplace con gran habilidad moviendo cada pata por separado, detectando las fuerzas ejercidas por el terreno para compensar las pendientes, etc. Attila también emplea sensores infrarrojos para detectar objetos cercanos. Es capaz de desplazarse por terrenos abruptos y hasta puede volver a ponerse de pie cuando se cae de espaldas. Según Rodney Brooks, Attila ya encarna algo parecido a la inteligencia de un insecto.
Periplaneta Computatrix
Esta es la cucaracha simulada mencionada anteriormente. Beer y Chiel (1993) describen un controlador de red neuronal para la locomoción hexá- poda. Cada pata tiene un minicontrolador que explota una unidad «marca- pasos»: un modelo idealizado de neurona cuya señal de salida oscila rítmicamente. Esta unidad se activa a intervalos determinados por el nivel tónico de excitación de una neurona dominante y de cualquier entrada adicional que reciba. La idea, sacada de un modelo biológico desarrollado por K. G. Pear- son (1976), consiste en dar a cada pata su propio generador de patrones rítmicos, teniendo en cuenta las influencias moduladoras locales asociadas a las diferentes retroalimentaciones sensoriales de cada pata, a medida que el in
6. Attila, descrito en las págs. 300-501 de Artificial Life, de Levy, fue diseñado por Colin Angle y Rodney Brooks. Un predecesor, Genghis, se describe en Brooks, 1993.
Agentes autónomos: un paseo por la luna I 55
secto avanza por un terreno desigual. La coordinación entre las patas se consigue mediante enlaces inhibidores entre generadores de patrones adyacentes. Cada pata tiene tres neuronas motrices: la primera controla la oscilación hacia adelante, la segunda controla la oscilación hacia atrás y la tercera hace que la pata se levante. Como antes, el circuito de control global está totalmente distribuido. No existe un procesador central que deba orquestar una respuesta teniendo en cuenta todas las entradas sensoriales. En cambio, cada pata tiene una «inteligencia» individual y los simples enlaces inhibidores garantizan una conducta global coherente. Aparecen diferentes maneras de andar a partir de las interacciones entre los distintos niveles de excitación tónica procedentes de las unidades marcapasos (los generadores de patrones) y la retroalimentación sensorial local. El robot adoptará una marcha trípeda cuando las frecuencias de excitación sean elevadas y pasará a una marcha metacrómca cuando sean más bajas. En la marcha trípeda, las patas anterior y posterior de un lado se mueven en sincronía con la pata central del otro; en la marcha metacrónica, cada pata empieza a moverse justo después de la pata que tiene detrás, en una especie de movimiento ondulatorio.
Aunque diseñado y puesto a prueba como una pura simulación por ordenador, este circuito de locomoción se ha utilizado en el cuerpo de un robot real y ha demostrado su robustez en el mundo real de los rozamientos, la inercia, el ruido, los retrasos, etc. En la figura 1.1 se muestra el primer robot hexápodo, que se analiza con más detalle en Beer y Chiel, 1993, y en Quinn y Espenschied, 1993. El circuito de locomoción empleado también es capaz (al estar tan distribuido) de conservar la mayor parte de su funcionalidad cuando se dañan neuronas o conexiones individuales (Beer y otros, 1992). A pesar de la complejidad de la conducta que produce, el circuito de locomoción en sí es bastante modesto: sólo consta de 37 «neuronas» estratégicamente situadas e interconectadas. Sin embargo, los vídeos del robot hexápodo y de sus sucesores constituyen un espectáculo fascinante. En una secuencia aparece un robot posterior, algo más complejo (figura 1.2), avanzando cautelosamente por un terreno desigual formado por trozos de po- liestireno expandido. Una pata se alza y empieza a descender suavemente. Como no «hace pie» (a causa del terreno local), se levanta otra vez y vuelve a posarse en un punto ligeramente diferente. AI final, cuando encuentra un punto de apoyo adecuado, el robot prosigue su marcha. Esta conducta exploratoria y tanteadora tiene todo el sabor de la inteligencia biológica real.
Robot braquiador
La braquiación (figura 1.3) es el movimiento pendular que emplean algunos primates superiores para desplazarse de rama en rama por zonas den-
56 I De excursión por la mente
FIGURA 1.1 El primer robot hexápodo, construido por Ken Espenschied en la Case Western Reserve University bajo la supervisión de Roger Quinn. Fuente: Quinn y Espenschied, 1993. Reproducido con la autorización de K. Espenschied, R. Quinn y
Academic Press.
I
FIGURA 1.2 El segundo robot hexápodo, construido por Ken Espenschied en la Case Western Reserve University bajo la supervisión de Roger Quinn. Fotografía cedida gentilmente por Randall Becr.
Agentes autónomos: un paseo por la luna 1 57
FIGURA 1.3 Braquiacion de un gibóti. Fuente: Saito y Fukuda, 1994. Reproducido con la autorización de F. Saito, T. Fukuda y MIT Press.
sámente arboladas. Saito y Fukuda (1994) describen un dispositivo robótico que aprende a braquiar empleando un controlador de red neuronal. Esta tarea es especialmente interesante puesto que incorpora una dimensión de aprendizaje y aborda una conducta para la que el tiempo tiene una importancia fundamental.
Este robot utiliza un tipo de aprendizaje basado en redes neuronales denominado Q-aprendizaje conexionista (connectionist Q-learning).1 El Q- aprendizaje implica intentar aprender el valor de distintas acciones en situaciones diferentes. Un sistema de Q-aprendizaje debe tener un conjunto delimitado de acciones y situaciones posibles y se le debe dar una señal de recompensa para comunicarle el valor (positivo) de una acción elegida en la situación que se le plantea. El objetivo consiste en aprender un conjunto de emparejamientos situación-acción que maximicen el éxito en relación con una señal de recompensa. Saito y Fukuda demuestran que estas técnicas permiten que una red neuronal artificial aprenda a controlar un robot braquia- dor real de dos brazos (figura 1.4). Un robot braquiador totalmente entrenado puede balancearse con éxito de una «rama» a otra y, si no encuentra asidero, puede aprovechar el impulso inicial para balancearse hacia atrás y volverlo a intentar. 7
7. Véase información sobre el conexiomsmo en c! capítulo 4 de este mismo libro. El Q aprendizaje es una forma de aprendizaje por refuerzo (véanse Kaelbling, 1995 y Sutton, 1991) desarrollado por Watkíns (1989). El empleo de redes neuronales en escenarios de Q-aprendizaje se discute en Lin, 1993.
58 I De excursión por la mente
F igura 1.4 Robot braquiador de dos brazos. Fuente: Saito y Fukuda, 1994. Reproducido con la autorización de F. Saito, T. Fukuda y MIT Press.
COG
Seguramente, COG (Brooks, 1994; Brooks y Stein, 1993) es el más ambicioso de todos los proyectos de la «nueva robótica» emprendidos hasta ahora. Este proyecto, éncabezado por Rodney Brooks, se propone crear un robot humanoide con un funcionamiento extremadamente complejo. Este robot, del tamaño de una persona (figura 1.5) no tiene capacidad de ambulación; sin embargo puede mover las manos, los brazos, la cabeza y los ojos.
Agentes autónomos: un paseo por la luna I 59
F igura 1.5 Tres vistas del robot C O G . Fotografías cedidas por Rodney Brooks.
60 I De excursión por la mente
Aunque su base está firmemente sujeta a un tablero, puede girar a la altura de las caderas. Esta libertad de movimientos se obtiene a partir de 24 motores separados, dotados cada uno de un procesador exclusivamente dedicado a supervisar su funcionamiento (de acuerdo con el «espíritu» general de los mobots de evitar un control centralizado). Los brazos disponen de muelles que amortiguan los movimientos mecánicos. La mayor parte de los motores (salvo los de los ojos) disponen de sensores de calor que permiten a COG reunir información sobre su propio funcionamiento en cada momento y conocer el nivel de trabajo de cada motor: una especie de versión robótica del sentido cinestésico que nos dice cómo se orien tan en el espacio las partes de nuestro cuerpo. Cada ojo consta de dos cámaras; una tiene un campo de visión amplio con una resolución baja y el otro tiene un campo de visión reducido con una resolución alta. Estas cámaras se pueden mover para inspeccionar una escena visual y las que tienen el campo reducido realizan una función parecida a la de la fóvea de los mamíferos. COG también recibe información de audio por medio de cuatro micrófonos. Toda esta abundancia de datos de entrada es procesada por un «cerebro» compuesto por múltiples submáquinas (o «nodos», cada uno con un megabyte de ROM y de RAM y un sistema operativo dedicado), que son capaces de comunicarse entre sí de maneras restringidas. Por tanto, el cerebro mismo de COG es un sistema multiprocesador y su sistema nervioso también incluye otros dispositivos «inteligentes» (como los procesadores dedicados de los motores). Así pues, aunque la organi zación global de COG refleja gran parte de la filosofía que guía el trabajo de Brooks con insectos robot, es lo suficientemente compleja como para traer a un primer plano problemas nuevos y acuciantes. Entre sus carac terísticas familiares se incluyen la ausencia de una memoria central compartida por todos los procesadores, la carencia de controles ejecutivos centrales, una comunicación restringida entre los diversos subdispositivos y el énfasis en la resolución de problemas en tiempo real que supone sentir y actuar. Todos los problemas nuevos se centran en torno a la necesidad de obtener conductas coherentes de un sistema complejo como éste sin volver a los métodos antiguos y poco prácticos de la planificación serial y el control central. Los ingeniosos trucos y estrategias que permiten a los sistemas corpóreos mantener una coherencia mientras explotan múltiples rutinas de resolución de problemas especializadas y cuasi independientes (que se abordarán en capítulos posteriores), aportan luz sobre los papeles del Jenguaje, la cultura y las instituciones en la potenciación de la cognición humana. De momento, sin embargo, retro cederemos un poco e intentaremos extraer algunas conclusiones generales de este desfile de critters artificiales.
Agentes autónomos: un paseo por la luna I 61
1.3 Mentes sin modelos
La revolución de la «nueva robótica» rechaza una parte fundamental de la imagen clásica de la mente. Rechaza la imagen de un planificador central que tenga conocimiento exclusivo de toda la información disponible en cualquier parte del sistema y que se dedique a descubrir posibles secuencias con- ductuales que satisfagan unas metas concretas. El problema del planificador central es que, en esencia, es muy poco práctico. Introduce lo que Rodney Brooks denominó acertadamente un «embotellamiento representacional» que bloquea cualquier respuesta rápida en tiempo real. La razón es que la información sensorial entrante debe ser traducida a un código simbólico único para que el mencionado planificador pueda encargarse de ella. Y la salida que produzca el planificador también se deberá traducir desde su propio código interno a los diversos formatos necesarios para controlar varios tipos de respuesta motriz. Estas fases de traducción consumen mucho tiempo y energía.
Critters artificiales como Herbert y Attila destacan por su falta de planificación central. En su lugar, la arquitectura de subsunción sitúa múltiples dispositivos cuasi independientes, cada uno de los cuales constituye una vía autosuficiente que enlaza la entrada sensorial con la acción. En consecuencia, las conductas de estos sistemas no están mediatizadas por ninguna base integrada de conocimientos que represente el estado actual del entorno global. A estas bases de conocimientos se les suele llamar «modelos detallados del mundo» y un tema recurrente de los nuevos enfoques es que logran alcanzar un éxito adaptativo sin emplear estos modelos.
Sin embargo, sería fácil exagerar esta diferencia. Uno de los mayores peligros que acechan a toda propuesta revolucionaria en la ciencia es que se puede descartar una parte demasiado grande de la «visión antigua»: es decir, se puede tirar mucha fruta fresca junto con la pocha. Este mismo peligro existe, creo yo, en el rechazo de la nueva robótica frente a las representaciones, los modelos y los mapas internos. Si sólo se interpreta como un aviso para prestar atención a los costes de los modelos centralizados, integrados y simbólicos, la crítica es oportuna e importante. Pero si se interpreta como un rechazo sistemático a las economías internas cuyas complejidades incluyen múltiples representaciones centradas en la acción y múltiples modelos parciales del mundo, esto sería un error al menos por dos razones.
En primer lugar es indudable que, en ocasiones, el cerebro humano integra múltiples fuentes de información. El área que rige los movimientos sacá- dicos (los movimientos rápidos de la fóvea de alta resolución hacia un nuevo objetivo) es capaz de responder a múltiples entradas sensoriales: podemos realizar un movimiento sacádico hacia el lugar donde hemos detectado un movimiento periférico, hacia el origen de un sonido o para examinar un ob-
62 I De excursión por la mente
jeto detectado solo por el tacto. Además, con frecuencia combinamos modalidades utilizando el tacto, la vista y el sonido en complejos bucles interdependientes donde la información recibida en cada modalidad ayuda a sintonizar y eliminar la ambigüedad del resto (como cuando nos encontramos con un objeto familiar en un rincón oscuro del armario).
En segundo lugar, la presencia de modelos internos que intervienen entre la entrada y la salida no siempre constituye un embudo costoso en cuanto a tiempo. La emulación motriz ofrece un ejemplo claro y convincente. Consideremos la tarea de alcanzar una taza. Una «solución» para estos problemas es el alcance balístico. Como indica su nombre, esta manera de asir depende de una trayectoria prefijada y no corrige errores a lo largo de la misma. Una manera de asir más hábil se basa en la retroalimentación sensorial para realizar correcciones sutiles y guiar el asimiento sobre la marcha. Una fuente de esta retroalimentación es la propiocepción, el sentido interno que nos dice cómo se sitúa nuestro cuerpo (en este caso, el brazo) en el espacio. Pero las señales propioceptivas deben hacer el viaje de vuelta desde las periferias corporales hasta el cerebro y esto requiere tiempo; de hecho, requiere demasiado tiempo para que las señales se puedan emplear en la generación de movimientos fluidos de asimiento. Para resolver este problema, el cerebro puede emplear un truco (muy empleado en los sistemas industriales de control) denominado emulación motriz. Un emulador es un circuito incorporado que duplica ciertos aspectos de la dinámica temporal del sistema más amplio. Toma como entrada una copia de una orden motriz y produce como salida una señal cuya forma es idéntica a la de una señal que vuelva de las periferias sensoriales. Es decir, predice cómo debe ser la retroalimentación propioceptiva. Si el dispositivo es fiable, se pueden utilizar estas predicciones en lugar de las señales sensoriales reales para generar una actividad de corrección de errores más rápida. Estos emuladores son el tema de numerosos tratamientos teóricos detallados (por ejemplo, Kawato y otros, 1987; Dean y otros, 1994) que muestran que el aprendizaje de redes neuronales simples puede producir emuladores fiables y en los que se especula sobre la manera de desarrollar estos emuladores en circuitos neuronales reales.
Estos emuladores motrices no son embudos que obstaculicen el éxito en tiempo real. Al contrario, facilitan el éxito en tiempo real al ofrecer un tipo de «retroalimentación virtual» que supera la retroalimentación procedente de las periferias sensoriales reales, proporcionándonos una especie de «hi- pcragudeza» motriz que nos permite generar unas trayectorias de asimiento más fluidas y precisas de lo que sería posible, dadas las distancias y la velocidad de conducción que gobiernan el regreso de las señales sensoriales desde las periferias corporales. Pero también es indudable que un emulador es una especie de modelo interno. Consturir modelos de aspectos destacados
Agentes autónomos: un paseo por la luna I 63
de la dinámica corporal de los agentes y se puede desplegar incluso en ausencia de las entradas sensoriales usuales. Con todo, es un modelo parcial dedicado a una clase específica de tareas y, en consecuencia, es compatible con el escepticismo de la nueva robótica acerca de los modelos del mundo detallados y centralizados y con su insistencia en el éxito conductual en tiempo real. También destaca la importancia intrínseca de los aspectos temporales de la cognición biológica. El papel adaptativo del emulador depende tanto de su velocidad de operación (su capacidad de superar la retroalimentadón sensorial real) como de la información que codifica.
Así pues, es evidente que el primer mensaje de la cognición corpórea es que se debe evitar un modelado excesivo del mundo y que los modelos se deben adaptar a las exigencias de los sistemas productores de conducta en tiempo real.
1.4 Nichos
El segundo mensaje está muy relacionado con el primero. Se refiere a la necesidad de encontrar ajustes muy precisos entre las necesidades y los estilos de vida de sistemas específicos (sean animales, robots o humanos) por un lado, y los tipos de estructuras ambientales portadoras de información a las que responden estos sistemas por otro. La idea es reducir la carga de proce samiento de información, sensibilizando el sistema a determinados aspectos del mundo que tengan una trascendencia especial para él a causa del nicho ambiental en el que habita.
Vimos algo de esto en el caso de Herbert, cuyo «nicho» es el entorno lleno de latas de Coca-Cola del MIT Mobile Robot Laboratory. Un hecho bastante seguro de ese nicho es que las latas tienden a acumularse encima de las mesas. Otro es que las latas, por sí solas, no se mueven ni intentan escapar. A la vista de estos hechos, la carga computacional de Herbert se puede reducir considerablemente. En primer lugar, puede utilizar señales de baja resolución para detectar las mesas y acercarse a ellas. Cuando se encuentra junto a una mesa, puede iniciar una rutina especial dedicada a buscar latas. Para buscar las latas, Herbert no necesita (y de hecho, no puede) formar representaciones internas de los otros objetos que hay en la mesa. El «mundo» de Herbert sólo está poblado de obstáculos, superficies de mesas y latas. Cuan do ha localizado una lata, Herbert lleva a cabo unos movimientos físicos de orientación con el fin de simplificar la tarea de cogerla. Todo lo que hace Herbert (emplear movimientos, basarse en señales fácilmente detectables y evitar modelos del mundo detallados y centralizados), constituye un ejemplo de sensación dependiente del nicho.
La nocion de sensación dependiente del nicho no es nueva. En 1934, Ja- kob Von Uexkull publicó una maravillosa monografía cuyo título se traduce por Un paseo por los mundos de animales y hombres: libro ilustrado de mundos invisibles. En esta obra, con una elocuencia y una claridad parecidas a las de un cuento, Von Uexkull introduce la idea del Umwelt, definido como el conjunto de aspectos ambientales a los que está sensibilizado un tipo deter minado de animal. Describe el Umwelt de una garrapata, que es sensible al ácido butírico que se encuentra en la piel de los mamíferos. El ácido butírico, cuando es detectado por la garrapata, induce a ésta a soltarse de la rama donde se encuentra para caer sobre el animal. El contacto táctil extingue la respuesta olfativa e inicia un procedimiento de corretear hasta que se detecta calor. La detección del calor inicia la actividad de perforar y cavar. Es im posible resistirse a citar a Von Uexkull con cierta extensión:
La garrapata cuelga inmóvil de la punta de una rama en el claro de un bosque. Su posición le da la oportunidad de dejarse caer sobre un mamífero que pase. De todo el entorno entero, no le afecta ningún estimulo hasta que se acerca un mamífero, cuya sangre necesita para poderse reproducir.
Y ahora sucede algo totalmente fantástico. De todos los efluvios que emanan del cuerpo del mamífero, sólo tres se convierten en estímulos y además en un or den definido. Del vasto mundo que rodea a la garrapata, tres aspectos refulgen como faros en la oscuridad y actúan como guias que conducen de una manera ¡n falible a la meta. Además de su cuerpo con sus receptores y efectores, la garrapata tiene la facultad de detectar tres señales que actúan como estímulos. Y estas señales perceptivas prescriben el curso de sus acciones con tanta rigidez que sólo puede producir los impulsos efectores correspondientes.
El mundo entero y rico que rodea a la garrapata se encoge para convertirse en un marco austero que consta, en esencia, de tres señales de recepción y tres señales efectoras: su Umwelt. Pero la pobreza misma de este mundo garantiza la indefectible certeza de sus acciones: la seguridad es más importante que la ri queza (ibíd., págs. 11-12).
Así pues, para Von Uexkull, cada especie animal habita en un entorno efectivo distinto. Este entorno efectivo está definido por los parámetros que tienen importancia para un animal y su estilo de vida concreto, y el entorno general es el mundo físico en todo su esplendor y complejidad.
La monografía de Von Uexkull está repleta de imágenes maravillosas del aspecto que podría tener el mundo si se viera a través del cristal de la sensa ción dependiente del Um vell (figuras 1.6 a 1.8). Aunque las ilustraciones son muy caprichosas, sus ideas son profundas e importantes. La cognición biológica es muy selectiva y puede sensibilizar a un organismo a cualquier parámetro (con frecuencia simples) que especifique con fiabilidad las condi-
64 i Pe excursión por la mente
Agentes autónomos: un paseo por la luna I 65
dones que condernen a esa forma de vida concreta. La similitud entre los mundos operacionales de Herbert y de la garrapata es sorprendente: ambos se basan en señales simples que son específicas de sus necesidades y ambos salen ganando al no molestarse en representar otros tipos de detalles. Una extensión natural de esta idea, y que da bastante que pensar, es preguntarse si el ser humano también percibe el mundo de una manera sesgada y restringida. Nuestro tercer mensaje afirma que así es, y de una forma mucho más espectacular de lo que pueda sugerir la experiencia cotidiana.
1.5 ¿Sensibilidad para los detalles?
Sin duda, muchos lectores estarán de acuerdo en que incluso la avanzada percepción humana está sesgada hacia los aspectos del mundo que tienen importancia para los intereses y las necesidades del hombre. Según el último y más especulativo mensaje de nuestra breve lista, este sesgo es mucho más fuerte de lo que hayamos podido imaginar. Concretamente sugiere que nuestras experiencias cotidianas de percepción nos pueden inducir a error indicando la presencia de unos modelos del mundo más duraderos y detallados que los que nuestros cerebros construyen en realidad. Esta idea, en cierto modo paradójica, exige una cuidadosa introducción.®
Consideremos el acto de correr para atrapar una bola. Se trata de una habilidad que exhiben rutinariamente los jugadores de criquet y de béisbol. ¿Cómo se lleva a cabo? La experiencia común sugiere que vemos la pelota en movimiento, prevemos la continuación de su trayectoria y corremos para estar en la posición adecuada para interceptarla. En cierto sentido esto es correcto. Pero la experiencia (la «fenomenología») puede ser engañosa si creemos que computamos activamente estas trayectorias. Investigaciones recientes’ indican que una estrategia más eficiente en cuanto a computación consiste, simplemente, en correr de manera que la aceleración de la tangente de elevación de la mirada del jugador hacia la bola se mantenga a cero. Si hacemos esto, siempreinterceptaremos la bola antes de que llegue al suelo. La observación de secuencias grabadas en vídeo de interceptaciones reales indican que, en efecto, los seres humanos utilizan -inconscientemente- esta estrategia. Una estrategia como ésta evita muchos costes de computación porque aísla los parámetros mínimos y más fá- 8 9
8. Esto se expone con precisión en Churchland y otros, 1994 y está presente en gran parte de Dennett, 1991.
9. Estas investigaciones fueron llevadas a cabo por Zolten Dienes en la Universidad de Sussex (comunicación personal).
66 i De excursión por la mente
F ig ur a 1.6 Entorno y Umwcll de una vieira. Ilustración basada en la figura 19 de Von Ucxkull, 193-1; adaptada por Christinc Clark, con autorización de InternationalUniversities Press.
Agentes autónomos: un paseo por la luna I 67
FlGL'RA 1.7 Umwelt de un astrónomo. Ilustración basada en la figura 21 de Von Uexkull, 1934: adaptada por Christine Clark, con autorización de International Uni versities Press.
cilmente perceptibles que pueden apoyar la acción específica de la interceptación.
Siguiendo una línea similar, un importante corpus de investigaciones conocido como visión anim ada (Ballard, 1991; véase también P, S. Churchland y otros, 1994) indica que la resolución cotidiana de problemas guiada por la visión puede explotar una gran cantidad de estas estratagemas y rutinas especializadas. En vez de considerar la visión como la transformación de unas señales luminosas entrantes en un modelo detallado de un mundo externo tridimensional, la investigación de la visión animada estudia cómo se pueden apoyar respuestas adaptativas rápidas y fluidas mediante rutinas que requieran menos intensidad computacional: rutinas que entrelacen la sensación con la acción y con el movimiento en el mundo. Como ejemplos podemos citar el uso de movimientos sacádicos rápidos y repetidos para inspeccionar
63 I De excursión por la mente
F igura 1.8 Entorno y Umwell de una abeja. Ilustración basada en la figura 53 de Von Uexkull, 1934; adaptada por Christine Clark, con autorización de InternationalUniversities Press.
Agentes autónomos: un paseo por la luna I 69
una escena visual y extraer información detallada únicamente en posiciones foveales seleccionadas, y la explotación de señales más burdas (como el color) que se pueden detectar en las periferias de baja resolución.
El caso de la exploración visual rápida es especialmente instructivo. Los ojos humanos utilizan una pequeña área (menos del 0,01 % del campo visual total) de resolución muy elevada. Los movimientos sacádicos desplazan esta ventana de alta resolución de un punto a otro en una escena visual. Yarbus (1967) mostró que estos movimientos pueden ser inteligentes en el sentido de que un sujeto humano situado frente a una escena idéntica realiza exploraciones sacádicas muy diferentes para llevar a cabo tareas distintas. Estos movimientos son muy rápidos (unos tres por segundo) y suelen incidir una y otra vez sobre la misma posición. En uno de los estudios de Yarbus, a los sujetos se les mostraba la imagen de una habitación con algunas personas en ella y se Ies pedía que dijeran las edades de estas personas, que adivinaran qué actividad habían realizado anteriormente o que recordaran las posiciones de personas y objetos. Se identificaron pautas muy diferentes de movimientos sacádicos en función de la tarea especificada.
Según los investigadores de la visión animada, los movimientos sacádicos frecuentes nos permiten sortear la necesidad de construir modelos detallados y duraderos de nuestro entorno visual. Según Rodney Brooks, podemos utilizar el mundo como si fuera el mejor modelo de sí mismo e inspeccionar una y otra vez la escena real, tomando muestras detalladas en las posiciones concretas requeridas. Así se evita la costosa actividad de mantener y actualizar un modelo interno completo de una escena tridimensional. Además, podemos tomar muestras de la escena de maneras adecuadas a las necesidades concretas de cada momento.
Aun así, realmente nos parece que, en general, disponemos de una imagen tridimensional completa y detallada del mundo que nos rodea. Sin embargo, como han destacado varios autores recientemente,10 esto puede ser una ilusión subjetiva que se apoya en nuestra capacidad para incidir rápidamente sobre cualquier parte de una escena y recuperar una información detallada (aunque no duradera) de la región de la fóvea. Ballard (1991, pág. 59) comenta que «el sistema visual produce la ilusión de estabilidad tridimensional por su capacidad de realizar conductas rápidas».
El sentido del tacto nos ofrece una útil analogía." En los años sesenta, Mackay planteó la siguiente pregunta: imaginemos que estamos tocando una botella con los ojos cerrados y las yemas de los dedos separadas. Sólo recibimos sensaciones táctiles de unos cuantos puntos separados. ¿Por qué
!0. Especialmente Dennett, 1991; Ballard, 1991 y Cliurchland y otros, 1994.11. Véanse Mackay, 1967 y Mackay, 197). Encontré este ejemplo por primera vez en
O'Regan, 1992, págs. 471-476.
70 I De excursión por ta mente
no tenemos la sensación de palpar un objeto con agujeros que corresponderían a los espacios que hay entre los dedos? La razón es, en cierto sentido, obvia. Utilizamos el tacto para explorar superficies y estamos acostumbrados a desplazar las yemas de los dedos para encontrar más superficie, sobre todo cuando sabemos que lo que sostenemos es una botella. No tratamos los espacios entre las entradas sensoriales como si fueran espacios en el mundo, porque estamos acostumbrados a utilizar los sentidos como instrumentos exploratorios que pasan de un punto a otro. Tras reflexionar sobre este caso, un investigador propuso que lo que con frecuencia pensamos que es el acto sensorial pasivo de «sentir la botella», se entiende mejor si se concibe como un ciclo basado en la acción donde unas percepciones fragmentarias provocan nuevas exploraciones, y que este ciclo de acción es la base de la experiencia de percibir una botella completa.1- Este punto de vista radical, donde el tacto se formula como un instrumento exploratorio que se lanza de acá para allá para explorar una y otra vez el entorno local, se extiende de una manera completamente natural a la visión y a la percepción en general.
La sospecha de que la visión no es todo lo que parece se expresa a la perfección en el artículo publicado en 1994 por Patricia Churchland, V. S. Ra- machandran y Terrence Sejnowski con el título «A critique of puré visión» (Critica Je la visión paral. También ellos proponen que en lugar de una representación interna formada por «imágenes perfectas» sólo extraemos una sucesión de representaciones parciales, conjetura que caracterizan como la hipótesis de los «semimundos visuales» o de las «representaciones parciales por ojeada». Según ellos, esta hipótesis no sólo está apoyada por consideraciones computacionales generales relacionadas con la utilización de movimientos sacádicos frecuentes, etc., sino también por algunos experimentos psicológicos sorprendentes.”
Estos experimentos se basaban en mostrar imágenes en la pantalla de un ordenador y «engañar» a los sujetos alterando la imagen mostrada durante los movimientos sacádicos de los ojos. Resultó que los cambios efectuados durante los movimientos sacádicos rara vez se detectaban. En estos momentos críticos se pueden cambiar de lugar objetos enteros, se pueden añadir otros objetos y se pueden modificar los colores, todo esto mientras el sujeto permanece (normalmente) en la más bendita ignorancia. Quizá sea aún más
12. «El “pcrcepto” dc(la botella es una acción: concretamente, la exploración visual o mental de la botella. ¡Vo es una simple sensación pasiva que obtenemos de la reúna o algún derivado icónico de la información que hay en ella» (O'Regan, 1992, pág. 472).
13 Véanse McConkie y Rayner, 1976; McConkie, 1979; McConkie, 1990; O'Regan, 1990 y Rdvncr y otros, 1980
Agentes autónomos: un paseo por la luna I 71
sorprendente una investigación relacionada con la anterior, en la que se le pide a un sujeto que lea un texto presentado en una pantalla de ordenador. El texto en cuestión nunca está totalmente presente en la pantalla al mismo tiempo y se limita a una zona que abarca (para sujetos típicos) 17 o 18 caracteres. Este texto está rodeado por caracteres aleatorios que no forman palabras verdaderas. Pero (y aquí está el truco) la ventana de texto real se desplaza a lo largo de la pantalla de izquierda a derecha acompañando la mirada del sujeto. El texto no es repetitivo porque el programa que se ejecuta en el ordenador garantiza que el texto adecuado vaya apareciendo sistemáticamente en lugar del texto aleatorio (aunque, como se trata de una ventana móvil, van apareciendo nuevos caracteres aleatorios donde antes había texto real). Cuando este sistema está bien calibrado para un sujeto concreto, ¡éste no se da cuenta de la presencia de los caracteres extraños! Además, la impresión subjetiva es, con toda claridad, la de encontrarse frente a una página llena de texto verdadero que abarca toda la periferia visual, de izquierda a derecha. En estos casos por lo menos podemos decir con seguridad que la naturaleza experimentada de la escena visual es una especie de ilusión subjetiva provocada por el empleo de una exploración rápida y una ventana pequeña de resolución y atención.
1.6 El robot refinado
Hubo un tiempo en que el Mobile Robot Laboratory de Rodney Brooks tenía un lema: «Rápido, barato y fuera de control». Este es, de hecho, el mensaje inmediato de la visión de la nueva robótica. Sin una planificación central o incluso sin el empleo de un código simbólico central, estos sistemas artificiales navegan de una manera fluida y robusta por el mundo real. Y lo hacen gracias a unos acoplamientos cuidadosamente orquestados entre unos dispositivos incorporados relativamente independientes y unos aspectos seleccionados del entorno (el Urnwelt del robot, por así decir). A pesar de las apariencias, ahora parece imaginable que gran parte de la inteligencia humana se base en estrategias y ardides similares específicos del entorno, y que también nosotros podamos carecer de un modelo del mundo central e integrado al estilo tradicional. Por tanto, en la medida en que nos tomemos en serio los mensajes generales de la nueva robótica, nos enfrentaremos a dos problemas inmediatos y acuciantes.
El primero es un problema de descubrimiento. Si evitamos la imagen fácil del planificador central que cavila sobre estructuras de datos similares a textos, y si no nos fiamos de nuestras intuiciones sobre la información que extraemos de los datos sensoriales, ¿qué debemos hacer? ¿Cómo podemos
72 [ De excursión por la mente
siquiera formular hipótesis acerca del posible funcionamiento y la estructu ra de estas mentes fragmentarias y que desafían nuestra intuición? Brooks y otros confían en desarrollar un nuevo conjunto de intuiciones basadas en la atención a conductas específicas y organizadas en torno a la idea general de una arquitectura de subsunción. Sin embargo, cuando tratemos de abordar casos cada vez más complejos, es dudoso que este enfoque «artesanal» pueda triunfar. En capítulos posteriores investigaremos algunas maneras de avanzar que parecen estar menos sujetas a las intuiciones humanas: trabajar con datos neurocientíficos y evolutivos reales, procurar que los sistemas ro- bóticos aprendan por su cuenta e incluso intentar imitar el cambio genético para hacer evolucionar generaciones de robots cada vez más refinados. {Observemos la naturaleza y dejemos que la naturaleza simulada siga su curso!
El segundo problema es de coherencia. Tanto el poder como el misterio de la investigación de la nueva robótica residen en el empleo de múltiples subsistemas cuasi independientes de los que, en condiciones ecológicas ñor males, emerge con delicadeza una conducta orientada a metas. El poder estriba en la capacidad de respuesta robusta y en tiempo real de estos sistemas. El misterio es cómo mantener unas pautas de conducta coherentes cuando los sistemas se hacen más y más complejos y se les exige que muestren una variedad de conductas cada vez más amplia. Naturalmente, una respuesta a este problema es renunciar a la imagen básica e insistir en que las conductas complejas y avanzadas deben basarse en algo parecido a un sistema planificador simbólico central. Sin embargo, no deberíamos rendirnos antes de tiempo. En los capítulos que siguen, sacaremos a la luz una cantidad sorprendente de estrategias y ardides adicionales que pueden inducir una coherencia global. La mayoría de estas estrategias suponen el empleo de algún tipo de estructura externa o «andamiaje» para moldear y orquestar la conducta. Entre los candidatos más evidentes se encuentran el entorno físico inmediato (recordemos a Herbert) y nuestra capacidad para reestructurar activamente ese entorno con el fin de apoyar y extender mejor nuestras capacidades naturales para la resolución de problemas. Estas estrategias son especialmente manifiestas en el desarrollo infantil. Entre otros factores menos evidentes pero que tienen una importancia crucial, se encuentran la presencia restrictiva del lenguaje, la cultura y las instituciones públicas, la economía interna de las respuestas emocionales y diversos fenómenos relacionados con la inteligencia grupal o colectiva. En particular, el lenguaje y la cultura aparecen como unas especies avanzadas de andamiaje externo, «diseñadas» para extraer la máxima coherencia y utilidad de unas mentes fundamentalmente cortas de vista, especializadas e internamente fragmentadas. Por tamo, desde sus inicios en la simple robótica, nuestro viaje llegará a tocar -y en ocasiones a poner en entredicho- algunos de los elementos más arraigados de la
Agentes autónomos: un paseo por la luna I 73
imagen intelectual que tenemos de nosotros mismos. El «deliberador racional» resulta ser un «respondedor adaptativo» bien camuflado. Cerebro, cuerpo, mundo y artefacto están estrechamente vinculados entre sí, formando la más compleja de las conspiraciones. Y mente y acción se manifiestan en un íntimo abrazo.
2 El niño situado
2.1 Yo, robot
Robots que recogen latas de refrescos, exploradores lunares, cucarachas: si todo esto nos suena extraño, pensémoslo mejor. La incipiente perspectiva sobre la cognición corpórea también nos puede ofrecer la mejor esperanza hasta el momento de comprender las características fundamentales del pensamiento y el desarrollo humanos. Un campo especialmente prometedor es el estudio de la infancia. La imagen que tiene la nueva robótica de «pensar con los pies» encuentra un complemento natural en nuestra comprensión creciente del desarrollo del pensamiento y la acción en los niños, porque el especialista en robótica y un número cada vez mayor de psicólogos del desarrollo coinciden en destacar la delicada interacción entre cerebro, cuerpo y entorno local para determinar el éxito cognitivo inicial.
De hecho (y para ser históricamente justos), es probable que los psicólogos del desarrollo fueran de los primeros en destacar la verdadera relación entre los factores internos y externos para determinar el cambio y el éxito cognitivo. En este sentido, teóricos como Jean Piaget, James Gibson, Lev Vygotsky y Jeromc Bruner, aunque partiendo de enfoques muy diferentes, previeron muchas de las ideas de cariz más radical a las que ahora se dedica la robótica situada.’ Con todo, continúan existiendo abundantes posibilidades para un mutuo esclarecimiento, pues cada uno de los dos campos dispone de un conjunto distinto de instrumentos conceptuales y experimentales y de Corpus de datos diferentes. Por tanto, la alianza intelectual entre la psicología del desarrollo y las otras ciencias de la mente corpórea puede acabar
1. Véanse, por ejemplo, Fiagei, 1952, 1976; Gibson, 1979; Bruner, 1968; Vygotsky, 1986.
76 I De excursión por la mente
siendo una de las empresas interdisciplinarias más apasionantes de la próxima década.
En este capítulo se exploran cinco hitos de fundamental importancia que se encuentran a lo largo de esta frontera interdisciplinaria: la idea de bucles de acción que entrecruzan el organismo y su entorno (apartado 2.2); una visión muy interactiva del proceso de desarrollo según la cual mente, cuerpo y mundo ac túan en pie de igualdad (apartado 2.3); una imagen de la cognición biológica en la que emergen soluciones a problemas sin un control ejecutivo central (apar tado 2.4); el reconocimiento del papel fundamental desempeñado por apoyos y estructuras externas para posibilitar el éxito adaptativo y proporcionar la en voltura para el aprendizaje individual (apartado 2.5); y un escepticismo creciente, enraizado en todas las consideraciones anteriores, acerca del verdadero valor de las divisiones intuitivas entre percepción, acción y cognición (apartado 2.6). La conclusión a la que se llega es que el desarrollo cognitivo no se puede tratar con eficacia aislándolo del hecho de que el niño está embebido en el mundo e interacciona con él. En una imagen más adecuada de la cognición infantil (y, de hecho, de toda cognición), percepción, acción y pensamiento se vinculan entre sí en una variedad de formas complejas e interpenetradas.
2.2 Bucles de acción
Consideremos un puzzle. Una manera (improbable) de tratar de resolverlo consiste en mirar muy fijamente una pieza y tratar de determinar, sólo con la razón, si encaja en una posición determinada. Sin embargo, en la práctica real empleamos una estrategia mixta en la que hacemos una determinación mental aproximada y luego probamos físicamente si la pieza encaja o no. En general, no nos representamos la forma detallada de una pieza lo suficientemente bien como para saber con certeza si encajará antes de realizar esta manipulación física. Además, podemos hacer girar físicamente las piezas candidatas antes de probar si encajan para simplificar la tarea más «mental» de evaluar aproximadamente su ajuste potencial (recordemos el empleo por parte de Herbert de un procedimiento similar, girando sobre sí mismo para fijar una lata en una posición central canónica de su campo visual). Por tanto, acabar un puzzle supone una danza intrincada y repetida donde el «pensamiento puro» conduce a acciones que, a su vez, cambian o simplifican los problemas a los que se enfrenta este pensamiento. Probablemente, éste es uno de los ejemplos más sencillos de los fenómenos conocidos como bucles de acción.2
2. Véanse exposiciones de fenómenos de bucles de acción en Colé y otros, 1978; Rut- kowska, 1986, 1993; Theíen y Smith, 1994.
El niño situado í 77
Recientes investigaciones sobre el desarrollo realizadas por Esther The- len y Linda Smith, indican que estas interacciones entre pensamiento y acción puede ser tan omnipresentes y fundamentales, que estas investigadoras sospechan que todo nuestro conocimiento inicial se construye «mediante interacciones trabadas en el tiempo entre percepción y acción en contextos particulares» {Thelen y Smith, 1994, pág. 217). Para ver lo que esto significa, consideremos la conducta de los niños pequeños ante precipicios visuales (un precipicio visual es una caída vertical cubierta con una superficie fuerte, rígida y transparente de plexiglás u otro material similar). Se ha demostrado que los niños que aún no pueden gatear son capaces de distinguir los lados poco profundos del precipicio de la zona que se encuentra más allá de la caída. Muestran una atención y un interés ere cientes y, sorprendentemente, lloran menos cuando se encuentran encima del precipicio que cuando están sobre los lados menos profundos. Los niños de más edad y con mayor movilidad responden al precipicio con respuestas asociadas al miedo (Campos y otros, 1978).' Claramente, los dos grupos de niños pueden percibir la información visual que especifica la profundidad. La diferencia crucial parece residir en cómo se emplea esta información, es decir, en cómo interviene en la interacción entre percep ción y acción.
Un trabajo reciente sobre las respuestas de los niños a las pendientes nos ofrece más información sobre esta interacción. En esta investigación, se colocaron niños pequeños con diferentes tipos de movilidad (niños que gateaban y niños que caminaban) sobre pendientes con distintos grados de inclinación. Los que caminaban (14 meses) recelaban de las pendientes con 20° o más de inclinación y, o bien se negaban a descender, o bien bajaban deslizándose. Los niños que gateaban abordaban con intrepidez inclinaciones de 20° o más y, normalmente, acababan cayendo (aunque siempre se Ies cogía a tiempo).
Sin embargo, tras un examen detallado apareció una pauta fascinante. A medida que los niños que gateaban iban aumentado su experiencia, aprendían a evitar las pendientes más inclinadas. Pero en el momento de transición en el que los niños empezaban a caminar, este conocimiento obtenido con tanto esfuerzo parecía desaparecer. Los niños que empezaban a caminar tuvieron que aprender sobre las pendientes desde el principio. En una prueba, dos terceras partes de estos niños «se lanzaban sin vacilación por todas las pendientes, igual que hicieron al encontrarse con ellas por primera vez, cuando sólo gateaban» (Thelen y Smith, 1994, pág. 220)/’ 3 4
3. Véase también Rutkowska, 1993, pág. 60.4. El trabajo comunicado fue llevado a cabo por Adolph y otros (1993).
78 I De excursión por la mente
Estas pruebas no sólo sugieren que los niños aprenden sobre el mundo realizando acciones, sino también que el conocimiento mismo que adquieren suele ser específico de la acción. Los niños pequeños no emplean su experiencia de gatear para adquirir conocimientos sobre las pendientes en general. En cambio, adquieren conocimientos sobre el papel de las pendientes en contextos específicos que implican una acción. Otros resultados relacionados con la especificidad del conocimiento de los niños pequeños apuntan en la misma dirección general/
Este fenómeno no se limita a la infancia. Investigaciones recientes sobre los mecanismos de compensación perceptiva de los adultos revelan un perfil específico de la acción de carácter similar. Thach y otros (1992) presentan un ejemplo centrado en la adaptación perceptiva en condiciones inusuales." Thach y sus colegas estudiaron la adaptación humana a unas lentes especiales que desplazaban la imagen hacia la derecha o la izquierda. Es bien sabido que el sistema de percepción humano puede aprender a adaptarse a esta clase de distorsiones. De hecho, varios experimentos demuestran que los sujetos pueden adaptarse incluso a lentes que invierten por completo la escena visual haciendo que el mundo se vea cabeza abajo. Después de llevar estas lentes de inversión unos cuantos días, los sujetos comunican unos cambios súbitos donde los aspectos del mundo se reorientan correctamente. Naturalmente, cuando se ha producido esta adaptación, los sujetos dependen de las lentes: si se las quitan, el mundo vuelve a aparecer invertido hasta que se produce una nueva adaptación.
Lo que mostró el grupo de Thach es que, en el caso de las lentes de desplazamiento lateral, la adaptación parece ser específica de ciertos bucles motores. Se pidió a los sujetos que lanzaran dardos a una diana. Al principio fallaban como resultado del desplazamiento lateral producido por las lentes. Sin embargo, con el tiempo se produjo una adaptación y fueron capaces de apuntar tan bien como antes (a diferencia de lo que ocurría en los experimentos con lentes de inversión, esta adaptación no tuvo ninguna consecuencia en la experiencia: los sujetos no comunicaron ningún «rebote» de la imagen visual consciente). Pero, en la mayoría de los casos, esta adaptación era específica del bucle motor. Al pedírseles que lanzaran los dardos sin levantar el brazo por encima del hombro -en vez de tirarlos por encima de la cabeza- o que emplearan su brazo no dominante, los sujetos no mostraron una mejora comparable. La adaptación para los lanzamientos por alto y con el brazo dominante no se extendieron en absoluto a los otros casos. Lo que parece haber ocurrido es un adaptación restringida a la combinación específica del ángulo de visióh y el ángulo de tiro empleados en un lanzamiento
5. Véanse Shields y Rovee-Collier, 1992; Rovee-Collier, 1990.6. Véase un estudio general de experimentos con lentes deformadoras en Welch, 1978
E! niño situado I 79
normal. Lo que no se produjo fue una adaptación perceptiva general que ofreciera «datos de entrada corregidos» para que fueran utilizados por cual quier subsistema cognitivo o motor.
Thach y otros han relacionado sus resultados con algunas hipótesis muy específicas y fascinantes sobre el papel de una estructura nerviosa concreta -el cerebelo- en el aprendizaje de respuestas pautadas a estímulos encontra dos con frecuencia. Estas conjeturas encajan bien con la imagen que nos vamos forjando, puesto que indican que la antigua imagen que consideraba al cerebelo puramente implicado en tareas motrices es errónea y que las funciones motrices y algunas funciones cognítivas «superiores» pueden estar íntimamente relacionadas en el cerebro. Por ahora, sin embargo, sólo es necesario destacar que puede hacer falta algún replanteamiento de la imagen «pasiva» de nuestro contacto perceptivo con el mundo. Al parecer, en muchos casos la percepción no se debería contemplar como un proceso en el que se recopilan pasivamente datos del entorno. En cambio, la percepción puede estar orientada desde el principio hacia rutinas de acción específicas. Asi pues, el reto estriba en desarrollar «una estructura teórica que sea, por asi decir, más “motorcéntrica” que “visuocéntrica"» (P. S. Churchland y otros, 1994, pág. 60). Los estudios detallados de microdesarrollos, como el trabajo sobre el modo de superar pendientes, parecen ofrecer una prometedora base experimental sobre la que fundamentar una reorientación tan radical.
2.3 Desarrollo sin diseños
Aquí entenderemos por diseño un plan o una especificación muy detallados de -por ejemplo- un automóvil o un edificio. Las explicaciones más sencillas (pero normalmente menos satisfactorias y admisibles) del desarrollo, describen la alteración y el crecimiento de las capacidades cognitivas de un niño como el despliegue gradual de un «diseño» para el cambio cognitivo determinado genéticamente. Según la ingeniosa descripción de Thelen y Smith (1994, pág. 6), estas explicaciones, que predominaron durante los años treinta y cuarenta,7 8 conciben el desarrollo como «una progresión lineal y por etapas a través de una secuencia de conductas cada vez más funcionales que es dirigida hacia unas formas adultas por un plan global (que está programado por un cronometrador global)». Estas concepciones aún siguen con nosotros, pero con unas formas cada vez más sofisticadas. Por ejemplo, el desarrollo gradual de la capacidad para caminar se explica como el efecto
7. Recuérdense los ejemplos de visión animada descritos en el capítulo 1.8. Véase, por ejemplo, Gesell 1939; McGraw, 1945, y e! capítulo 1 de Thelen y Smith, 1994.
80 I De excursión por la mente
de unos aumentos de la velocidad de procesamiento del cerebro que están determinados por la maduración y que permiten un control y una integra* ción motrices de carácter complejo (Zelazo, 1984).
Sin embargo, desde la perspectiva altamente interactiva que hemos esta* do desarrollando, estos enfoques suelen incurrir en un error muy común. Toman un fenómeno complejo (por ejemplo, el desarrollo de la capacidad del niño para caminar) y buscan un solo factor determinante. Este error es lo que Mitchel Resnick, del MIT Media Lab, denomina «pensamiento centralizado»:
...la gente tiende a buscar la causa, la razón, la fuerza impulsora, el factor decisivo. Cuando la gente observa pautas y estructuras en el mundo (por ejemplo, las pautas de las bandadas de aves o las pautas de búsqueda de alimento de las hormigas), suele suponer unas causas centralizadas que en realidad no existen. Y cuando la gente intenta crear pautas o estructuras en el mundo (por ejemplo, nuevas organizaciones o máquinas), suele imponer un control centralizado que, en realidad, no es necesario (Resnick, 1994, pág. 120).
He citado este pasaje completo porque capta perfectamente un mensaje fundamental de nuestras investigaciones que aparecerá una y otra vez en este libro: los fenómenos complejos presentan una gran autoorganización. De hecho, las aves que vuelan en bandada no siguen a un líder. En cambio, cada ave sigue unas cuantas reglas sencillas que hacen que su conducta dependa de la conducta de las aves que tiene más cerca. La pauta de la bandada surge de la masa de estas interacciones locales: no está orquestada por un líder o por un plan general representado en la mente de cada ave. De manera similar, ciertos tipos de hormigas buscan alimento mediante un proceso de «reclutamiento en masa». Cuando una hormiga encuentra alimento, vuelve al nido y, durante el recorrido, va soltando un marcador químico (una feromona). Cuando otra hormiga detecta este rastro, lo sigue hasta llegar a la fuente de alimento. Esto hace que, a su vez, esta hormiga refuerce el rastro químico. Este rastro más fuerte tiene más probabilidades de atraer a otra hormiga que, cuando encuentre el alimento, reforzará aún más la señal química aumentando su potencia. Por tanto, lo que nos encontramos aquí es un proceso extendido de retroalimentación positiva que pronto conduce a una concentración masiva de actividad, con centenares de hormigas recorriendo el camino arriba y abajo. La cuestión es que esta organización se consigue mediante unas cuantas «reglas» locales sencillas que, en presencia de la fuente de alimento y de otras hormigas, dan origen a esta conducta aparentemente organizada. 9
9, Véase una simulación por ordenador de este y otros fenómenos emergentes en Resnick, 1994, págs. 60^67.
El niño situado | 61
Algunos estudios recientes proponen que el desarrollo infantil también se puede comprender mejor desde el punto de vista de las interacciones de múltiples factores locales que incluyen, en pie de igualdad, el crecimiento corporal, los factores ambientales, la maduración del cerebro y el aprendizaje. No existe un «diseño» para la conducta ni en el cerebro ni en los genes, igual que no existe un diseño de la bandada en la cabeza de las aves.
Para captar el sabor de esta propuesta, consideremos el caso de aprender a caminar. Los datos brutos son los siguientes: cuando un recién nacido es suspendido por encima del suelo, realiza unos movimientos de pisar bien coordinados; hacia los dos meses de edad estos movimientos de pisar se pierden; los movimientos reaparecen entre los ocho y los diez meses de edad, cuando el niño empieza a apoyar su peso sobre los pies; hacia los doce meses, aparece el andar independiente. Según el punto de vista «del plan global y el factor único», sería de esperar que estas transiciones fueran expresiones de la maduración o el desarrollo de una fuente central (por ejemplo, la apropiación gradual de unos procesos similares a reflejos por parte de un centro cognítivo superior; véase Zelazo, 1984). Sin embargo, los estudios del mi- crodesarrollo indican que estas transiciones no están orquestadas por una entidad central y que, al parecer, se deben a la interacción de múltiples factores en condiciones esenciales de igualdad.
Por ejemplo, aunque es cierto que el reflejo de pisar desaparece hacia los dos meses de edad, todavía se producen unos movimientos cinemáticos casi idénticos cuando el niño está tendido sobre la espalda. Este «pataleo en decúbito supino» persiste durante todo el primer año de vida. Ahora parece que el parámetro crucial que subyace a la desaparición del pisar a los dos meses es, simplemente, ¡la masa de las piernas! En la postura erguida, la resistencia ejercida por la masa de las piernas hacia los dos meses de edad supera la acción elástica de los músculos. Esta hipótesis está apoyada por unos experimentos (figura 2.1) donde el pisar desaparece cuando se añade peso a las piernas de un niño que pisa y por otros donde el pisar reaparece cuando niños de tres meses de edad que no pisan se sostienen erguidos dentro del agua para reducir la masa efectiva de las piernas.10
Las manipulaciones del entorno son igualmente eficaces para estudiar la segunda fase: la reaparición del pisar entre los ocho y los diez meses de edad. Cuando colocamos a niños más pequeños que no pisan en una rueda de andar, pisan de una manera coordinada; incluso son capaces de ajustar el ritmo de su paso a la velocidad de la rueda y de adaptarse a restricciones asimétricas cuando se les coloca sobre una rueda de andar con dos cintas indepen-
10. Véase Thelen y Smith, 1994, págs. 11-12. Véanse también Thelen y otros, 1982 y Thc-Icn y otros, 1984.
82 i De excursión por la mente
FIGURA 2.1 Este niño de tres meses de edad fue sometido a prueba para ver si pisaba erguido, primero sobre una mesa y después sumergido en agua tibia. Fuente: Thelen y Smith, 1994. Por gentileza de E. Thelen, L. Smith y MIT Press.
clientes que van a velocidades distintas. Se encontró que la conducta de pi* sar en ruedas de andar se daba en niños de edades comprendidas entre uno y siete meses de edad (Thelen y Smith, 1994, págs. 11-17).11
Estos últimos resultados indican que la pauta mecánica ocasionada por la extensión de las piernas hacia atrás, que a su vez está provocada por la rueda, tiene un papel fundamental. Este componente de pisar es independiente de las transiciones conductuales generales normales que reflejan la influencia de múltiples factores adicionales como la masa de las piernas. La pauta evolutiva no es la expresión de un diseño interno. Más bien refleja la compleja interacción de múltiples fuerzas, algunas corporales (como la masa de las piernas), otras mecánicas (la extensión de las piernas y las acciones elásticas), algunas totalmente externas (la presencia de ruedas de andar, agua, etc.) y otras más cognitivas e internas (la transición hacia un movi-
II. Véanse también Thelen, 1986; Thelen y otros, 1987 y Thelen y Ulrich, 1991.
El niño situado I 83
miento volitivo, es decir, deliberado). Centrarse exclusivamente en uno de estos parámetros equivale a pasar por alto la verdadera explicación del cambio evolutivo, que se basa en comprender la interacción de diversas fuerzas y eliminar la necesidad de postular un solo factor controlador.
2.4 «Montaje blando» y soluciones descentralizadas
Una perspectiva multifactorial conduce, de una manera bastante natural, a un respeto y un interés teórico crecientes hacia lo que podría denominarse «idiosincrasias históricas del desarrollo individual». Pero esto exige explicar el delicado equilibrio existente entre la variación individual y los logros evolutivamente sólidos. Una noción fundamental para comprender esta acción de equilibrio es la de montaje blando.
Un brazo robódco tradicional, gobernado por un programa clásico, proporciona un ejemplo de «montaje duro». Dispone de un repertorio de movimientos y su éxito depende de la precisión de la colocación, la orientación, el tamaño y otras características de los componentes que debe manipular. En cambio, el andar humano es de montaje blando en el sentido de que compensa de una manera natural cambios bastante importantes en el espacio del problema. Como indican Thelen y Smith, las aceras heladas, las ampollas en los pies y los zapatos de tacón «reclutan» diferentes pautas de marcha, control muscular, etc., mientras se mantiene el objetivo general de la locomoción. En general, el control centralizado con modelos internos o especificaciones de carácter detallado parece ser desfavorable para esta adaptación fluida y contextual (recordemos las lecciones de la robótica situada en el capítulo 1). En cambio, los enfoques multifactoriales y descentralizados suelen producir esta adaptación sólida y contextual como una consecuencia indirecta y sin coste alguno. La razón de esto es que, como vimos antes, estos sistemas crean acciones basándose en «asociaciones en pie de igualdad» donde el entorno local desempeña un papel fundamental en la selección de conductas. En situaciones donde una solución más clásica, dirigida por un modelo interno, fracasa como resultado de la incapacidad del modelo para reflejar cambios novedosos en el entorno, las soluciones basadas en «asociaciones en pie de igualdad» suelen ser capaces de funcionar porque el entorno mismo ayuda a orquestar la conducta.
Siguiendo esta misma línea, Pattie Maes del MIT Media Laboratory describe un sistema de planificación cuyo objetivo consiste en emparejar procesos (tareas o partes de tareas) con procesadores (máquinas).12 Se trata de una
12. Este ejemplo procede de Maes, 1994 (págs. 145-146), Los agentes de planificación clásicos se describen en Kleinrock y Nilsson, 1981
84 I De excursión por la mente
empresa compleja puesto que siempre se están creando tareas nuevas y el volumen de trabajo de cada máquina varía continuamente. Un solución tradicional de montaje duro adoptaría un enfoque centralizado donde un sistema contendría un Corpus de conocimientos sobre las configuraciones de las diferentes máquinas, las tareas típicas, etc. Este sistema también reuniría con cierta frecuencia datos procedentes de todas las máquinas acerca de su volumen de trabajo actual, los trabajos que hay en espera, etc. A continuación, y utilizando toda esta información y algunas reglas o heurísticos, el sistema trataría de elaborar una programación (una asignación eficiente de tareas a máquinas). Ésta es la solución ofrecida por la «cognición centralizada pura». Ahora consideremos, en cambio, la solución descentralizada favorecida por Maes.!* Aquí, cada máquina controla su propio volumen de trabajo. Si una máquina A crea una tarea, envía una «solicitud de ofertas» a todas las máquinas restantes. Las otras máquinas responden a esta petición enviando un cálculo aproximado del tiempo que tardarían en realizar la tarea (las máquinas que se utilicen poco o que ya tengan cargado un programa adecuado «pujarán» más que las máquinas muy utilizadas o mal preparadas). Entonces, simplemente, la máquina original envía el trabajo a la máquina que más haya «pujado». Esta solución es a la vez sólida y de montaje blando. Si en una máquina se produce un fallo, el sistema lo compensa automáticamente. Y no hay una sola máquina que sea crucial: la planificación es más bien una propiedad emergente de las interacciones simples de «anunciar» y «pujar» entre las máquinas que estén activas en cada momento. Como no existe un modelo central de la configuración del sistema en ningún lugar, no se plantean los problemas asociados con la actualización y la utilización de semejante modelo.
Los montajes blandos formados por múltiples componentes básicamente independientes producen una mezcla característica de solidez y flexibilidad. Las soluciones que emergen se adaptan a las particularidades del contexto y al mismo tiempo satisfacen un objetivo general. Esta mezcla, que impregna todo el desarrollo, persiste en la resolución de problemas y la acción durante la madurez. Por tanto, la variabilidad individual no se debería desestimar como si fuera «mala información» o «ruido» que oscureciera, de alguna manera, unas pautas de desarrollo esenciales. En cambio, como insisten Thelen y Smith, es una buena pista hacia la naturaleza de los procesos de montaje blando subyacentes.13 14
Para ilustrar esto, Thelen y Smith describen el desarrollo de la conducta de alcanzar en varios niños pequeños. A pesar del carácter común de la con-
13. Se basa en Malone y otros, 1988.14. Por tamo, la %'ariabilidad es un dato, no ruido; véase Smith y Thelen, 1994, págs. 86-88.
El niño situado I 85
ducta global final (la capacidad para alcanzar objetos), encontraron fuertes diferencias individuales. En cada caso concreto, la conducta de alcanzar resultó ser el resultado del montaje blando de unos componentes un tanto diferentes, que reflejaban diferencias en la dinámica intrínseca de los niños y en su experiencia histórica. Aunque la descripción que ofrecen Thelen y Smith es muy detallada, aquí nos limitaremos a examinar algunos aspectos destacados.
Uno de los niños, Gabriel, era muy activo por naturaleza y agitaba los brazos con mucha rapidez. Para él, la tarea consistió en convertir estos movimientos en una conducta de alcance dirigido. Para conseguirlo, necesitó aprender a contraer los músculos cuando el brazo estaba cerca de un objeto con el fin de moderar los movimientos y establecer un contacto adecuado.
En cambio, Hannah era más bien inactiva en el aspecto motor. Movía las manos con muy poca velocidad y escasa fuerza. Su problema no era moderar los movimientos, sino producir el impulso suficiente para vencer la gravedad.
Otros niños presentaban distintas mezclas de dinámica intrínseca, pero en todos los casos el problema básico consistía en aprender a controlar esta dinámica intrínseca (cuya naturaleza, como hemos visto, puede variar considerablemente) para alcanzar un objetivo. Para hacerlo, el sistema nervioso central (SNC) debe encontrar una solución que tenga en cuenta una amplia variedad de factores que incluyen la energía, el temperamento y el tono muscular. Una propuesta prometedora15 es que, cuando hace esto, el SNC trata el sistema total como si fuera un conjunto de muelles y masas. Por tanto, no se ocupa de generar modelos internos de trayectorias de alcance, etc., sino de aprender a modular factores como la rigidez de las extremidades para que la energía transmitida se combine con una dinámica intrínseca parecida a la de los muelles y produzca una oscilación cuyo punto de reposo sea el objeto deseado. Es decir, el SNC se trata como un sistema de control para un cuerpo cuya dinámica intrínseca desempeña un papel crucial en la determinación de la conducta.
Por tanto, los problemas evolutivos a los que se enfrenta cada niño son diferentes, puesto que la dinámica intrínseca de cada niño es distinta. Lo que tienen en común es el problema de nivel superior de dominar esta dinámica individual para lograr alguna meta como la conducta de alcanzar. A lo largo del desarrollo, el trabajo del SNC no es «meter en vereda» cada vez más al cuerpo para que pueda llevar a cabo unas órdenes detalladas y representadas internamente que especifican, por ejemplo, las trayectorias que deben seguir los brazos. En cambio, su tarea consiste en aprender a modular parámetros (como la rigidez) que después interaccionarán con restricciones intrínsecas
15. PolityBizzi, 1978; Hogan y otros, 1987; Jordán y otros, 1994; Thelen y Smith, 1994.
86 I De excursión por la mente
corporales y ambientales para producir los resultados deseados. En resumen, la tarea consiste en aprender a armar conductas adaptativas mediante montajes blandos que respondan al contexto local y exploten la dinámica intrínseca. Así pues, mente, cuerpo y mundo intervienen en pie de igualdad en la construcción de conductas sólidas y flexibles.
2.5 Mentes con andamiajes
Hay una propiedad final de las soluciones basadas en los montajes blandos que se debe mencionar explícitamente porque ocupará un lugar destacado en varios capítulos posteriores. Se refiere a la afinidad natural existente entre el montaje blando y el empleo de andamiajes externos. Como ya se ha apuntado antes, cuando el sistema nervioso central aprende a modular parámetros como la rigidez, lo que hace en realidad es resolver un problema «suponiendo» un telón de fondo formado por una dinámica corporal intrínseca concreta (las propiedades elásticas de los músculos). Estos telones de fondo no tienen por qué limitarse al cuerpo del agente: con frecuencia podemos resolver problemas «a horcajadas» sobre ciertas propiedades fiables del entorno. Lo que quiero denotar con el término andamiaje es esta explotación de la estructura externa.
La noción de andamiaje tiene sus raíces en el trabajo del psicólogo soviético Lev Vygotsky.16 Vygotsky destacó que la experiencia con estructuras externas (incluyendo las lingüísticas, como palabras y frases, véase el capítulo 10) puede alterar y dar contenido a los modos de procesamiento y comprensión intrínsecos de un individuo. La tradición que siguió incluía la noción de una zona de desarrollo proximal:17 la idea de que la ayuda de los adultos en momentos cruciales del desarrollo del niño, daría a éste la experiencia de una acción con éxito que el niño, por sí solo, no podría conseguir. Ofrecer apoyo durante los primeros pasos vacilantes de un niño que empieza a caminar y sostener a un bebé en el agua para que pueda realizar movimientos de natación son dos buenos ejemplos.
Sin embargo, la noción intuitiva de andamiaje es más amplia porque puede abarcar toda clase de apoyos y ayudas externas, tanto si proceden de adultos como del entorno inanimado.18 Como ejemplos tenemos la utilización de la estructura física del entorno de la cocina como ayuda externa para la memoria (agrupando las especias, los cacharros, etc.; Colé y otros, 1978) y
16. Véase, por ejemplo, Vygotsky, 1986.17. Véanse, por ejemplo. Valsiner, 1987 y Wcrtsch, 1981.18. Vcase esta utilización, por ejemplo, en Rutkowska, 1993, págs. 79-80
El niño situado I 87
el empleo de utensilios especiales para comer que reducen la libertad del niño para derramar y pinchar cosas, al tiempo que ofrecen un tosco simulacro del entorno de un adulto cuando come (Valsiner, 1987).19 Para nuestros propósitos actuales, la cuestión es que las estructuras del entorno, como la elasticidad de los músculos, forman un telón de fondo en relación al cual se configuran los problemas computacionales individuales a los que se enfrenta cada niño.
Este andamiaje es muy común en casos no cognitivos. La simple esponja, que se alimenta filtrando agua, explota la estructura de su entorno físico natural para reducir la cantidad de bombeo que debe realizar: cambia de orientación y aprovecha las corrientes del entorno para alimentarse.20 Aunque se trata de una estrategia manifiesta, los biólogos no la han reconocido hasta hace muy poco. La razón de esta tardanza es reveladora: los biólogos han tendido a centrarse únicamente en el organismo individual como sede de la estructura adaptativa. Han tratado el organismo como si se pudiera entender independientemente de su mundo físico. En este sentido, los biólogos se han parecido mucho a los científicos cognitivos que sólo han buscado explicaciones internas para los fenómenos cognitivos. En respuesta a estas tendencias, el biólogo Vogel (1981, pág. 182) ha recalcado la necesidad de un principio de parsimonia: «N o desarrollar explicaciones que requieran un gasto de energía metabólica (por ejemplo, la hipótesis de bombeo total para la esponja) hasta que se puedan descartar los efectos físicos simples (por ejemplo, la utilización de las corrientes del entorno)». La extensión de la máxima de Vogel al ámbito cognitivo es simple. Es lo que una vez denominé «principio 007»:
En general, los seres evolucionados no almacenarán ni procesarán información de maneras costosas si pueden emplear la estructura del entorno y sus operaciones sobre él como sustitutos convenientes de las operaciones implicadas en el procesamiento de la información. Es decir, no hace falta saber más de lo necesario para cumplir una misión (Clark 1989, pág. 64).
Este principio se refleja en el lema de la mobótica: «El mundo es la mejor representación de sí mismo». También es un compañero natural de las nociones de montaje blando y de resolución de problemas descentralizada. En lugar de un dispositivo intelectual que cavila inmerso en un reino de modelos internos detallados, nos enfrentamos a un agente corpóreo y embebido que interviene, en pie de igualdad, en respuestas adaptativas que hacen
19. Véanse también el capítulo 4 de Clark, 1989 y el capítulo 3 de Rutkowska, 1993.20. Véanse Vogel, 1981 y el capítulo 4 de Clark, 1989.
88 i De excursión por la mente
uso de recursos de la mente, el cuerpo y el mundo. Hasta ahora hemos visto unos cuantos ejemplos preliminares basados en la dinámica corporal y en el empleo de ciertos tipos sencillos de almacenamiento externo de memoria. En capítulos posteriores aplicaremos estas ideas a las esferas especiales de las estructuras externas puestas a nuestra disposición por el lenguaje, la cultura y las instituciones.
2.6 La mente como espejo frente a la mente como controladora
Acabamos de ver que la cognición puede explotar de varias maneras la acción real para reducir la carga computacional. La perspectiva desarrollada en los apartados precedentes nos lleva un paso más allá, porque indica algunas de las maneras en que las conductas sólidas y flexibles pueden depender de procesos descentralizados de montaje blando donde mente, cuerpo y mundo actúan en pie de igualdad en la determinación de la conducta adap- tativa. Esta perspectiva conduce a un profundo cambio en nuestra concepción de la mente y de la cognición, un cambio que yo caracterizo como la transición desde los modelos de la representación como reflejo o codificación, hasta los modelos de la representación como control (Clark, 1995). La idea es que el cerebro no se debería contemplar como la sede de unas descripciones internas de situaciones externas; más bien se debería considerar la sede de unas estructuras internas que operan en el mundo mediante su papel en la determinación de acciones.
Podemos encontrar un excelente ejemplo del empleo de estas representaciones centradas en la acción en el trabajo de Maja Mataric, del MIT Artificial Intelligence Laboratory. Mataric ha desarrollado un modelo inspirado en la neurobiología de cómo se orientan las ratas en su entorno. Este modelo se ha implementado en un robot móvil. La rata robot, que dispone de sensores de sonar y de una brújula, consigue el éxito en tiempo real empleando la arquitectura de subsunción que se describe en el capítulo 1: utiliza un conjunto de «capas» cuasi independientes, cada una de las cuales constituye una ruta de procesamiento completa desde la entrada hasta la salida, y que sólo se comunican pasándose unas señales muy simples. Una de estas capas genera el trazado de los contornos: el robot sigue las paredes al tiempo que evita los obstáculos. Otra capa detecta referencias físicas o «hitos» del entorno, que se registran como una combinación del movimiento del robot y de su entrada sensorial (así, un'corredor se recuerda como la combinación de un movimiento hacia delante y unas lecturas de distancias laterales cortas en los sensores de sonar). Otra capa emplea esta información para construir un mapa del entorno (figura 2.2). Este mapa consiste en una red de hitos que,
El niño situado I 89
FIGURA 2.2 Ejemplo de la conducta de orientación refleja de un robot en un entor no de oficina abarrotado. Las etiquetas incluyen ei tipo de referencia física y la orientación según la brújula (PI8 = pared izquierda hacia el sur; 0 2 0 = corredor hacia e! norte; J = límite extenso irregular). Fuente: Mataric, 1991. Reproducido con la autorización de M. Mataric y MIT Press.
como hemos visto, son una combinación de lecturas motrices y sensoriales. Todos los nodos del mapa procesan información en paralelo y se comunican entre sí propagando estados de activación. La posición actual del robot es indicada por un nodo activo. El mapa construido representa la proximidad espacial de las referencias físicas mediante conexiones topológicas {a unas referencias adyacentes les corresponden unos nodos contiguos; véase la figura 2.3). Un nodo activo excita a sus vecinos en la dirección del recorrido, generando así unas «expectativas» sobre los próximos hitos que se van a encontrar. Supongamos ahora que el robot quiere encontrar el camino hacia una posición recordada. La actividad del nodo para esa posición aumenta. El nodo de la situación actual también está activo. A continuación, el proceso de propagación de la activación difunde una señal por el mapa cognitivo y se computa la trayectoria más corta hasta la meta (figura 2.4). Como los propios nodos del mapa combinan información sobre el movimiento del ro-
90 I De excursión por la mente
Figura 23 Mapa construido por un robot en el entorno mostrado en la figura 2.2. Las conexiones topológicas entre los hitos indican adyacencias espaciales. Fuente: Mataric, 1991. Reproducido con la autorización de M. Mataric y MIT Press.
FtGURA 2.4 El mapa lleva a cabo activamente la búsqueda de trayectorias. El nodo sombreado es el nodo meta. Las flechas indican la propagación de la activación a partir del nodo meta. Fuente: Mataric, 1991. Reproducido con la autorización de M. Mataric y MIT Press.
bot y la correspondiente entrada perceptiva, el propio mapa puede actuar como controlador. Resulta que utilizar el mapa y generar el plan para los movimientos reales es, exactamente, la misma actividad.
Esta característica -la capacidad del propio mapa para actuar como controlador- es la que tiene más interés para nosotros. Un enfoque más clásico postularía la presencia simultánea de un mapa almacenado y de un módulo de control central que accede a ese mapa y lo emplea para planificar los movimientos. En cambio, el robot de Mataric no emplea ningún dispositivo de razonamiento fuera del mapa mismo. El mapa es su propio usuario y su conocimiento es al mismo tiempo descriptivo (de posiciones) y prescriptivo (representa la relación entre dos posiciones como la secuencia de movimientos que permiten al robot desplazarse de una posición a la otra). Por tanto, este robot es un ejemplo perfecto de la noción de representaciones orientadas a la acción: representaciones que describen aspectos .del mundo y al mismo tiempo prescriben acciones posibles, y que se encuentran entre las puras estructuras de control y las representaciones pasivas de la realidad externa.
El psicólogo James Gibson (1950, 1968, 1979) promovió una imagen de las representaciones internas relacionada con la anterior. Sin embargo este trabajo incurrió en el error de parecer atacar lout court la noción de unos estados internos mediadores complejos. A pesar de este desliz retórico, los enfoques de Gibson tienen mucho más interés cuando sólo se ven
El niño situado | 91
en cuanto se oponen a la imagen de la representación interna como codificación o reflejo.
La afirmación de Gibson, expresada de esta manera aséptica, era que la percepción, en general, no está mediada por unos modelos del mundo internos, detallados y neutrales respecto a la acción. No está mediada por estados internos que requieran más inspecciones o cómputos (por parte de otro agente interno) para producir acciones adecuadas. Por tanto, esto no significa negar totalmente la existencia y la importancia de unos estados mediadores internos. Significa, más bien, insistir en que los estados internos están «centrados en la acción», tema en el que Gibson profundiza describiendo a los organismos como entes adaptados para detectar «facilitaciones (affor- dances)» en el entorno distal. Estas oportunidades no son nada más que las posibilidades de uso, intervención y acción que ofrece el entorno local a un tipo concreto de agente corpóreo. Por ejemplo, un ser humano percibe una silla como algo que «facilita un asiento», pero las facilitaciones ofrecidas por esa silla a un hámster serían totalmente diferentes.
Interpretada de esta manera, la percepción está orientada desde el prin cipio a investigar posibilidades para la acción. En lugar de una re-prescnta- ción pasiva seguida de una inferencia, Gibson postula la «percepción directa» de un complejo de oportunidades para la acción. Al representar (como diría yo, que no Gibson) el entorno como un complejo de posibilidades, creamos unos estados internos que describen aspectos parciales del mundo y que, al mismo tiempo, prescriben intervenciones y acciones posibles. Estos estados han sido bautizados acertadamente con el nombre de representaciones «pushmi-pullyu» (animal imaginario de los relatos del doctor Dolittle, obra del escritor Hugh Lofting [n. del ed.]) por la filósofa Ruth Millikan.21 Al igual que esta quimérica fiera, estas representaciones miran en los dos sentidos a la vez: dicen cómo es el mundo y además prescriben un espacio de respuestas adaptativas.
El tema común de estas diversas líneas de investigación es el rechazo a cualquier imagen global de la percepción como recepción pasiva de información. Como vimos, las percepciones que tienen los niños de las pendientes parecen estar vinculadas profundamente con los hábitos motores específicos mediante los cuales se enfrentan activamente a ellas. En los experimentos con lentes distorsionadoras, parece que la habilidad de los adultos con los dardos implica la intervención de sistemas de percepción/acción a gran escala, y no una percepción pasiva que actúe como fuente de datos que luego
21. Véanse Millikan, 1995 y Clark, 1995. También se puede encontrar una versión cíe tipocomputacional de estas ideas en el empleo de Rutkowska (1995, págs. 67-78) de los «programas de acción» como constructo fundacional de las teorías del desarrollo
serán explotados por unos sistemas de acción independientes. Estos casos indican que los productos inmediatos de gran parte de la percepción no son tanto descripciones neutrales del mundo como especificaciones ligadas a la actividad de modos potenciales de acción e intervención. Tampoco estas especificaciones son neutrales en relación con el sistema. En cambio, como indica la discusión sobre la acción de alcanzar, es probable que se adapten de maneras que simplemente supongan, como telón de fondo no representado, la dinámica corporal intrínseca de unos agentes específicos. Vale la pena hacer una pausa para apreciar cuánta distancia separa esta visión de la clásica imagen «incorpórea».
La percepción se suele formular como un proceso mediante el cual recibimos información procedente del mundo. Por tanto, la cognición com prende unos procesos inteligentes definidos en tomo a alguna versión interna de esa información. La acción intencional se interpreta como la ejecución de órdenes que constituyen la salida de un sistema «pensador» central. Pero el éxito en el mundo en tiempo real no respeta esta pulcra división tripartita del trabajo. En cambio, la misma percepción está enmarañada con unas posibilidades específicas de acción: de hecho, está tan enmarañada que la tarea de la cognición central con frecuencia deja de existir. Por tanto, las representaciones internas que emplea la mente para orientar las acciones se pueden entender mejor como estructuras de control específicas de la acción y del contexto, en vez de como recapitulaciones pasivas de la realidad externa. Los modelos internos detallados y neutrales respecto a la acción que tenían que proporcionar el ámbito para un pensamiento incorpóreo y centralizado, aparecen ahora como un lujo lento, costoso y difícil de mantener que la naturaleza preocupada por los costes generalmente se esforzará en evitar.
92 I De excursión por la mente
3 Mente y mundo: la frontera plástica
3.1 La mente escurridiza
La mente es un órgano escurridizo, que se escapa constantemente de sus confines «naturales» y se mezcla descaradamente con el cuerpo y el mundo. ¿Qué tipo de cerebro necesita semejante apoyo externo y cómo deberíamos caracterizar sus interacciones con el entorno? Como veremos, emergerá una imagen del cerebro como una especie de motor asociativo cuyas interacciones con el entorno constituyen una serie repetida de cómputos sencillos orientados a completar patrones.
A primera vista, esta imagen puede parecer profundamente inadecuada. ¿Cómo puede explicar la auténtica escala y dimensión del éxito cognitivo humano? Parte (pero sólo parte) de la respuesta es que, con frecuencia, núes tra conducta está esculpida y secuenciada por una clase especial de estructuras externas complejas: los artefactos culturales y lingüísticos que estructuran la vida moderna, incluyendo mapas, textos y planes escritos. La comprensión de la compleja interacción entre nuestros recursos neuronales incorporados y en línea por un lado, y estos puntales y soportes externos por otro, es una tarea fundamental para las ciencias del pensamiento corpóreo.
Empezaré poco a poco, presentando un protagonista destacado de nuestro incipiente escenario: la red neuronal artificial.
3.2 Las redes neuronales: una revolución inconclusa
CYC, la enciclopedia electrónica descrita en la introducción, era un ejemplo extremo de inteligencia artificial basada en reglas y símbolos. No todos los proyectos de la inteligencia artificial tradicional eran tan fanáticos
94 I De excursión por la mente
acerca del poder de las grandes bases de conocimientos y las codificaciones explícitas, pero persistía un sabor común subyacente a todos ellos: la imagen general de la inteligencia como manipulación de símbolos siguiendo unas reglas. Por ejemplo, los programas de «física ingenua» pretendían especificar en forma lógica nuestro conocimiento cotidiano sobre cómo se derraman los líquidos, cómo se amontonan los libros, etc. (Hayes, 1979). Programas como STRIPS aplicaban técnicas de demostración de teoremas a la resolución de problemas ordinarios (Fikes y Nilsson, 1971), y sistemas grandes como SOAR incorporaban una amplia variedad de métodos y representaciones de este tipo en una sola arquitectura computacional. Sin embargo, hasta la aparición (o la reaparición1) de los denominados modelos de redes neuronales de la mente, no se puso sobre la mesa una propuesta fundamentalmente diferente.
Como indica su nombre, los modelos de redes neuronales están inspirados, por lo menos vagamente, en una reflexión sobre la arquitectura del cerebro. El cerebro se compone de muchas unidades simples de procesamiento (las neuronas) enlazadas en paralelo por una gran masa de cables y empalmes (axones y sinapsis). En general, las unidades individuales (las neuronas) sólo son sensibles a informaciones locales: cada neurona «escucha» lo que sus vecinas le cuentan. Pero a partir de esta masa de conexiones en paralelo, procesadores simples e interacciones locales, surge la asombrosa habilidad computacional y de resolución de problemas del cerebro humano.
Durante los años ochenta, el campo de la inteligencia artificial fue transformado por una explosión de interés en una clase de modelos computado- nales que compartían esta tosca descripción de la funcionalidad del cerebro. Eran los modelos «conexionistas» (o «de redes neuronales» o «de procesamiento distribuido en paralelo») de la inteligencia y la cognición. El grado de similitud entre estos modelos iniciales y el cerebro no se debería exagerar/ Las diferencias seguían siendo enormes: la multiplicidad de tipos de
1. Algunas de las ideas originales fueron formuladas hace ya muchos años (desde la perspectiva de la inteligencia artificial), en 1943; véanse McCulloch y Pitts, 1943; Hebb, 1949 y Ro- senblatt, 1962.
2'. Consideremos el modelo de Mataric, descrito en el apartado 2.6 anterior. El tipo de mapa que detalla Mataric tiene fuertes afinidades con modelos recientes sobre la codificación de información espacial por parte del hipocampo (McNaughton, 1989). Sin embargo, hay una diferencia relacionada con el empleo en el modelo de Mataric de nodos únicos como codificadores de informaéión sobre «hitos». Es probable que el hipocampo emplee una forma de representación mucho más distribuida, con muchas neuronas involucradas en la representación de cada «hito». Existen modelos más detallados de la función del hipocampo basados en redes neuronales artificiales que realmente reconocen el papel de esta distribución (veanse, por ejemplo O ’Keefe, 1989 y McNaughton y Nadel, 1990). Estos modelos sugieren
Mente y mundo: la frontera plástica I 95
neuronas y sinapsis y el empleo de propiedades temporales (como las frecuencias de los picos) no entraban en los modelos, la conectividad no estaba restringida de la misma manera que en los sistemas nerviosos reales, etc. A pesar de todo esto, el sabor de los modelos era ciertamente diferente y, en un sentido muy real, biológicamente más atractivo. Para los investigadores de la inteligencia artificial que trabajaban en el nuevo paradigma, llegó a ser mucho más fácil entrar en contacto con los resultados y las hipótesis de la neu- rociencia real. Por fin, los vocabularios de las diversas ciencias de la mente parecían acercarse entre sí.
El estilo básico de este nuevo enfoque se transmite mejor mediante ejemplos. Consideremos la tarea de pronunciar textos escritos en inglés convirtiendo la entrada escrita (palabras) en salida fonética (habla). Este problema se resuelve mediante sistemas que codifiquen reglas para convertir textos a fonemas y listas de excepciones, todas ellas cuidadosamente codificadas a mano por programadores humanos. Por ejemplo, DECtallc es un programa comercial que realiza esta tarea y cuya salida puede gobernar un sintetizador de voz digital. Por tanto, DECtalk se basa en una base de conocimientos bastante grande, formulada explícitamente y hecho a mano. En cambio, NET- talk aprende a resolver el problema usando una red neuronal artificial. A esta red no se le ha proporcionado ningún conjunto de reglas codificadas a mano para resolver el problema, y aprende a resolverlo mediante la exposición a un gran conjunto de ejemplos de parejas texto-fonemas y empleando una rutina de aprendizaje (que se detalla más adelante). La arquitectura de NETtalk es una red de unidades interconectadas que comparten toscamente algunas de las propiedades de las redes neuronales reales. Y la conducta
que la estructura del hipocampo es una muy buena candidata para un sistema nervioso real que opere, en líneas generales, de manera similar a las redes neuronales artificiales descritas en el apartado 3.2. Sin embargo, es igual de evidente que harán falta unos modelos neuro- biológicamente más realistas que incorporen muchas características no encontradas en la mayoría de las redes artificiales. Por ejemplo, el tipo de retroalimentación correctora de errores muy detallada utilizada por los dispositivos de aprendizaje por retropropagación, probable mente no se encuentra en el cerebro aunque seguramente tiene lugar algún tipo de adaptación dirigida por el error. Tampoco los circuitos neuronales reales exhiben la conectividad si métrica mostrada en la mayoría de las redes artificiales y, en cambio, nos solemos encontrar con una conectividad asimétrica y especializada. A pesar de estas diferencias (y hay muchas más; véanse McNaughton, 1989 y Churchland y Sejnowski, 1992), los modelos computacio nales de las estructuras neuronales reales siguen debiendo mucho más a los marcos de referencia de las redes neuronales artificiales que a los de la inteligencia artificia! clásica. Y la ca pacidad básica responsable de esto es la dependencia de sistemas de memoria asociativa, que sustituyen el razonamiento basado en reglas y símbolos por procesos ricos y potentes de com- pleción de patrones.
3 Digital Equipment Corporation DTC 01-AA.
96 I De excursión por (a mente
de esta red artificial es verdaderamente impresionante. Como las unidades de salida están conectadas a un sintetizador de voz, se puede escuchar al sistema mientras aprende lentamente a hablar, pasando de un balbuceo entrecortado a palabras medio formadas y, por último, a una buena simulación de una pronunciación normal.
NETtalk (al igual que DECtalk) no entiende nada. No se le ha dicho nada sobre el significado de las palabras y no puede emplear el lenguaje para lograr una meta mundo real. Pero, con todo, es una demostración de referencia de la capacidad de las redes neuronales artificíales para resolver problemas complejos y realistas. ¿Cómo funciona?
Los elementos de este sistema informático son unas neuronas idealizadas o «unidades». Cada unidad es un dispositivo procesador simple que recibe señales de entrada de otras unidades mediante una red de conexiones en paralelo. Cada unidad combina sus entradas y produce una salida basándose en una simple función matemática.4 Por tanto, la unidad se activa en la medida dictada por los datos de entrada y pasa una señal a las unidades vecinas. La señal que llega a estas unidades vecinas está determinada tanto por el nivel de activación de la unidad «remitente» como por la naturaleza de la co nexión implicada. Cada conexión tiene un peso que modula la señal. Este peso puede ser positivo (excitador) o negativo (inhibidor). La señal que se recibe está determinada por el producto del peso numérico y la fuerza de la señal de la unidad «remitente».
Una red conexionista típica como NETtalk consta de tres capas de unidades: las «unidades de entrada» (que codifican los datos que se deben procesar), las «unidades ocultas» (que intervienen en el procesamiento}5 y las «unidades de salida» (que especifican la respuesta del sistema a los datos en forma de un vector de valores numéricos de activación). El conocimiento del sistema se codifica en los pesos de las conexiones entre las unidades, y estos pesos se adaptan durante el aprendizaje. El procesamiento supone la diseminación de la activación por toda la red, tras la presentación de un conjunto específico de valores de activación en las unidades de entrada. En el caso de NETtalk hay siete grupos de unidades de entrada con 29 unidades cada uno. Cada grupo representa una letra y la entrada consta de siete letras de las que la cuarta es el objetivo cuya contribución fonémica se debe determinar en cada momento (dentro del contexto proporcionado por las seis letras res
4. Estas fundones no,suelen ser lineales; es decir, la fuerza de la salida no es directamente proporcional a la suma de las entradas. En cambio, puede ser proporcional cuando (por ejemplo) las señales entrantes son de intensidad media pero allanarse cuando son muy fuertes o muy débiles.
5. Las características de respuesta de las unidades ocultas se han descrito más arriba.
Mente y mundo: la frontera plástica 97
tantes). Las entradas se conectan a una capa de 80 unidades ocultas, que a su vez se conectan a 26 unidades de salida que codifican fonemas. En total, la red consta de 18.829 conexiones con sus correspondientes pesos.
¿Cómo aprende un sistema como éste? Aprende ajustando los pesos en tre las unidades según un algoritmo o procedimiento sistemático. Uno de estos procedimientos es el «algoritmo de retropropagación» (backpropaga- don), que funciona de la manera siguiente: el sistema se inicializa con una serie de pesos aleatorios (dentro de ciertos limites numéricos). Como los pesos son aleatorios, el sistema no solucionará el problema planteado. Entonces es cuando se entrena a la red. Se le da un conjunto de entradas y para cada entrada producirá (gracias a los pesos aleatorios iniciales) una salida, casi siempre incorrecta. Sin embargo, hay un sistema supervisor que consulta la salida correcta para cada entrada (como un profesor que sabe las respuestas de antemano). El sistema supervisor compara automáticamente la salida real (un conjunto de valores numéricos de activación) con la salida correcta. Por ejemplo, un sistema de reconocimiento de rostros puede tomar como entrada la especificación de una imagen visual y se le puede exigir que dé como salida unos códigos artificiales que correspondan a unos individuos nombrados. En este caso, la salida correcta para una entrada visual dada podría ser la sucesión numérica (1010) si hubiera sido designada de antemano como un código arbitrario para «Esther Russeíl». A causa de los pesos aleatorios, el sistema quizás no acierte y dé, por ejemplo (0,7,0,4,0,2,0,2) como salida inicial. En este punto, el sistema supervisor compara la salida real con la deseada para cada unidad de salida y calcula el error correspondiente. Los errores se elevan al cuadrado (por razones que no hace falta especificar aquí) y se calcula su media, obteniéndose un error cuadrárico medio (ECM). Luego el sistema se centra en el peso de una conexión y comprueba (manteniendo invariables los otros pesos) si aumentando o disminuyendo ligeramente el peso se reduce el ECM. Si es así, el peso se corrige en consecuencia. Este procedimiento se repite para cada peso y el ciclo total de entrada/salida/ajuste de peso se repite una y otra vez hasta que se alcanza un ECM bajo. En este momento la red funcionará bien (en nuestro caso, asignando el nombre correcto a cada imagen visual). Ahora es cuando cesa el entrenamiento y los pesos se conservan: la red ha aprendido a resolver el problema.6
Este tipo de aprendizaje se puede concebir como un descenso por un gradiente. Imaginemos que nos encontramos en algún punto de la pendiente interior de un cráter en forma de cuenco gigante. Nuestra tarea es encontrar el fondo, es decir, la solución correcta o el error más bajo. Como tenemos los
6. Véase una explicación especialmente clara y accesible de estos enfoques en Church* land, 1995. Véanse también Clark, 1989 y Churchland, 1989.
98 I De excursión por la mente
ojos vendados, no podemos ver dónde está el fondo. Sin embargo, cada vez que damos un paso pequeño podemos determinar si nos movemos hacia arriba (es decir, en la dirección de más error) o hacia abajo (en la dirección de menos error). Simplemente utilizando esta retroalimentación local y avanzando paso a paso, nos acercaremos inexorablemente al fondo de la cuenca, que es donde nos detendremos. Los métodos de aprendizaje de descenso por un gradiente (de los que la retropropagación es un ejemplo) actúan esencialmente de la misma manera: el sistema es empujado cuesta abajo por la pendiente del error decreciente hasta que no puede bajar más. En este pun to (en paisajes con forma de cuenco) se alcanza la solución y el problema se resuelve.
Obsérvese que los pesos no se codifican a mano en ninguna etapa de este proceso. Para cualquier problema complejo, encontrar un conjunto funcio nal de pesos de conexión mediante un análisis reflexivo está mucho más allá de nuestras capacidades actuales. Lo que se nos ofrece es una arquitectura inicial con una cantidad dada de unidades y un tipo determinado de conec- tividad, y un conjunto de casos de entrenamiento (pares entrada-salida). Obsérvese también que, en general, el resultado final del aprendizaje no es que el sistema memorice como un papagayo los datos de entrenamiento. En el caso de NETtalk, por ejemplo, el sistema aprende aspectos generales de la relación entre el inglés escrito y hablado. Después del entrenamiento, la red puede enfrentarse con éxito a palabras nuevas que no estaban en el conjunto de entrenamiento inicial.
Lo más importante es que el conocimiento de las transiciones de texto a fonemas de NETtalk no adopta la forma de codificaciones explícitas de re glas o principios mediante cadenas de símbolos. Este conocimiento se almacena de una manera adecuada para su empleo directo medíante un sistema parecido al del cerebro: como pesos o conexiones entre unidades o «neuronas» idealizadas. En cambio, las formas de tipo textual favorecidas por CYC y SOAR son adecuadas para que unos agentes avanzados como los seres humanos las utilicen como estructuras de conocimiento externas y pasivas. Si miramos hacia atrás, sin duda consideraremos muy poco verosímil que nuestros propios cerebros (que no son tan diferentes de los de algunos seres que carecen de lenguaje) emplearan un formato similar al elegido por las débiles proyecciones de nuestros pensamientos en medios públicos como el papel y las moléculas de aire. Los códigos cerebrales deben ser activos en un sentido en el que el almacenamiento de textos no lo es. Por tanto, creo que la principal lección de la investigación de las redes neuronales ha sido expandir nuestra visión de las maneras en que un sistema físico como el cerebro puede codificar y explotar informaciones y conocimientos. En este sentido, la revolución de las redes neuronales ha sido un éxito indudable.
Mente y mundo: la frontera plástica 99
Además, parece que la tecnología de las redes neuronaíes va a permanecer entre nosotros. Técnicas como las que acabamos de describir se han aplicado con éxito en una increíble variedad de campos, incluyendo el reconocimiento de códigos postales escritos a mano, tareas de procesamiento visual, el reconocimiento de rostros, el reconocimiento de firmas, el control robótico e incluso la planificación y la demostración automatizada de teoremas. La potencia y la utilidad de esta tecnología son indudables. Sin embargo, su capacidad para dilucidar la cognición biológica no depende simplemente de utilizar un estilo de procesamiento que recuerda aproximadamente al de los sistemas nerviosos reales, aunque sea de una manera aproximada, sino también del despliegue de estos recursos de una manera biológicamente realista. Creo que la elección de representaciones de entrada y salida muy artificiales y de ámbitos de problemas muy pobres ha privado a la revolución de las redes neuronaíes de parte de su impulso inicial. Esta inquietud está directamente relacionada con el énfasis creciente en la acción real y, en conse cuencia, merece una explicación más detallada.
El problema es, en esencia, que gran parte de la investigación sobre las redes neuronaíes artificiales se ha apoyado demasiado en una concepción más bien clásica de la naturaleza de los problemas. Muchas redes se han dedicado a investigar lo que una vez denominé «mícromundos verticales» (Clark, 1989, capítulo 4; véase también el apartado 1.2 anterior): pequeñas piezas de cognición de nivel humano como producir el pretérito de verbos ingleses7 o aprender gramáticas simples.8 9 Incluso en tareas aparentemente más básicas (por ejemplo, equilibrar bloques de construcción en una barra que se apoya sobre un fulcro móvil’), la elección de las representaciones de entrada y de salida solían ser muy artificiales. Por ejemplo, la salida de ios programas para equilibrar bloques no era un conjunto de acciones motrices reales de brazos robóticos o, por lo menos, una codificación de estas acciones; era simplemente la actividad relativa de dos unidades de salida, interpretada de modo que una actividad igual en las dos unidades indicaba la expectativa de un estado de equilibrio y una actividad excesiva en cualquier unidad indicaba la expectativa de un desequilibrio en la dirección correspondiente. Las entradas proporcionadas al sistema también eran artificiales: una codificación arbitraria para el peso en un canal de entrada y otra para la distancia desde el fulcro en el otro canal. Es bastante razonable suponer que esta manera de establecer el espacio del problema puede conducir a solucio
7. Véanse Rumelhart y McClelland, 1986 y las evaluaciones críticas en Clark, 1989 y Clark, 1993.
8. Véase Elman, 1991.9. McClelland, 1989; Plunkctt y Sinha, 1991.
100 I De excursión por la mente
nes artificiales e irreales. Seguramente una estrategia alternativa y quizá mejor sería darle al sistema datos de entrada realistas (por ejemplo, procedentes de cámaras) y hacer que produjera como salida acciones reales (desplazar bloques reales hasta el punto de equilibrio). Naturalmente, un sistema como éste requiere la solución de muchos problemas adicionales y la ciencia siempre debe simplificar los experimentos cuando sea posible. Sin embargo, cabe la sospecha de que la ciencia cognitiva ya no puede permitirse más simplificaciones que excluyan del bucle al mundo real y al organismo que actúa: estas simplificaciones pueden oscurecer las soluciones a los problemas ecológicamente realistas que caracterizan a agentes corpóreos activos como los seres humanos. La aspiración de la ciencia cognitiva -dilucidar la cognición biológica real- no puede ser compatible con una estrategia basada en la abstracción continua de los anclajes de la percepción y de la acción en el mundo real. Creo que esta sospecha está totalmente confirmada por los importantes Corpus de investigación descritos en este libro. Un tema fundamental, que ya ha aparecido anteriormente, es que abstraer los polos reales de la sensación y de la acción priva a nuestros sistemas artificiales de la oportunidad de simplificar, o de transformar de otras maneras, sus tarcas de procesamiento de información mediante la explotación directa de la estructura de la realidad. Sin embargo, y como veremos a continuación, esta explotación puede ser especialmente esencial si pretendemos abordar la resolución de problemas sofisticados utilizando los tipos de recursos biológicamente plausibles de compleción de patrones que nos ofrecen las redes neuronales artificiales.
3.3 Apoyarse en el entorno
Las redes neuronales artificiales de tipo general descritas anteriormente10 presentan una interesante combinación de ventajas e inconvenientes. Son capaces de tolerar datos «ruidosos», imperfectos o incompletos. Son resistentes a daños locales. Son rápidas. Y sobresalen en tareas que suponen la integración simultánea de muchas pequeñas señales o elementos de información, una capacidad que es esencial para el reconocimiento perceptivo y el control motor en tiempo real. Estas ventajas se derivan del hecho de que estos sistemas se dedican a completar patrones con un procesamiento en paralelo masivo. La tolerancia a datos «ruidosos», incompletos o imperfectos equivale a la capacidad de recrear patrones completos a partir de señales parciales. La resistencia a los daños locales se debe al empleo de múltiples
10. Vease una descripción mucho más cuidadosa de esta clase de modelos en Clark, 1993.
Mente y mundo: la frontera plástica I 101
recursos, a nivel de unidad, para codificar cada pauta. La velocidad se debe al funcionamiento en paralelo, igual que la capacidad para tener en cuenta simultáneamente múltiples señales pequeñas." Incluso algunos fallos de estos sistemas son atrayentes en el plano psicológico. Pueden sufrir «interferencias» cuando unas codificaciones similares se obstaculizan mutuamente (de manera similar a cuando aprendemos un número de teléfono que se parece a otro que ya sabemos y enseguida los confundimos, olvidándonos de los dos). Y no son intrínsecamente adecuados para la resolución de problemas secuencial y gradual típica de la lógica y la planificación {Norman, 1988; Clark, 1989, capítulo 6). Estos sistemas se podrían caracterizar en pocas palabras diciendo que son «buenos al fútbol pero malos en lógica», un perfil más que familiar. Los sistemas clásicos, con sus direcciones de memoria ordenadas y bien definidas, son inmunes a estas interferencias y ofrecen un rendimiento excelente en la resolución de problemas lógicos y secuenciales, pero rinden mucho peor en tareas de control en tiempo real.
Por tanto, las redes neuronales artificiales son sistemas rápidos pero li mitados que, de hecho, sustituyen el razonamiento clásico por el reconocimiento de patrones. Como era de esperar, esto es a la vez una ventaja y un inconveniente. Es una ventaja en el sentido de que ofrecen, precisamente, los recursos necesarios para las tareas que los seres humanos realizan mejor y con más fluidez: control motor, reconocimiento de rostros, lectura de códigos postales escritos a mano, etc. (Jordán y otros, 1994; Cottrell, 1991; LeCun y otros, 1989). Pero es una desventaja cuando nos enfrentamos a tareas como razonar de manera secuencial o planificar a largo plazo. Esto no es necesariamente malo. Si nuestro objetivo es modelar la cognición humana, se deben favorecer aquellos fundamentos computacionales que produzcan una pauta de puntos fuertes y débiles parecida a la nuestra. Y en general somos mejores al fútbol que en lógica. De todos modos, también somos capaces, por lo menos en ocasiones, de planificar a largo plazo y de llevar a cabo razonamientos secuenciales. Si en el fondo somos dispositivos asociativos reconocedores de patrones,IJ ¿cómo es esto posible? Creo que nuestra capacidad para elevarnos 11 12
11. Véanse los detalles completos en el capítulo 5 de Clark, 1989.12. Naturalmente, esto sigue siendo objeto de debate. Pero cada vez parece más claro
que, sean como sean realmente los cerebros, están más cerca del perfil de procesamiento de información de las redes neuronales artificiales que del perfil de los dispositivos clásicos. De hecho, parece probable (véase el apartado 3.4 más adelante) que los cerebros biológicos exploten más mecanismos especializados que las redes neuronales artificiales típicas pero que el «tilo de representación y de procesamiento siga siendo similar a lo largo de varias dimensiones importantes (como el empleo de codificaciones distribuidas en paralelo y de transformaciones vector a vector; véanse, por ejemplo Churchland, 1989; Churchland y Sejnowski, 1992 y Churchland, 1995).
102 i De excursión por la mente
por encima de nuestras raíces computacionales es el resultado com binado de varios factores. Algunos de ellos aparecerán en capítulos posteriores.” Sin embargo, hay uno que merece nuestra inmediata atención. E s el em pleo de nuestro viejo amigo, el andamiaje externo.
Las mentes conexionistas son las candidatas ideales para utilizar un abundante andamiaje externo. Un ejemplo sencillo, detallado en P aralle l D istribuí ed Processing (la «biblia» en dos volúmenes de la investigación sobre las redes neuronales13 14), es el caso de las multiplicaciones largas. E l argum ento es que la mayoría de nosotros podem os aprender a reconocer de un vistazo la respuesta a multiplicaciones simples como 7 x 7 = 49. E ste conocim iento se puede apoyar fácilmente en un dispositivo incorporado básico para el reconocimiento de patrones. Sin embargo, las multiplicaciones m ás largas plantean un problema diferente. Si se nos pide que multipliquemos 7.222 x 9.422, la mayoría de nosotros echará mano de lápiz y papel (o de una calculadora). Con el empleo de lápiz y papel, lo que conseguimos es reducir un problem a complejo a una sucesión de problemas más simples que em pieza con 2 x 2 . Utilizamos el medio externo (un papel) para almacenar los resu ltados de estos problemas simples y al final llegamos a una solución m ediante una serie interrelacionada de compieciones de patrones sim ples y alm acenam ientos externos. Rumelhart y otros (1986, pág. 46), comentan: « L o que aqu í vemos es un verdadero procesamiento de símbolos, y empezamos a pen sar que es el principal procesamiento de símbolos que somos capaces de realizar. D e hecho, desde este punto de vista, el entorno exterior se convierte en una extensión fundamental de nuestra mente».
Naturalmente, algunas personas aprenden a hacer estos cálcu los mentalmente. En estos casos el truco parece consistir en aprender a m anipular un modelo mental de la misma manera que antes m anipulábam os el mundo real. Este tipo de manipulación interna de sím bolos es fundam entalm ente distinta de la concepción clásica de los sím bolos internos, p o rq u e no dice nada del sustrato computacional de estas imágenes. La cuestión es, pura y simplemente, que podemos simular mentalmente el entorno exterior y que, en consecuencia, a veces interiorizamos competencias cognitivas que no por ello dejan de estar enraizadas en manipulaciones del m undo exterior. Dicho de otra manera: la ciencia cognitiva se encuentra con la psicología soviética.”
f
13- Véanse especialmente las exposiciones sobre la actividad colectiva (capítulo 4) y sobre el papel mas amplio del lenguaje y la cultura (capítulos 9 y 10).
14. Parallel DistributedProcessing- Explorations tu the Microstructure o f Cogmtion , volumen 1. Poundations y volumen 2: Psycbologtcal and Btological Models (M IT Press, Í986). El trabaio descrito (Rumelhart y otros, 1986) se encuentra en el capítulo 14.
15. Véase, por ejemplo, Vygatsky, 1962. Véanse también los cap ítu los 9 y 10 de este libro.
Mente y mundo: la frontera plástica I 103
Por tanto, podríamos decir que la combinación de unas capacidades básicas para la compleción de patrones con unos entornos complejos y bien estructurados nos permite alzarnos del suelo tirando de nuestras propias orejas computacionales. Quizás la visión original de la inteligencia artificial clásica equivalía, en realidad, a considerar que las capacidades básicas de compleción de patrones de los organismos estaban embebidas en un entorno perfectamente estructurado; una visión erróneamente proyectada en los recursos de procesamiento básicos incorporados en el organismo. Dicho en otros términos, la inteligencia artificial clásica basada en reglas y símbolos puede haber comeddo un error fundamental, confundiendo el perfil cognitivo del agente más el entorno, con el perfil cognitivo del cerebro aislado (Clark, 1989, pág. 135; Hutchins, 1995, capítulo 9). La clásica separación limpia y tajante entre datos y procesos, entre estructuras de símbolos y procesadores centrales, quizás no haya reflejado nada más que la separación entre el agente y un andamiaje externo de ideas que persisten sobre papel, en archivadores o en soportes electrónicos.
Los atractivos de esta visión no deberían disimular sus defectos. El entorno externo humano está perfectamente estructurado en virtud de nuestro empleo de formalismos lingüísticos, lógicos y geométricos y de los múltiples sistemas de memoria externa de la cultura y el aprendizaje. No todos los animales son capaces de crear estos sistemas ni se pueden beneficiar de ellos una vez establecidos. Por tanto, la insistencia en el andamiaje externo no puede soslayar el hecho evidente de que los cerebros humanos son especiales. Pero la diferencia computacional puede ser menor y menos radical de lo que en ocasiones creemos. Quizás el origen y la explotación de instrumentos lingüísticos y culturales simples se deba a una pequeña serie de diferencias neurocognitivas. A partir de aquí se puede poner en marcha un efecto tipo bola de nieve (un bucle de retroalimentación positiva). Unos simples apoyos externos nos permiten pensar mejor y crear nuevos apoyos y prácticas de carácter más complejo que, a su vez, «turboalimentarán» nuestro pensamiento un poco más, lo que conduce al desarrollo de apoyos aun mejores... ¡Es como si la longitud de nuestra orejas creciera al tirar de ellas para alzarnos!
De nuevo con los pies en el suelo, podemos profundizar en la idea de un razonamiento completador de patrones en algunos ámbitos más sencillos. Consideremos el estudio de David Kirsh (1995) sobre el empleo inteligente del espacio físico. Kirsh, que trabaja en el Departamento de Ciencias Cogni- tivas de la Universidad de California en San Diego, observa que los estudios típicos de inteligencia artificial tratan la planificación como un fenómeno muy incorpóreo: sobre todo, desatienden nuestra manera de utilizar las propiedades espaciales reales del ámbito de trabajo para simplificar el cómputo
104 I De excursión por la mente
interno. Naturalmente, una vez expresada esta idea los ejemplos abundan. Veamos algunos de los ejemplos favoritos de Kirsh:
• Si al seguir una dieta queremos consumir las 3/4 partes de la ración de requesón de un día (digamos 2/3 de taza) durante una comida, daremos una forma redonda a la ración de queso, la dividiremos en 4 porciones y nos serviremos 3. De esta manera es fácil ver la cantidad requerida, pero calcular 3/4 de 2/3 ya no es tan fácil. (De la Rocha, 1985, citado en Kirsh, 1995).
• Cuando reparamos un alternador, al desmontarlo colocaremos las piezas en línea o formando grupos para que la tarea de volverlo a montar sea más fácil.
• Para colocar comestibles en bolsas, crearemos lotes de artículos similares encima del mostrador. Si agrupamos los artículos resistentes, los frágiles y los intermedios, simplificaremos el proceso de selección visual y el tamaño relativo de cada montón nos alertará sobre las necesidades de acomodación más urgentes.
• Cuando resolvamos un puzzle, agruparemos las piezas similares y asi podremos comparar visualmente y de una manera detallada todas las piezas verdes (por ejemplo) que tengan un borde recto.
El mensaje es claro: controlamos nuestro entorno físico y espacial de maneras que alteran fundamentalmente las tareas de procesamiento de información a las que se enfrenta nuestro cerebro (recordemos el «principio 007» del capítulo 2).
Sí este enfoque cooperador es valioso se debe a la diferencia entre la naturaleza de los cómputos que surgen de una manera natural en el cerebro en sí y la naturaleza de los cómputos que se pueden realizar parasitando recursos del entorno. Pero, como veremos, este parasitismo pone en duda los mismos límites tradicionales que existen entre mente y mundo.
3.4 Planificación y resolución de problemas
Existe una visión incorpórea clásica de la planificación que Phil Agre y David'Chapman (1990) han denominado «los planes como programas». Se trata de la idea (que ya encontramos en el capítulo 2) de que un plan especifica una sucesión completa de acciones que basta realizar con éxito para lograr una meta. Una lista de instrucciones para cocinar un huevo pasado por agua o para desmontar un alternador viene a ser una de estas especificaciones. De hecho, gran parte del trabajo sobre la planificación «clásica» imagina que las secuencias complejas de acciones están determinadas por una ver
Mente y mundo: la frontera plástica I 105
sión interiorizada de uno de estos conjuntos de instrucciones (véanse, por ejemplo, Tate, 1985, y Fikes y Nilsson, 1971).
Sin embargo, en cuanto observamos detenidamente las conductas de planificación de agentes reales, es evidente que existe una interacción bastante compleja entre el plan y el entorno de apoyo. Esta interacción va mucho más allá del hecho evidente de que unas acciones específicas, una vez realizadas, tal vez no tengan el efecto deseado y, en consecuencia, exijan replantear sobre la marcha la consecución de algunos subobjetivos concretos. En estos casos el plan interiorizado original sigue siendo una especificación completa, aunque falible, de un camino hacia el éxito. Sin embargo, en muchos casos el plan resulta ser mucho más parcial y dependiente de las propiedades del entorno local.
El caso anterior del puzzle es un buen ejemplo. Aquí, un agente puede explotar una estrategia que incorpore la actividad física de una manera fundamental. Tomar piezas, hacerlas girar para buscar potenciales coincidencias espaciales y después probarlas son partes de la actividad de resolución de problemas. Imaginemos, en cambio, un sistema que primero resuelva el puzzle entero por puro pensamiento y que después emplee el mundo meramente como el campo donde la solución ya alcanzada se va a representar. Incluso un sistema que luego reconociera los fallos de ajuste físico y los empleara como señales para volver a planificar (una versión menos caricaturizada de la planificación clásica) seguiría utilizando el entorno mínimamente en comparación con las ricas interacciones (rotaciones, evaluaciones de piezas can- didatas, etc.) que caracterizan la solución humana.
Esta diferencia crucial es descrita con precisión por David Kirsh y Paul Maglio (1994) mediante la distinción entre acción pragmática y acción episté -
mica. Una acción pragmática es una acción llevada a cabo por la necesidad de alterar el mundo con el fin de lograr alguna meta física (por ejemplo, hay que pelar las patatas antes de hervirlas). En cambio, una acción epistémica es una acción cuyo propósito principal es alterar la naturaleza de nuestras propias tareas mentales. En estos casos seguimos actuando sobre el mundo, pero los cambios que imponemos están impulsados por nuestras propias necesidades computacionales y de procesamiento de información.
Ya hemos visto varios ejemplos de acción epistémica: recuérdese el empleo de movimientos corporales y oculares en la visión animada para recuperar tipos específicos de información como y cuando sea necesario. Lo que Kirsh y Maglio añaden a este marco de referencia es la idea de que la clase de las acciones epistémicas es mucha más amplia de lo que muestran los ejemplos de visión animada. Incluye todo tipo de acciones e intervenciones cuyo papel adaptativo sea simplificar o alterar los problemas a los que se enfrentan los cerebros biológicos.
106 I De excursión por la mente
Un ejemplo sencillo, de nuevo procedente de Kirsh {1995, pág. 32), se refiere al empleo de las fichas del juego Scrabble o Intelect. Mientras jugamos, ordenamos y reordenamos físicamente las fichas como método para estimular nuestros propios recursos neuronales en línea. Si relacionamos esto con la investigación sobre redes neuronales artificiales descrita en el apartado 3.2 anterior, podemos imaginar este recurso neuronal en línea como una especie de memoria asociativa completadora de patrones. Una estrategia para jugar al Scrabble es emplear una clase especial de manipulaciones externas para crear una variedad de entradas fragmentarias (nuevas cadenas de letras) capaces de estimular al ingenio completador de patrones para que recuerde palabras enteras. El hecho de que encontremos tan útiles estas manipulaciones externas indica claramente que nuestros ingenios computación ales incorporados (en el cerebro) no se prestan muy bien a estas manipulaciones (mientras que un programa clásico de inteligencia artificial encontraría triviales estas operaciones internas). Este simple hecho habla en favor de un modelo de los recursos internos distinto al clásico. Es como si la imagen clásica incluyera dentro de la máquina un conjunto de capacidades operativas que en la vida real sólo emergen a partir de las interacciones entre esa máquina (el cerebro) y el mundo.
Una conclusión de estas observaciones es que las estructuras externas (incluyendo símbolos externos como las palabras y las letras) son especiales en la medida en que permiten realizar tipos de operaciones que difícilmente (o nunca) se pueden realizar en el ámbito interno.11'
Un ejemplo más complejo, que conduce esencialmente a la misma conclusión, procede de los estudios detallados de Kirsh y Maglio (1994) sobre el rendimiento en el juego de ordenador Tetris. En este juego, el jugador debe colocar unas piezas geométricas multicolores (denominadas «zoides») formando hileras compactas (figura 3.1). Cuando se completa una hilera, ésta desaparece de la pantalla dejando espacio para nuevos zoides. Los zoides aparecen por la parte superior de la pantalla y caen a un ritmo que aumenta a medida que avanza la partida. Mientras un zoide cae, el jugador puede hacerlo girar, desplazarlo hacia la derecha o la izquierda, o hacerlo caer directamente al fondo. Por tanto, el objetivo es hacer encajar unas formas con unas oportunidades geográficas dentro de unas fuertes restricciones en tiempo real, Un resultado sorprendente de las investigaciones de Kirsh y Maglio fue 16
16. En Clark, 1986 y Clark, 1988a examino resultados del ámbito del dibujo que ofrecen más apoyo a esta conjetura. En estos artículos también examino el trabajo de Chambers y Reis- berg (1985) sobre las propiedades especiales de los dibujos reales en comparación con las imágenes mentales de dibujos. Esta investigación se cita también en Kirsh, 1995 y en Zhang y Norman, 199*1.
Mente y mundo: la frontera plástica I 107
Girar
m
*rDesplazar “__ 1--
____ r■ ■ r jÜ5E1! i1 mH a
Soltar
— La hilera rompida desaparece
FIGURA 3.1 El juego Tetris se caracteriza por unas piezas llamadas «zoides» que caen de una en una desde la parte superior de la pantalla y acaban depositándose directamente en el fondo o sobre otras piezas que hayan caído antes. Mientas cae una pieza, el jugador puede hacerla girar, desplazarla hacia la derecha o hacia la izquierda, o hacerla bajar de inmediato. Cuando se consigue que una hilera de cuadrados llene horizontalmente toda la pantalla, la hilera en cuestión desaparece y las que se encuentran por encima de ella bajan un nivel. Fuente: Kirsh y Maglio, 1994. Reproducido con la autorización de D. Kirsh, R. Maglio y Ablex Publishing Corporation.
que los jugadores expertos realizaban una amplia variedad de acciones epis- témícas: acciones cuyo propósito era reducir la cantidad de computación interna en lugar de ganar terreno físico. Por ejemplo, un jugador puede hacer girar físicamente un zoide para determinar mejor su forma o para comprobar su coincidencia potencial con alguna oportunidad geográfica. Estas operaciones externas parecen más rápidas y fiables que sus equivalentes internas (como imaginar la rotación del zoide). Es especialmente interesante destacar (como hacen Kirsh y Maglio) que, en el caso del Tetris, las operaciones internas y externas deben estar tan coordinadas en el tiempo que los sistemas internos y externos (el cerebro/SNC y las operaciones en pantalla) parecen fun cionar conjuntamente como una sola unidad computacional integrada.
108 i De excursión por la mente
Por tanto, el mundo puede funcionar de maneras que van mucho más allá de la simple memoria externa. Puede ofrecer un campo donde unas clases especiales de operaciones externas transformen sistemáticamente los problemas que se plantean a un cerebro.1 De la misma manera que Einstein sustituyó las nociones independientes del tiempo y el espacio por un cons- tructo unificado (el espacio tiempo), Kirsh y Maglío proponen que para la ciencia cognitiva puede ser conveniente sustituir los constructos independientes del espacio físico y el espacio del procesamiento de la información por un espacio «físico-informacional» unificado."*
Como comentario final sobre la interacción entre la mente y la estructura del entorno, consideremos el caso de pacientes con la enfermedad de Alzheimer en estado avanzado. Muchos de estos pacientes llevan una vida sorprendentemente normal en la comunidad, a pesar de que las evaluaciones estándar de sus capacidades indican que muchos de ellos deberían ser incapaces de sobrevivir fuera de instituciones especializadas. Al parecer, la clave de estos éxitos sorprendentes reside en la medida en que estas personas se basan en entornos muy estructurados que primero crean y después habitan. Estos entornos pueden incorporar múltiples letreros recordatorios colocados por toda la casa y el seguimiento estricto de unos hábitos concretos. Una paciente vive, virtualmente, en un sofá que se encuentra en el centro de su apartamento, ya que esto le brinda una posición estratégica desde la cual puede acceder visualmente a la situación de cualquier cosa que necesite: este s í es, realmente, un caso de empleo del mundo como memoria externa.
¿Cómo encaja en todo esto la noción de planificación? Al parecer, la resolución sistemática de problemas de los cerebros biológicos no sigue realmente el modelo del plan como programa. En cambio, los agentes despliegan unas estrategias generales que incorporan ciertas operaciones sobre el mundo como parte intrínseca de la actividad de resolución de problemas. Es evidente que esta actividad puede suponer unos planes formulados de una manera explícita (quizá por escrito). Pero incluso en estos casos, el plan actúa más como una limitación externa sobre la conducta que como una receta completa para el éxito.17 18 19 20 En cierto sentido, somos como mobots muy inteligentes dotados de archivadores. Nuestra inteligencia se demuestra en la
t
17. Este tema se explora a fondo en el capítulo 10 posterior.18. Véanse los comentarios de Kirsh y Maglio (1994, pág. 515) acerca de la necesidad de
redefinir el espacio de estados donde tiene lugar la planificación.19. Agradezco a Caroline Baum, directora de la Occupational Therapy Unit de la Was
hington University School of Medicine, por comunicarme estos casos. Véanse Baum, 1993 y Edwards y otros, 1994.
20. Véanse, por ejemplo, Suchman, 1987 y Bratman y otros, 1991.
Mente y mundo: la frontera plástica I 109
capacidad de estructurar nuestro entorno y de operar activamente sobre él para simplificar nuestras tareas de resolución de problemas. Esta estructuración y explotación activa va desde la simple utilización de distribuciones espaciales, pasando por el empleo de transformaciones específicas (mezclar las fichas de Scrabbíe, hacer girar los zoides del Tetris), hasta la producción de planes escritos explícitos que permiten reorganizar y cambiar el foco de atención con facilidad. Estos últimos casos comportan el empleo de la clase especial de estructuras externas formada por mapas, códigos, lenguajes y símbolos, estructuras que examinaremos con detalle en el capítulo 10.
3.5 Después del archivador
Como hemos visto, las redes neuronales artificiales proporcionan un modelo útil (aunque claramente parcial) de algunas de las estrategias computa- cionales que los cerebros reales parecen desplegar. Estas estrategias hacen hincapié en la compleción de patrones y en la memoria asociativa a costa de las manipulaciones lógicas y simbólicas más familiares. Por tanto, el trabajo con las redes neuronales artificiales proporciona un valioso antídoto contra lo que se ha denominado «imagen de archivador» de la mente: la imagen de la mente como un almacén de símbolos pasivos, parecidos al lenguaje, que esperan ser recuperados y manipulados por una especie de unidad central de procesamiento neuronal. Con todo, quedan por eliminar algunos aspectos residuales de esta «imagen de archivador. Al igual que un archivador, la mente ha sido tratada con demasiada frecuencia como un recurso pasivo: como un órgano para clasificar y transformar datos de entrada pero que no está intrínsecamente orientado a actuar en el mundo. Esta falta de atención a los problemas y las posibilidades que acompañan a las acciones en el mundo real y en tiempo real se manifiesta de varias maneras. La elección de ámbitos de tareas muy abstractos (como generar las formas pretéritas de verbos ingleses) y el empleo de formas de codificación de entrada y salida muy artificiales, son síntomas de una imagen de la mente que, en esencia, la considera el órgano de una razón intemporal e incorpórea. Naturalmente, nadie ha pensado que la percepción, el movimiento y la acción carezcan totalmente de importancia. Todo el mundo está de acuerdo en que, tarde o temprano, estos factores se deberán tener en cuenta. Sin embargo, según la creencia más arraigada, los problemas adicionales que plantean estas cuestiones se pueden separar sin riesgo alguno de la tarea principal de comprender la mente y la cognición, y las soluciones a estos problemas más «prácticos» simplemente se pueden «adjuntan» a los dispositivos de procesamiento de la razón incorpórea.
110 I De excursión por la mente
Esta separación metodológica entre las tareas de explicar la razón y la mente (por un lado) y la acción en tiempo real y en el mundo real (por otro) es lo que la ciencia cognitiva de la mente corpórea se propone cuestionar. Cuando se abordan problemas del mundo real en su verdadero escenario y con toda su complejidad, se hace evidente que ciertos estilos de resolución de problemas simplemente no funcionan. Y los tipos de solución que s í funcionan suelen fusionar los procesos de razonamiento y de acción de maneras inesperadas, atravesando una y otra vez los límites tradicionales entre mente, cuerpo y entorno.
En cierto sentido, esto no nos debería sorprender. Nuestros cerebros evolucionaron como controladores de unos cuerpos que se movían y actuaban en un mundo real (y con frecuencia hostil). Seguramente estos órganos evolucionados desarrollaron unos recursos computacionales complementarios de las acciones e intervenciones que controlaban. Después de todo, el cerebro así entendido no necesita mantener una réplica interna y a pequeña escala del mundo que sustente exactamente los mismos tipos de operación y manipulación que habitualmente aplicamos sobre él. La responsabilidad del cerebro es ofrecer prestaciones complementarias que apoyen la explotación reiterada de operaciones sobre el mundo. Su tarea consiste en proporcionar procesos computacionales (como una potente compleción de patrones) que el mundo, incluso cuando es manipulado por nosotros, no suele ofrecer.21
Entonces, ¿dónde se encuentra la mente? ¿Se encuentra realmente «dentro de la cabeza» o quizá ahora se ha extendido, de una manera un tanto libertina, por el mundo? A primera vista, esta pregunta es extraña. Después de todo, cada cerebro individual sigue siendo la sede de la conciencia y la experiencia. Pero, ¿qué ocurre con la razón? Cada pensamiento es considerado por un cerebro. Pero ahora vemos que el flujo de pensamientos y el éxito adaptativo de la razón dependen de interacciones reiteradas y cruciales con recursos externos. El papel de estas interacciones, en los casos que he destacado, es claramente computacional e informacional: consiste en transformar entradas, simplificar búsquedas, contribuir al reconocimiento, estimular el recuerdo asociativo, descargar la memoria, etc. En cierto sentido, un ser humano que razona es un dispositivo cognitivo verdaderamente distribuido: realiza llamadas a recursos externos para que lleven a cabo unas tareas de procesamiento específicas, de manera muy parecida a cuando un ordenador conectado a una red hace llamadas a otros ordenadores conectados para que
t
2 !. Naturalmente, esto ya no es estrictamente cierto. Las mismas redes neuronales artificiales constituyen recursos externos completadores de patrones (Churchland, 1995, capitulo 11), Además, otros agentes y animales también constituyen recursos de compleción de patrones externos al individuo. Véase más información al respecto en el capítulo 4.
Mente y mundo: la frontera plástica I 111
realicen unas tareas concretas. Por tanto, propongo que la demostración que hacen Kirsh y Maglio del papel de la acción epistémica tiene como consecuencia una distribución correspondiente del mérito epistémico. El flujo de pensamientos o la generación de respuestas razonadas no son un mérito exclusivo del cerebro. La colaboración entre cerebro y mundo es mucho más rica y está más impulsada por necesidades de computación e información de lo que se creía hasta ahora.
Sería reconfortante suponer que esta imagen más integrada de la mente y el mundo no plantea ninguna amenaza a cualesquiera de nuestras ideas fa miliares sobre la mente, la cognición y el yo. Reconfortante, pero falso. Porque si bien los pensamientos concretos continúan estando vinculados a los cerebros individuales, el flujo de la razón y las transformaciones de información que dicho flujo implica parecen entrecruzar el cerebro y el mundo. Sin embargo, sospecho que este flujo de ideas es lo que la mayoría de nosotros asocia con más fuerza con la idea de la mente como sede de la razón y del yo. Este flujo es más importante que las instantáneas que nos ofrecen los pensa mientos o las experiencias aisladas." Como veremos, el verdadero motor de la razón no está delimitado ni por la piel ni por el cráneo. 22
22. El epílogo ilustra esta afirmación considerando e! papel del cerebro en la generación de una compleja corriente de ideas vinculadas. Véase también el apañado 10.5.
4 Sabiduría colectiva al estilo de los hongos mucilaginosos
4.1 Aquí llega el mucílago
Es la primavera del año 1973 y el tiempo ha sido anormalmente húmedo. Al mirar por la ventana que da al jardín, nuestra mirada es atraída por una proliferación de masas redondeadas de un intenso color amarillo. ¿Qué podrán ser? Intrigados, intentamos volver a trabajar pero somos incapaces de concentrarnos. Un poco después volvemos a mirar por la ventana. Las masas gelatinosas de color amarillo siguen ahí, pero podríamos jurar que se han movido. Tenemos razón. Sin prisa, pero sin pausa, estos seres desconocidos se arrastran por el jardín y trepan por el poste telefónico, acercándose a nosotros. Llenos de espanto, telefoneamos a la policía para comunicarles la probable visión de formas de vida extraterrestre. Pero en realidad lo que hemos visto (como han visto muchas otras personas) es un ser totalmente terrestre, aunque con un ciclo de vida ciertamente muy extraño: se trata del Fuligo séptica, un tipo de hongo mucilaginoso acelular.1
Existen hongos mucilaginosos de muchas variedades1 2 y tamaños, pero todos pertenecen a la clase de los micetozoos. El nombre es revelador, ya que combina «miceto» (hongo) y «zoos» (animales). Les gustan los ambientes húmedos y suelen encontrarse sobre troncos podridos..., tocones o en montones de restos vegetales en descomposición. Su distribución geográfica es muy extensa y no parece limitarse a unos climas específicos. Como se dice en
1. Esta historia se basa en informes de Alexopouios y Mims, 1979 y Farr, 1981.2. Existen dos tipos principales de hongos mucilaginosos: los acelularcs, donde las célu
las se fusionan para formar una masa multinuclear y los celulares, donde las células se agrupan pero nunca se fusionan y donde la masa multicelular forma un cuerpo móvil (denominado babosa en ocasiones). Véase el capítulo 1 de Ashworth y Dee, 1975.
114 I De excursión por la mente
un manual, «muchas especies tienden a aparecer en cualquier lugar, de manera inesperada» (Farr, 1981, pág. 9).
De interés especial es el ciclo de vida de los hongos mucilaginosos «celulares». Tomemos, por ejemplo, la especie Dictyoslelium dtscoideunt,’ descubierta por primera vez en 1935, en Carolina del Norte. El ciclo de vida del D. discoideum empieza con lo que se denomina una fase vegetativa, donde las células del hongo mucilaginoso existen individualmente, como las amebas (se llaman mixoamebas). Mientras las fuentes locales de alimento duran (las mixoamebas se alimentan de bacterias), las células crecen y se dividen. Pero cuando las fuentes de alimento se agotan, ocurre una cosa verdaderamente extraña. Las células empiezan a agruparse formando una masa con aspecto de tejido llamada pseudoplasmodio. Aunque pueda parecer increíble, el pseudoplasmodio es un ser colectivo móvil, una especie de babosa en miniatura (figura 4.1) que puede arrastrarse por el suelo.'1 Es atraído por la luz y sigue gradientes de temperatura y humedad. Estas señales le ayudan a encontrar un lugar con más alimento. Cuando encuentra un lugar adecuado, el pseudoplasmodio vuelve a cambiar de forma, esta vez diferenciándose por medio de un tallo y un cuerpo fructífero con una masa de esporas que comprende unos dos tercios del número total de células. Cuando las esporas se propagan, el ciclo vuelve a empezar con una nueva población de mixoamebas.
¿Cómo saben agruparse las células individuales (mixoamebas) del hongo mucilaginoso? Una solución -el equivalente biológico de un planificador central (véase el capítulo 3)- sería que la evolución hubiera elegido unas «células líder». Estas células estarían especialmente adaptadas para «llamar» a las otras células, probablemente por medios químicos, cuando el alimento empezara a escasear y, de alguna manera, orquestarían la construcción del pseudoplasmodio. Sin embargo, parece que la naturaleza ha optado por una solución más «democrática». De hecho, las células del hongo mucilaginoso parecen comportarse como las hormigas descritas en el apartado 2.3 anterior. Cuando el alimento escasea, cada célula libera un compuesto químico (AMP cíclico) que atrae a otras células. A medida que las células se van agrupando aumenta la concentración de AMP cíclico, que atrae a más células. Por tanto, un proceso de retroalimentación positiva conduce a la agrupación de las células que constituyen un pseudoplasmodio. Como comenta Mitchel Resnick (1994, pág. 51), este proceso es un buen ejemplo de lo que se conoce como autoorganización. En los sistemas autoorganizados emergen pautas de nivel superior a partir de las interac-
i 3
3. La explicación sobre el D discotdewn se basa en Ashworth y Dee, 1975, págs. 32-36.A. Los hongos mucilaginosos acelulares como el Fuligo séptico no forman una babosa mó
vil. En cambio, el piasmodio emigra mediante comentes de protoplasma.
Sabiduría colectiva al estilo de los hongos mucilaginosos I 115
FIGURA 4.1 Agrupaciones irigradoras (pseudoplasmodios) de un hongo mucilagi- noso celular. Fuente: Morrissey, 1982. Reproducido con la autorización de Academic Press.
dones de múltiples componentes simples, sin necesidad de líderes, controladores ni orquestadores.
Propondré que la autoorganización y la emergencia no se limitan a colecti vos primitivos como el hongo mucilaginoso. También se dan formas de una conducta adaptativa emergente en colectivos de agentes humanos. El cerebro biológico, que parasita el mundo externo (véase el capítulo 3) con el fin de aumentar su capacidad para resolver problemas, no traza el límite en las extensiones inorgánicas y ciertos aspectos cruciales de nuestro éxito adaptativo están determinados por las propiedades colectivas de grupos de agentes individuales.
116 I De excursión por la mente
4.2 Dos formas de emergencia
La emergencia de fenómenos nuevos a partir de una actividad colectiva (sin líderes ni controladores centrales) se puede producir, por lo menos, de dos maneras. La primera, a la que denominaré emergencia directa, se basa principalmente en las propiedades de los elementos individuales (y en sus re laciones mutuas); en este caso, las condiciones ambientales sólo desempeñan un papel de contexto. La emergencia directa puede implicar múltiples elementos homogéneos (como cuando emergen la temperatura y la presión a partir de las interacciones entre las moléculas de un gas), o puede implicar elementos heterogéneos (como cuando emerge agua a partir de las interacciones entre moléculas de oxígeno y de hidrógeno). La segunda forma de emergencia, a la que denominaré emergencia indirecta, también se basa en las interacciones de elementos individuales pero requiere que estas interaccio nes estén mediadas por unas estructuras ambientales activas y, con frecuencia, bastante complejas. Por tanto, la diferencia reside en la medida en que podemos comprender la emergencia de un fenómeno dado centrándonos, principalmente, en las propiedades de los elementos individuales (emergen cía directa) o en la medida en que la explicación del fenómeno requiere atender a detalles bastante específicos del entorno. Esta distinción está lejos de ser absoluta puesto que todos los fenómenos se basan en mayor o menor medida en condiciones ambientales contextúales. (Se puede hacer un poco más precisa formulándola en función de los papeles explicativos de diferentes tipos de «variables colectivas»; véase el capítulo 6). Pero podemos obtener una impresión intuitiva básica de esta diferencia examinando algunos casos sencillos.
Un ejemplo clásico de emergencia directa es el familiar fenómeno de los atascos de tráfico. Puede producirse un atasco aun cuando no se pueda culpar de ello a ningún suceso externo inesperado (como una colisión o una serie de semáforos averiados). Por ejemplo, mediante unas sencillas simulaciones, Mitchel Resnick5 demuestra que se producirá un embotellamiento si cada automóvil sigue simplemente dos reglas intuitivas: «Si nos vamos acercando al vehículo que tenemos delante, reduciremos la velocidad; si no, la aumentaremos (salvo sí ya hemos alcanzado la velocidad máxima permitida)» {Resnick, 1994, págs. 69,73). Pero cuando se siguen estas dos reglas y no hay ningún obstáculo externo, ¿por qué el tráfico no acelera hasta la máxima velocidad permitida y se queda ahí? La respuesta se encuentra en las
5. Aquí, como en los apartados 4.1 y 4.2, sigo a Mitchel Resnick cuyo libro Turitrs, Ter- miles, and Tra/fic Jams (1994) es a la vez un modelo de claridad y un poderoso testimonio del alcance y la fuerza del pensamiento descentralizado.
posiciones iniciales. Al principio de la simulación, la distancia entre los automóviles que circulan por la carretera es aleatoria. Por tanto, en ocasiones un automóvil empieza a acercarse a otro y pronto debe reducir la velocidad; esto hace, a su vez, que el vehículo que tiene detrás también reduzca la suya. El resultado final es una mezcla de tramos de tráfico rápido y de tráfico lento. De vez en cuando un automóvil sale del atasco, acelerando y dejando espacio para el que tiene detrás. Pero con la misma rapidez con que el embotellamiento se «desatasca» en una dirección, crece en la otra a medida que se incorporan nuevos automóviles por detrás y se ven obligados a reducir la marcha. Aunque cada vehículo avanza hacia adelante, el atasco de tráfico en sí, considerado como un tipo de entidad de orden superior, ¡se mueve hacia atrás! Por tanto, esta estructura de orden superior (a la que Resnick denomina estructura colectiva) muestra una conducta fundamentalmente diferente de la conducta de sus componentes. De hecho, los componentes no dejan de cambiar (a medida que unos vehículos van saliendo y otros nuevos se van incorporando), pero la integridad del colectivo de orden superior se conserva. (De una manera similar, el cuerpo humano no siempre está formado por la misma masa de materia: las células mueren y son reemplazadas por otras nuevas construidas a partir de la energía obtenida de los alimentos. También nosotros somos colectivos de orden superior cuya materia constituyente se encuentra en flujo constante.) Los atascos de tráfico se consideran casos de emergencia directa porque el necesario telón de fondo ambiental (las distancias variables entre los vehículos) es mínimo: seguramente el espaciado aleatorio es la condición por defecto y no requiere ninguna manipulación ambiental especial. Sin embargo, la emergencia indirecta es intuitivamente muy diferente, como veremos a continuación.
Consideremos el siguiente ejemplo: tenemos que acordarnos de comprar una caja de latas de cerveza para una fiesta. Para refrescarnos la memoria, colocamos una lata de cerveza vacía sobre el felpudo de la puerta. Cuando volvemos a salir de casa, tropezamos con la lata y nos acordamos de nuestra misión. Hemos empleado lo que a estas alturas ya es un truco familiar (recordemos el capítulo 3): explotar algún aspecto de la realidad como sustituto parcial de la memoria incorporada. De hecho, hemos empleado una alteración de nuestro entorno para comunicarnos algo a nosotros mismos. Este truco de emplear el entorno para provocar acciones y comunicar señales figura en muchos casos de lo que yo denomino emergencia indirecta.
Tomemos la conducta de construcción de algunas termitas. La conducta de construcción de una termita supone modificar su entorno local en respuesta a los estímulos proporcionados por alteraciones previas del entorno realizadas por otras termitas o por la misma termita en otra ocasión. Dicho
Sabiduría colectiva al estilo de ios hongos muciiaginosos I 117
118 I De excursión por la mente
de otra manera, la construcción de un termitero está bajo el control de lo que se conoce como algoritmos estigmérgicos.6
Un ejemplo simple de estigmergia es la construcción de arcos (un aspecto básico de los termiteros) con pelotillas de barro. He aquí cómo funciona este proceso:7 todas las termitas hacen pelotillas de barro que, al principio, depositan al azar. Pero cada pelotilla incluye una señal química añadida por la termita. Las termitas prefieren dejar caer las pelotillas donde la señal química es más fuerte. Por tanto, es probable que las pelotillas nuevas se depositen encima de las antiguas, generándose entonces una fuerza de atracción aún mayor (¡sí, es la historia de siempre!). De esta manera se van formando columnas. Cuando dos columnas están muy próximas entre sí, las señales químicas de la columna vecina influyen en la conducta de soltar las pelotillas, incitando a los insectos a añadir barro en el lado de cada columna que encara a la otra. Este proceso continúa hasta que las puntas de las columnas se inclinan la una hacia la otra y se forma un arco. El producto final de una gran cantidad de estigmergias distintas es una estructura compleja de celdillas, cámaras y túneles. En ningún punto de este prolongado proceso se sigue o se representa un plano del termitero. Ninguna termita actúa como líder durante la construcción. Ningún termita «sabe» nada, salvo responder cuando se encuentra con una pauta específica en su entorno local. Las termitas no se hablan entre sí de ninguna manera, salvo mediante los productos ambientales de su propia actividad. Esta coordinación basada en el entorno no requiere ninguna codificación o descodificación lingüística y no impone carga alguna a la memoria; además, las «señales» persisten aunque el individuo responsable de las mismas se haya ido a hacer otra cosa (Beckers y otros, 1994, pág. 188).
Resumiendo: aprendemos lecciones importantes incluso a partir de estos casos simples de emergencia de fenómenos colectivos. Estos fenómenos se pueden producir de maneras directas o muy mediadas por el entorno. Pueden sustentar conductas adaptativas complejas sin necesidad de líderes, diseños o planificadores centrales. Y pueden manifestar rasgos característicos totalmente diferentes de los rasgos de los individuos cuya actividad reflejan. En el siguiente apartado veremos estas conductas en un contexto más familiar: el de la actividad humana.
6, «Esúgmérgico», una combinación de «estigma» (señal) y «ergon» I trabajo), implica la utilización del trabajo como señal para más trabajo.
7. Véanse Grasse, 1959 y Beckers y otros. 1994.
4.3 Tripulaciones marinas
En la investigación más prolongada y con más éxito realizada basta la fecha sobre las propiedades cognitivas de grupos humanos, Edwin Hutchins -antropólogo, científico cognitivo, marinero y oficial de derrota en regatas a mar abierto- ha descrito y analizado el papel de las estructuras externas y de las interacciones sociales en la navegación en alta mar. He aquí su descripción de cómo se realizan y coordinan algunas de las tareas necesarias (Hut- chins, 1995, pág. 199; la nota al pie8 es mía):
De hecho, es posible que el equipo [de navegación] organice su conducta en una secuencia adecuada sin que exista un guión o un plan global en ninguna parte del sistema.8 Cada miembro de la tripulación sólo necesita saber qué debe hacer cuando se producen ciertas condiciones en el entorno. Un examen de los deberes de los integrantes de la tripulación muestra que muchos de ellos se especifican en la forma «hacer X cuando ocurra Y». He aquí algunos ejemplos extraídos de los procedimientos:
A. Hacer sondeos y enviarlos al puente cuando se soliciten.B. Anotar hora y profundidad cada vez que se envíe un sondeo al puente.C. Medir y comunicar las demoras en relación con los objetos especificados
por el piloto cuando éste lo ordene.
Al parecer, cada miembro de la tripulación sólo debe seguir una especie de procedimiento estigmérgico9 esperando que una alteración del entorno local (como la colocación de una carta de navegación concreta sobre una mesa, la llegada de una petición verbal o el sonido de una campana) motive una conducta específica. Esa conducta, a su vez, influirá en el entorno local de otros miembros de la tripulación, provocará nuevos arranques de actividad y así sucesivamente, hasta que la tarea se haya realizado.
Naturalmente, estamos hablando de agentes humanos que se formarán ideas y modelos mentales del proceso global. Y como comenta Hutchins, esta tendencia general hace que el sistema sea más robusto y flexible, porque
Sabiduría colectiva al estilo de los hongos mucilaginosos I 119
8. De hecho, en muchos navios exisie un plan formal. Pero los miembros de la tripulación no lo emplean explícitamente para estructurar sus acciones; en realidad, como sugiere Hutchins (1995, pág. 178), el plan no funcionaría aunque lo hicieran.
9. La verdadera estigmergia requiere una falta total de flexibilidad de respuesta en presencia de una condición desencadenante. Por tamo, la actividad humana, en genera!, sólo es cuasi estigmérgica. Lo común es el empleo de condiciones ambientales como instigadoras de la acción y la capacidad global del grupo para realizar una actividad de resolución de problemas que sobrepasa el conocimiento y el alcance computacional de cada miembro por se parado.
120 I De excursión por la mente
los individuos pueden supervisar mutuamente su actividad (por ejemplo, pidiendo una demora que no se haya dado a tiempo) y, si es necesario, pueden encargarse de otras tareas (por ejemplo, si alguien cae enfermo). Sin embargo, ningún miembro de la tripulación tendrá interiorizados todos los conocimientos y habilidades pertinentes.
Además, vemos que una gran cantidad de trabajo la llevan a cabo, una vez más, estructuras externas: reglas de cálculo náuticas, alidadas, registros de demora, transportadores, cartas de navegación, sondas, etc.13 Estos dispositivos cambian la naturaleza de ciertos problemas computacionales, haciendo que sean más fáciles de abordar por unos cerebros que tienden a la percepción y la compleción de patrones. La regla de cálculo náutica, que es el ejemplo favorito de Hutchins, convierte operaciones matemáticas complejas en operaciones de alinear escalas en el espacio físico."
Por último, y recordando temas del capítulo 3, diremos que el espacio de trabajo mismo para la navegación está estructurado para reducir la complejidad de la resolución de problemas. Por ejemplo, las cartas que se emplean para atracar en un puerto dado están reunidas en un tablero de cartas y colocadas unas sobre otras en el orden en que se van a utilizar (la que primero se necesite, encima de las restantes).
Según Hutchins, todos estos factores se unen para posibilitar que el sistema global formado por artefactos, agentes, el mundo natural y la organización espacial, resuelva el problema de navegar. La conducta global (en el nivel de la embarcación) no está controlada por un plan detallado en la cabeza del capitán. El capitán puede establecer los objetivos, pero la secuencia de reunir y transformar información para alcanzar estos objetivos no necesita representarse explícitamente en ningún lugar. En cambio, la potencia y la pericia computacionales necesarias se distribuyen por todo un conjunto heterogéneo de cerebros, cuerpos, artefactos y otras estructuras externas. Así navegan los cerebros que completan patrones por mares hostiles y matemáticamente exigentes.
4.4 Las raíces de la armoníar
Pero, ¿cómo se produce esta delicada armonización entre cerebros, cuerpos y mundo? En los casos de lo que he llamado emergencia directa, este
♦
10. Hutchins (1995, capítulo 3) los describe de forma detallada. Una alidada es un dispositivo telescópico para dirigir visuales; los transportadores son semicírculos graduados que se emplean para trazar lineas o ángulos sobre cartas de navegación.
11 Véanse la pág. 171 de Hutchins, 1995 y los capilulos 3 y 10 de este libro
problema es menos acuciante porque las propiedades colectivas están directamente determinadas por la acción masiva de una tendencia individual uniforme. Por ejemplo, si la naturaleza hiciera evolucionar -¡nos libren los dioses!- vehículos y carreteras (partiendo de una distribución inicial aleatoria y de las dos reglas expuestas en el apartado 4.2 anterior), inmediatamente se producirían embotellamientos de tráfico.
A primera vista, la emergencia indirecta plantea un enigma mayor. En los casos de este tipo, la propiedad que hay que alcanzar (por ejemplo, la construcción de un termitero o navegar con éxito) surge a partir de interacciones múltiples y con frecuencia variadas entre un conjunto de individuos y un entorno estructurado con gran complejidad. Los individuos están aparentemente construidos o diseñados para que su dinámica, coordinada con estos entornos complejos, produzca un éxito adaptativo. En estos casos no hay ningún individuo que deba conocer un plan al completo. Sin embargo, en cierto sentido el sistema global está bien diseñado. Constituye un método robusto y computacionalmente económico de lograr la conducta deseada. La pregunta ahora es, ¿cómo se produce este diseño?
Para el sistema nervioso de cada una de las termitas, una parte importante de la respuesta” es, evidentemente, «mediante la evolución». Hutchins propone que en el grupo que forma una tripulación también puede estar actuando una especie de proceso cuasi evolutivo. La característica clave es, simplemente, que se producen cambios pequeños sin una actividad de diseño previa y que estos cambios tienden a conservarse en la medida en que me joren el éxito biológico. Por tanto, los cambios evolutivos implican un acrecimiento gradual de pequeños cambios «oportunistas»: cambios que, a su vez, alteran el «paisaje adaptativo» para cambios posteriores, tanto para la misma especie como para otras especies que habiten en el mismo ecosistema.
Ahora, y siguiendo todavía a Hutchins, consideremos el caso donde un colectivo cognitivo establecido (como una tripulación) se enfrenta a un reto nuevo e inesperado. Supongamos que este reto exige una respuesta rápida y que no hay tiempo para que el grupo se reúna y reflexione sobre la mejor manera de abordarlo.12 13 En estas condiciones, ¿cómo puede descubrir el grupo una nueva división social del trabajo que responda a las exigencias del en
12. No deseo (ni necesito) incurrir en una petición de principio acerca de las contribuciones relativas de la variación ciega y la selección natural por un lado, y de propiedades de au- toorganización más fundamentales de la materia, los compuestos químicos y las células, por otro. Véanse planteamientos al respecto en Kauffman, 1993; el capítulo 8 de Dennett, 1995 y las págs. 180-214 de Varela y otros, 1991. Gracias a Arantza Etxeberria por ayudarme a aclarar esta importante cuestión.
13. Hutchins (1995, capítulo 8) explica con detalle un caso concreto en el que un sistema de propulsión de una embarcación fracasó inesperadamente en un momento crítico.
Sabiduría colectiva al estilo de los hongos mucilaginosos I 121
122 I De excursión por la mente
torno? Lo que realmente sucede, como demuestra Hutchins, es que cada miembro del grupo trata de desempeñar las funciones básicas necesarias para evitar que la embarcación encalle; sin embargo, al actuar así, cada miembro limita la actividad de los demás e influye en ella, en una dinámica que equivale a una búsqueda colectiva y en paralelo de una división del trabajo nueva y al mismo tiempo eficiente desde el punto de vista computacio- nal. Por ejemplo, cuando un miembro de la tripulación se da cuenta de que no tiene tiempo suficiente para hacer una suma crucial, le encarga el cálculo a otro tripulante. Esto, a su vez, desencadena otros efectos. La solución al problema de evitar el desastre surge como una especie de punto de equilibrio en una serie repetida de negociaciones locales centradas en la distribución de tareas, un punto de equilibrio que está determinado tanto por las habilidades de los individuos como por la frecuencia y la secuencia de los datos de entrada. Ningún miembro de la tripulación reflexiona sobre un plan global para redistribuir las tareas. En cambio, cada tripulante hace lo que sabe hacer mejor, negociando cualquier ayuda local o cambio de procedimiento que necesite. En estos casos se produce una búsqueda rápida y en paralelo de una respuesta colectiva coherente, pero esta búsqueda no implica ninguna representación localizada y explícita del espacio de las soluciones globales posibles. En este sentido, como observa Hutchins, la nueva solución se encuentra mediante un proceso más semejante a la adaptación evolutiva que al diseño racionalista global.
He aquí una versión algo más sencilla de la misma idea:14 imaginemos que nuestra tarea consiste en determinar el trazado óptimo de unos senderos para conectar entre sí un complejo de edificios ya construidos (por ejemplo, el nuevo campus de una universidad). La estrategia usual es el diseño racionalista global, donde una persona o un grupo pequeño consideran la utilización de los diversos edificios, los números de viandantes, etc., y buscan una pauta de enlaces óptima que refleje las pautas de uso probable. Sin embargo, una solución alternativa sería establecer el campus sin ningún sendero y cubriendo de césped todos los espacios entre los edificios. Al cabo de unos meses, empezarán a surgir senderos que reflejarán tanto las verdaderas necesidades de los usuarios como la tendencia de las personas a seguir senderos incipientes. Al cabo de un tiempo, los senderos más marcados se podrán pavimentar y el problema se habrá resuelto sin que nadie haya tenido que considerar el problema global de encontrar una distribución óptima de los senderos o haya necesitado saber o representar los usos a los que se destinan todos los edificios. La solución se habrá encontrado por medio de una serie interactiva de cálculos aislados pequeños como, por ejemplo, «Tengo que ir
14. Tuve noticia de este ejemplo por primera vez a través de Aaron Sloman.
desde aquí hasta los comedores: ¿cómo lo haré?» y «Tengo que llegar al laboratorio de física lo antes posible: ¿cómo lo hago?». El efecto acumulado de estas múltiples decisiones locales resuelve el problema global de una forma que se parece más a una especie de evolución que a un diseño centralizado clásico.
Al parecer, la necesidad de explicar los orígenes del éxito colectivo no nos obliga a volver a la imagen de un agente planificador central que conozca la forma del espacio de problemas global. De hecho, en ocasiones podemos estructurar nuestro propio entorno de resolución de problemas como una especie de subproducto de nuestra actividad básica de resolución de problemas. En nuestro campus hipotético, los primeros viandantes estructuran el entorno como un subproducto de sus propias acciones, pero los viandantes posteriores se encontrarán con un entorno ya estructurado que, a su vez, puede ayudarles a resolver, precisamente, los mismos problemas.15
Sabiduría colectiva al estilo de los hongos mucilaginosos I 123
4.5 Modelos de la mente oportunista
Espero que estos primeros capítulos hayan transmitido una impresión cada vez más clara del carácter oportunista de gran parte de la cognición biológica. Cuando el cerebro biológico se enfrenta a las fuertes limitaciones temporales propias de la acción en el mundo real y sólo dispone de un estilo de cómputo incorporado bastante restrictivo y orientado a la compleción de patrones, aceptará toda la ayuda que pueda conseguir. Esta ayuda incluye el empleo de estructuras físicas externas (tanto naturales como artificiales), el empleo del lenguaje y de instituciones culturales (véanse también los capítulos 9 y 10) y el empleo abundante de otros agentes. Sin embargo, reconocer la naturaleza oportunista y extendida en el espacio-tiempo de la verdadera resolución de problemas equivale a exponerse a una potencial pesadilla metodológica. ¿Cómo podemos estudiar y comprender estos sistemas extendidos, complejos y a menudo construidos de una manera poco o nada intuitiva?
Existe una metodología científica cognitiva clásica que, claramente, no funciona en estos casos. Es la metodología de la reconstrucción racional, que consiste en formular inmediatamente cada problema en función de un sistema abstracto de relaciones entre entradas y salidas, y buscar una solución óptima para el problema así definido. Aunque es probable que, en principio, esta metodología nunca haya sido defendida ni siquiera desde la inteligencia
15. Compárese con el tratamiento de unas hormigas en una playa llevado a cabo por Hut- chins (1995, pág. 169).
124 F De excursión por la mente
artificial clásica, sí que parece haber dado origen a un gran Corpus de investigación.16 Pensemos en todas esas investigaciones sobre micromundos abstractos: jugar a damas, colocar bloques, planificar excursiones, hacer diagnósticos médicos, etc. En todos estos casos, el primer paso consiste en formular el problema en términos simbólicos canónicos y el segundo consiste en buscar una solución eficiente definida en un espacio de oportunidades de transformación de símbolos.
Hemos visto (capitulo 3} que también los conexionistas heredaron la penosa tendencia a estudiar la resolución de problemas como si fuera incorpórea y a establecer correspondencias entrada salida abstractas y definidas simbólicamente.17 Sin embargo, desde las perspectivas de la robótica y de la infancia presentadas en los primeros capítulos, ahora parece más razonable imaginar que el entorno real de muchas tareas influye profundamente en la naturaleza de los problemas que plantean estas tareas a unos agentes activos y corpóreos. Estos problemas reales se plantean en un entorno que incluye las propiedades elásticas de los músculos y la presencia de objetos reales y manipulables en el espacio. Estas disparidades, que con tanto empeño he tratado de exponer, con frecuencia pueden marcar la diferencia en la natu raleza de una tarea computacional.
De hecho, la metodología de la reconstrucción racional puede inducir a error de varias maneras fundamentales. En primer lugar, la sustitución inmediata de cantidades físicas reales por elementos simbólicos puede ocultar estrategias oportunistas que impliquen actuar sobre el mundo real o explotarlo de alguna manera que contribuya a la resolución de problemas (recordemos el «principio 007»). En segundo lugar, conceptualizar el problema en función de correspondencias entrada-salida también invita a concebir la cognición como una computación pasiva. Es decir, describe la etapa de salida como el ensayo de una solución a un problema. Pero ya hemos visto muchos casos (por ejemplo, las estrategias de visión animada y el empleo del botón de rotación en Tetris) donde la salida es una acción cuyo papel consiste en descubrir o crear datos adicionales que, a su vez, contribuyan al éxito final. Estos casos de lo que Kirsh y Maglio llaman «acción episrémica»18 amenazan con colarse por las rendijas de cualquier imagen del éxito cognitivo fundamentalmente incorpórea y basada en correspondencias entrada salida. (Otra amenaza es que la búsqueda de soluciones óptimas puede inducir aún más a
16. Véase una revisión en los capítulos I y 4 de Clark, 1989. Véase también CliíT, 199-1. Se puede encontrar algo parecido a un apoyo explícito de estas estrategias racionalistas en Newell y Simón, 1981.
17. Véase el apartado 3.2 anterior. Véanse también McClelland, 1989 y Plunkett y Sinha, 1991.
18. Véase el apartado 3.5 anterior. Véase también Kirsh y Maglio, 1994
error al ocultar el papel de la historia en la constricción del espacio de soluciones biológicamente plausibles. Como veremos en el capítulo 5, la naturaleza está muy limitada por las soluciones obtenidas para problemas encontrados anteriormente. En consecuencia, la actividad cognitiva rara vez está hecha de una pieza: normalmente comprende remiendos aplicados a toda prisa a estructuras y estrategias ya existentes.)
Por todas estas razones, la metodología de la reconstrucción racional parece distorsionar extremadamente la forma y la naturaleza de la cognición biológica. En su lugar, ahora podemos vislumbrar los perfiles más escuetos de una metodología alternativa: una metodología para estudiar la cognición activa y corpórea. Las características fundamentales de esta metodología parecen ser las siguientes:
Centrarse en el mundo real, en tiempo real. Las tareas se identifican en función del mundo real. Las entradas son cantidades físicas, las salidas son acciones. La conducta se limita a marcos temporales que son biológicamente realistas.
Reconocer las soluciones descentralizadas. No se parte del simple supuesto de que una acción coordinada inteligente requiere una planificación central detallada. Con frecuencia pueden surgir acciones globales inteligentes a partir de múltiples interacciones más elementales en las que intervienen individuos, componentes y/o el entorno.
Visión extendida de la cognición y la computación. Los procesos compu- tacionales (con frecuencia) se consideran extendidos en el espacio y en el tiempo. Estos procesos se pueden extender más allá de la cabeza de un individuo e incluir transformaciones realizadas mediante el empleo de instrumentos externos, y también pueden incorporar las cabezas y los cuerpos de múltiples individuos en situaciones de resolución colectiva de problemas.
Así interpretado, el estudio de la cognición activa y corpórea plantea claramente unos importantes retos conceptuales y metodológicos. Entre ellos se incluyen (aunque no son todos) los siguientes:
El problema de la tratabilidad. Ante esta visión radicalmente promiscua de la cognición, siempre escurriéndose hacia su entorno local, ¿cómo podemos aislar fenómenos tratables para poderlos estudiar? Este desenfrenado liberalismo cognitivo, ¿no hace que resulte absurda la esperanza de encontrar una ciencia genuina de la mente?
El problema de la cognición avanzada. ¿Hasta qué punto podemos esperar llegar con una concepción descentralizada de la mente? Seguramente existe algún lugar para la planificación central en la cognición avanzada.
Sabiduría colectiva al estilo de los hongos mucilaginosos I 125
126 I De excursión por la mente
Además, ¿qué ocurre con la visión de la razón individual misma? ¿Qué imagen de la elección y la toma de decisiones racional está implícita en una visión radicalmente emergentista y descentralizada del éxito adaptativo?
El problema de la identidad. ¿Qué lugar ocupa en todo esto la persona individual? Si los procesos cognitivos y computacionales entrecruzan afanosamente los límites de la piel y el cráneo, ¿implica esto alguna extensión correlativa de la identidad personal hacia el entorno local? Dicho de una manera menos misteriosa, ¿implica esto que los cerebros y los organismos individuales no son objetos apropiados para el estudio científico? Desde luego, conclusiones como éstas serían bastante difíciles de discernir.
Nos encontramos aquí con una mezcla de inquietudes prácticas (¿cómo podemos estudiar la mente corpórea y embebida?}, problemas sin resolver (¿funcionará el mismo tipo de explicación para la cognición verdaderamente avanzada?) y anomalías conceptuales (una cognición escurridiza, ¿implica personas escurridizas? Los cerebros, ¿son en algún sentido objetos inadecuados para el estudio?). En los capítulos restantes abordaré todas estas cuestiones. Especialmente trataré de responder de manera detallada a las inquietudes prácticas y metodológicas (capítulos 5-7), trataré de aclarar los problemas conceptuales (capítulos 6 y 8) y empezaré a abordar el acuciante problema de la cognición avanzada (capítulos 9 y 10). Propondré que la clave para integrar los datos sobre la cognición avanzada con la visión de una cognición activa y corpórea reside en comprender mejor los papeles de dos andamiajes o apoyos externos muy especiales: el lenguaje y la cultura.
En resumen: la muerte de la reconstrucción racional crea una especie de vacío conceptual y metodológico. Nuestra tarea consiste ahora precisamente en llenar este vacío.
Intermedio: una historia condensada
La ciencia cognitiva, tal como se ha esbozado en los capítulos precedentes, se puede contemplar como una progresión en tres etapas. La primera (el apogeo del cognitivismo clásico) describía la mente en función de un dispositivo lógico central, unas bases de datos simbólicas y algunos módulos periféricos «sensoriales». Las características fundamentales de esta visión incluían estas ideas:
ila memoria como recuperación de una base de datos simbólica almacenada,la resolución de problemas como una inferencia lógica,
Sabiduría colectiva a! estilo de los hongos mucilaginosos I 127
la cognición como un proceso centralizado, el entorno como un (simple) ámbito de problemas,
y
el cuerpo como periférico de entrada.
La revolución conexionista (redes neuronales artificiales) tenía como ob jetivo sustituir las tres primeras características por las siguientes:
la memoria como re-creación de patrones,la resolución de problemas como compleción y transformación de dichos patrones,
y
la cognición como un proceso progresivamente descentralizado.
Sin embargo, este replanteamiento radical de la naturaleza del dispositivo cognitivo interno estaba acompañado, en gran medida, de una aceptación tácita de la clásica marginación del cuerpo y el mundo. A este clasicismo residual se enfrentan directamente las investigaciones antes presentadas. En estas investigaciones se mantienen los principios más generales de la concepción conexionista, aunque potenciados por las siguientes imágenes:
una imagen del entorno como recurso activo cuya dinámica intrínseca puede desempeñar importantes funciones en la resolución de problemas,
y
una imagen del cuerpo como parte del bucle computacional.
Tomarse en serio de esta manera el cuerpo y el mundo invita a adoptar una perspectiva emergentista en relación con muchos fenómenos fundamentales; equivale a considerar que el éxito adaptatívo es tan inherente a las complejas interacciones entre cuerpo, mundo y cerebro como a los procesos internos limitados por la piel y el cráneo. Sin embargo, los desafíos a los que se enfrenta este enfoque son numerosos y profundos. El más crucial es la acuciante necesidad de equilibrar de alguna forma el tratamiento de la aportación interna (centrada en el cerebro) y el tratamiento de los factores externos, de una manera que haga justicia a cada cual. Este problema se mani
128 ¡ De excursión por la mente
fiesta como una serie de inquietudes de cariz bastante abstracto, aunque son inquietudes con importantes consecuencias concretas para la dirección y la metodología de una ciencia de la mente corpórea. Estas inquietudes incluyen:
encontrar el vocabulario adecuado para describir y analizar los procesos que entrecruzan el límite agente/entorno,aislar para su estudio sistemas adecuados a gran escala y motivar alguna descomposición de estos sistemas en partes y procesos componentes que interaccionen entre sí,
y
comprender expresiones familiares como «representación», «computación» y «mente» de maneras que encajen con la nueva imagen (o, si no, rechazar por completo estas expresiones).
En resumen: ¿cómo debemos concebir el tipo de fenómenos que hemos expuesto y cuántas de nuestras viejas ideas y prejuicios tendremos que abandonar para hacerlo? A esta cuestión se dedica la segunda parte.
Segunda parte
EXPLICAR LA MENTE EXTENDIDA
Nuestro propio cuerpo está en el mundo como el corazón en el organismo... forma un sistema con él.
M áURICE M erleau-Po n ty , Phenomenology o/Percepíion. Versión en castellano del pasaje traducido al inglés por David Hilditch en su
tesis doctoral (Universidad de Washington, 1995).
LAMINA 1. Representación tridimensional de la corteza cerebral y de los principales centros visuales subcorticales del macaco. La figura abarca todo el hemisferio derecho.Fuente: van Essen y GalJant, 1994 Reproducida por gentileza de David van Esten, Kack Gallant y Cell Press.
A,0,7
O l í
O uCartesianas
B.
% '/ / / i|
- 0,9
65,6
■ ' O'*-
$ }{>I< o 4J? # (9 G s> M
' # © O OHiperbólicas Polares
62,4
1 ll
I ..
= -II $ • # <#= Í5 ' / / Ü V N $ Q f > 0 $r //uv'w' o o í ; o
r .5 :c
M
Cartesianas Hiperbólicas Polares
LÁMINA 2. Respuestas de dos células de V4 a diferentes pautas espaciales cartesianas y no cartesianas. Cada icono representa un estímulo visual particular y su color representa la respuesta inedia a ese estimulo en relación con la frecuencia espontánea de londo, empleando la escala de color mostrada arriba. Á) neurona con una respuesta máxima ante estímulos polares, especialmente espirales, y mucho menos ante rejillas hiperbólicas y cartesianas (modificado con autorización de Gallant y otros, 1993). B? neurona con una respuesta máxima ante estímulos hiperbólicos con frecuencias espacíales de bajas a moderadas.Fucnir v j i i ívsscn y Gallant, 1904 a-producirla p o r penalczj de David v_m Esstn. Kack Cufian! yCell l'ress.
LÁMINA 3. Atún robótico que cuelga de un soporte en el Ocean Engineering Testing Tank Facility del MIT.Fuente: Triantaíyllou y Trianlafyllou, 1995. Fotografía de Sam Ogden; reproducida por gentileza de Sam Ogden y con la autorización de Scientific American, Inc
1 3
LÁMINA 4. Un coletazo enérgico seguido en rápida sucesión por otro en la dirección contraria produce un fuerte y súbito empuje muy adecuado para abalanzarse sobre una presa o huir con rapidez. El coletazo inicial produce un gran vórtice (1); el segundo coletazo crea otro vórtice que gira en sentido contrario (2, 3). Antes de apartarse de la cola y debilitarse mutuamente, los dos vórtices se combinan para crear un chorro que produce un fuerte impulso hacia adelante y una fuerza lateral desviada, aunque manejable (4).Fuente: Tpanuíyílou yTriamafyllou. 1995; reproducida por gentileza de M. S. vC . S. Tnantafyllou y Scien- tific American, Inc.
5 Robots en evolución
5.1 Las elusivas estratagemas de la mente corpórea y embebida
¿Cómo deberíamos estudiar la mente corpórea y embebida? Este problema se convierte en apremiante cuando nos damos cuenta de que las soluciones de la naturaleza suelen confundir las imágenes por las que nos guiamos y burlar las nítidas demarcaciones (cuerpo, cerebro y mundo) que estructuran nuestro pensamiento. El cerebro biológico parece estar a la vez constreñido y potenciado de maneras fundamentales y en ocasiones nada in tuitivas. Está constreñido por la naturaleza del proceso evolutivo, un proceso que debe construir nuevas soluciones y estrategias adaptativas partiendo de los recursos cognitivos y del hardware existentes. Y como hemos visto, está potenciado por la disponibilidad de un campo en el mundo real que nos permite explotar otros agentes, buscar activamente entradas útiles, transformar nuestras tareas computacionales y descargar en el mundo el conocimiento adquirido.
Esta combinación de restricciones y oportunidades plantea un verdadero problema al científico cognitivo. ¿Cómo podemos modelar y comprender sistemas cuyos parámetros de diseño y operación parecen (desde una perspectiva de diseño no histórica e incorpórea) tan desordenados y poco intuitivos? Una solución parcial consiste en enfrentarse directamente al problema de la acción en el mundo real y en tiempo real, como en los trabajos de robótica examinados en el capítulo I . Otra consiste en observar atentamente la interacción entre la cognición y la acción al principio del aprendizaje, como en la investigación sobre el desarrollo examinada en el capítulo 2. Un importante instrumento adicional -que es el tema central del presente capítulo- es el empleo de una evolución simulada como medio para generar sis-
132 I Explicar la mente extendida
temas de control para robots (verdaderos o simulados). La evolución simulada (como el aprendizaje de redes neuronales) promete ayudarnos a reducir el papel de nuestras predisposiciones y prejuicios racionalistas en la búsqueda de soluciones eficientes.
5.2 Un telón de fondo evolutivo
Con frecuencia se ha dicho que los sistemas que han evolucionado de una manera natural simplemente no funcionan como un diseñador humano podría esperar.1 Hay varias razones para ello. Una, que ya hemos visto ejemplificada muchas veces, supone una tendencia a soluciones distribuidas. La cuestión, ahora ya familiar para nosotros, es que mientras un diseñador humano normalmente construiría la funcionalidad necesaria para resolver un problema directamente en un dispositivo separado, la evolución no estaría limitada de ninguna manera por los límites entre un organismo o dispositivo y el entorno. La resolución de problemas se distribuye fácilmente entre organismo y mundo o entre grupos de organismos. La evolución, que en un sentido muy real no tiene ninguna perspectiva sobre ningún problema, carece de impedimentos para encontrar soluciones distribuidas económicas porque no necesita las anteojeras (por ejemplo, la firme división entre dispositivo y ámbito de operación) que ayudan a los técnicos humanos a enfocar su atención y a descomponer problemas complejos en componentes.
Sin embargo, esto no quiere decir que los principios de descomposición no desempeñen ningún papel en el diseño natural. Pero el tipo de descomposición que caracteriza al diseño por selección natural es, de hecho, muy diferente. Es una descomposición dictada por la restricción del holismo evolutivo, un principio formulado explícitamente por Simón (1969) que afirma que las totalidades complejas se suelen desarrollar de modo incremental con el tiempo evolutivo y que las diversas formas intermedias deben ser ellos mismos sistemas completos y robustos capaces de sobrevivir y reproducirse. Como dice Dawkins (1986, pág. 94), la clave reside en pensar en función de trayectorias o vías a través del tiempo evolutivo, considerando a los organismos completos que tienen éxito como pasos a lo largo del camino.
Esta restricción es muy fuerte. Un diseño complejo extremadamente adaptativo que carezca de alguna descomposición evolutiva de esta clase (con formas ancestrales más sencillas pero exitosas), nunca evolucionará. Además, las transiciones entre estas formas no deberían ser demasiado ex
I. Véanse, por ejemplo, Simón, 1962; Dawkins, 1986 y el capitulo 4 de Clark, 1989.
Robots en evolución I 133
tremas: deberían consistir en pequeñas alteraciones estructurales, cada una de las cuales genera un organismo completo y con éxito.
Se dice, por ejemplo,1 que nuestros pulmones evolucionaron a partir de la base proporcionada por las vejigas natatorias de los peces. Las vejigas natatorias son unas bolsas de aire que facilitan el movimiento en entornos acuosos. Se ha propuesto que el origen de nuestra común propensión a la pleuresía y el enfisema se remonta a ciertos aspectos de la adaptación de la vejiga natatoria. Así, Lieberman (1984, pág. 22) se ve conducido a comentar que «las vejigas natatorias son dispositivos diseñados lógicamente para nadar; para respirar constituyen un sistema complicado y extravagante».
La importante conclusión de todo esto es que las limitaciones del holis mo evolutivo, junto con la necesidad de avanzar mediante pequeños cambios increméntales de estructuras ya existentes, pueden producir soluciones a problemas presentes que deben mucho a sus antecedentes históricos partí culares. Como dice el especialista en genética celular Frangois Jacob (1977, pág. 1.163): «Los objetos simples son más dependientes de las limitaciones [físicas] que de la historia. Cuanto mas aumenta la complejidad, más impor tante es el papel desempeñado por la historia». Para Jacob, la evolución se parece más a un hojalatero que a un ingeniero. Un ingeniero se sienta frente a un tablero de dibujo en blanco y diseña una solución para un problema nuevo partiendo desde cero; un hojalatero toma un dispositivo ya existente y trata de adaptarlo para algún propósito nuevo. Al principio, lo que produce el mecánico puede tener poco sentido para el ingeniero, cuyo pensamiento no está limitado por los dispositivos y los recursos disponibles. De la misma manera, las soluciones naturales para los problemas a los que se enlrentan los seres evolucionados complejos también pueden parecer poco claras desde una perspectiva de diseño puro y sin tener en cuenta la historia.
Una manera de empezar a comprender estas soluciones a problemas inicialmente opacas, oportunistas e históricamente dependientes de trayectorias, consiste en tratar de recapitular artificialmente el proceso evolutivo mismo: hacer que un hojalatero alcance a otro. Con ello damos paso a los algoritmos genéticos.
5.3 Los algoritmos genéticos como instrumentos de exploración
Como todos sabemos, la evolución biológica funciona mediante un proceso de diversificación y selección. Dada una población de organismos y una diversidad dentro de esa población, algunos individuos sobreviven y se reproducen mejor que otros. Añadamos a esto un mecanismo de transmisión
2. Véase una revisión de éstas y otras posibilidades en el capítulo 4 de Clark, 1989,
134 I Explicar la mente extendida
que haga que los descendientes de los más aptos hereden parte de la estructura de sus antepasados y tendremos las condiciones mínimas para la búsqueda evolutiva. Normalmente, esta transmisión supone otros medios incorporados de variación (por ejemplo, la mutación) y de diversificación (por ejemplo, los procesos de división y recombinación característicos de la reproducción sexual). Mediante una serie repetida de variaciones, diversificaciones, selecciones y transmisiones, el proceso evolutivo realiza una búsqueda en el espacio de opciones estructurales, una búsqueda que tenderá a concentrarse en las soluciones más aptas para los problemas de la supervivencia y la reproducción.
Los algoritmos genéticos3 simulan este tipo de proceso evolutivo. La población consiste, inicialmente, en una variedad de individuos de software, que o bien se han codificado a mano, o bien se han generado al azar. Estos «individuos» podrían ser líneas de código, estructuras de datos, programas informáticos jerárquicos completos, redes neuronales, etc. A continuación, se permite que estos individuos actúen en algún entorno para poder computar, después de cierto tiempo, una medida de aptitud para cada uno (¿Cuánto alimento ha encontrado? ¿Ha evitado a los depredadores?...). Después se emplea la codificación inicial de los individuos más aptos (normalmente almacenada en forma de cadenas binarias) como base para la reproducción (es decir, para generar la próxima población). Pero en vez de limitarse a copiar los individuos con más éxito, se emplean operaciones de cruce y mutación. En las mutaciones se realiza un pequeño cambio aleatorio en la estructura de la codificación de un individuo. Por ejemplo, si el individuo es una red neuronal, se pueden modificar sutilmente algunos pesos. En los cruces se recombinan partes de las codificaciones de dos individuos para imitar la dinámica general de la reproducción sexual. Así, la nueva generación se basa en las variantes con más éxito de la generación anterior, pero continúa el proceso de búsqueda de soluciones eficientes investigando parte del espacio que circunda las buenas soluciones anteriores. Cuando este proceso se repite durante centenares de miles de generaciones, constituye (para ciertos ámbitos de problemas) una potente versión de la búsqueda de descenso por un gradiente,4 salvo por el hecho de que aquí los incrementos de aprendizaje se producen generación tras generación y no durante la vida de un solo individuo.
Estas técnicas se han utilizado para desarrollar soluciones a problemas en una amplia variedad de ámbitos, desde el seguimiento de pistas en hormigas ar-
I
3. Véase, por ejemplo, Holland, 1975; Goldberg, 1989; Koza, 1992; Belew, 1990; Nolft, Floreano, Miglino y Mondada, 1994.
4 Vease el capitulo 3 anterior
Robots en evolución I 135
tificiales (Jefferson y otros, 1990; Koza, 1991), hasta el descubrimiento de leyes del movimiento planetario (Koza, 1992), pasando por la evolución de controladores de redes neuronales para insectos artificiales (Beer y Gallagher, 1992). Esta ultima aplicación es especialmente interesante porque, como veremos a continuación, nos permite estudiar los efectos de aprendizajes evolutivos incre mentales en entornos que incluyen una rica dinámica corporal y ambiental.
5.4 Inteligencia corpórea en evolución
Caminar, ver y navegar son estrategias adaptativas fundamentales explotadas por muchas criaturas evolucionadas. ¿Puede ayudarnos la evolución simulada a comprenderlas mejor? La respuesta parece ser un «sí» provisional.
Consideremos el caminar. Randall Beer y John Gallagher (1992) han utilizado algoritmos genéticos para hacer evolucionar controladores de redes neuronales para la locomoción de insectos. Resulta que estos controladores evolucionados explotan una variedad de estrategias robustas y, en ocasiones, nada evidentes. Muchas de estas estrategias se basan en interacciones estrechas y continuas entre el controlador y el entorno, y no suponen la construcción previa de programas motores detallados y explícitos. Además, los mejores controladores fueron capaces de enfrentarse con éxito a una variedad de situaciones que constituían un desafío, incluyendo funcionar con re- troalimentación sensorial y sin ella, y compensar automáticamente ciertos tipos de cambio estructural.
El insecto robot de Beer y Gallagher era una especie de cucaracha simulada' con seis patas. Cada pata estaba articulada y se podía alzar y bajar. Un sensor en cada pata comunicaba el ángulo de las patas en relación con el cuerpo. El insecto simulado estaba controlado por una red de redes neuronales (cada pata tenía un controlador de red dedicado, formado por cinco neuronas). Cada subred de cinco neuronas incluía tres neuronas motoras que gobernaban la pata y dos neuronas «extra» con una función abierta. Cada subred recibía datos de entrada procedentes del sensor asociado a la pata que controlaba. Se utilizó un algoritmo genético (véase el apartado 5.3 anterior) para descubrir un conjunto de características (como los pesos de conexión; véase el capítulo 3 anterior) que permitiera a este tipo de arquitectura de control generar una locomoción sólida y estable. Esto, a su vez, implicaba encontrar pesos, sesgos y constantes de tiempo (velocidades de respuesta) capaces de generar una pauta de movimiento viable para cada pata y de coordinar los movimientos de todas las patas.
5. Véanse la introducción y el capítulo 2 de este libro.
136 t Explicar la mente extendida
Beer y Gallagher desarrollaron once controladores, cada uno con un conjunto diferente de valores para los parámetros y los pesos. Todos los controladores produjeron una buena locomoción y rodos emplearon la «marcha trípeda», favorita de los insectos reales que se desplazan con rapidez.
La importancia de la interacción controlador-entorno quedó demostrada por el desarrollo evolutivo de soluciones en tres entornos diferentes. En el primer entorno, la búsqueda evolutiva se producía con los sensores de las patas en funcionamiento. Como era de esperar en estas condiciones, las soluciones finales se basaban firmemente en una continua retroalimentación sensorial- Si más adelante se desactivaban los sensores, la locomoción se perdía o presentaba muchos problemas. En el segundo entorno, la búsqueda evolutiva se producía sin retroalimentación sensorial. En esta condición «a ciegas» se descubrieron soluciones que sólo estaban basadas en generadores centrales de pautas y que, en consecuencia, producían una locomoción algo torpe pero fiable, semejante a la de un robot de juguete.
Muchísimo más interesantes fueron los resultados obtenidos cuando la retroalimentación sensorial estaba presente de una manera intermitente durante la búsqueda evolutiva. En estas condiciones inestables, evolucionaron unos controladores que podían producir un caminar fluido empleando la retroalimentación sensorial cuando estaba disponible, pasando a una generación de pautas «a ciegas» en ausencia de retroalimentación sensorial (y produciendo una locomoción viable aunque menos elegante) e incluso compensando automáticamente ciertos cambios estructurales (por ejemplo, alteraciones de la longitud de las patas, como ocurre durante el crecimiento biológico). La explicación de esta última propiedad supone que, en estas soluciones «mixtas», la retroalimentación sensorial modula el generador de pautas. Una alteración en la longitud de una pata influye en las lecturas del sensor correspondiente y esto, a su vez, ocasiona una ra- lentización en el generador de salidas motrices. Este tipo de compensación automática tiene un sabor biológicamente realista: pensemos cómo se adapta automáticamente un gato para andar a tres patas cuando se ha lesionado una o cómo se adapta un ser humano a caminar sobre una superficie helada o con un tobillo torcido. Sin embargo, como señala Beer (1995b), este tipo de adaptación no es el resultado de un aprendizaje individual como tal: es más bien algo inherente a la dinámica original del sistema, y las nuevas condiciones (lesiones, crecimiento de las patas, etc.) no hacen más que ponerla de manifiesto.
En general, el tipo de solución encarnada por este controlador mixto supone un equilibrio tan sutil entre la generación centralizada de pautas y la modulación sensorial que, según Beer, es muy fácil que un analista humano lo hubiera pasado por alto. Mediante el empleo de algoritmos genéticos, se
Robots en evolución I 137
pueden encontrar soluciones que saquen el máximo partido de aquellas estructuras ambientales disponibles y que no se vean perjudicadas por nuestra tendencia natural a buscar soluciones ordenadas, nítidas y fáciles de descomponer. Naturalmente, la vertiente negativa de estas soluciones más desordenadas, más interactivas y más realistas biológicamente es que no sólo son difíciles de descubrir sino que también son difíciles de comprender una vez descubiertas. Volveremos a este problema en el apartado 5.7.
Posteriores experimentos realizados en otros ámbitos han dado los mismos resultados que los de Beer y Gallagher. Harvey y otros (1994) hicieron evolucionar sistemas de control para robots orientados visualmente y Yamu- chi y Beer (1994) hicieron evolucionar redes capaces de controlar un robot que empleaba como entrada señales de sonar para realizar tareas de reconocimiento y navegación por terrenos accidentados. Johnson y otros (1994) emplearon la programación genética para hacer evolucionar rutinas parecidas a la visión animada para solucionar tareas de procesamiento visual ecológicamente realistas y computacionalmente poco costosas (recordemos el capítulo 1), y aparecieron soluciones que superaron significativamente a los mejores programas que ellos mismos habían escrito a mano. Por tanto, existen muchos indicios de la potencia de la búsqueda evolutiva simulada para descubrir soluciones robustas y poco evidentes a problemas biológicamente realistas. Con todo, el optimismo de esta afirmación se debería atenuar reconociendo varias limitaciones importantes que aquejan a la mayor parte de los trabajos en este campo. Las principales limitaciones son la «congelación» del espacio de problemas, el empleo de arquitecturas neuronales y corporales fijas, la falta de una distinción adecuada entre fenotipo y genotipo, y el problema del «aumento de la escala» de la búsqueda evolutiva.
La «congelación» del espacio de problemas se refiere a la tendencia a predeterminar una función adaptativa fija y a utilizar la evolución simulada sólo para maximizar la aptitud en relación con esta meta prefijada (caminar, navegar, etc.). Este enfoque desatiende uno de los factores que con más fuerza diferencian la adaptación evolutiva real de otras formas de aprendizaje: la capacidad de hacer coevolucionar problemas y soluciones. Un ejemplo clásico es la coevolución de técnicas de persecución y evasión en especies animales.6 La cuestión esencial es, simplemente, que la evolución natural no actúa para «resolver» un problema fijo. En cambio, los problemas mismos se alteran y evolucionan en una compleja red de cambios coevolutivos.
Igualmente problemática es la tendencia a buscar dentro de un espacio de problemas definido parcialmente por alguna arquitectura neurona! o cor-
6. Véanse algunos experimentos de evolución simulada que implican persecución y evasión en Miller y Clifí, 199-t.
138 I Explicar la mente extendida
pora! fija. Una vez más, estas búsquedas congelan parámetros que, en el mundo natura!, están sujetos al cambio evolutivo. Por ejemplo, la cucaracha simulada tenía una forma corporal fija y un conjunto fijo de recursos neuro- nales. En cambio, la búsqueda evolutiva real es capaz de modificar tanto la forma corporal7 como la arquitectura nerviosa general.
Otra distorsión biológica es el empleo de correspondencias genotipo fenotipo bastante directas. En la búsqueda normal por algoritmo genético, las nuevas poblaciones de individuos están totalmente especificadas por sus genotipos. En cambio, la manera en que los genes reales llegan a expresarse en los cuerpos reales permite que las interacciones ambientales desempeñen un papel mucho mayor durante el tiempo de desarrollo individual. De hecho, la imagen de que los genes «codifican» características fí sicas suele ser errónea. En realidad, los genes codifican características físicas posibles cuya expresión depende, en gran medida, de la influencia de una variedad de factores ambientales. La capacidad de seleccionar factores genéticos cuya expresión final en los individuos sigue estando en gran medida bajo el control del entorno, permite que la evolución biológica expío te varios grados de libertad que no están presentes en la mayoría de los modelos artificiales.8
Finalmente existe el problema ampliamente reconocido del «aumento de la escala». La mayoría de los trabajos presentados anteriormente aplican la búsqueda genética a controladores de redes neuronales relativamente pequeños. A medida que aumenta el número de parámetros que caracterizan a los controladores, las variedades normales de búsqueda evolutiva son cada vez más ineficaces. La clave para superar este problema parece residir en combinar una mejora de las codificaciones genéticas con una «descarga» de parte de la tarea en el entorno (es decir, reducir la cantidad de información codificada en el genotipo y depender más de las interacciones evolutivas con un entorno estructurador). Vemos así que el problema del aumento de la escala y el anterior problema de la correspondencia entre fenotipo y genotipo pueden estar más vinculados de lo que parece a primera vista.9
7. Siguiendo esta linea, Menczer y Belew (1994) emplean un algoritmo genético para de- terminqr la elección de una interfaz organismo-entorno haciendo evolucionar diferentes tipos de sensor.
8. Véase un examen excelente de las complejidades de las interacciones gen-entorno en Gifford, 1990.
9. El trabajo de Nolfi, ^liglino y Parisi (1994) es uno de los pocos intentos de introducir la plasticidad fenotípica en un modelo combinado de algoritmo genético y red neurona!. En este modelo, la correspondencia genotipo-fenotipo es un proceso extendido en el tiempo y sensible al entorno. Además, la búsqueda evolutiva misma se emplea para determinar el equilibrio entre la influencia de los genes y del entorno.
Robots en evolución I 139
Por tanto, es evidente que el empleo de la evolución simulada está lejos de ser una panacea para la investigación sobre agentes autónomos. Sin embargo, estos métodos ya se han ganado un lugar en la «caja de herramientas» de las ciencias cognitivas de la mente corpórea. La medida en que ese lugar sea más o menos fundamental también dependerá de la resolución de una disputa interna bastante intensa sobre la legitimidad y el valor de emplear agentes y entornos simulados para comprender la cognición corpórea y activa.
5.5 La batalla de los simuladores (¡Viva lo auténtico!)
En general, la evolución artificial tiene lugar en poblaciones de organismos simulados que intentan superar entornos simulados. Sin embargo, el empleo de estas simulaciones es, en sí mismo, objeto de discusión dentro de la comunidad de investigadores que estudian la cognición corpórea y embebida. Por un lado, el empleo de mundos y agentes simulados ofrece las claras ventajas de simplificar los problemas y hacer más tratable e! estudio de poblaciones grandes. Por otro lado, una de las principales ideas que impulsan gran parte de la investigación de los agentes autónomos es, precisamente, el reconocimiento de la insospechada complejidad de las interacciones reales entre agente y entorno y las sorprendentes maneras en que los seres corpóreos pueden explotar las características y las propiedades del mundo. Los fans de la robótica real10 * destacan que los investigadores subestiman sistemáticamente la dificultad de los problemas (desatendiendo aspectos de la realidad como el ruido y la poca fiabilidad de los componentes mecánicos) y que también pasan por alto soluciones sobre la marcha que dependen de propiedades físicas generales como la elasticidad y el «dar de sí» de ciertos componentes.11
Tim Smithers (1994, págs. 64-66) ofrece un útil ejemplo -no relacionado con la robótica- del papel de estas propiedades físicas en su interpretación de la «oscilación pendular», un fenómeno asociado a la segunda generación de reguladores de bolas empleados para controlar la potencia de salida de los primeros motores de vapor. Los reguladores de bolas (también conocidos como reguladores de Watt en homenaje a su inventor, James Watt) se emplean para mantener constante la velocidad de un volante que funciona con un motor de vapor y al que se conecta otra maquinaria. Sin un mecanismo regulador, la velocidad del volante variaría según las fluctuaciones del vapor, las alteraciones del volumen de trabajo y otros factores. El regulador se basa
10. Véanse, por ejemplo, Urooks, 1992 y Smithers, 1994.11 Recuérdese el ejemplo del robot de una cadena de montaje citado en el prefacio.
140 l Explicar la mente extendida
en un eje vertical conectado con el volante principal. El eje tiene dos brazos, unidos por goznes, con una esfera metálica en el extremo de cada uno. Cuando el volante gira, los brazos se van separando del eje a medida que aumenta la velocidad de rotación. Los brazos actúan directamente sobre una válvula reguladora que reduce el flujo de vapor cuando los brazos se separan (cuando aumenta la velocidad del volante) y que lo aumenta cuando los brazos se acercan (cuando disminuye la velocidad del volante). Este dispositivo hace que el volante mantenga una velocidad de rotación constante, necesaria para muchas aplicaciones industriales. Según Smithers, cuando aumentó la precisión en los procesos de fabricación apareció una nueva generación de reguladores que empezó a mostrar un problema no observado en las versiones anteriores, más «rudimentarias». Los nuevos reguladores, fabricados con precisión, solían ser incapaces de establecer una velocidad de rotación fija y provocaban una oscilación de aceleraciones y desaceleraciones. Esta oscilación pendular en torno a una velocidad constante se producía porque los nuevos reguladores reaccionaban con demasiada rapidez a la velocidad del eje principal, produciendo una compensación excesiva. ¿Por qué el rendimiento de las primeras versiones rudimentarias superaba al de las posteriores, diseñadas con precisión? La razón era que el rozamiento entre las juntas, los cojinetes y las poleas de las primeras versiones era suficiente para amortiguar las respuestas del sistema, protegiéndolo así de los ciclos de rápida sobrecompensación observados en las máquinas más nuevas. Los reguladores modernos se basan en componentes adicionales para impedir la oscilación pendular, pero al precio de ser más difíciles de montar y utilizar (ibíd., pág. 66).
Smithers demuestra que los intentos de hacer más precisos los sistemas sensoriales de robots sencillos se pueden encontrar con problemas similares. Si la conducta del robot depende estrechamente de las lecturas de los sensores, unos dispositivos muy sensibles quizás respondan en exceso ante pequeñas perturbaciones ocasionadas por cambios ambientales relativamente insignificantes o incluso por el funcionamiento del sensor mismo. Por tanto, un aumento de resolución no siempre es positivo. Mediante el empleo de componentes menos precisos, se pueden diseñar robots con dispositivos físicos cuyas propiedades (por ejemplo, pérdidas mecánicas y eléctricas) amortigüen las respuestas y eviten variaciones y fluctuaciones no deseadas. Según Smithers, de todo esto se deduce que también puede ser erróneo concebir los sensores como dispositivos de medición y que deberíamos verlos como filtros cuyo papel consiste, en parte, en absorber variaciones conductalmen- te insignificantes para que el sistema pueda mantener unas interacciones sencillas y robustas con su entorno. Según Smithers, los componentes físicos reales suelen ofrecer gran parte de esta capacidad de filtración o absorción como resultado de las pérdidas eléctricas y mecánicas inherentes a los me
Robots en evolución I 141
dios físicos. Es evidente que estos efectos «de propina» no aparecen en los sistemas agente-entorno simulados. Por tanto, los trabajos basados en simu laciones corren el peligro de pasar por alto soluciones económicas a problemas importantes porque no reconocen el papel estabilizador de ciertas pro piedades físicas brutas como la fricción y las pérdidas mecánicas y eléctricas.
Otro problema de los enfoques basados en la pura simulación es la iuer- te tendencia a simplificar en exceso el entorno simulado y a concentrarse en la inteligencia del agente simulado. Esto refuerza aún más la visión errónea del entorno que lo considera poco más que el marco en el que se establece un problema dado. En cambio, todos los argumentos de los capítulos anteriores describen el entorno como un recurso rico y activo que actúa como «cómplice» en la producción de la conducta adaptativa. Otras inquietudes relacionadas con ésta son la pobreza relativa de la física simulada (que, en general, excluye parámetros cruciales de la realidad como el rozamiento y el peso), la alucinación de un flujo perfecto de información entre el «mundo» y los sensores, y la alucinación de unos componentes uniformes y perfectamente diseñados" (por ejemplo, el empleo de cuerpos idénticos para todos los individuos en la mayoría de los escenarios evolutivos). Esta lista se podría ampliar, pero el mensaje es claro. La simulación ofrece, como mucho, una versión empobrecida de la realidad y este empobrecimiento sigue unas líneas bastante peligrosas: líneas que amenazan con deformar nuestra imagen del funcionamiento de los agentes, enmascarando las aportaciones de las características del entorno y de los cuerpos físicos reales.
A pesar de todo esto, las ventajas de emplear las simulaciones con mesura pueden ser grandes, especialmente cuando se investiga el cambio evolutivo. Las grandes poblaciones simuladas son baratas de producir y iáciles de controlar. Dentro de un entorno virtual, la evaluación de la aptitud en relación con una conducta se puede automatizar. Los problemas de la ingeniería real se evitan completamente. Además, la evolución simulada a gran escala ofrece un considerable ahorro de tiempo en comparación con el empleo repetido de observaciones y evaluaciones en el mundo real.
Por tanto, lo más indicado a efectos prácticos parece ser una estrategia mixta. Así, teóricos como Nolfi, Miglino y Parisi (1994), y Yamuchi y Beer (1994), emplean simulaciones en las etapas iniciales de investigación y desarrollo y después transfieren los resultados a robots móviles verdaderos. Naturalmente, los controladores de redes neuronales que se han hecho evolucionar para guiar un robot simulado, difícilmente se podrán transferir sin problemas a un sistema real. Pero la fase de simulación se puede utilizar, por 12
12. Estas desventajas se identifican y se discuten en la pág. 194 de Nolfi, Floreano, Migli no y Mondada, 1994.
142 I Explicar la mente extendida
lo menos, para obtener valores generales de una variedad de parámetros que después se pueden ajustar y adaptar con más precisión al contexto real.11
Finalmente, se debe destacar que incluso la investigación basada en la simulación pura puede ser inmensamente valiosa, en la medida en que permita la investigación de cuestiones generales relacionadas (por ejemplo) con la interacción entre el aprendizaje individual y el cambio evolutivo {Ackley y Littman, 1992; Nolíi y Parisi, 1991) y con las propiedades de grandes colee tivos de agentes muy simples (Resnick, 1994). Sin embargo, como medio para comprender la dinámica detallada de las interacciones entre agentes y entornos reales, las simulaciones siempre se deberían tomar «con pinzas».
5.6 Cómo comprender los agentes evolucionados, corpóreos y embebidos
A! parecer, el proceso de diseño natural superará sistemáticamente las figuraciones de los teóricos humanos. En particular, la evolución biológica prescinde totalmente de nuestra nítida delimitación entre lo meramente físico y lo computacional o informacional. Se pueden explotar características físicas burdas (como las pérdidas eléctricas y mecánicas, el rozamiento y el ruido) junto con estrategias computacionales familiares (como el aprendizaje de redes neuronales) para encontrar soluciones robustas a problemas de supervivencia y respuesta. Además, como hemos visto repetidamente en capítulos anteriores, el entorno se puede explotar activamente para transformar la naturaleza de los problemas que se nos plantean. Y como se comentó en el apartado 5.2 anterior, con frecuencia la evolución biológica debe trastear con recursos viejos para producir nuevas capacidades: por tanto, la innovación cognitiva rara vez se confecciona a partir de un solo tejido completo, con un diseño ideal. Estos factores se unen para hacer que el diseño biológico acabe siendo curiosamente opaco. Si desmontamos una grabadora de vídeo encontraremos un conjunto bien delimitado de módulos y placas de circuitos que desempeñan unas funciones claras y específicas en la producción de un rendimiento con éxito. Esto ocurre porque los diseñadores humanos (cosa nada sorprendente) optan por el tipo de diseño global basado en componentes que tiene más sentido para una reflexión secuencial y consciente. En el cerebro humano parecen intervenir como componentes unas 13
13. Este ajuste se puede lograr mediunte una evolución continuada, empleando robots reales como fuente de genotipos que luego son seleccionados y modificados con el uso de una simulación de algoritmo genético, o también se puede lograr mediante un diseño y un ajuste manual. Véase un planteamiento en Nolfi, Florcano, Miglino y Mondada, 1994.
Robots en evolución i 143
estructuras y unos cableados mucho menos transparentes, incluyendo enormes cantidades de circuitos recurrentes que permiten modificaciones mutuas y repetidas entre muchas áreas. Y de todos modos el papel del cerebro no es más que hacer que el cuerpo ejecute los movimientos correctos. Al final, el éxito adaptativo no se puede atribuir a los cerebros sino a coaliciones cerebro-cuerpo embebidas en entornos ecológicamente realistas. Y aquí se plantea una pregunta muy amplia y, por ahora, sin respuesta: ¿cómo podemos estudiar y comprender {no sólo reproducir) el éxito adaptativo de los seres biológicos, cuyos principios de diseño no respetan los límites intuitivos entre cognición, cuerpo y mundo?
Una posibilidad, que hoy por hoy va ganando terreno, es sustituir la teorización computacional y el discurso representacional, que son los instrumentos usuales de la ciencia cognitiva, por la teorización y el discurso de la teoría de los sistemas dinámicos. El argumento es el siguiente: la imagen de la cognición como generación de transformaciones computacionales de representaciones internas, supone un retorno a la concepción del cerebro como sede fundamental de un tipo de inteligencia esencialmente incorpórea. Y la razón de ello es que, en esta imagen, se parte del supuesto de que las representaciones así concebidas sustituyen a elementos y sucesos reales y que el razonamiento se produce en una especie de terreno simbólico interno. Pero hemos visto que la inteligencia corpórea real es, fundamentalmente, una manera de enlazar con el mundo, de emplear estrategias activas que dejan gran parte de la información fuera, en el mundo, y de emplear astutamente secuencias repetidas, en tiempo real, de interacciones cuerpo-mundo para resolver problemas de una manera robusta y flexible. La imagen es la de dos sistemas complejos acoplados (el agente y el entorno) cuya actividad conjunta resuelve el problema. En estos casos, puede tener poco sentido decir que un sistema representa al otro.
Como esta idea puede ser difícil de captar, será útil dar un ejemplo. Tim van Gelder nos invita a considerar, desde esta perspectiva, el funcionamiento del regulador de Watt descrito en el apartado 5.5 anterior. Recordemos que este regulador mantiene el volante a una velocidad constante, mediante dos brazos lastrados cuya oscilación cierra la válvula reguladora cuando aumenta la velocidad de rotación y la abre cuando esta velocidad disminuye. Van Gelder (1995, pág. 348) contrasta esto con la operación de un «regulador computacional» imaginario que funcionaría de la manera siguiente:
Medir la velocidad del volante.Comparar la velocidad real con la velocidad deseada.Si hay una discrepancia, entonces:
medir la presión actual del vapor,
144 I Explicar la mente extendida
calcular la alteración deseada en la presión del vapor, calcular el ajuste necesario para la válvula reguladora.
Ajustar la válvula reguladora. Volver al paso I.
Este regulador computacional utiliza mediciones explícitas de la velocidad y de la presión del vapor que luego actúan como entrada para otros procesos que calculan los ajustes necesarios. En cambio, el regulador de Watt incorpora las etapas de medición, cálculo y control en un proceso único que integra las influencias recíprocas entre la velocidad del motor por un lado, y la velocidad y el ángulo de los brazos por otro. Según van Gelder, es mejor concebir el funcionamiento del regulador de Watt en función de bucles de retroalimentación y de sistemas físicos estrechamente acoplados, que en fun ción de representaciones y de cálculos. Estos fenómenos pertenecen al terreno de la teoría general de los sistemas dinámicos. Hagamos ahora una pausa para conocer mejor esta teoría.
La teoría de los sistemas dinámicos es un marco de referencia14 bien establecido para describir y comprender la conducta de sistemas complejos (véase, por ejemplo, Abraham y Shaw, 1992). Las ideas fundamentales que subyacen a la perspectiva de los sistemas dinámicos son la noción de un espacio de estados, la noción de una trayectoria o un conjunto de trayectorias posibles a través de ese espacio y el empleo de la matemática (continua o discreta) para describir las leyes que dictan las formas de estas trayectorias.
Por tanto, la perspectiva de los sistemas dinámicos incorpora, como un aspecto fundamental del análisis, la idea de la evolución de los estados de un sistema a lo largo del tiempo. Como formalismo general es aplicable a todos los sistemas computacionales existentes (tanto conexionistas como clásicos), pero su alcance es más amplio y también se puede aplicar al análisis de sistemas físicos no cognitivos y no computacionales.
Desde esta perspectiva, el objetivo del análisis de un sistema dinámico es presentar una imagen de un espacio de estados con una dimensionalidad de tamaño arbitrario (dependiendo del número de parámetros significativos del sistema) y comprender las conductas del sistema en función de su posición y
14. Los precursores directos de la nueva ola de «dinamicistas cognitivos» fueron los fenomenales especialistas en cibernética de los años cuarenta y principios de los cincuenta. Entre las publicaciones fundamentales se encuentran la obra de Norbert Wiener Cybenietia, or Control and Communication Jn (be Animal and in (be Machine (Wiley, 1948), diversos volúmenes con transcripciones literales de las exposiciones realizadas durante una serie de conferen cías Macy sobre cibernética (Transactions of theSixth, Seventh, Eighth and Ntnth (1949-1952) Macy Con/erencei (Josiah Macy Jr. Foundation]), la obra de W. Ross Ashby btlroductton lo Cy- bemetics (Wiley, 1956) y el clásico de Ashby Destgn fora Bratn (Chapman and Hall, 1952)
Robots en evolución I 145
su movimiento dentro de ese espacio geométrico abstracto. Para reforzar esta comprensión se suelen invocar con regularidad varios constructos adicionales. Estos constructos capturan las propiedades distintivas de ciertos puntos o regiones (conjuntos de puntos) del espacio determinadas por la matemática que rige el sistema. Esta matemática suele especificar una ley dinámica que determina cómo evolucionan con el tiempo los valores de un conjunto de variables de estado (esta ley puede consistir, por ejemplo, en un conjunto de ecuaciones diferenciales). Dado un estado inicial, la sucesión temporal de estados determinada por la ley dinámica forma una trayectoria a través del espacio. El conjunto de todas las trayectorias que pasan por cada punto se denomina flujo y su forma es el objeto típico de estudio. Para comprender mejor la forma de este flujo se utilizan varios constructos, incluyendo el de atractor: un punto o una región del espacio que, de acuerdo con las leyes que gobiernan el movimiento a través de ese espacio, «absorbe» cualquier trayectoria que pase cerca de él. Otros conceptos relacionados son la «cuenca de atracción» (el campo de influencia de un atractor) y las «bi furcaciones» (casos donde un cambio pequeño en los valores de un parámetro pueden reestructurar el flujo produciendo un nuevo «retrato de lase», es decir, una nueva representación de la estructura general de las cuencas de atracción y de los límites entre las mismas).
Por tanto, el enfoque de los sistemas dinámicos proporciona un conjunto de instrumentos matemáticos y conceptuales que ofrece una comprensión esencialmente geométrica del espacio de conductas posibles de un sistema. Para captar el sabor del empleo de estos instrumentos, consideremos una vez más el trabajo sobre la evolución de controladores de patas de insecto descrito en el apartado 5.4 anterior. Al intentar comprender el tunciona- miento del controlador de una sola pata,15 Beer (1995b) destaca la I unción desempeñada por un cambio sistemático entre dos atractores fijos. El primer atractor entra en acción cuando se acaba de colocar la punta de una pata sobre el suelo, dando inicio a una «fase de postura». La evolución de este estado hace que el sistema se acerque a un atractor fijo. Sin embargo, cuando la pata se sigue moviendo, este atractor desaparece y es sustituido por otro que ocupa una posición distinta en el espacio de estados, haciendo que el estado del sistema evolucione hacia él. Este segundo atractor corresponde a una «fase de oscilación [de la pata]». El cambio alternante entre estos dos puntos fijos se debe a un conjunto de bifurcaciones que se producen cuando la pata forma un ángulo determinado. Como consecuencia, el retrato de fase del controlador alterna entre los dos atractores fijos. Si se desactiva el sensor
15. Éste era el controlador que recibía una retroalimentación sensorial constante; Beer lo llama «controlador reflejo».
146 I Explicar la mente extendida
del ángulo de la pata, la dinámica se colapsa hasta un punto fijo, congelando al insecto en una fase de postura permanente. Obsérvese especialmente que la dinámica descrita por Beer no pertenece al controlador de red neuronal per se, sino más bien al sistema acoplado formado por el controlador y el cuerpo (pata) del insecto. La interacción recíproca entre el controlador y la pata (mediada por la capacidad de detección de ángulos del sensor de la pata) proporciona la trayectoria en el espacio de estados que acabamos de descubrir.
Aunque es indudable que este tipo de comprensión geométrica basada en espacios de estados es a la vez valiosa e informativa, sigue abierta la cuestión sobre la medida en que estas explicaciones pueden reemplazar, y no sólo complementar, las interpretaciones más tradicionales formuladas en términos de transiciones computacionales y estados representacionales internos. Esta postura radical (que pronostica la sustitución total del discurso compu- tacional y representacional por un discurso centrado en sistemas dinámicos geométricos) se enfrenta a dos retos cruciales.
El primer reto se refiere a la escala y la tratabilidad. Incluso el conjunto de 30 neuronas que controlan las patas del insecto artificial acabado de mencionar, constituye un sistema dinámico de tal complejidad que nuestra comprensión geométrica intuitiva se viene abajo. Además, la matemática detallada de la teoría de los sistemas dinámicos se hace menos tratable a medida que aumentan el número de parámetros y el tamaño del espacio de estados. Por eso el análisis de Beer se aplicó a los sistemas más simples, de cinco neuronas, que controlaban cada pata. Por tanto, el alcance práctico de la teoría de los sistemas dinámicos para sistemas acoplados muy complejos y dimensionales (como el cerebro humano) se debe poner seriamente en duda.
El segundo reto, más fundamental, se refiere al tipo de comprensión que ofrecen estos análisis. Esta comprensión corre el riesgo de convertirse más en una descripción abstracta que en una explicación completa. Sabemos qué hace el sistema y cuándo lo hace, y qué pautas de evolución temporal muestra su conducta; pero esta información, aunque valiosa, no parece ser exhaustiva. De hecho, y como argumentaré después con más detalle, con frecuencia nos quedamos con una imagen empobrecida del roladaptativo de los componentes y de la organización funcional interna del sistema.
Mi propuesta es que los mejores aspectos de los análisis dinámicos son su atención intrínseca a la dimensión temporal y su fácil capacidad para entrecruzar los límites entre cerebro, cuerpo y entorno. Destacaré los aspectos temporales en un capítulo posterior. Pero la cuestión de los límites ya debería estar clara: cuando tratamos el cerebro como un sistema dinámico, en esencia lo estamos tratando igual que la mecánica corporal y los procesos del entorno. El resultado es que la tarea de caracterizar la conducta adaptativa
Robots en evolución { 147
en función de acoplamientos complejos entre cerebro, cuerpo y entorno, se convierte en algo especialmente fácil y natural.
Por tanto, abogaré por una postura un tanto ecuménica. Los instrumen- tos de la teoría de los sistemas dinámicos son una baza muy valiosa para comprender las conductas estrechamente acopladas con el entorno que antes he destacado. Pero se deberían considerar complementarios de la búsqueda de interpretaciones basadas en la computación y la representación. Varios de los próximos capítulos se dedicarán a exponer los argumentos en favor de esta complementariedad.
6 Emergencia y explicación
6.1 ¿Estilos diferentes?
¿Qué instrumentos hacen falta para comprender la cognición corpórea y embebida en tiempo real? Concretamente, ¿existe una gama de fenómenos emergentes cuya dependencia tan estrecha del acoplamiento entre cerebro, cuerpo y mundo haga fracasar a los análisis tradicionales? Argumentaré que los fenómenos emergentes sí exigen unos estilos nuevos de explicación y estudio, pero que es mejor considerar estos estilos como complementarios (no como contrarios) de los enfoques analíticos más familiares. Sin duda, veremos una sensibilidad creciente hacia lo que se puede denominar una «determinación ecológica»1 de las funciones de diversos estados y procesos Ínter nos (es decir, que la situación del organismo en un entorno más amplio y sus interacciones con ese entorno influyen en lo que se debe representar y computar internamente). Y también veremos la otra cara de esta sensibilidad: una atención creciente a la dinámica global de los sistemas completos formados por los organismos y su entorno. Pero ninguno de estos desarrollos evita la necesidad de comprender la contribución de los componentes neu- ropsicológicos reales a las capacidades que caracterizan psicológicamente a un agente: un proyecto que aún parece exigir el empleo de algunos instru mentos analíticos bastante tradicionales. En consecuencia, argumentaré que una ciencia cognitiva con éxito deberá estudiar tanto la macrodinámica de los sistemas agente/entorno como la mícrodinámica computacional y repre sentacional de los circuitos neuronales reales.
1 Debo esta expresión a Josefa Toribio.
150 I Explicar la mente extendida
6.2 De las partes a los todos
En este apañado distinguiré tres estilos de explicación científica cogniti- va. Estos estilos son muy generales y reúnen modos de programación opuestos entre sí (como el conexionista y el clásico).
Explicación basada en componentes
Explicar el funcionamiento de una totalidad compleja detallando los papeles individuales y la organización total de sus partes equivale a dar una explicación basada en componentes'. Éste es el estilo explicativo natural que adoptamos, por ejemplo, cuando explicamos el funcionamiento de un automóvil, un televisor o una lavadora. Explicamos la capacidad global del sistema haciendo referencia a las capacidades y funciones de sus componentes y a la manera en que estos componentes interaccionan entre sí.
Así interpretada, la explicación basada en componentes es la equivalente contemporánea de la explicación reduccionista al viejo estilo. Evitaré el vocabulario del reduccionismo por dos razones. En primer lugar, gran parte de la discusión filosófica sobre el reduccionismo suponía que las reducciones designaban relaciones entre teorías y que las teorías eran constructos Iingua- formes que implicaban leyes. Pero, en muchos casos (especialmente en la biología y en la inteligencia artificial), las explicaciones reduccionistas no adoptan esta forma; en cambio, suponen el desarrollo de unos modelos parciales que especifican unos componentes y sus modos de interacción, y explican ciertos fenómenos de orden superior (como el funcionamiento de un receptor de televisión) haciendo alusión a componentes e interacciones de nivel inferior.1 Se trata de explicaciones reduccionistas en un sentido más amplio, sentido que la «explicación basada en componentes» parece captar. La segunda razón es que contrastar la explicación emergentista con la reduccionista daría pie a un malentedido bastante común de la noción de emergencia, que consiste en sugerir que las explicaciones emergentistas tienen un factor de misterio porque no explican cómo surgen las propiedades de nivel superior a partir de estructuras e interacciones básicas. Pero las hi- 2 3
2. Esto también se conoce (creo que de una manera menos transparente) como «explicación homuncular», una expresión que refleja la idea de que los subcomponcntes pueden ser sistemas inteligentes en miniatura siempre y cuando estos sistemas, a su vez, se puedan descomponer en partes más pequeñas y «más tontas». Naturalmente, el resultado final es una colección de partes tan tontas que, de hecho, se pueden construir. Los cambios de estado binarios que subyacen a los circuitos digitales de un ordenador son un buen ejemplo de este resultado final físicamente implementable. Véase, por ejemplo, Dennett, 1978a.
3. Véase, por ejemplo, Bechtel y Richardson, 1992.
Emergencia y explicación I 151
pótesis emergentistas recientes no se callan en absoluto ante estas cuestiones. El contraste reside en las maneras en que se combinan las propiedades y las características de nivel inferior para producir los fenómenos de interés. En realidad, estas explicaciones emergentistas son un caso especial de explicación reduccionista -por lo menos si se interpretan de una manera intuitiva— porque intentan eliminar el misterio de la presencia de una propiedad de ni vel superior haciendo referencia a una multitud de datos organizativos de nivel inferior.4 Así pues, y por todas estas razones, creo que será más preciso y menos confuso contrastar la explicación emergentista con la explicación basada en componentes y no con la teorización reduccionista en general.
Los métodos de programación modular de la inteligencia artificial clásica5 se prestaban muy bien a una forma de explicación por componentes. Cuando intentamos comprender el éxito de estos programas, suele ser útil aislar las diversas subrutinas, módulos, etc. y mostrar su papel para dividir el problema que interesa en una serie de subproblemas manejables (Dennctt, 1978a).
Como indica Wheeler (1994), ciertos trabajos «conexionistas» recientes también se prestan a un tipo de explicación por componentes. Las soluciones a problemas complejos como el reconocimiento de códigos postales escritos a mano (Le Cun y otros, 1989) explotan redes (o redes de redes) muy estructuradas y con múltiples capas. En estos casos es posible profundizar en nuestra comprensión del funcionamiento del sistema preguntándonos por las funciones de estos componentes brutos (capas o subredes). Este tipo de explicación es más convincente cuando los componentes admiten una interpretación representacional directa, es decir, cuando el sistema de interés posee unas configuraciones de componentes, internas e identificables con fiabilidad, que en cierto modo «representan aspectos del dominio... y [también posee] unos componentes internos, identificables con fiabilidad, que se pueden interpretar como transformadores algorítmicos de esas representaciones» (Beer, 1995a, pág. 225). En resumen: existe una relación entre el análisis de componentes de los sistemas inteligentes y la imagen de estos sistemas como dedicados al intercambio de representaciones internas, porque las funciones distintivas de los componentes postulados se suelen definir haciendo referencia a la forma o el contenido de las representaciones internas que procesan.
■ i. Véase un argumento acerca de que es mejor tratar la emergencia como una especie de reducción en Wimsntt, 1986 y Wimsatt (en prensa).
5 Véanse, por ejemplo, Newell y Simón, 1976 y Haugcland, 1981.
152 i Explicar la mente extendida
Explicación de «atrapar y lanzar»
Este es mi nombre favorito para un enfoque que se toma en serio muchas ideas de la cognición corpórea y embebida pero que sigue contemplándolas a través del cristal del análisis tradicional. La característica principal del método de «atrapar y lanzar» es que el entorno se sigue tratando como una simple fuente de entradas al verdadero sistema de pensamiento: el cerebro. La concesión a la perspectiva corpórea reside en reconocer que estas entradas pueden conducir a acciones que simplifiquen cómputos posteriores. La imagen tradicional de un ciclo entrada-pensamiento-acción se mantiene, pero se reconocen las influencias complejas y recíprocas entre la acción en el mundo real y el procesamiento interno. La investigación sobre la visión animada muestra algo de este carácter cuando describe que una entrada visual de baja resolución puede conducir a unas acciones reales (como mover la cabeza o la fóvea) que, a su vez, generan entradas adecuadas para procesamientos de mayor resolución. Aquí nos encontramos ante una descripción que reconoce las múltiples y complejas maneras en que se pueden alterar y simplificar las tareas internas por medio de la estructura de la realidad, la dinámica corporal y las intervenciones activas en el mundo. Pero también encontramos un énfasis -y un interés- bastante tradicional en los ámbitos del procesamiento interno, las representaciones internas y la computación (como la construcción de unas bases de datos internas mínimas que codifican representaciones «indéxicas» especializadas del tipo «mi taza es amarilla»; véase Ballard, 1991, págs. 71-80). La coexistencia pacifica de estas dos imágenes (del sistema activo y embebido y de la primacía de la economía del procesamiento interno) se mantiene mediante una firme insistencia en el límite en tre cerebro y mundo. El mundo lanza entradas al cerebro, que las atrapa y responde lanzando acciones. Estas acciones pueden alterar o simplificar procesamientos posteriores, al hacer que el mundo lance entradas más fáciles de utilizar, y así sucesivamente. En resumen, aunque existe un fuerte compromiso con unos modos interactivos de explicación, se mantiene el interés tradicional en la representación y el procesamiento dentro del cerebro. Una causa de esto, implícita en la idea misma de «atrapar y lanzar» es que, en estos casos, gran parte del interés se centra en simples cadenas de retroali- mentación donde las acciones del sistema alteran sus próximas entradas; estas entradas, a su vez, controlan la siguiente acción, y así sucesivamente. En estos casos, la dimensionalidad relativamente baja de las interacciones nos permite comprender l'a conducta del sistema empleando instrumentos bastante convencionales. Sin embargo, a medida que aumentan la complejidad y la dimensionalidad de estas interacciones cruciales, es más difícil (y quizá imposible) conceptualizarlas añadiendo un simple factor de retroalimenta-
Emergencia y explicación I 153
ción a nuestra comprensión normal. Esta complejidad crítica surge cuando aumenta el número de procesos de retroalimentación y cuando el montaje temporal de los diversos procesos se «desincroniza», permitiendo que la retroalimentación se produzca a lo largo de múltiples canales y en múltiples escalas asincrónicas de tiempo.6
Explicación basada en la emergencia
La explicación basada en la emergencia es el miembro más radical y escurridizo demuestra tríada. Mientras que la explicación de «atrapar y lanzar» en realidad no es más que una versión sutil y astuta de la explicación basada en componentes, la explicación basada en la emergencia se propone ofrecer una perspectiva totalmente nueva del éxito adaptativo. En el corazón de esta nueva perspectiva se encuentra, naturalmente, la peliaguda noción de la emergencia misma. Nos acercaremos a ella con cautela, mediante una serie de ejemplos ilustrativos.
J. A. Scott Kelso, en su excelente tratado Dynamic Patterns (1995), presenta el clásico ejemplo del fluido calentado desde abajo. Concretamente, describe Ja conducta del aceite calentado en una sartén. Cuando se empieza a aplicar el calor, hay poca diferencia de temperatura entre la parte superior y la parte inferior del aceite y no observamos ningún movimiento en el líquido. Sin embargo, a medida que la temperatura aumenta, la masa de aceite empieza a moverse de una manera coordinada: observamos lo que Kelso (ibíd., pág, 7) describe como «un ordenado movimiento rotatorio». La fuente de este movimiento es la diferencia de temperatura entre el aceite más frío de la parte superior y el aceite más caliente de la parte inferior. El aceite más caliente y menos denso se eleva y el más denso y frío desciende en un ciclo que se va repitiendo a medida que el aceite anteriormente frío, ahora en el fondo, se calienta y vuelve a ascender para enfriarse otra vez. El resultado es un persistente movimiento rotatorio conocido como bucle de convección. La
6. Esta observación ha sido hecha por Kelso (1995, pág. 9) y Ashby (1956). Asilby (ibíd., pág. 54) afirma que «el concepto de “retroalimentación", tan simple y natural en ciertos casos elementales, se convierte en artificial y poco útil cuando las interconexiones entre las partes se hacen inás complejas. Cuando sólo hay dos partes unidas de modo que cada una influye en la otra, las propiedades de la retroalimentación proporcionan una información útil c importante sobre las propiedades del todo. Pero cuando el número de partes aumenta hasta una cantidad tan pequeña como cuatro, si cada una influye en las otras tres se pueden trazar veinte circuitos entre ellos; y conocer las propiedades de los veinte circuitos no nos da una información completa sobre el sistema. Estos sistemas complejos no se pueden tratar como un conjunto entrelazado de circuitos de retroalimentación más o menos independientes, sino sólo como una totalidad».
154 t Explicar la mente extendida
aparición de estos bucles de convección es un ejemplo de propiedad autoor ganizada que emerge de un grupo de moléculas, y no es muy distinta de la autoorganización de las células del hongo mucilaginoso descrita en el capí tulo 4 anterior. Kelso (ibíd., págs. 7-81 comenta:
Los bucles de convección resultantes son lo que los físicos llaman un efecto colectivo o cooperativo, que surge sin ninguna instrucción externa. En el lenguaje de los sistemas dinámicos, el gradiente de temperatura se llama parámetro de control. Obsérvese que el parámetro de control no prescribe la pauta emergente ni contiene un código para la misma. Simplemente conduce al sistema por una variedad de pautas o estados posibles... Esta formación espontánea de pautas es precisamente lo que entendemos por autoorganización: el sistema se organiza a si mismo, pero no hay ningún «yo», ningún agente dentro del sistema que lleve a cabo la organización.
Naturalmente, la idea no es que las pautas emergentes carezcan por com pleto de causa: evidentemente, la causa inmediata es la aplicación de calor a la sartén. La idea es que las pautas observadas se explican principalmente por la conducta colectiva (bajo unas condiciones especificas) de un gran conjunto de componentes simples (las moléculas), ninguno de los cuales desempeña un papel especial o principal en el control o la orquestación del proceso de formación de las pautas. De hecho, cuando empieza el movimiento rotatorio, se alimenta y se mantiene a sí mismo según la manera característica de los sistemas autoorganizados. De estos sistemas se puede afirmar, simultáneamente, que las acciones de las partes ocasionan la conducta global y que la conducta global guía la acción de las partes. Como ejemplo cotidiano de esta idea (en ocasiones denominada «causalidad circular»), consideremos cómo se combinan las acciones de los .individuos que forman una muchedumbre para abalanzarse en una dirección, y cómo esa actividad succiona y moldea la actividad de los individuos indecisos manteniendo y reforzando la dirección del movimiento colectivo. Estos fenómenos se prestan a ser comprendidos en función de variables colectivas, variables que se centran en unas características de nivel superior cruciales para la explicación de un fenómeno, pero que no reflejan las propiedades de los componentes simples. Estas variables pueden reflejar propiedades que dependen de la interacción'de múltiples componentes como la temperatura y la presión de un gas, la aceleración de una muchedumbre aterrada o la amplitud de los bucles de convección que se forman en un líquido calentado. Si trazamos los valores de estas variables colectivas a medida que un sistema se despliega en el tiempo, podremos obtener datos importantes sobre la conducta posible y real del sistema más amplio. Y si trazamos las relaciones entre los valores de las variables colectivas y los parámetros de control (como el gradiente de tem
Emergencia y explicación I 155
peratura), podemos llegar a entender algunos hechos importantes sobre las circunstancias en las que emergerán estas pautas de nivel superior, cuándo dará paso una pauta de nivel superior a otra, etc.
Así pues, ahora ya disponemos de un sentido básico del esquivo término «emergencia». Se produce emergencia cuando aparece una conducta interesante, y sin un control central, como resultado de las interacciones de múltiples componentes simples dentro de un sistema. Pero ya nos hemos encontrado antes con otro sentido de la emergencia, principalmente arraigado en las ideas sobre las interacciones organismo entorno. Este tipo de emergencia, que caracteriza gran parte del trabajo de la robótica en mundo real des crita en capítulos anteriores, se puede ilustrar con un sencillo ejemplo procedente de Steels, 1994. Steels nos invita a imaginar un agente robótico que necesita situarse entre dos polos para recargarse. El punto de recarga está indicado por una fuente de luz, Una solución (no emergentista) consistiría en dotar al robot de unos sensores que midieran su posición en relación con los polos y de una subrutina que computara una trayectoria entre los mismos. Una solución alternativa (emergentista) se basaría en dos simples sistemas de conducta cuyas interacciones ambientales producirían el posicionamiento entre los polos como una especie de efecto secundario. Estos sistemas de conducta serían: 1) un sistema de fototactismo que produjera un acercamiento en zigzag a cualquier fuente de luz y 2) un sistema de evitación de obstáculos que hiciera que el robot se desviara cuando golpeara contra algo. Con estos dos sencillos sistemas en acción, la conducta deseada emerge con facilidad y solidez. El robot es atraído por la luz y zigzaguea hacia ella. Si toca un polo, recula, pero vuelve a ser atraído por la luz y hace otro intento, aunque esta vez con un ángulo nuevo. Tras unos cuantos intentos, encuentra la única posición donde sus sistemas de conducta están en equilibrio: una posición cercana a la luz pero sin tocar ningún polo. La conducta de orientación hacia los polos se considera emergente porque no hay ningún componente que calcule la trayectoria correspondiente: el fototactismo, la evitación de obstáculos y la estructura de! entorno local (la situación de la fuente de luz) ocasionan colectivamente el resultado deseado. Aquí nos encontramos con otro sentido de la emergencia que gira en torno a la idea de unos efectos secundarios funcionalmente valiosos producidos por la interacción entre unos componentes heterogéneos, y que coloca en primer plano las interacciones entre unos sistemas de conducta y la estructura del entorno local. Estos dos sentidos de la emergencia se corresponden, a grandes rasgos, con la anterior distinción entre formas de emergencia directas e indirectas (véase el apartado 4.2 anterior).
Ahora profundizaremos un poco mas y aclararemos el tema común que une a toda esta variedad de casos. Dicho en pocas palabras, ¿existe una ex
156 I Explicar la mente extendida
plicación razonablemente precisa y no trivial de la idea general de característica emergente?
En ocasiones, la noción general de emergencia se equipara con la idea de conductas inesperadas (existen rastros de esto en el énfasis de Steels en los «efectos secundarios», aunque el autor es consciente del peligro y procura evitarlo). Sin embargo, existe el problema de que lo que puede ser inesperado para una persona puede haber sido predicho por otra: un ingeniero hábil podría diseñar el robot que encuentra el centro entre los polos, precisamente para explotar las interacciones entre los componentes básicos y el mundo con el fin de resolver el problema de la recarga. Con todo, aunque el resultado se haya predicho desde el principio, la solución conserva el sabor característico de la emergencia. En resumen: lo que realmente necesitamos es un criterio independiente del observador o, por lo menos, un criterio menos sujeto al capricho de las expectativas individuales.
Una idea más prometedora, también mencionada por Steels, dice que un fenómeno es emergente si su descripción exige un vocabulario nuevo, totalmente diferente del que empleamos para caracterizar las facultades y las propiedades de sus componentes. Steels cita como ejemplo ciertas propiedades químicas como la temperatura y la presión, que no figuran en las descripciones del movimiento de las moléculas individuales pero que son necesarias para describir la conducta de conjuntos de moléculas. Esto parece prometedor, pero no lo suficiente. La razón es que el cambio de vocabulario también caracteriza casos que, intuitivamente, no son de verdadera emergencia. Parte de la conducta de un equipo de alta fidelidad compuesto por un amplificador, un sintonizador y unos altavoces, se describe mejor con un vocabulario que no se aplica a ninguno de los componentes individuales; sin embargo, un sistema como éste parece ser un buen candidato para la antigua explicación basada en componentes.7
Una mejor explicación de la emergencia (para nuestros fines, por lo menos) es la generalización de la distinción entre lo que Steels (ibíd.) denomina variables controladas (que reflejan conductas o propiedades que se pueden manipular de una manera simple y directa) y variables incontroladas (que reflejan conductas o propiedades que surgen de la interacción entre múltiples parámetros y que, en consecuencia, tienden a resistirse a una manipulación simple y directa). Consideremos el relato de Douglas Hofstadter
7. En realidad, las propiedades complejas de retroaiimentación y alimentación hacia adelante de los circuitos de alta fjdclidad suelen producir características acústicas que se podrían describir adecuadamente como emergentes (véase más adelante). Pero los fabricantes se esfuerzan mucho para reducir estas interacciones, simplificar la señal que pasa entre ios componentes y aislarlos de la retroaiimentación, interaccionés no lineales, etc. Véase un planteamiento en Wimsatt (en prensa).
Emergencia y explicación I 157
sobre un sistema operativo que empieza a «colgarse» cuando tiene a unos 35 usuarios conectados en línea. Hofstadter observa que, en este caso, sería un error pedirle al programador del sistema que aumentara el umbral de «cuelgue» hasta (por ejemplo! 60 usuarios. La razón es que este umbral no esta determinado por una simple variable interna que el programador pueda manipular directamente y que, en cambio, «el número 35 emerge dinámicamente a partir de una gran cantidad de decisiones estratégicas tomadas por los diseñadores del sistema operativo, del hardware del ordenador, etc. No se puede juguetear con él» (Hofstadter, 1985, pág. 642). Aquí tenemos una versión totalmente interna al sistema de una variable incontrolada. En otros casos, modificar la variable podría exigir el ajuste de muchísimos parámetros internos y externos (ambientales) cuya conducta colectiva determinara su valor. Por tanto, según esta explicación, los fenómenos emergentes son aquellos en cuyas raíces se encuentran variables incontroladas (en este sentido amplio) y que son más el producto de una actividad colectiva que de unos componentes aislados o de unos sistemas de control dedicados. Los fenómenos emergentes, asi entendidos, no son nada raro ni impresionante: sin embargo, conseguir que emerjan unas conductas determinadas en función de unas variables incontroladas no ha sido una estrategia común en la inteligencia artificial, y estas conductas, cuando aparecen, exigen unos tipos de comprensión y explicación que van más allá del modelo de componentes y del modelo interactivo presentados anteriormente.
Dos ejemplos finales nos ayudarán. El primero, procedente de Resnick, 1994b, se refiere a una estrategia para hacer que unas termitas simuladas recojan astillas de madera y las reúnan en montones. Una solución sería programar a (as termitas para que llevaran las astillas a un lugar determinado de antemano. En relación con esta solución, el amontonamiento de astillas sería una variable controlada porque la conducta de amontonar estaría bajo un control directo y podríamos «juguetear» completamente con ella. En cambio, una solución emergentista conseguiría la conducta indirectamente por medio de los efectos combinados de dos reglas simples y un entorno restringido. Las reglas son: «Si no llevamos nada y nos topamos con una astilla de madera, la tomaremos; si llevamos una astilla y nos encontramos con otra, soltaremos la que llevamos (ibíd., pág. 234). jNo es evidente que una estrategia como ésta funcione, ya que permite quitar astillas de los montones con la misma facilidad con que se pueden depositar! Sin embargo, 2.000 astillas dispersas, después de 20.000 iteraciones, acaban organizándose en sólo 34 montones. La conducta de amontonar acaba por arrollar a la conducta de deshacer los montones porque cuando (por casualidad) se retira la última astilla de una pila incipiente, esa posición queda bloqueada; según las dos re-
158 I Explicar la mente extendida
glas anteriores, en ese lugar no se puede iniciar ningún montón nuevo. La disminución con el tiempo del número de posiciones posibles para los montones en la cuadrícula artificial, obliga a amontonar las astillas en las posiciones restantes. Esta característica de «bloqueo de posiciones» no programada y determinada por el entorno permite que la actividad de acumulación supere a la de dispersión. En este ejemplo, es evidente que la conducta de amontonar no está controlada directamente sino que surge de la interacción entre dos reglas simples y un entorno restringido.
Otro ejemplo: Hallam y Malcolm (1994) describen una solución simple para el problema de hacer que un robot se desplace siguiendo el contorno de las paredes. Construimos en el robot una tendencia a desviarse hacia la derecha y colocamos en su lado derecho un sensor que se activa por contacto y que hace que el robot gire un poco hacia la izquierda. Cuando este robot topa con una pared a la derecha, primero se aparta (gracias al sensor) y luego vuelve rápidamente a dirigirse hacia la pared (gracias a la tendencia). Este ciclo se irá repitiendo y, de hecho, el robot irá siguiendo la pared rebotando repetidamente contra ella. Como ha indicado Tim Smithers en una comunicación personal, esta solución exige un equilibrio bastante delicado entre la cantidad de «viraje hacia la derecha» y la cantidad de «rebote hacia la izquierda». Smithers también indica que esta idea general de emplear «fuerzas opuestas para lograr una conducta regulada estable» puede verse en la tecnología de las clepsidras primitivas, ¡un buen ejemplo de cronometraje emergente! Sin embargo, la cuestión que cabe destacar es que la conducta de seguimiento de paredes que acabamos de describir surge de la interacción entre el robot y su entorno. No está controlada por ningún estado interno que codifique el objetivo de seguir las paredes. Nosotros, como teóricos externos, aplicamos la descripción del seguimiento de paredes como una capa de barniz sobre la conducta embebida global del aparato. En estos dos casos, la distinción de Ste- els entre variables controladas e incontroladas parece darnos lo que necesitamos. Esta explicación también se puede aplicar con éxito al problema de encontrar el centro entre los dos polos y sospecho que a cualquier otro caso de emergencia indirecta. Sin embargo, el énfasis en fenómenos que no se pueden controlar ni manipular alterando los valores de un solo parámetro, no puede abarcar fenómenos intuitivamente emergentes como la aparición de bucles de convección en líquidos calentados. La razón es que los bucles de convección están bajo el control de un parámetro simple (el gradiente de temperatura o, pasando a las causas inmediatas, el calor aplicado) y, como resultado, es posible «juguetear» con ellos (para emplear la célebre frase de Hofstadter). De hecho, el gradiente de temperatura que dirige el movimiento se llama parámetro de control precisamente porque rige las con ductas colectivas del sistema de una manera tan potente.
Emergencia y explicación I 159
Ante esta importante clase de casos, creo que una explicación mejor de la emergencia (una especie de generalización débil de la idea de variable incontrolada) es simplemente ésta: un fenómeno es emergente si se comprende mejor prestando atención a los valores cambiantes de una variable colectiva. Veamos a continuación algunos comentarios breves acerca de esta definición:
• Una variable colectiva es una variable que refleja la pauta resultante de las interacciones entre múltiples elementos de un sistema {véanse el apartado 6.2 anterior y Kelso, 1995, págs. 7, 8 y 44). Por tanto, todas las variables incontroladas son variables colectivas.
• Para dar cabida a los casos de emergencia indirecta, ampliamos la noción pertinente de «sistema» para incluir (en ocasiones) aspectos del entor no externo, como en el caso del robot que encuentra el centro situado entre los polos.
• Ahora se pueden identificar diferentes grados de emergencia según la complejidad de las interacciones implicadas. Las interacciones múltiples, no lineales8 y temporalmente asincrónicas, producen las formas más fuertes de emergencia; los sistemas que sólo muestran interacciones lineales simples con una retroalimentación muy limitada, no suelen exigir una comprensión en función de variables colectivas o de propiedades emergentes.
• Los fenómenos pueden ser emergentes aunque se encuentren bajo el control de un parámetro simple, siempre y cuando ese parámetro se limite a hacer que el sistema pase por una sucesión de estados que se describen mejor recurriendo a una variable colectiva (por ejemplo, el gradiente de temperatura hace que el líquido pase por una sucesión de estados que se describen
8. Una relación no lineal es aquella donde dos cantidades o valores no se alteran mutuamente de una manera continua. En cambio, el valor de una cantidad puede aumentar (por ejemplo) durante un tiempo sin influir en absoluto en la otra y después, de repente, cuando se alcanza un umbral oculto, hace que la otra dé un salto o haga un cambio súbito. La ecuación de evolución para sistemas conexionistas complejos suele tener una no linealídad muy elevada porque la salida de una unidad no es la simple suma ponderada de sus entradas sino que implica umbrales, funciones de paso u otras fuentes de no linealidad. Las formas más fuertes de emergencia se caracterizan por múltiples interacciones no lineales. Cuando las interacciones son pocas y lineales, rara vez es necesario definir variables colectivas que ayuden a explicar conductas de sistemas. {Agradezco a Pete Mandik y Ttm Lañe su insistencia en la importancia de las modulaciones interactivas complejas y no lineales para determinar la clase más fuerte de casos). Se debe destacar que el uso científico típico también permite el empleo de la etiqueta «emergente» en una variedad de casos mucho más débiles: de ahí nuestra atención a los robots que siguen paredes y buscan el centro entre dos polos y al empleo de la idea de emergencia en conexión con la clase más amplia de éxitos adaptativos mediados por el entorno, no programados o incontrolados. Véase una exposición más detallada en Wimsatt (en prensa).
160 I Explicar la mente extendida
mediante una variable colectiva que marca la amplitud variable de los buclesde convección; véase Kelso, 1995, pág. 8).
• La emergencia así definida se vincula con el objetivo de determinar qué variables deben figurar en una buena explicación de la conducta de un sistema. Este objetivo depende un poco del observador porque se basa en la idea de una buena explicación teórica y, en consecuencia, implica cierta relación con las mentes de los científicos humanos. Pero por lo menos no depende de los caprichos de las expectativas individuales sobre la conducta del sistema.
6.3 Los sistemas dinámicos y la explicación basada en )a emergencia
¿Cuál es el marco explicativo más eficaz para comprender los fenómenos emergentes? Una intuición negativa ampliamente compartida es que, en estos casos, la explicación clásica basada en componentes suele salir, como mínimo, mal parada (Steels, 1994; Maes, 1994; Wheeler, 1994). Hay dos razones bastante distintas para este fracaso.
Una razón gira en torno al hecho de que muchos fenómenos cognitivos emergentes (no todos) tienen su origen en factores que abarcan el organismo y su entorno. En estos casos (y ya hemos visto varios ejemplos) lo ideal sería un marco explicativo que cumpliera las siguientes condiciones: 1) que fuera adecuada para modelar tanto los parámetros del organismo como los del entorno y 2) que facilitara la comprensión de las complejas interacciones entre los dos, modelando estos parámetros en función de un marco y de un vocabulario uniformes. Según parece, un marco que invoque unos homúnculos dedicados a computar y procesar información no es un medio ideal para satisfacer estas demandas.
Otra razón gira en torno a la naturaleza de los componentes. Cuando cada componente hace una contribución definida a la capacidad de un sistema para mostrar una propiedad concreta, el análisis de componentes es un potente instrumento. Pero algunos sistemas son muy homogéneos en el nivel de los componentes y la mayoría de las propiedades interesantes dependen únicamente de los efectos conjuntos de interacciones simples entre las partes. Un ejemplo (van Gelder, 1991; Bechtel y Richardson, 1992) sería una simple red conexionista simple, formada por unas unidades de procesa miento muy similares y cuyas propiedades interesantes son principalmente atribuibles a la organización (mediante una gran densidad de conexiones con pesos) de estas unidades. Se produce un caso más complejo cuando un sistema es muy heterogéneo pero las contribuciones de las partes están muy
Emergencia y explicación I 161
interdefinidas; es decir: la función de un componente C en el tiempo t„ además de estar determinada por las funciones de los otros componentes en t, (y de contribuir a determinar estos otros componentes), también puede contribuir de una manera totalmente diferente en un momento t2 gracias a unos enlaces complejos (y con frecuencia no lineales; véase nota 8) de retroali- mentación y alimentación hacia adelante con otros subsistemas. Así pues, la presencia de una heterogeneidad interna y de una especialización funcional en línea no garantiza que un análisis de los componentes constituya la descripción más reveladora.
Estas complejidades se reflejan en la estupenda descripción que hace Wimsatt (1986) de los «sistemas agregados». Los sistemas agregados son los que más se adecúan a una explicación basada en los componentes. En estos sistemas, las partes muestran su conducta explicativa pertinente incluso es tando aisladas entre sí, y se pueden invocar las propiedades de un número pequeño de subsistemas para explicar fenómenos sistémicos interesantes.5 A medida que aumenta la complejidad de la interacción entre las partes, el peso de la explicación recae cada vez más en la organización de las partes que en las partes en sí. En este momento nos vemos conducidos a buscar nuevos tipos de marcos explicativos. Como veremos después, es probable que la cognición biológica avanzada se encuentre en algún punto intermedio de este continuo. Los sistemas tienen componentes neuronales diferenciados y funcionalmente especializados, pero las interacciones complejas y con frecuencia no lineales (relaciones de retroalimentación y alimentación hacia adelante) entre estos componentes pueden ser factores determinantes de la mayoría de los fenómenos intuitivamente «psicológicos». Para comprender bien los casos de este tipo, además de una explicación tradicional basada en componentes hace falta algo más. Pero, ¿qué es esc algo?
Teniendo en cuenta nuestros dos deseos (dar cabida por igual a las interacciones organismo-entorno y a las interacciones complejas entre los componentes), es natural que consideremos el marco de la teoría de los sistemas dinámicos (brevemente introducido en el capítulo 5 anterior), un enfoque teórico que ofrece un conjunto de instrumentos para describir la evolución de los estados de un sistema con el tiempo (Abraham y Shaw, 1992). En estas descripciones, el teórico especifica un conjunto de parámetros cuya evolución colectiva está regida por un conjunto de ecuaciones (normalmente) diferenciales. Una característica fundamental de estas explicaciones es que pueden abarcar con facilidad el organismo y el entorno. En estos casos, las dos fuentes de variación (el organismo y el entorno) se tratan como sistemas acoplados cuya evolución mutua se describe mediante un conjunto específi-
9. Vcasc también Beclitel y Ridiardson, 1992.
162 I Explicar la mente extendida
co de ecuaciones entrelazadas. La conducta de un péndulo de pared colocado en el entorno de otro péndulo similar constituye un ejemplo sencillo. La conducta de un solo péndulo se puede describir mediante ecuaciones simples y constructos teóricos como atractores y ciclos límite1 pero, sorprendentemente, dos péndulos colocados uno cerca del otro tienden a sincronizar su oscilación con el tiempo. Esta sincronización admite una elegante explicación basada en la teoría de los sistemas dinámicos: los dos péndulos se tratan como si fueran un solo sistema acoplado y la ecuación para el movimiento de cada péndulo incluye un término que representa la influencia del estado actual del otro péndulo, alcanzándose el acoplamiento por medio de las vibraciones que se transmiten a través de la pared.' De mayor importancia en nuestro contexto es que la teoría de los sistemas dinámicos también proporciona un nuevo marco explicativo. En el corazón de este marco se encuentra la idea de explicar la conducta de un sistema aislando y mostrando un conjunto de variables (variables colectivas, parametros de control, etc.) que subyacen a las pautas distintivas que emergen a medida que el sis tema se despliega en el tiempo, y de describir estos modelos de despliegue real y potencial mediante la terminología distintiva y matemáticamente precisa de los atractores, los puntos de bifurcación, los retratos de fase, etc. (véase el apartado 5.6 anterior).
La explicación dinámica típica difiere en muchos aspectos de la com prensión tradicional centrada en los componentes. A primera vista, la diferencia más desconcertante es que la teoría de los sistemas dinámicos parece querer explicar unas conductas describiendo otras. Sin embargo (por lo menos intuitivamente), proporcionar una descripción, por rica y detallada que sea, parece distar mucho de proporcionar una explicación, porque ésta suele reducir el desconcierto poniendo de manifiesto parte de los mecanismos ocultos que provocan una conducta. Además, muchos científicos y filósofos creen que ciertos sistemas físicos (como el cerebro) dependen de unos principios organizativos especiales y que, en consecuencia, requieren un vocabulario y un estilo explicativo muy diferentes de los empleados para explicar la coordinación entre dos péndulos o el goteo de un grifo. No obstante, la teoría de los sistemas dinámicos nos sorprende al emplear el mismo enfoque básico para abordar muchos tipos de fenómenos reales que superficialmente son muy diferentes. Esto ayuda a explicar por qué muchos científicos cogni- tivos se sienten decepcionados al ver que este estilo de explicación ofrece unas interpretaciones detalladas de pautas de conducta generales, pero dice poca cosa sobre los «mecanismos reales». Esta sorpresa tiene sentido si lo que
10 Vcase una buena introducción en Norton, 1995.11 Véase una explicación más completa en Salzman, 1995
Emergencia y explicación l 163
esperamos es encontrar una clase especial de interpretación centrada en sucesos ocultos e internos. Pero para un teórico de los sistemas dinámicos interesado en la cognición, tanto la dinámica neuronal como la dinámica corporal general derivan de los mismos principios que subyacen a la autoorganización de los sistemas complejos. Desde esta perspectiva, es natural tratar ambos tipos de pautas de maneras similares: en palabras de Kelso <1995, pág. 28), «lo que se propone es que tanto la conducta manifiesta como la conducta del cerebro, adecuadamente interpretadas, siguen los mismos principios».1-1
Para captar el verdadero sabor de los tipos de explicación aquí debatidos, nos centraremos en el estudio de un caso real llevado a cabo por Kelso y otros 0981) y resumido con precisión en el capitulo 2 de Kelso, 1995. Este estudio se centra en el fenómeno de la conducta rítmica y, concretamente, en la producción de movimientos rítmicos con los dedos. Intentemos mover nuestros dos dedos índices de un lado a otro en la misma frecuencia. Probablemente veremos que lo podemos conseguir, o bien moviendo los dos dedos de modo que los músculos equivalentes de cada mano se contraigan a la vez, o bien haciendo que los músculos equivalentes estén exactamente desfasados (uno se contrae mientras el otro se expande). Estas dos mismas estrategias estables describen la conducta de los limpiaparabrisas de los automóviles: normalmente, los limpia- parabrisas se mueven en fase. Pero algunos modelos están diseñados para funcionar con una coordinación en antifase que suele irritar a algunas personas. La diferencia importante es que los sujetos humanos se pueden acostumbrar a un modo u otro según como empiecen la secuencia de acciones. Además, la estrategia de antifase sólo es estable con frecuencias de oscilación bajas. Si un sujeto empieza con un modo de antifase y luego se le pide que aumente gradual mente el ritmo de oscilación, cuando llega a una cierta frecuencia crítica se produce una brusca transición o cambio de fase: en un llamativo ejemplo de alteración espontánea de pauta, un movimiento en antifase da lugar a un movimiento en fase. (Se produce el mismo tipo de alteración espontánea cuando un caballo, a una velocidad determinada, cambia del trote al medio galope. Estos dos estilos de locomoción implican unas estrategias de coordinación entre las patas totalmente diferentes; véase Kelso, 1995, págs. 42-43).
¿Cómo se deberían explicar estos resultados? Kelso se propuso hacerlo investigando, en primer lugar, qué variables y parámetros de control descri- 12
12. Naturalmente no es difícil que, en algún nivel, cerebro, cuerpo y mundo «obedezcan 'os mismos principios»: las leyes básicas de la física subatómica constituyen precisamente uno de estos niveles. Sin embargo, es evidente que este no es el nivel optimo para comprender muchos fenómenos (por ejemplo como funciona el motor de un automóvil). Lo que se quiere de cir aquí es que existen leyes y principios básicos que gobiernan todos los sistemas dinámicos, complejos y alejados del equilibrio, y que constituyen un nivel óptimo de análisis para com prender las pautas de conducta neuronal y corporal
164 t Explicar la mente extendida
bían mejor estas conductas. Descubrió que la variable crucial era la que reflejaba la relación de fase entre los dedos. Esta variable, como hemos visto, es constante para una amplia gama de frecuencias de oscilación de los dedos y cambia repentinamente cuando la frecuencia alcanza un valor determina do. Es una variable colectiva porque no se puede definir para un solo componente (un dedo) sino sólo para el sistema más amplio. Por tanto, la frecuencia de movimiento es el parámetro de control de la relación de fase que ahora se traza como una variable colectiva. Pero el verdadero meollo del análisis reside en ofrecer una descripción matemática detallada de! sistema así descrito: un conjunto de ecuaciones que muestren el espacio de posibles evoluciones temporales de la fase relativa en función del parámetro de control. Esta descripción representa eficazmente el espacio de estados del sistema (véase el capítulo 5 anterior) mostrando, entre otras cosas, qué áreas del espacio actúan como atractores (valores de la variable hacia los que tenderá el sistema desde otras localizaciones determinadas del espacio). Haken y otros (1985) encontraron precisamente una descripción como ésta y pudieron mostrar las detalladas pautas de coordinación correspondientes a distintos valores del parámetro de control. Entre otros aspectos importantes, este modelo no sólo podía describir las transiciones de fase observadas sin postular un «mecanismo conmutador» aparte de la dinámica colectiva, sino que también podía reproducir los resultados de interferencias de poca importancia en el sistema, como ocurre cuando se obliga a un dedo a abandonar brevemente su relación de fase estable. El modelo de Haken y otros también podía predecir con precisión ciertas características de! sistema, como el tiempo necesario para pasar de un estado desfasado a un estado de fase.J
Ahora debería estar más claro por qué la explicación dinámica no es me ramente una buena descripción de los fenómenos observados. Debe su condición de explicación a su capacidad para dilucidar lo que los filósofos denominan «contrafácticos»; es decir, a su capacidad para informarnos no sólo sobre la conducta real observada en el sistema, sino también sobre su comportamiento en varias otras circunstancias. Con todo, estas explicaciones todavía carecen de una potente característica de sus parientes más tradicionales. No están obligadas a dar unas recetas detalladas para construir los dispositivos que describen y explican. En este aspecto, difieren de los modelos familiares donde se explica una conducta mostrando cómo surge a partir de las propiedades de una variedad de componentes bien comprendidos. Por ejemplo, los modelos computarionales tradicionales tienen la virtud muy real de descomponer tareas complejas en secuencias de tareas cada vez 13
13. Véanse detalles de estos resultados y del modelo matemático empleado en las págs. 54-61 de Kelso, 1995.
Emergencia y explicación 165
mas simples, hasta llegar a un punto en el que podemos ver cómo llevarlas a cabo únicamente con puertas lógicas, placas de memoria, etc., como recursos básicos.
En su vertiente positiva, las explicaciones dinámicas, con su aparato de variables colectivas y conductas acopladas, se prestan de una manera natu ral a abarcar múltiples componentes en interacción e incluso sistemas completos agente-entorno. Mientras que el marco normal parece orientado a describir los cómputos y representaciones del agente, los constructos de los sistemas dinámicos se aplican con la misma facilidad a aspectos del entorno i por ejemplo, los ritmos de un grifo que gotea) que a sucesos internos de procesamiento de información. Esta facilidad para describir sistemas inte grados más amplios es lo que conduce a teóricos como Beer y Galíagher (1992) y Wheeler (1994) a preferir antes la teoría de los sistemas dinámicos que los enfoques clásicos basados en componentes para explicar conductas emergentes que con frecuencia implican al entorno. Las conductas estudiadas hasta ahora tienden a ser relativamente básicas, como la locomoción mediante patas (véase el capítulo 5 anterior) y el movimiento orientado visual mente. Pero muchos teóricos intuyen que la mayor parte de la inteligencia biológica cotidiana tiene sus orígenes en unos acoplamientos precisos entre los organismos y los entornos específicos de ciertas tareas y que, en consecuencia, este estilo de explicación puede ir mucho más alia que las explicaciones de fenómenos de «nivel» relativamente bajo. De hecho, en Port y van Gelder, 1995, se encuentran varios ejemplos de aplicación de la teoría de los sistemas dinámicos a tareas de nivel superior como la planificación, la toma de decisiones, la producción del lenguaje y el reconocimiento de sucesos.
Sin embargo, es importante recordar que los parametros sistemicos reflejados en estas explicaciones dinámicas se pueden alejar mucho, y de una manera arbitraria, de los datos reales sobre la estructura y el procesamiento interno del agente. Van Gelder (1991) observa que una explicación basada en la teoría de sistemas dinámicos para la conducta del motor de un automóvil a lo largo del tiempo podría tener que centrarse en un parámetro como la temperatura, que no corresponde a ningún componente interno o a ninguna variable directamente controlada. Según van Gelder, esto puede ocurrir porque «en su forma pura, la explicación dinámica no hace referencia a la estructura propiamente dicha del mecanismo cuya conducta explica. Nos dice cómo evolucionan con el tiempo los valores de los parámetros del sistema, no qué hay en la constitución del mismo sistema que haga que estos parámetros evolucionen de la manera especificada. Se dedica a explorar la estructura topográfica de la dinámica del sistema, pero esta estructura es totalmente diferente de la del sistema mismo» (ibíd., pág. 500).
166 I Explicar la mente extendida
Evidentemente, también disponemos de las opciones intermedias. Salz man (1995) ofrece una explicación dinámica de la producción del habla ba sada en la coordinación de múltiples músculos y observa que esta dinámica coordinadora se debe especificar en términos abstractos de información que no reflejan directamente ni la estructura biomecánica ni la neuroanatómica. En sus propias palabras, «esta dinámica abstracta se define mediante coordenadas que representan las configuraciones de diferentes tipos de restric ción como, por ejemplo, las restricciones bilabiales empleadas para producir /b/, /p / o /m /, las restricciones alveolares empleadas para producir /d/, IxJ o /n/, etc.» (ibíd., pág. 274). Estas restricciones se definen en términos físi eos que implican elementos como la abertura y la prominencia de los labios. Pero la explicación basada en los sistemas dinámicos se define en función de los tipos más abstractos mencionados anteriormente. Este es un caso Ínter medio en la medida en que está claro que los parametros inás abstractos citados en el análisis dinámico se relacionan con componentes y estructuras físicas del sistema.
Estos análisis intermedios tienen una gran importancia. A continuación argumentaré que la ciencia cognitiva no se puede permitir prescindir de ninguno de los diversos estilos explicativos que acabamos de revisar y que, en consecuencia, es crucial que nos aseguremos de que estas diversas explicaciones se entrelacen y se ilustren mutuamente de un modo u otro. Ahora de sarrollaré un argumento en pro de este liberalismo explicativo y mostrare que la necesidad del entrelazamiento mencionado impone unas fuertes restricciones adicionales a nuestra teorización.
6.4 Matemáticos e ingenieros
Exactamente, ¿qué poder tiene el estilo de explicación y análisis basado puramente en los sistemas dinámicos? Mi punto de vista, como se verá cada vez con mayor claridad durante los próximos capítulos, es que nos ofrece una parte fundamental de la comprensión que necesitamos pero (por lo menos en la actualidad) no nos la puede ofrecer toda. Para ver por qué, primero debemos tener claro qué entiendo por un estilo de explicación basado puramente en los sistemas dinámicos.
Una explicación basada puramente en los sistemas dinámicos es aquella donde el teórico sólo busca aislar los parámetros, las variables colectivas, etc., que controlan con más fuerza la manera en que el sistema se despliega en el tiempo, incluyendo (esto es importante) la manera en que responderá en circunstancias nuevas, aún no encontradas. Por tanto, el teórico de los sistemas dinámicos puros busca modelos matemáticos o geométricos que permi
Emergencia y explicación I 167
tan captar con fuerza los fenómenos observables. Esto, además de ser buena ciencia, es ciencia explicativa (y no sólo descriptiva). Además, como acabamos de ver, gran parte del atractivo y el poder distintivo de estos enfoques reside en su capacidad de centrarse en variables colectivas, es decir, en variables cuyas raíces físicas suponen las interacciones de múltiples sistemas (que con frecuencia se extienden por el cerebro, el cuerpo y el mundo). Pero este poder distintivo tiene un precio: estos modelos «puros» no apelan directamente a los intereses del ingeniero. El ingeniero quiere saber cómo construir sistemas que muestren propiedades parecidas a las de la mente y, en particular, quiere saber cómo surge la dinámica global mostrada con tanta precisión por las explicaciones puras a partir de la microdinámica de diversos subsistemas y componentes. Aceptará que una comprensión plena del sistema en acción exige unas explicaciones dinámicas puras como las que acabamos de enumerar. Sin embargo, no creerá que esas explicaciones sean suficientes para comprender cómo funciona el sistema, porque se sitúan a una gran distancia de los datos sobre las capacidades de unos componentes físicos familiares y bien comprendidos. En este sentido, una explicación computacional típica (conexionista o clásica) se acerca mucho más a constituir una receta para construir un dispositivo capaz de mostrar las conductas deseadas. La razón de ello es que las transiciones de estado básicas que intervienen en la especificación se deben poder reproducir medíante unas combinaciones conocidas de unas operaciones básicas que, a su vez, se deben poder realizar empleando puertas lógicas, unidades de procesamiento conexionistas, etc.
En cierto sentido, lo que se consigue mediante una discusión dinámica pura se parece más a un sofisticado análisis de tareas que a una explicación computacional totalmente elaborada. Pero se trata de un análisis de tareas que está preñado contrafáclicamente (véase el apartado 6.3 anterior) y que al mismo tiempo es potencialmente amplio. Es amplio en la medida en que puede «unir» aspectos del espacio del problema que, por un lado, dependen del entorno exterior y, por otro, dependen de propiedades del organismo particular. En estos casos habrá múltiples maneras de implementar la dinámica descrita, y algunas de ellas incluso podrán dividir las subtareas entre cuerpo, cerebro y mundo de manera diferente. Por ejemplo, lo que hace un niño A gracias a la grasa corporal puede hacerlo un niño B gracias a unos pesos artificiales, y lo que puede hacer un ser C mediante unos cálculos complejos lo puede hacer un ser D mediante la resistencia de sus músculos elásticos. Por tanto, a partir de unas «divisiones del trabajo» muy diferentes pueden emerger unas dinámicas generales idénticas.
Así pues, el principal motivo de queja es que una buena caracterización dinámicamente pura del sistema no llega a constituir una receta para cons
168 I Explicar la mente extendida
truir un sistema que muestre las conductas de interés. Una respuesta a esta queja (respuesta que he oído muchas veces en labios de defensores acérrimos de la teoría de los sistemas dinámicos) consiste en atacar su misma base. ¿Por qué insistir en que la verdadera comprensión de algo exige «saber cómo construirlo»? Esther Thelen (comunicación personal) observa que «según este criterio, deberíamos echar por la borda casi toda la biología», por no mencionar la economía, la astronomía, la geología y quién sabe qué más. ¿Por qué la ciencia cognitiva debe satisfacer un criterio explicativo mucho más exigente que el de las restantes ciencias?
A pesar de su superficial verosimilitud, esta respuesta está desencaminada porque se toma la exigencia de la «capacidad de construcción» de una manera demasiado literal. Lo que aquí se propone no es que realmente podamos construir sistemas que muestren las características deseadas (aunque en favor de la inteligencia artificial se debe decir que, con frecuencia, su ob jetivo es precisamente éste), sino que deberíamos comprender algo sobre el origen de las propiedades a mayor escala a partir de las interacciones de las partes. Aunque no podamos construir nuestros propios volcanes, comprendemos cómo se confabulan las fuerzas subterráneas para crearlos. También podemos buscar explicaciones convincentes del crecimiento y la disminución de la actividad volcánica a lo largo del tiempo, e incluso lo podemos hacer aislando parámetros de control, definiendo variables colectivas, etc. Sin duda, una comprensión plena de la naturaleza de la actividad volcánica depende de seguir simultáneamente y entrelazar con cuidado ambos tipos de explicación. Así pues, ¡en cierto sentido si que sabemos cómo construir volcanes, torbellinos, sistemas solares y todo lo demás! Los problemas para llevar a cabo esta construcción provienen de dificultades prácticas (de escala, materiales, etc.) y no de alguna carencia en el nivel necesario de comprensión.
Por tanto, es necesario suavizar el criterio de la «capacidad de construcción» para dar cabida al gran número de casos donde hay otros problemas que obstaculizan nuestro camino, Unos obstáculos típicos, tomados de un artículo de Fred Dretske de acertado título,14 podrían ser: «Los materiales brutos no están disponibles. No podemos pagarlos. Somos demasiado torpes o no somos lo suficientemente fuertes. La policía no nos deja» (Dretske, 1994, pág. 468). A la inversa, según Dretske, el mero hecho de que podamos construir algo no garantiza que realmente lo comprendamos: podemos mon
14. El titulo es «If you can’t make one, you don’t know how n works» (Si no lo puedes construir, no sabes cómo funciona) Según Dretske (1994, pags. 468-482), a pesar de algunos problemas superficiales esta afirmación es cierta «en todos los sentidos pertinentes de todas las palabras pertinentes»
Emergencia y explicación I 169
tar las piezas de una maqueta y no ser más listos que antes. Así pues, la afirmación fundamental (y en mi opinión la correcta) es, simplemente, que para comprender de verdad un fenómeno complejo es necesario que comprendamos por lo menos algo de sus orígenes en las propiedades más básicas de sus partes biológicas o físicas. Propongo que, en última instancia, esto requiere explorar continuamente más alia del nivel de las variables colectivas y similares con el fin de comprender las raíces mas profundas de la misma dinámica colectiva.
La vertiente positiva es que -retoricas esporádicas aparte- la mayoría de los proponentes de un enfoque dinámico reconocen esta necesidad y responden a ella. Después de describir la conducta corpórea y embebida de los niños pequeños con gran detalle, Thelen y Smith (1994) siguen investigando cuestiones relacionadas con la dinámica de las organizaciones neuronales subyacentes. Como indican ellas mismas, su descripción de los paisajes dinámicos variantes {atractores cambiantes) de los niños, las deja «en una total ignorancia acerca de los mecanismos más precisos de la estabilidad cambiante de los atractores» (ibíd., pág. 129). En respuesta a esta necesidad, Thelen y Smith abordan mediante un enfoque dinámico el nivel de la organización neuronal. Kelso (1995, pág. 66) es aún mas claro cuando insiste en que hace falta un « “esquema tripartito” que implique un mínimo de tres niveles (el nivel de las metas o tareas..., el nivel de las variables colectivas y el nivel de los componentes) para obtener una comprensión completa». Kelso también observa -importante cuestión- que lo que realmente cuenta como componente o como variable colectiva dependerá, en parte, de nuestros intereses explicativos concretos. Citando su propio ejemplo, los osciladores no lineales se pueden tratar como componentes para algunos fines. Pero la misma conducta osciladora no lineal es un efecto colectivo que surge de las interacciones de otras partes más fundamentales.
Randall Beer, en sus intentos cuidadosos y progresivos de comprender el funcionamiento de los controladores de redes neuronales de agentes sencillos, destaca la necesidad de comprender la dinámica detallada de cada neurona individual, de pares acoplados de neuronas, de pares acoplados de neuronas acoplados a su vez a cuerpos simples, etc., aumentando la escala de complejidad. En resumen, Bcer busca una comprensión basada en los sistemas dinámicos que llegue hasta abajo y en relación a la cual las propiedades especiales de sistemas cada vez más grandes y complejos empiecen a tener más sentido (véase, por ejemplo, Beer, 1995). Por tanto, todos estos teóricos comparten el reconocimiento de que las aspiraciones explicativas de la ciencia cognitiva van más allá de la representación detallada de la conducta corpórea y embebida, e incluso más allá de las explicaciones genuinas de esta conducta que se puedan dar en función de variables colectivas adecuadas
170 I Explicar la mente extendida
para comprender la conducta general observada. Lo que en última instancia distingue estos enfoques del trabajo más tradicional, es la insistencia (Kelso y otros) o la sospecha (Beer) de que las nociones familiares de representa ción interna, procesamiento de información y (quizá) computación no proporcionan el mejor vocabulario o marco para comprender las restantes cues tiones relacionadas con la organización neurona!. En cambio, estos autores abogan por el empleo de un vocabulario de sistemas dinámicos para describir y explicar todos los niveles de organización biológica. Mi opinión, como se vera claramente en los próximos capítulos, es que no sólo necesitaremos una mezcla de niveles de análisis (algo parecido al «esquema tripartito» de Kelso) sino también una mezcla de instrumentos explicativos que combine los constructos de los sistemas dinámicos con ideas sobre la representación, la computación y la función de procesamiento de información de unos subcomponentes identificables. Para captar el sabor general de este enfoque mixto, consideremos un ejemplo concreto.
6.5 Decisiones, decisiones
La explicación basada en componentes y la explicación de «atrapar y lanzar» son adecuadas para explicar la conducta adaptativa desentrañando las aportaciones de componentes específicos del agente. La explicación de «atrapar y lanzar» se distingue principalmente por reconocer de una ma ñera explícita las profundas diferencias que puede producir, en nuestras hipótesis sobre la organización interna requerida para el procesamiento de información, la atención a las oportunidades ambientales y a las exigencias de la acción en tiempo real. En cambio, las explicaciones de fenómenos emergentes basadas puramente en los sistemas dinámicos, esperan importar una perspectiva completamente nueva que se centra en la evolución de parámetros sistémicos globales y que es especialmente idónea para modelar la compleja interacción entre múltiples parámetros del agente y del entorno. Así descritos, parece casi evidente que los dos tipos de explicación (el análisis basado en componentes y en el procesamiento de información, y el estilo de análisis de la dinámica global) son necesarios y que se deberían entralazar con fluidez. Sin embargo, varios escritos recientes proponen un punto de vista alternativo, más imperialista. Según éstos, la teoría de los sistemas dinámicos es preferible al discurso de descomposiciones del procesamiento de información y de componentes internos que trabajan con representaciones. Un punto de vista tan radical sólo se puede mantener adoptando una visión excesivamente empobrecida de los objetivos de la ciencia cognitiva.
Emergencia y explicación I 171
Consideremos el objetivo de explicar los efectos sistemáticos de varios tipos de daños y trastornos locales. Con frecuencia, el hecho de centrarse en parámetros sistémicos globales que nos ayuden a comprender la dinámica imperante en sistemas organismo-entorno que funcionan bien, oculta detalles sobre la contribución a ese acoplamiento de diversos sistemas internos y, en consecuencia, oculta información sobre la influencia de los fallos de estos sistemas en la conducta global. Sin embargo, un importante corpus de trabajo en la neurociencia cognitiva pretende precisamente determinar la organización interna que explica las pautas de fallo que se producen tras un daño local (Farah, 1990; Damasio y Damasio, 1994). Estas explicaciones suelen adoptar al mismo tiempo una perspectiva basada en módulos/componentes y una perspectiva basada en representaciones. Este tipo de comprensión complementa cualquier comprensión más amplia de la dinámica global. Cada estilo explicativo ayuda a capturar una gama distinta de fenómenos y ofrece tipos diferentes de generalización y predicción.
Por ejemplo, Busemeyer y Townsend (1995) presentan una elegante aplicación de la teorización dinámica para comprender la toma de decisiones. El marco de referencia que desarrollan estos autores, llamado «teoría del campo de decisiones», describe cómo evolucionan los estados de preferencia con el tiempo. Busemeyer y Townsend presentan unas ecuaciones dinámicas que definen la interacción de diversos factores generales (como el valor previsto a largo y a corto plazo para diferentes opciones) y que también predicen y explican las oscilaciones entre elecciones probables que se producen durante la delibe ración. Estas oscilaciones se explican como los efectos de variar la cantidad de atención que quien toma la decisión dedica en cada momento a diversos fac tores. Esta interpretación captura y explica varios fenómenos interesantes, incluyendo las aparentes incoherencias entre los órdenes de preferencias medidos por la elección y los medidos por el precio de venta.” Por tanto, a partir de las ecuaciones específicas que emplean estos autores para modelar la evolución en el tiempo de las variables y los parámetros elegidos, aparece una clase entera de generalizaciones, explicaciones y predicciones.
Sin embargo, hay otros tipos de explicación y de generalización que no se pueden subsumir en este nivel de descripción. Consideremos, por ejemplo, el famoso caso de Phineas Gage a mediados del siglo XIX. Gage, que trabajaba de capataz en el tendido de raíles de ferrocarril, sufrió una terrible lesión cuando una barra de hierro le atravesó la cara, el cráneo y el cerebro. Increíblemente, Gage sobrevivió y recobró todas sus aptitudes lógicas, espaciales y físicas. Pero aunque su memoria y su inteligencia no se vieron afectadas, su vida y su personalidad cambiaron radicalmente. Ya no era digno de
15. Véase también Lichtenstein y Slovic, 1971.
172 I Explicar la mente extendida
confianza, ni afectuoso, ni capaz de cumplir con sus deberes y compromisos. Al parecer, la lesión de su cerebro había ocasionado un efecto muy específico pero extraño: era casi como si sus «centros morales» se hubieran destruido (Damasio y otros, 1994). Para ser más precisos, parecía que su capacidad de «tomar decisiones racionales acerca de cuestiones personales y sociales» (¡bíd.) hubiera sido dañada selectivamente, dejando intactas su inteligencia y sus restantes capacidades. Hace unos años, un equipo de neurocientíficos especializados en imágenes cerebrales analizó el cráneo de Gage y, mediante simulaciones por ordenador, pudieron identificar las probables localizaciones de las lesiones cerebrales. Al identificar unas estructuras neuronales específicas como localizaciones de las lesiones, Damasio y otros (ibíd.) pudieron empezar a comprender las alteraciones selectivas de Gage (y de otros casos parecidos; véase el caso de E.V.R. en Damasio y otros, 1990). La lesión estaba en las regiones ventrales mediales de los dos lóbulos frontales, es decir, en las áreas que parecen desempeñar un papel fundamental en el procesamiento emocional. Este hallazgo condujo al equipo de Damasio a especular que las respuestas emocionales desempeñan un papel especial en la toma de decisiones sociales.1* Inspirándose en parte en estos estudios, los Damasio también desarrollaron un marco más general para la explicación de los déficit psicológicos selectivos. Se trata de la «hipótesis de la zona de conver gencia» que se explica con cierto detalle en el próximo capítulo. Como veremos, un aspecto característico de esta hipótesis es cómo combina la atención a la compartimentación funcional básica del cerebro con el reconocimiento del papel de los circuitos integradores de mayor escala. Por tanto, parece que una explicación completa de déficit como los de Gage y E.V.R. requiere combinar localizaciones de procesamiento de información bastante familiares (asignar tareas definidas a zonas diferentes de la corteza motriz y sensorial) con análisis a mayor escala que implican la vinculación de múltiples zonas mediante complejas redes de conectividad retroalimentado- ra y de alimentación hacia adelante.
Los detalles de esta explicación quedarán más claros cuando nos centremos en la neurociencia contemporánea (capítulo 7). De momento, lo importante no es evaluar los detalles de esta propuesta de Damasio y otros, sino observar que su objetivo es un tipo de comprensión que no está presente en la descripción global ofrecida por la teoría del campo de decisiones (que no ha sido diseñada para predecir o esclarecer las alteraciones inesperadamente selectivas del proceso de toma de decisiones que abordan estos estudios neuroanatómicos). Esto no es una crítica de la teoría del campo de decisiones, que en sí misma proporciona un tipo de comprensión, predicción y ex- 16
16. Véanse más detalles en el capítulo 8 de Damasio, 199-1 y en el capítulo 7 de este libro.
Emergencia y explicación t 173
plicacíón ausente en la propuesta de los Damasio. Y esto es así porque la teoría del campo de decisiones puede tratar las propiedades emergentes del sistema completo, intacto y que funciona bien como variables colectivas y, en consecuencia, proporciona un vocabulario y un nivel de análisis muy adecuado para capturar pautas de evolución con el tiempo en la conducta de agentes intactos que funcionan bien. Además, con frecuencia estas descripciones más abstractas serán las que nos servirán mejor si queremos comprender los acoplamientos existentes entre unos sistemas completos y sus entornos. Debemos reconocer sin reparos que las características globalmente emergentes suelen desempeñar un papel importante en aclarar las explicaciones de estos acoplamientos. Sin embargo, como estos dos estilos de explicación se complementan de manera natural, sobra la rivalidad que algunos defensores del análisis basado en los sistemas dinámicos parecen fomentar. En cambio, deberíamos distinguir claramente dos proyectos explicativos, cada uno con su propia clase de generalizaciones. Uno de estos proyectos pretende comprender la manera en que se interrelacionan agentes y entornos intactos y, al hacerlo, puede invocar parámetros abstractos y globalmente emergentes. El otro intenta comprender las funciones específicas de procesamiento de información que desempeñan diversos subsistemas internos en la producción de conductas y, en consecuencia, ayudar a explicar clases enteras de fenómenos (por ejemplo, los efectos de lesiones locales) que a su homólogo, simplemente, no le interesan.
De hecho, una manera natural de concebir los dos proyectos que acabamos de resumir, consiste en describir el análisis de componentes como si proporcionara (en parte) la implementación detallada del relato más global y abstracto basado en los sistemas dinámicos. Van Gelder (1991) es escéptico acerca del valor de estas descripciones de implementación, por lo menos para comprender redes neuronales complejas; observa (pág. 502) que la explicación basada en componentes (o, como él dice, «sistemática») es poco útil en casos donde «las “partes” de la estructura son muchas y muy similares, y los parámetros esenciales... no hacen ninguna referencia en absoluto a partes del sistema». Pero si bien esto puede ser cierto para comprender las conductas de redes conexionistas aisladas y relativamente homogéneas, parece manifiestamente inexacto en lo que se refiere a los cerebros de la mayoría de los organismos biológicos. Propongo que una imagen más realista debe aceptar tres tipos de explicación y descripción igualmente importantes y entrelazados: 1
1. Una explicación de las conductas generales del organismo que funciona bien en el entorno: una explicación que pueda invocar variables colectivas cuyas raíces constituyentes abarquen cerebro, cuerpo y mundo.
174 I Explicar la mente extendida
2. Una explicación que identifique los diversos componentes cuyas propiedades colectivas son el objetivo de las explicaciones apropiadas a 1. Este objetivo consta de dos importantes subtareas: identificar los componentes neuronales pertinentes y explicar cómo interaccionan estos componentes entre sí.
3. Una explicación de las diversas funciones de procesamiento de información desempeñadas por los componentes (tanto internos como externos) identificados en 2., que además puede asignar unos roles computacionales y unas capacidades representacionales específicas a distintos subsistemas neuronales.
Afirmo que las explicaciones satisfactorias del éxito adaptativo corpóreo y embebido deben abarcar estas tres bases. Además, cada tipo de explicación impone limitaciones y requisitos a los otros. No puede haber ninguna variable colectiva legítima en 1. que carezca de detalles de implementación microdinámica en 2., y estos detalles no se pueden entender totalmente sin el comentario, al nivel del sistema general, de las funciones de los diversos componentes que se ofrece en 3. Podría parecer que la mejor manera de conseguir esto sería dedicarse a los tres tipos de explicación identificados anteriormente en mi exposición: el análisis de componentes, para asignar funciones generales de procesamiento de información a estructuras neuronales; el análisis tipo «atrapar y lanzar», para investigar de qué manera actúa el organismo sobre su entorno y cómo actúa el entorno sobre el organismo; y el análisis emergentista, para describir las clases de conducta adaptativa que dependen más de las variables colectivas y de las interacciones organismo- entorno.
6.6 El cerebro contraataca
Al parecer, una explicación completa de la cognición corpórea, embebida y cargada de emergencia debe hacer justicia a varios tipos de datos. Uno de estos corpas de datos se refiere a los cambios en la conducta general de un sistema con el tiempo. Otro se refiere, por ejemplo, a los efectos específicos de daños locales e internos al sistema. Para explicar estos fenómenos heterogéneos, el teórico debe estar dispuesto a explotar múltiples tipos de instrumentos explicativos que van desde unos análisis que entrecruzan el organismo y el entorno hásta otros que cuantifican múltiples componentes internos y complejas conectividades, pasando por otros que aíslan componentes y ofrecen un comentario funcional y representacional de sus roles básicos.
Emergencia y explicación I 175
Las propiedades emergentes figurarán en esta actividad explicativa en dos niveles. En primer lugar, habrá unas características emergentes internas reflejadas por variables colectivas constituidas por la interacción de múltiples fuentes internas de variación. En segundo lugar, habrá unas características emergentes conductuales reflejadas por variables colectivas constituidas por interacciones entre organismos completos y activos, y su entorno local. Es preciso comprender estas dos clases de propiedades semejantes y la teoría de los sistemas dinámicos proporciona un conjunto de instrumentos que pueden ayudar en cada campo. Pero todos estos esfuerzos explicativos no son autónomos. Las variables colectivas se deben traducir en fuentes de variancia reales (neuronales y ambientales). Y las especializaciones básicas de los componentes se deben identificar y factorizar en nuestra comprensión y en nuestros modelos. Si no hacemos esto último, el resultado será un fracaso explicativo que se propagará hacia todos los niveles (por ejemplo, cuando nos enfrentamos a datos sobre daños selectivos ocasionados por una lesión cerebral local). En el próximo capítulo, empezaremos a desarrollar este amplio marco, observando con más detalle algunas investigaciones neuro- científicas recientes.
7 La imagen neurocientífica
7.1 ¿Cerebros? ¡Para qué!
¿Realmente necesita la ciencia cognitiva ocuparse del cerebro biológico? Para un observador casual, la respuesta parecerá evidente: naturalmente que si. En caso contrario, ¿de qué otra manera podemos esperar lograr una mejor comprensión de la mente? Y lo que es más, ¡ese observador casual tendría razón! Por tanto, es aún más sorprendente que influyentes programas de investigación en la ciencia cognitiva hayan minimizado o ignorado con tanta frecuencia los estudios neurocientíficos en sus intentos de modelar y explicar los fenómenos mentales. Una razón popular para este desinterés era la afirmación, común entre los primeros investigadores de la inteligencia artificial simbólica, de que el nivel correcto de descripción del dispositivo físico (a efectos psicológicos) se encuentra a bastante distancia de las descripciones de las estructuras y los procesos neuronales. Se creía que hacía falta un nivel de descripción mucho más abstracto: por ejemplo, una descripción basada en las funciones de procesamiento de información de un sistema computacional.' Se creía que los detalles precisos de la organización neuronal constituían una solución específica para el problema de construir físicamente un dispositivo que satisficiera una explicación computacional tan abstracta, pero eso era todo/'
Con la aparición (o la reaparición) de los modelos conexionistas, todo esto empezó a cambiar. Estos modelos fueron especificados deliberada- 1 2
1. Véanse Newell y Simón, 1972 y las págs. 15í-J7GdeBoden, 1988.2. Zenon Pylyshyn, uno de los principales teóricos de este campo, escribió que la ciencia
cognitiva, cuando se le da un sesgo computacional, permite un «estudio de la actividad cognitiva totalmente abstraído, en principio, de los fundamentos biológicos y fenomenológicos... una ciencia de la estructura y la fundón divorciada de la sustancia material» (1986, pág. 68).
178 ! Explicar la mente extendida
mente para reducir la distancia entre la explicación computacional y la naturaleza general de la implementación neuronal. Con frecuencia, el ajuste entre el trabajo conexionista y la teoría del cerebro real era mucho más débil de lo que cabía esperar. Pero a medida que el conexionismo fue madurando, los intentos de salvar esta distancia3 fueron cada vez más comunes y se veía venir una síntesis real de las perspectivas neurocientífica y compu- tacíonal.
Pero la investigación conexionista también se encaminaba en otra dirección: la dirección, destacada a lo largo de este libro, de ocuparse de los detalles de la cognición corpórea y embebida en el entorno. Afirmo que no se debería permitir que este énfasis emergente anegara los intentos de desarrollar unos modelos cada vez más plausibles desde el punto de vista neuronal. Es indudable que las dos perspectivas deben avanzar de la mano. Deberíamos ver el cerebro como un sistema complejo cuyas propiedades adaptativas sólo emergen en relación con un telón de fondo crucial de estructuras y procesos corporales y ambientales. Sin embargo, para entender plenamente estos procesos extendidos, debemos comprender con todo detalle las contribuciones de sistemas neuronales concretos y las complejas interacciones que se dan entre ellos. Por tanto, la insistencia en las interacciones entre el organismo y el entorno no se debería ver como otra excusa de la ciencia cognitiva para evitar enfrentarse al cerebro biológico.
En resumen, la verdadera pregunta no es: «¿Debemos estudiar el cere bro?», sino: «¿Cómo debemos estudiarlo?». ¿Qué tipo de modelos neuro científicos encaja mejor con nuestro énfasis en la acción corpórea y el éxito en tiempo real? Y si estos modelos existen, ¿en qué medida están apoyados por datos y experimentos neuroanatómicos y neurocientíficos cognitivos? Propondré que la clase de modelos neurocientíficos más prometedora tiene tres características principales:
1. el empleo de múltiples representaciones parciales,2. un énfasis básico en las aptitudes motrices y sensoriales, y3. una visión descentralizada de la economía neuronal global.
En los apartados siguientes esbozaré y discutiré algunos ejemplos de conjeturas neurocientíficas de este tipo e indicaré algunas líneas de continuidad con la investigación de la cognición corpórea y embebida.
3. Véanse ensayos en Gluck y Rumelhart, 1990 y en'Nadel y otros, 1989; véanse también vanas de las contribuciones en Koch y Davis, 1994.
La imagen neurocientifica I 179
7.2 Los dedos del mono
Consideremos una pregunta aparentemente sencilla: ¿cómo guía el cerebro del mono el movimiento de sus dedos? Durante muchos años, los neu- rocientíficos han dado por buena una imagen intuitiva y simple. Según esta imagen, parte de! cerebro del mono era la sede de un mapa somatotópico: una región donde conjuntos de neuronas agrupadas espacialmente se dedicaban al control de cada dedo por separado. La actividad de un grupo haría que el dedo correspondiente se moviera. Mover varios dedos a la vez exigiría la actividad simultánea de varios grupos neuronales. Esta imagen del control de los dedos por el cerebro del mono quedó inmortalizada en las imágenes «homunculares» de las subdivisiones espaciales de la zona cerebral Mi (área motriz 1), que representaban distintos grupos neuronales, dispuestos en sucesión lateral medial, que controlaban cada dedo por separado.
Este modelo es elegante e intuitivo y representaría una buena solución para problemas que exigen que los dedos se muevan independientemente (como cuando se toca el piano con destreza). Pero no es la solución de la naturaleza, como demuestran algunas investigaciones más recientes. Para ver esto, observemos una evidente predicción del simple modelo homuncu- lar. Este modelo predice que los movimientos donde intervienen varios dedos deben exigir una activación más extendida y de más neuronas que los movimientos de un solo dedo. Además, también predice que los movimientos del pulgar se corresponden con la actividad de la región más lateral de la región M i de la mano, y que los movimientos de los otros dedos se corresponden con la actividad de otras zonas ordenadas en sucesión hasta llegar a la región más medial (correspondiente a los movimientos del dedo meñique). Ninguna de estas predicciones se confirma. Marc Schieber y Lyndon Hibbard, neurocientíficos de la Washington University School of Medicine, encontraron que los movimientos de cada dedo por separado estaban acompañados de una diseminación de la actividad por toda la zona MI de la mano. Además, se ha observado que para los movimientos preci sos hace falta más actividad de la corteza motriz que para los movimientos más básicos de toda la mano y que algunas neuronas de la corteza motriz parecen dedicadas a impedir los movimientos de otros dedos cuando un dedo concreto debe actuar por separado.
Schieber (1990, pág. 444) propone que interpretemos todo esto considerando los movimientos aislados de los dedos como casos complejos, y las «sinergias más rudimentarias, como las empleadas para abrir y cerrar la mano», como adaptaciones básicas. Estas adaptaciones son perfectamente razonables para seres cuya principal necesidad sea asir ramas y balancearse, y el diagnóstico total encaja como anillo al dedo con nuestra perspectiva evolutiva del di
180 I Explicar la mente extendida
seño cognitivo natural. El problema fundamental es producir una acción rápida, fluida y adaptada al entorno. Para ello se seleccionan unas estrategias de codificación neuronal que faciliten una gama particular de conductas de asimiento en las que el factor tiempo es fundamental. Esta necesidad básica e históricamente determinada condiciona las soluciones para problemas más recientes centrados en los movimientos de dedos aislados {como tocar el piano). Para alcanzar estas metas más recientes, Schieber (ibíd.) sugiere que «la corteza motriz puede superponer un control, en parte sobre los centros subcorticales filogenéticamente más antiguos y, en parte directamente sobre... las neuronas motrices espinales, para ajustar el movimiento de todos los dedos». Por tanto, la evolución trastea con las sinergias de toda la mano, dedicando recursos neuronales tanto a la supresión de movimientos como a su producción, con el fin de posibilitar movimientos precisos.
La lección parece ser que la evolución biológica puede seleccionar esquemas internos de codificación que a primera vista parecen extraños y toscos pero que, en realidad, representan soluciones bastante elegantes al problema combinado de satisfacer unas necesidades básicas y aprovechar al máximo los recursos existentes. Dicho de una manera más general, ía literatura neurocientífica abunda en casos de codificaciones neuronales un tanto inesperadas. Por ejemplo, se ha visto que la respuesta de algunas neuronas de la corteza parietal posterior de la rata es máxima {en el contexto de recorrer un laberinto radial) ante ciertas orientaciones de la cabeza y en presencia de alguna característica o marca local (McNaughton y Nadel, 1990, págs. 49-50), y que otras neuronas responden a determinados movimientos de giro hechos por la rata (otro caso de las representaciones «motorcéntricas» y orientadas al agente presentadas en capítulos anteriores).
El modelo de Schieber también ilustra el papel que tienen en la cognición natural las representaciones internas distribuidas. Este tema ha ocupado un lugar preponderante en los trabajos recientes sobre redes neuronales artificiales.4 Una representación distribuida es una codificación interna donde el contenido de interés no está a cargo de un recurso individual (por ejemplo, una sola neurona) y tampoco está necesariamente a cargo de un grupo espacialmente localizado de unidades o neuronas. En cambio, este contenido (relacionado, por ejemplo, con el movimiento de un dedo aislado) está a óargo de un patrón de activación que se disemina por una población de neuronas o unidades. Las codificaciones distribuidas ofrecen varias ventajas y oportunidades. Por ejemplo, el patrón mismo puede codificar una información estructural significativa haciendo que ciertas variaciones de poca importancia en su configuración reflejen diferencias pequeñas, pero a veces
4. Recuérdese la anterior discusión del capitulo 3.
La imagen neurocíentífica i 181
importantes, en lo que se representa en cada momento. Y también es posible emplear métodos de almacenamiento superpuesto para que cada neurona individual pueda desempeñar un papel en la codificación de muchas cosas diferentes (de la misma manera que el número 2 puede aparecer en muchos patrones numéricas diferentes: «2, 4, 6», «2 ,3 , 4», «2, 4, 8», etc.). Cuando este tipo de almacenamiento superpuesto se emplea sistemáticamente para representar elementos semánticamente afines mediante patrones superpuestos pero no idénticos, se obtienen las ventajas adicionales de la generalización (unos elementos o sucesos nuevos pueden recibir unas codificaciones no arbitrarias en la medida en que se parezcan a otros elementos o sucesos ya existentes) y de la «degradación elegante» (una lesión física limitada será menos problemática porque en la codificación de cada clase general de elementos o sucesos participan muchos componentes y el rendimiento sera aceptable mientras se conserven algunos de ellos). Estas ventajas se examinan con detalle en otro lugar (Clark, 1989,1993), por ahora la cuestión es, simplemente, que el cerebro puede estar empleando unos esquemas repre- sentacionales muy complejos, superpuestos y espacialmente distribuidos incluso en casos dondb, intuitivamente, podríamos haber esperado una estrategia de codificación simple y espacialmente localizada como en el caso de la zona motriz M I.5 AI parecer, el método de la naturaleza consiste en emplear unas codificaciones distribuidas en el espacio y superpuestas entre sí para gobernar movimientos similares (pero no idénticos) de los dedos. Por tanto, la imagen final nos muestra unas neuronas corticales específicas que desempeñan un papel en el control de los músculos de varios dedos, participando en patrones de actividad ampliamente extendidos en el espacio que corresponden a diferentes tipos de movimientos y con distintas direcciones.
5. El caso del control del movimiento de los dedos parece encontrarse en el extremo «muy distribuido» de un continuo de posibilidades de codificación. De hecho, en el extremo opuesto encontramos algunos esquemas de codificación que utilizan agrupaciones espaciales de neuronas para mantener un mapa topográfico interno (un mapa interno que mantiene las relaciones espaciales entre las entradas sensoriales). Por ejemplo, existe un grupo de neuronas en la corteza cerebral de (a rata cuya organización espacial refleja la distribución espacia! de los bigotes del animal. Sin embargo, incluso en estos casos aparentemente claros, se debe destacar que la topografía interna está adaptada a las respuestas máximas de las neuronas individuales y, en consecuencia, deja espacio para que otros aspectos del ajuste de estas neuronas desempeñen una función (véase e! apartado 7.3 más adelante), y que los perfiles de respuesta se suelen obtener en situaciones artificiales (que implican el empleo de manipulaciones eléctricas o quirúrgicas) y no pueden reflejar con fidelidad el papel de las neuronas en la respuesta a situaciones ecológicamente normales. Con todo, la existencia de la correspondencia topográfica interna es un resultado sorprendente e importante que demuestra que (a naturaleza puede utilizar varias estrategias y ardides diferentes para fomentar el éxito adaptativo. Véase una exposición del caso de los bigotes de la rata en Woolsey, 1990.
182 1 Explicar la mente extendida
7.3 La visión de los primates: de la detección de características a los filtros sintonizados*
Para paladear aún más el sabor de la investigación neurocientífica actual, haremos una breve incursión en el mundo cada vez mejor comprendido de ia visión de los primates. En los trabajos computacionales sobre la visión animada ya vimos en qué medida es probable que una naturaleza de carácter ahorrativo se base en señales poco costosas y en el estado del entorno local para minimizar su carga de procesamiento interno. Pero aun teniendo esto en cuenta, la complejidad de los mecanismos de la visión real sigue siendo asombrosa. Lo que sigue es un esbozo, necesariamente truncado, basado en el reciente trabajo de David Van Essen, un destacado investigador de ia visión de los primates que (de manera muy conveniente para mí) tiene su sede en la Washington University School of Medicine.7
La investigación neuronatómica ha descubierto una multiplicidad de partes y vías anatómicas que parecen desempeñar papeles especiales en el procesamiento visual. La neurociencia cognitiva se propone, mediante el empleo de una amplia variedad de instrumentos experimentales y teóricos, identificar las distintas características de respuesta de las neuronas y las poblaciones neuronales participantes. Anatómicamente, el macaco posee por lo menos 32 áreas visuales en el cerebro y más de 300 vías de conexión. Entre las áreas más importantes (véase la lámina 1) se incluyen centros de procesamiento cortical inicial como VI y V2, sedes intermedias como V4 y MT y sedes superiores como TI (corteza temporal inferior) y PP (corteza parietal posterior). Las vías de conexión tienden a ir en ambos sentidos: por ejemplo, de VI a V2 y viceversa. Además, existe cierta conectividad «lateral» como, por ejemplo, entre las subáreas de VI.
Aunque según la descripción de FeJleman y Van Essen (1991) el sistema global comprende diez niveles de procesamiento cortical, a continuación sólo se describen algunos de los más importantes. Subcorticalmente, el sistema recibe entradas procedentes de tres poblaciones de células, incluyendo las llamadas poblaciones magnocelulares y parvocelulares. A continuación, una vía de procesamiento se ocupa básicamente de la entrada magnocelular y otra de la entrada parvocelular. Esta división tiene sentido dados los diferentes tipos de información de bajo nivel en los que se «especializa» cada población. Las células parvo (P) tienen una resolución espacial alta y una reso-
i
6. Esta discusión se basa en gran medida en Van Essen y Gallant, 1994.7. Véanse especialmente Van Essen y Gallant, 1994; Knierim y Van Essen, 1992 y Fellc-
man y Van Essen, 1991. Gran parte del trabajo se basa en estudios con macacos, cuyo sistema visual parece ser adecuadamente similar al humano.
La imagen neurocientífica I 183
ludón temporal baja; las células magno (M) tienen una resolución temporal alta. Como resultado, las células M permiten la percepción de movimientos rápidos, mientras que las células P se encargan (entre otras cosas) de la diferenciación de colores. La destrucción selectiva de células P impide que el mono pueda distinguir los colores pero deja intacto el reconocimiento del movimiento.
La corriente de procesamiento también denominada «magno» (MD) incluye muchas poblaciones de neuronas sensibles a la dirección de un estímulo de movimiento, especialmente en el área MT. La estimulación eléctrica de parte de la zona MT puede hacer que el mono «perciba» un movi miento hacia la izquierda cuando, en realidad, el objeto de referencia se mueve hacia la derecha (Salzman y Newsome, 1994). En etapas aún más avanzadas de la jerarquía procesadora (como la MSDT) existen indicios de la presencia de células sensibles a estímulos de movimiento muy complejos, como el movimiento en espiral (Graziano y otros, 1994). Al final, la corriente MD se conecta con la corteza parietal posterior, que parece emplear la información espacial para controlar funciones de nivel superior como, por ejemplo, decidir dónde se encuentra un objeto y planificar los movimientos de los ojos.
Mientras tanto, la misión de determinar qué es cada cosa (reconocí miento de objetos) está a cargo de una corriente de procesamiento distinta que tiene sus raíces, especialmente, en unas entradas parvocelulares que pasan por las zonas V i, V4 y PIT (áreas inferotemporales posteriores) y que acaban en las áreas inferotemporales centrales y anteriores. Esta vía parece estar especializada en la forma y el color. En el nivel correspondiente a V4, existen indicios de la presencia de células sensibles a formas muy complejas como estímulos concéntricos, radiales, espirales e hiperbólicos (véase la lámina 2). En niveles superiores, ciertas células individuales de la corteza temporal inferior dan una respuesta máxima ante estímulos geométricos complejos como caras y manos. Pero (y esto es crucial) estas respuestas máximas no especifican de una manera exhaustiva el papel desempeñado por una célula dada en el procesamiento de la información. Aunque una célula puede dar una respuesta máxima ante (por ejemplo) un patrón en espiral, la misma célula también responderá en cierta medida a muchas otros patrones. Con frecuencia, lo más revelador es la sintonización de una célula con un conjunto entero de estímulos. Esta sintonización global permite a una célula participar en un gran número de patrones distribuidos de codificación, aportando información tanto por el hecho de estar activa como por su grado de actividad. Estas consideraciones condujeron a Van Essen y otros a tratar las células no como simples detectores de características que indican la presencia o ausencia de algún parámetro fijo, sino más bien como filtros
184 I Explicar la mente extendida
sintonizados con varias dimensiones del estímulo, de manera que las diferencias en la frecuencia de disparo permiten que una célula codifique múltiples tipos de información.8 También hay fuertes indicios de que las respuestas de las células de los niveles medios y superiores de la jerarquía procesadora dependen de la atención y de otros parámetros cambiantes (Motter, 1994), e incluso de que las características de la respuesta de las células de VI están moduladas por los efectos del contexto local (Knierim y Van Essen 1992). Tratar las neuronas como filtros sintonizables y modula- bles proporciona un sólido marco en el que cabe formular y comprender estos perfiles complejos. La imagen básica que aquí se presenta también está en consonancia con la perspectiva de diseño propugnada por Tim Smithers (véase el apartado 5.5 anterior), en la que se analizan sistemas sensoriales muy simples como si fueran filtros sintonizados y no simples canales de detección de características.
Por tanto, los trabajos recientes sobre la visión de los primates muestran una conciencia creciente de la complejidad y la sofisticación de los esquemas de codificación y de las vías de procesamiento biológicos. Sin embargo, esta apreciación creciente de la complejidad y la dinámica interactiva no implica que el sistema visual de los primates sea analíticamente impenetrable. Al contrario, vemos que el sistema separa, filtra y encamina la información progresivamente para hacer que varios tipos de información estén a disposición de diversos componentes (por ejemplo, la corteza temporal inferior y la corteza parietal posterior), y para permitir que los estímulos visuales, tanto de bajo nivel como de alto nivel, orienten la conducta como y cuando haga falta. Por tanto, una comprensión completa de (por ejemplo) las estrategias de la visión animada (recuérdese el capítulo 1 anterior) exigirá, por un lado, la apreciación de muchos tipos de dinámica interna compleja y, por otro, comprender cómo utiliza estos recursos un ser corpóreo y embebido para explotar características del entorno y estímulos localmente eficaces al servicio del éxito adaptativo.
7.4 Hipótesis del control neurona!
Un desarrollo importante en la neurociencia cognitiva reciente es el creciente reconocimiento del papel de las estructuras neuronales de control. Las estructuras neurópatas de control, tal y como voy a usar el término, son
8. «Las diferencias en la frecuencia de disparo transmiten información útil para distinguir entre estímulos que se encuentran en las pendientes de la superficie de sintonización multidi- mensional de cada célula» (Van Essen y Gallant, 1994, pág. 4).
La imagen neurocienlifica I 185
aquellos circuitos, estructuras o procesos ncuronales cuyo papel principal sea modular la actividad de otros circuitos, estructuras o procesos neurona- íes, es decir, cualquier elemento o proceso cuyo papel sea controlar la economía interna en vez de seguir las condiciones externas o controlar directamente la actividad corporal. Una útil analogía, propuesta por Van Essen y otros (1994), es la división de los procesos en una factoría moderna, donde muchos procesos no se dedican a la construcción del producto en sí sino más bien al tráfico interno de materiales. Muchos neurocientíficos creen ahora que, de una manera similar, se dedican grandes cantidades de capacidad neuronal al tráfico y el tratamiento de información. Según esta explicación, el papel de ciertas poblaciones neuronales consiste en modular el flujo de actividad entre otras poblaciones para potenciar ciertas clases de atención, recuerdos multimodales, etc.
Siguiendo esta línea, Van Essen y otros (1994) postulan la existencia de unos mecanismos neuronales dedicados a regular el flujo de información entre áreas corticales. Según estos autores, esta regulación nos permite (por ejemplo) dirigir una ventana interna de atención visual hacia un objetivo concreto (como una letra del alfabeto que aparece en una posición aleatoria dentro del campo visual) o dirigir la misma orden de movimiento a cualquier parte del cuerpo. El gasto computacional dedicado a generar una señal distinta para cada caso sería prohibitivo. Mediante el desarrollo de un único recurso que puede ser «dirigido» con flexibilidad hacia diversas posiciones, se consiguen unos enormes ahorros de procesamiento. Según Van Essen y otros, la clave de esta orientación flexible es el empleo de poblaciones de «neuronas de control» que encaminan dinámicamente la información por el cerebro. La propuesta de estos autores no se queda en un simple esbozo intuitivo y está acompañada de un modelo detallado del funcionamiento de estos controladores al estilo de las redes neuronales; además, los autores relacionan este modelo con toda una variedad de sustratos y mecanismos neurológicos conocidos. Los perfiles de respuesta muy dependientes del contexto de algunas neuronas corticales (mencionados en el apartado7.3 anterior) se pueden explicar mediante estos mecanismos que encaminan una y otra vez la información entrante.
Otro tipo de hipótesis de control neuronal se basa en la idea de «procesamiento reentrante» (Edelman y Mountcastle, 1978; Edelman, .1987). Es bien sabido que el cerebro incluye muchas vías que enlazan áreas corticales distantes y que regresan de las zonas superiores del cerebro a las inferiores. La idea del procesamiento reentrante es que estas vías «laterales y descendentes» se emplean para controlar y coordinar la actividad de múltiples centros (con frecuencia de nivel inferior). Estas vías transportan unas «señales reentrantes» que provocan ia activación de las zonas receptoras. Considere
186 t Explicar la mente extendida
mos dos poblaciones de neuronas que responden a unos tipos diferentes de estímulos externos (por ejemplo, la vista y el tacto) y que están interconectadas recíprocamente mediante estas vías reentrantes. Estas conexiones recíprocas permiten que, con el tiempo, lo que ocurre en un lugar se correlacione con lo que ocurre en el otro. Estas correlaciones podrían llegar a codificar propiedades de nivel superior, como las combinaciones de textura y color características de una clase particular de objetos.
Como ejemplo final de una hipótesis de control neuronal, consideremos el intento reciente de Damasio y Damasio (1994) de desarrollar un marco general para explicar los déficit psicológicos selectivos. Se produce un déficit selectivo cuando una persona, normalmente a causa de un trauma o de una lesión cerebral, pierde unas capacidades cognitivas específicas pero conserva relativamente intactas las restantes. Por ejemplo (Damasio y otros, 1989), se comprobó que un paciente conocido como Boswell tenía dañada selectivamente la capacidad de recuperar conocimientos relacionados con entidades únicas (como personas concretas) y con sucesos específicos (como episodios biográficos concretos, lugares singulares, objetos especiales, etc.). Sin embargo, su conocimiento cate- gorial más general permanecía intacto. Podía identificar si un elemento era un automóvil, una casa, una persona, etc. Boswell no mostraba déficit de atención o percepción y su capacidad para adquirir y realizar habilidades físicas no se había alterado.
Damasio y Damasio (1994) describen un marco capaz de explicar estas pautas de déficit. La característica esencial de su propuesta es que el cerebro explota unas «zonas de convergencia»: unas áreas que «dirigen la activación simultánea de zonas anatómicamente separadas cuya conjunción define una entidad» (ibíd., pág. 65). Por tanto, una zona de convergencia se define como una agrupación de neuronas donde entran en contacto múltiples bucles de retroalimcntación y alimentación hacia adelante. Es una región donde convergen varias conexiones corticales de retroali- mentación y alimentación hacia adelante de largo recorrido. La función de una zona de convergencia consiste en permitir que el sistema (devolviendo señales hacia las múltiples áreas corticales implicadas en el procesamiento previo) genere pautas de actividad entre grupos de neuronas muy distantes entre sí. Según Damasio y Damasio, cuando accedemos al conocimiento de conceptos, entidades y sucesos, explotamos estas señales de alto nivel para recrear las pautas extendidas de actividad características de los contenidos en cuestión. Si suponemos que distintos tipos de conocimientos dependen de unos complejos de coactivación diferentes y que estos complejos, a su vez, están gestionados por unas zonas de convergencia distintas, podremos empezar a comprender por qué una lesión cere
La imagen neurocientífica I 187
bral local puede dañar selectivamente la recuperación de diferentes tipos de conocimientos. Con todo, para explicar la disociación entre el conocimiento de sucesos únicos y no únicos, también hace falta presentar la noción de jerarquía de zonas de convergencia. Recordemos que las zonas de convergencia, según la concepción de Damasio y Damasio, se proyectan tanto hacia atrás (reactivando representaciones corticales anteriores) como hacia adelante (hacía zonas de mayor convergencia). Estas zonas superiores pueden impulsar de una manera poco costosa una actividad extendida de bajo nivel, explotando conexiones de retroalimentación con los enlaces previos dentro de una jerarquía de zonas de convergencia. La hipótesis básica es la siguiente:
...el nivel en el cual se recupera el conocimiento (por ejemplo, supraordinado, objeto básico, subordinado) dependerá del alcance de la activación multirregio- nal. A su vez, esto dependerá del nivel de zona de convergencia que se active. Las zonas de convergencia de bajo nivel vinculan señales relacionadas con categorías de entidades... Las zonas de convergencia de nivel mas elevado vinculan señales relacionadas con combinaciones más complejas... Las zonas de convergencia capaces de vincular entidades con sucesos... se encuentran en la cima de las corrientes jerárquicas, en las regiones frontales y temporales más anteriores (ibtd., pág. 73).
Por tanto, la recuperación de conocimientos sobre entidades y sucesos únicos requiere la activación conjunta de varios locus más básicos que el conocimiento de entidades y sucesos no únicos (donde los primeros subsumen a los segundos, pero no a la inversa). De manera similar, el conocimiento de conceptos requerirá la activación conjunta de varias áreas distintas, mientras que el conocimiento de características simples (por ejemplo, el color) se puede limitar a una sola área. Si suponemos una jerarquía de zonas de convergencia extendida en el espacio neuronal, esta imagen explicaría por qué las lesiones en las cortezas visuales previas dañan selectivamente el conocimiento de características simples como el color, mientras que las lesiones en las cortezas intermedias alteran el conocimiento de entidades y sucesos no únicos y las lesiones en las cortezas anteriores alteran las respuestas relacionadas con entidades y sucesos únicos.
Según este marco unos sistemas neuronales distintos pero superpuestos promueven el acceso a distintos tipos de conocimiento. Cuanto más complejas sean las conjunciones de información necesarias para fijar una clase de conocimientos, más necesaria será esta actividad de coordinación. Esto, a su vez, implica unos centros correlativamente más elevados en una jerarquía de zonas de convergencia que corresponden a locus de las cortezas temporales cada vez más anteriores. Damasio y Damasio destacan que su intención no es
describir las zonas dañadas como si fueran las sedes físicas de diferentes clases de conocimientos: lo que proponen es que las regiones dañadas son zonas de control que promueven la activación conjunta de varias áreas muy distantes entre sí. En general, se trata de cortezas sensoriales y motrices previas que, mediante las señales reentrantes, serían estimuladas a crear de nuevo sus respuestas particulares ante ciertos estímulos externos. Resumiendo sus propuestas, Damasio y Damasio comentan lo siguiente:
...[la imagen] que proponemos implica una compartimentación funcional relativa para el cerebro normal. Un gran conjunto de sistemas en las cortezas sensoriales y motrices previas sería la base para los conocimientos «de sensación» y «de acción»... Otro conjunto de sistemas en las cortezas de orden superior orquestaría la trabazón de actividades en el tiempo en los primeros; es decir, suscitaría y establecería una correspondencia temporal entre áreas separadas (ibíd., pág. 70).
Según esta explicación, existen unas regiones neuronales localizadas para varios tipos de información sensorial y motriz y para varios niveles de control mediados por zonas de convergencia. Sin embargo, las aptitudes de nivel superior (como, por ejemplo, captar conceptos) se describen como dependientes de la actividad de múltiples áreas básicas (en las cortezas sensoriales y motrices) mediada por la actividad de múltiples zonas de convergencia. Por tanto, gran parte del aparato explicativo para explicar fenómenos como la posesión de conceptos requerirá unos recursos que vayan más allá de los simples análisis de componentes presentados en el capítulo 6 anterior. Necesitaremos modelos que estén especialmente bien adaptados para revelar los principios subyacentes a los fenómenos que emergen a partir de la actividad coevolutiva, compleja y temporalmente trabada en el tiempo, de múltiples componentes vinculados por abundantes vías de retroalimentación y proalimentación. Como los análisis clásicos de componentes no han tendido a salir bien parados en estos casos, aquí parece darse una oportunidad clara para explicar la implementación detallada de la hipótesis de las zonas de convergencia desde una perspectiva dinámica. Al mismo tiempo, el poder explicativo de la teoría está claramente vinculado con la descomposición previa en áreas de procesamiento básico (que llevan a cabo tareas cognitivas identificables) y en un conjunto bien definido de zonas de convergencia cuyas diferentes actividades de conmutación también se corresponden con clases diferentes de recuperación de conocimientos. Sólo a la luz de esta descomposición y de este comentario funcional puede este modelo predecir y explicar los efectos selectivos de las lesiones cerebrales locales en la recuperación de conocimientos relacionados con entidades y sucesos únicos. En
188 I Explicar ia mente extendida
La imagen neurocientífíca I 109
este caso, la presencia del análisis de componentes parece esencial para salvar el abismo existente entre los fenómenos que hay que explicar (es decir, los déficit que afectan a tipos específicos de conocimientos) y los modelos que creamos. Si no habláramos de las funciones cognitívas de las cortezas sensoriales previas ni de las estructuras corticales de nivel superior especializadas en volver a crear unos complejos específicos de actividad cognitiva, no comprenderíamos cómo podrían explicarse realmente los fenómenos psicológicos por medio de otras descripciones de la dinámica detallada de las interacciones entre los componentes.
Por último, obsérvese que las hipótesis de control neuronal están muy lejos de describir el cerebro como un dispositivo centralizado para el intercambio de mensajes, porque existe una gran diferencia entre imaginar que algún sistema interno de control tiene acceso a toda la información codificada en los diversos subsistemas, e imaginar un sistema que puede abrir y cerrar canales que conectan diversos subsistemas entre sí.’ Todo lo que exigen las hipótesis de control neuronal acabadas de esbozar es esta última capacidad para controlar canales. Por tanto, son muy distintas de la visión tradicional de un sistema «ejecutivo central». Los «centros superiores» postulados por Damasio y Damasio no actúan como almacenes de conocimientos «transferidos» desde los centros de nivel inferior. En cambio, son «meramente los puntos de convergencia más distantes desde los cuales se puede disparar la retroactivación divergente» (Damasio y Damasio, 1994, pág. 70). Creo que gran parte de la oposición recibida por los enfoques centrados en el procesamiento de la información se puede formular mejor como una oposición a una imagen de la mente caracterizada por un rico «envío de mensajes» (véase, por ejemplo, Brooks, 1991). Así, Maes (1994, pág. 141} observa que el trabajo centrado en agentes autónomos adaptativos evita el empleo de módulos clásicos que «se basan en la “representación central” como medio de interfaz». En cambio, estos investigadores postulan unos módulos que se relacionan entre sí mediante mensajes muy simples cuyo contenido rara vez va más allá de señales de activación, supresión o inhibición. Como resultado, no hace falta que los módulos compartan ningún formato de representación: cada uno puede codificar información de maneras muy características y específicas de la tarea (ibíd., pág. 142). Esta imagen de un control descentralizado y de múltiples formatos de representación es a la vez biológicamente realista y computacionalmente atractiva. Pero, como hemos visto, también es totalmente compatible con cierto grado de descomposición modular interna y con el empleo de estilos de explicación (parcial) basados en el procesa miento de información.
9. Posner (1994) destaca esta distinción.
190 I Explicar la mente extendida
Por tanto, las hipótesis de control neuronal constituyen una potente mezcla de radicalismo y tradicionalismo. Su radicalismo se debe a que ofrecen un modelo de la cognición superior descentralizado y sin envío de mensajes, a que suelen describir la cognición superior como si surgiera de la actividad trabada en el tiempo de múltiples tipos de zonas de procesamiento senso- riomotor más básicas, y a que reconocen la dinámica compleja y recurrente del procesamiento neuronal.
Pero conservan elementos fundamentales de enfoques más tradicionales, como el empleo de una descomposición, al estilo del procesamiento de la información, en la que se asocian unos componentes neuronales definidos con unas funciones específicas de portar contenido.
7.5 Refinar la representación
Como se puede ver incluso en estos ejemplos breves y superficiales, la neurociencia contemporánea constituye una interesante mezcla entre lo radical y lo tradicional. Retiene gran parte del énfasis tradicional en los análisis de la computación neuronal basados en componentes y en el procesamiento de información, Pero lo hace dentro del contexto más amplio de una comprensión sistémica que, al mismo tiempo, está cada vez más descentralizada y más atenta al papel de la dinámica recurrente compleja. La noción de representación interna sigue desempeñando un papel fundamental, pero la imagen de estas representaciones está experimentando unas alteraciones fundamentales. En primer lugar, ia pregunta de qué es lo que se representa internamente se ha vuelto a plantear, por un lado, como resultado de los estudios «de abajo arriba» de los perfiles de respuesta de poblaciones neuronales específicas {como en el trabajo de Schieber sobre la representación en la corteza motriz del mono) y, por otro, como resultado de una conciencia creciente de la importancia del encaje ecológico del organismo en su entorno natural (como en la investigación sobre la visión animada presentada anteriormente). Y, en segundo lugar, la cuestión acerca de cómo se representan las cosas internamente ha sido transformada por el trabajo conexionista sobre la representación distribuida y por el reconocimiento de que es mejor ver las neuronas individuales como filtros sintonizados con múltiples dimensiones de estímulo. Esta combinación de descentralización, recurrencia, sensibilidad ecológica y representación multidimensional distribuida, constituye una imagen del cerebro representador que está muy lejos de la vieja ¡dea de un único código simbólico interno (o «lenguaje del pensamiento»; véanse Fodor, 1975 y Fodor, 1986). Es como la imagen representacional y computacional, pero despojada de todo exceso de equipaje y racionalizada
La imagen neurocientifica I 191
para complementar el estudio de la dinámica organismo-entorno más amplia destacada en capítulos anteriores. Para completar este proyecto de integración y reconciliación, debemos observar con más detalle las nociones fundamentales concretas de computación y representación.
8 Ser, computar, representar
8.1 ¿Noventa por ciento de vida (artificial)?
Según Woody Alien, el noventa por ciento de la vida consiste, simplemente, en estar ahí; y, desde luego, hemos visto de muchas maneras que los hechos sobre la corporeización y la situación ambiental tienen una importancia considerable para explicar nuestro éxito adaptativo. Sin embargo, en los últimos dos capítulos hemos encontrado algunas advertencias importan tes. En concreto, no deberíamos tener demasiada prisa en rechazar los apa ratos explicativos más tradicionales de la computación y la representación. Las mentes pueden estar esencialmente corporeizadas y embebidas y, aun a s i depender fundamentalmente de unos cerebros que computan y representan. Sin embargo, para hacer que esta postura ecuménica cuaje, necesitamos enfrentarnos específicamente a algunos retos directos relacionados con las nociones mismas de computación y representación (¿tienen estas nociones unas definiciones no triviales compatibles con el nuevo marco?) y a algunos problemas relacionados con la aplicación práctica de estas nociones a sistemas que muestran propiedades emergentes dependientes de procesos marcados por una causalidad compleja, continua y recíproca.1
8.2 ¿Qué es eso que llamamos representación?
Los científicos cognitívos suelen hablar de los cerebros y de los modelos informáticos como si albergaran «representaciones internas». Esta idea bási
1. Véase la definición más adelante.
ca ofrecía un terreno común incluso para los campos, por lo demás opuestos, del conexionismo y la inteligencia artificial clásica.2 Las diferencias entre conexionistas y clasicistas se centraban únicamente en la naturaleza precisa del sistema de representaciones internas, no en su existencia misma. Los clasicistas creían en una economía interna «simbólicamente sólida» donde los contenidos mentales se almacenaban como cadenas de símbolos que podían ser leídas, copiadas y trasladadas por algún tipo de unidad central de procesamiento interno. Los conexionistas creían en un estilo mucho más implícito de representación interna que sustituía las cadenas de símbolos sólidos y manipulabas por vectores numéricos complejos y operaciones básicas de reconocimiento y transformación de patrones.
Aun así, tanto las representaciones simbólicas explícitas y sólidas como las representaciones conexionistas distribuidas y vectoriales se consideraban representaciones internas propiamente dichas. Desde este punto de vista, en un sistema se da representación interna siempre que ese sistema cumpla los siquientes requisitos intuitivos (Haugeland, 1991):
1. El sistema debe coordinar sus conductas con características del entorno cuya presencia no siempre sea «segura».
2. El sistema se debe enfrentar a estos casos «sustituyendo» las señales recibidas directamente desde el entorno por otra cosa que guíe la conducta.
3. Esa «otra cosa» debe formar parte de un esquema de representación más general que permita que esta sustitución se produzca sistemáticamente y que dé cabida a una variedad de estados de representación relacionados (véase Haugeland, 1991, pág. 62).
El primer requisito descarta los casos donde no hay ninguna «sustitución» y donde la conducta está controlada directamente por la característica del entorno (por medio de una «señal detectable»). Por tanto, «las plantas que siguen al sol con sus hojas no necesitan una representación del sol ni de su posición porque el seguimiento está guiado directamente por el mismo sol» (ibíd., pág. 62). El segundo requisito identifica como representación cualquier cosa que «sustituya» a la característica ambiental pertinente. Pero el tercer requisito limita esta categoría a las sustituciones que figuran en un esquema de sustitución más amplio, descartando así (por ejemplo) los jugos gástricos como representaciones completas de futuros alimentos (ibíd.). Aunque estos requisitos están bien encaminados, creo que el papel de la capacidad de desacoplamiento (la capacidad de emplear estados internos para
2. Véanse la introducción y el capítulo 3 anteriores, así como Smolensky, 1988; Fodory Pylyshyn, 1988, y Clark, 1989.
194 I Explicar la mente extendida
Ser, computar, representar I 195
orientar la conducta en ausencia de la característica ambiental pertinente) es un poco exagerado.
Consideremos una población de neuronas en la corteza parietal posterior de una rata. Estas neuronas contienen información sobre la dirección (izquierda, derecha, enfrente) hacia la que se orienta la cabeza del animal. Lo hacen utilizando un esquema de codificación que es «general» en un sentido parecido al expresado en el tercer requisito de Haugeland. Según mi parecer, la noción de esquema representacional general es muy generosa y no requiere la presencia de una sintaxis de combinación clásica que permita yuxtaponer y concatenar elementos con toda libertad; creo que sólo requiere que nos encontremos frente a algún tipo de sistema de codificación. Y estos sistemas pueden ser de muchísimas maneras. Por ejemplo, bastará con que el sistema sea tal que los elementos que se deban tratar de una manera similar estén representados por unas codificaciones (como patrones de activación en una población de neuronas o en una red neuronal artificial) que estén próximas entre sí en un espacio de estados multidimensionaí adecuado.* De hecho, este tipo de esquema de representación es característico de gran parte del trabajo conexionista examinado anteriormente y pretende caracterizar por lo menos algunos de los sistemas de codificación encontrados en los cerebros biológicos. Las poblaciones de neuronas parietales posteriores de la rata son un caso ejemplar. Sin embargo, hasta ahora no hay nada en nuestra descripción que sugiera que estas neuronas puedan desempeñar su papel en ausencia de una corriente continua de señales propioceptivas procedentes del cuerpo de la rata. Si este «desacoplamiento» no es posible, nos enfrentamos a un caso que satisface plenamente la tercera condición de Haugeland (la presencia de un esquema de codificación sistemática) pero no satisface las otras dos (este esquema de codificación no actúa como sustituto en ausencia de señales entrantes). ¿Qué podemos decir de un caso como éste?'’
Parece razonablemente claro que si interpretamos los estados de la población neuronal como codificaciones de posiciones específicas de la cabeza obtendremos una base explicativa útil. Estas interpretaciones nos ayudan a comprender el flujo de información dentro del sistema cuando, por ejemplo, nos encontramos con otros grupos neuronales (como poblaciones dedicadas 3 4
3. Véase mucha más información sobre la codificación de espacios de estados en Church- land, 1989; Clark, 1989 y Clark, 1993. Véase una discusión del contraste con los esquemas de combinación clásicos en van Gelder, 1990. Véase una discusión de la naturaleza especial de los sistemas de representación conexionistas en Clark, 1994.
4. La cuestión no es si las neuronas parietales posteriores de la rata pueden actuar en ausencia de entradas visuales (por ejemplo, al soñar, si es que las ratas sueñan). En cambio, la cuestión es que la incapacidad de desacoplamiento en sí no parece privar a la interpretación representacional de toda su fuerza explicativa.
196 I Explicar la mente extendida
al control motor) que consumen la información codificada en la población estudiada. Sin embargo, una aplicación estricta de los criterios de Hauge- íand rechazaría la descripción de estos sistemas internos (con estados internos no desacoplabas) como genuinamente representacionales. Esto parece poco atractivo en vista de la muy real base explicativa que ofrece la interpretación representacional y tampoco sintoniza con la práctica neurocientí- fica corriente.
Por tanto, los criterios de Haugeland parecen ser demasiado restrictivos. Sin embargo, es importante encontrar alguna manera de limitar la aplicabi- lidad de la noción de representación interna. Por ejemplo, seguramente es necesario descartar casos de mera correlación causal y de control ambiental demasiado simple. Seguramente es cierto que la presencia dentro de un sistema de algún tipo de estado interno complejo no es suficiente para justificar la caracterización del sistema como representacional. Como Beer (1995a) y otros han destacado, existen sistemas de todo tipo (como las columnas de destilación de una refinería) con estados internos complejos y nadie siente la tentación de tratarlos como dispositivos de representación. Tampoco basta la mera existencia de una correlación fiable -e incluso no accidental- entre un estado interno y un parámetro ambiental o corporal para decir que hay representación. Más que la mera existencia de la correlación en sí, lo que cuenta es la naturaleza y la complejidad de esa correlación y el hecho de que un sistema consuma5 o explote de alguna manera un conjunto entero de correlaciones por sus contenidos semánticos específicos. Por tanto, es importante que el sistema utilice estas correlaciones de una manera que indique que el sistema de estados internos tiene la función de contener tipos específicos de información.
Existe una llamativa correlación entre la marea y la posición de la luna; sin embargo, ninguna representa a la otra ya que (por ejemplo) nunca consideraríamos plausible que las mareas hubieran sido seleccionadas o diseñadas -o hubieran evolucionado- con el fin de contener información sobre la posición de la luna. En cambio, parece muy plausible suponer que la población de neuronas de la corteza parietal posterior de la rata (como resultado del aprendizaje, la evolución o lo que sea; véanse Millikan, 1984 y Dretske, 1988) contiene información sobre la dirección hacia la que apunta la cabeza del animal. Y una hipótesis como ésta recibe aún más apoyo cuando vemos cómo otros sistemas neuronales de la rata consumen esta información cuando la rata recorre un laberinto radial.6
5. Probablemente la versión más desarrollada de este tipo de enfoque orientado al consumo sea la de Millikan (1994).
6. Véanse detalles en las pags. 49-50 de McNaughton y Nadcl, 1990.
Ser, computar, representar 1 197
Por tanto, el hecho de que un estado interno sea una representación no depende tanto de su naturaleza detallada (por ejemplo, si se asemeja a una palabra en un lenguaje interno, o a una imagen, o a otra cosa totalmente distinta) como del papel que desempeña dentro del sistema. Puede ser una estructura estática o un proceso extendido en el tiempo. Puede ser local o muy distribuido. Puede ser muy preciso o lamentablemente impreciso. Lo que cuenta es que se supone que contiene un tipo determinado de información y que su papel en relación con otros sistemas internos y con la producción de la conducta es, precisamente, contener esa información. Este punto está muy bien argumentado por Miller y Freyd, quienes añaden que «el punto fuerte del representacionalismo siempre ha sido la concepción normativa básica de que las representaciones internas deben registrar con precisión procesos y estados externos importantes» y que «su punto débil... es consecuencia de supuestos demasiado limitados sobre qué puede actuar como representación y qué cosas vale la pena representan» (1993, pág. 13). Estoy totalmente de acuerdo, aunque matizando el énfasis innecesario en la precisión del registro.
Teniendo presentes todas estas observaciones, consideraremos que una explicación es representacionalista si describe sistemas enteros de estados (locales o distribuidos) o procesos (secuencias temporales de estos estados) internos identificables, como entidades cuya función es contener tipos específicos de información acerca de estados de cosas corporales o externos. Por tanto, la teorización representacionalista se encuentra en los tramos superiores de un continuo de posibilidades cuyos límites inferiores, que no son re- presentacionalistas, incluyen meras correlaciones causales y casos muy simples de lo que puede denominarse «conexión adaptativa». Las conexiones adaptativas van más allá de las meras correlaciones causales en la medida en que requieren suponer que los estados internos del sistema coordinan sus conductas (mediante la evolución, el diseño o el aprendizaje) con contingencias ambientales específicas. Pero cuando la conexión es muy simple (como en el caso de un girasol o de un robot que busca una fuente de luz) ganamos poca cosa tratando el estado interno como una representación. Mi propuesta es que el discurso representacionalista es adecuado cuando abordamos estados internos que presentan además una coordinación sistemática con un espacio entero de contingencias ambientales. En estos casos es útil concebir los estados internos como un código que puede expresar toda una gama de posibilidades y que es «leído» eficazmente por otros sistemas internos que necesitan obtener información sobre las características del entorno que se están reflejando. Por tanto, la conexión adaptativa se va convirtiendo paulatinamente en una representación interna genuina a medida que la conexión se hace más compleja y sistemática. En el otro extremo de este continuo nos encontramos con los seres de Haugeland, que pueden desplegar es
198 I Explicar la mente extendida
tos códigos internos en ausencia total de las características ambientales pertinentes, Se trata de los seres que más representan su mundo, y que pueden llevar a cabo imaginaciones complejas, reflexiones fuera de línea y razonamientos contrafácticos. Los problemas cuya solución exige estas capacidades están ávidos de representación, es decir, parecen pedir a gritos el empleo de aspectos sistémicos internos como sustitutos de estados de cosas externos. Sin embargo, esto no implica que los seres capaces de resolver estos problemas deban emplear representaciones internas para hacerlo. Según la noción de representación interna propia de la ciencia cognitiva, también podemos obtener una base explicativa tratando los subestados o procesos internos identificables como si fueran portadores de contenidos específicos, y descifrando los esquemas de codificación más generales en los que figuran. Si este proyecto se viera obstaculizado (por ejemplo, si encontráramos seres capaces de pensar en lo distal y en lo inexistente, y cuya capacidad para el razonamiento y el pensamiento se resistiera a todos nuestros intentos de sustentar interpretaciones re- presentacionales en sucesos internos concretos), ¡nos enfrentaríamos a agentes representadores que no trabajarían con representaciones internas!
Por tanto, la pregunta que se nos plantea es la siguiente: ¿qué papel desempeñarán -si es que llegan a desempeñar alguno- las interpretaciones re- presentacionales de sucesos internos específicos en las explicaciones de una ciencia cognitiva madura? Esta pregunta tiene una sorprendente variedad de respuestas, que incluye las siguientes:
1. Estas interpretaciones carecen de importancia explicativa pero pueden desempeñar una función heurística.
2. Estas interpretaciones inducen a error. Vincular unos estados o procesos internos concretos con unas funciones de portar contenido lleva a conclusiones teóricas erróneas.
3. Estas interpretaciones forman parte del aparato mismo explicativo y reflejan verdades importantes sobre las funciones de diversos estados y procesos.
Algunos entusiastas (que no todos) de la teoría de los sistemas dinámicos y de la investigación de agentes autónomos han empezado a inclinarse hacia la opción más escéptica, es decir, hacia un rechazo completo de las explicaciones .del procesamiento de información que identifiquen unos estados o procesos internos concretos como portadores de unos contenidos específicos. Esta postura conlleva la tentación de apoyar una tesis radical que se puede resumir como sigue:
Tesis de la cognición corpórea radical. Toda perspectiva estructurada, sim bólica, representacional y computacional de la cognición es errónea. La me
Ser, computar, representar I 199
jor manera de estudiar la cognición corpórea es mediante ideas y esquemas explicativos no computacionales y no representacionales que supongan, por ejemplo, los instrumentos de la teoría de los sistemas dinámicos.
Se pueden encontrar versiones de esta tesis en trabajos recientes en el campo de la psicología del desarrollo (véase el capítulo 2 anterior; véanse también Thelen y Smith, 1994 y Thelen, 1995), en el campo de la robótica en mundo real y en la teoría de los agentes autónomos (véase el capítulo 1 anterior; véanse también Smithers, 1994 y Brooks, 1991), en tratamientos filosóficos y de ciencia cognitiva (Maturana y Varela, 1987; Varela y otros, 1991; Wheeler, 1994) y en algunos enfoques neurocientíficos (Skarda y Freeman, 1987). Entre otras perspectivas más prudentes que, sin embargo, tienden al escepticismo en relación con el cómputo y la representación interna se incluyen Beer y Gallagher, 1992; Beer, 1995b; van Gelder, 1995; y varios ensayos de Port y van Gelder, 1995. Los precedentes históricos de este escepticismo también están en boga: véanse especialmente Heidegger, 1927; Merleau- Ponty, 1942; y los trabajos de J . J. Gibson7 y los psicólogos ecológicos.
Por tanto, parece que la tesis de la cognición corpórea radical tiene un apoyo genuino.8 La perspectiva resultante supone rechazar las explicaciones basadas en representaciones internas y la aplicación de explicaciones computacionales a la psicología, y nos insta a abandonar estos instrumentos anticuados en favor de los flamantes instrumentos de la teoría de los sistemas dinámicos.
Creo que este radicalismo es a la vez injustificado y un tanto contraproducente. Tiende a fomentar la competición cuando el progreso exige coope
7. Véase, por ejemplo, Gibson, 1979.8. Consideremos las siguientes citas: «Nuestro compromiso con una teoría biológica
mente coherente significa que rechazamos categóricamente las analogías con máquinas de la cognición y el desarrollo... Evitamos deliberadamente el vocabulario tecnológico que habla de dispositivos procesadores, programas, unidades de almacenamiento, esquemas, módulos o diagramas de cableado. Lo sustituimos... por un vocabulario adecuado para un sistema fluido y orgánico con ciertas propiedades termodinámicas» (Thelen y Smith, 199-1). «Postulamos que el desarrollo se produce a causa de una pauta de actividad trabada en d tiempo que atraviesa componentes heterogéneos. ¡No construimos ninguna representación! La mente es una actividad en... tiempo real de causas físicas reales» (ibíd), «La representación es la unidad errónea de abstracción en la construcción de las partes más voluminosas de los sistemas inteligentes» (Brooks, 1991). «El concepto de “representación’’... es innecesario como piedra angular para explicar el cerebro y la conducta» (Skarda y Freeman, 1987). «Las explicaciones basadas en estructuras dentro de la cabeza - “creencias”, “reglas” , “conceptos” y “esquemas”-n o son aceptables... Nuestra teoría gira en torno a nuevos coriccptos: no linealidad, reentrada, acoplamiento, heterocronicidad, atractores, momento, espacios de estados, dinámica intrínseca, fuerzas. Estos conceptos nuevos no se pueden reducir a los antiguos» (Thden y Smith, 1994).
200 I Explicar la mente extendida
ración. En la mayoría de los casos, por lo menos, el énfasis incipiente en los papeles del cuerpo y del mundo se puede considerar complementario de la búsqueda de interpretaciones computacionales y representacionales. En los próximos apartados examinaremos varias causas posibles de este escepticismo hacia las perspectivas representacionales y computacionales y mostraré que, en general, la conclusión radical no está justificada, bien porque los fenómenos aludidos carecen de una «avidez de representación» suficiente, bien porque la conclusión escéptica exige una lectura demasiado estrecha y restrictiva de los términos fundamentales «representación» y «computación».
8.3 Representación orientada hacia ia acción
Una cosa está cada vez más clara. En la medida en que el cerebro biológico opere con algo que se pueda describir adecuadamente como «representación interna», una gran parte de esas representaciones serán locales y estarán orientadas hacia la acción en vez de ser objetivas e independientes de la acción. Aquí se da un contraste entre representaciones «personalizadas», computación almente económicas y localmente eficaces, y estructuras cuyo contenido se parece más a símbolos clásicos que denotan elementos de la realidad pública y objetiva. Tomemos el trabajo sobre la visión animada presentado en el capítulo 1 anterior. Aunque en él se mantiene el compromiso con el empleo de descripciones tanto computacionales como representacionales, la naturaleza de los procesamientos y de las representaciones se ha replanteado para que refleje el papel fundamental (por ejemplo) del movimiento corporal real (incluyendo el desplazamiento de la fóvea) para determinar y simplificar los problemas de procesamiento de información que caben resolver. Las estrategias seguidas suponían una mayor dependencia de lo que Ballard (1991) ha denominado «representaciones personalizadas», es decir, el empleo de representaciones de características idiosincrásicas y localmente eficaces para orientar la conducta. Por ejemplo, para guiar una búsqueda visual de nuestra taza de café podemos depender en gran medida del color particular de la taza y (según la teoría de la visión animada) podemos emplear una representación interna cuyo contenido sea (por ejemplo) que nuestra taza es amarilla. Esta descripción sólo es eficaz localmente (no se podrá generalizar para ayudamos a encontrar otras tazas de café) y está muy centrada en el agente. Pero una de sus ventajas es que supone características cuya detección es computacional- mente económica: el color se puede reconocer incluso en las periferias de baja resolución del campo visual.
Según Ballard, los sistemas clásicos tendían a ignorar estas características localmente eficaces porque la identidad del objeto (el hecho de ser una taza
Ser, computar, representar i 201
de café) no depende, por ejemplo, de su color. En cambio, estos sistemas se centraban en procedimientos de identificación que buscaban características menos accidentales y que, en consecuencia, invocaban estados re- presentacionales internos cuyos contenidos reflejaban propiedades más profundas y más independientes del agente, como la forma y la capacidad. Sin embargo, esto puede ser inadecuado para modelar el conocimiento en línea9 que empleamos para guiar nuestras búsquedas en tiempo real. En particular, los sistemas clásicos omiten la tendencia dominante en los agentes humanos a estructurar activamente su entorno con el fin de reducir posteriores cargas computacionales. Por tanto, es plausible suponer que algunos de nosotros empleamos tazas de colores brillantes, en parte porque así podremos basarnos en representaciones simples y personalizadas para guiar su búsqueda e identificación. Cuando hacemos esto, añadimos estructura a nuestro entorno de una manera diseñada para simpíifi car posteriores conductas de resolución de problemas, de manera muy parecida al empleo por parte de ciertos insectos sociales de pistas químicas que añaden a su entorno local una estructura fácil de utilizar y que les permite hacer que el camino hasta el alimento sea detectable con un gasto computacional mínimo. Como destaca Ballard, el mundo del comercio muestra una profunda apreciación (rayana en la veneración) por el poder de estas estructuras «accesorias»: las películas Kodak vienen en cajas de un vivo color amarillo; los productos ecológicamente sanos muestran un suave color verde en su exterior; la marca X de copos de maíz se vende en cajas rojas. Aunque muchas de esta codificaciones no se generalizarán más allá de una cadena de supermercados o de una marca dada, son utilizadas por el consumidor para simplificar la búsqueda y la identificación de artículos y, en consecuencia, benefician al fabricante en términos económicos concretos.
Así pues, puede que una explicación al estilo de la visión animada de los cómputos subyacentes a la búsqueda y la identificación visual en línea, no haga alusión a representaciones internas que describan características defi
9. Aquí se establece una distinción entre las estrategias que empleamos («en linea») para provocar identificaciones y respuestas rápidas durante la acción cotidiana y las estrategias que tenemos a nuestra disposición (desconectadas o «fuera de línea») como procedimientos de respaldo más reflexivos y que consumen más tiempo. Así, podemos emplear señales sencillas como barbas y canas para la detección cotidiana de abuelos (o aletas y natación para detectar peces) aun poseyendo estrategias mucho más precisas que podríamos desplegar si tuviéramos más tiempo e información. Por tanto, la expresión «en línea» significa una resolución de problemas cotidianos limitada en cuanto a tiempo y recursos que favorece la adopción de estrategias «sobre la marcha» y semiautomatizadas en detrimento de procedimientos más intensivos que reflejarían nuestros conocimientos y compromisos más profundos.
202 I Explicar la mente extendida
nidoras de clases de objetos interpersonalmente válidas. Sin embargo, estas explicaciones siguen haciendo alusión a unas bases de datos donde se asocian unas características localmente eficaces con unos elementos dados. Además, como vimos en el capítulo 7, una explicación completa del procesamiento visual también deberá incluir descripciones de mecanismos generales para la detección (por ejemplo) de la forma, el color y el movimiento. Y hemos visto que estas explicaciones suelen asociar vías y centros nerviosos específicos con el procesamiento y la codificación de tipos concretos de información.
A estas alturas, también es importante que esté claro que las vertientes computacional y representacional de la investigación sobre la visión animada no nos exigen aceptar una imagen del cerebro como si fuera un sistema clásico basado en reglas y símbolos. Los enfoques conexionistas (véase el capítulo 3 anterior) constituyen una demostración clara de la posibilidad de emplear unos marcos alternativos que, no obstante, están basados en la computación y (normalmente) en la representación. También debería estar claro que los tipos de explicaciones neurocientíficas exploradas en el capítulo 7 anterior son muy distintas de la visión clásica de una economía interna centralizada, dedicada al tratamiento de símbolos. Recordemos que en la hipótesis de las zonas de convergencia se describían unas funciones de representación de nivel superior que, en esencia, emergían a partir de la coactivación trabada en el tiempo de zonas de procesamiento más básico y de nivel inferior; o que en la explicación de la visión de los primates se reconocía la sensibilidad al contexto, la complejidad y la sofisticación de los esquemas naturales de codificación y que las neuronas se equiparaban a filtros sintonizados con múltiples dimensiones de estímulo; o que en el nuevo modelo del control de los dedos del mono la función de las formas de representación interna estaba muy distribuida y se orientaba a acciones básicas (la representación de sinergias de toda la mano como objetivo básico de las codificaciones de el área MI de la mano). En todos estos casos, nos encontramos ante una imagen neurocientífica que está basada en la representación (por cuanto reconoce la necesidad de asignar funciones específicas de portar contenido a componentes y procesos internos) y que muestra una loable generosidad en relación con las formas, con frecuencia complejas y no intuitivas, en que la naturaleza despliega sus recursos internos.
Un contraste similar, presentado con cierto detalle en capítulos anteriores, se refiere al empleo de representaciones que más que ser personalizadas o parciales están orientadas hacia la acción. Se trata de estados internos que (como se describió en el apartado 2.6 anterior) son al mismo tiempo codificaciones de cómo es el mundo y especificaciones de acciones apropiadas. El mapa interno que además es una especificación de la actividad motriz nece
Ser, computar, representar I 203
saria para vincular localizaciones diferentes (véase el apartado 2.6 anterior) es un buen ejemplo.
Como ejemplo adiciona!, consideremos brevemente el cangrejo robot descrito en el capítulo 5 de Churchland, 1989 y examinado en Hooker y otros, 1992. Este cangrejo emplea enlaces punto a punto entre dos mapas topográficos deformados para especificar directamente conductas de asimiento a partir de entradas simples de percepción. En este ejemplo, las propias codificaciones visuales iniciales se deforman o sesgan con el fin de reducir la complejidad de los cómputos necesarios para emplear esa información en la especificación del asimiento. También aquí se explota un tipo de representación interna centrada en la acción (o «deíctíca»; véase Agre, 1988) donde el sistema no crea primero un modelo completo y objetivo del mundo y después define un procedimiento costoso que (por ejemplo) tome este modelo como entrada y genere como salida unas acciones orientadas hacia la búsqueda de alimento. En cambio, las codificaciones iniciales del sistema ya se dirigen hacia la producción de la acción apropiada. Este tipo de sesgo orientado hacia la acción puede ser, al menos en parte, lo que Gibson pretendía establecer cuando decía, con un discurso retóricamente problemático, que los organismos «perciben directamente» el mundo en función de sus facilitaciones para la acción.,ü Al parecer, la percepción no se debería con- ceptualizar (o, por lo menos, no siempre) independientemente de la clase de acciones que un ser necesita llevar a cabo.
Por tanto, las representaciones orientadas hacia la acción presentan ventajas e inconvenientes. Como ya hemos visto, las ventajas incluyen la capacidad para guiar acciones apropiadas en circunstancias ecológicamente normales de una manera computacionalmente económica. Las desventajas son igualmente evidentes. Sí un ser necesita emplear el mismo conjunto de información para desarrollar actividades múltiples o de carácter abierto, con frecuencia será más económico desplegar una codificación más neutral respecto a la acción que pueda actuar como entrada para toda una gama de rutinas de procesamiento más concretos. Por ejemplo, si el conocimiento sobre la situación de un objeto se debe emplear para múltiples fines diferentes, puede ser más eficiente generar un solo mapa interno independiente de la acción a! que accedan múltiples rutinas con un objetivo más especializado.
Con todo, es razonable suponer que las clases de representación interna más orientadas hacia la acción son las más básicas en relación con la 10
10. Véase el apartado 2.7 anterior. Hooker y otros (1992) plantearon una propuesta similar en un brillante articulo que contrasta con claridad las diversas concepciones de la representación interna y defiende una nocton de la representación como control. Véase también Clark, 1995.
204 I Explicar la mente extendida
evolución y el desarrollo." Y hasta puede ocurrir que la inmensa mayoría de las acciones y las resoluciones de problemas de carácter cotidiano, rápido y fluido, dependan de ellas. Para nuestros fines actuales, la cuestión es, simplemente, que el hecho de que esto sea cierto no basta para establecer la tesis de la cognición corpórea radica!, porque seguiríamos obteniendo una considerable base explicativa a partir de la comprensión de las características específicas del espacio personal o egocéntrico implicado en el análisis basado en la acción. Por tanto, la comprensión de los contenidos específicos de las representaciones orientadas hacia la acción desempeña la habitual función explicativa de poner de manifiesto la función adaptativa de ciertos procesos o estados internos y ayudar a determinar su contribución a unas redes de procesamiento de información cada vez mayores.
6.4 Programas, fuerzas y programas parciales
A continuación, consideremos algunas afirmaciones de Thelen y Smith (véase el capítulo 2 anterior) según las cuales aprender a caminar y aprender a alcanzar no dependen de programas almacenados. Recuérdese que Thelen y Smith mostraron, de una manera muy convincente, que estos aprendizajes dependen de una multiplicidad de factores extendidos por el cerebro, el cuerpo y el entorno local. Sin duda, esta imagen difiere profundamente de concepciones más tradicionales, donde las diversas etapas de (por ejemplo) caminar se describen como la mera ejecución de un conjunto de instrucciones ya existentes que están codificadas en un recurso interno especificado genéticamente. La diferencia reside en que Thelen y Smith no consideran que las pautas de conducta del niño12 se encuentren bajo el control de un recurso interno fijo, sino que emergen de un «diálogo continuo» en el que intervienen factores neuronales, corporales y ambientales. Por ejemplo, vimos que los movimientos de pisar de un niño se pueden inducir fuera de su momento evolutivo usual si sostenemos al niño erguido dentro de agua tibia. Y vimos que las diferencias individuales en los niveles de energía y en los repertorios básicos de movimientos con los brazos hacen que cada niño se enfrente a problemas diferentes cuando aprende a alcanzar. (Los niños más ac-
U. Para la evolución ééase Millikan, 1995. Para el desarrollo véanse Karmiloff-Smith, 1979; Karmiloff-Smith, 1992 y Clark y Karmiloff-Smith, 1993. La imagen tentadora de una transición gradual desde unas codificaciones orientadas hacia la acción hasta unas codificaciones más neutrales respecto a ella se discute brevemente en Clark, 1995.
12. Véase Thelen y Smith, 1994, págs. 8-20 y 263-266.
Ser, computar, representar I 205
tivos en el aspecto motor deben aprender a moderar y controlar sus movimientos cuando agitan los brazos, mientras que los niños más pasivos deben aprender a generar una fuerza inicial suficiente para lanzar el brazo hacia un objetivo). Un estudio detallado de varios niños que mostraban estas diferen cias en sus pautas de actividad apoyaba la conclusión general de que «[los niños] descubrieron [soluciones al problema de alcanzar] en relación con sus propias situaciones, forjadas a partir de sus paisajes individuales y sin estar prefiguradas por una sinergia conocida de antemano por el cerebro o por los genes» (Thelen y Smith, 1994, pág. 260). Naturalmente, esto no significa que estas soluciones no tengan nada en común. Según Thelen y Smith, comparten una rutina de aprendizaje donde el sistema brazo-músculo se trata como un ensamblaje de muelles y masas, y la tarea del sistema nervioso central consiste en aprender a controlar ese ensamblaje ajustando parámetros como la rigidez inicial de los muelles. Por tanto, la tarea consiste en coordinar la dinámica intrínseca del sistema para ponerla al servicio de una meta dada. En consecuencia, «no existen instrucciones o programas explícitos a priori ni para la trayectoria de la mano, ni para coordinar los ángulos de las articulaciones, ni para las pautas de activación muscular» (ibíd., pág. 264). En cambio aprendemos a manipular unos cuantos parámetros básicos (como las condiciones iniciales de rigidez) para esculpir y modular la conducta de un sistema físico cambiante que posee una dinámica intrínseca rica y en proceso de desarrollo.
Los experimentos y datos presentados por Thelen y Smith son fascinantes, importantes y convincentes. Pero no apoyan inequívocamente la serie de afirmaciones radicales resumida en el apartado 8.2 anterior. En vez de un argumento claro en contra del compuracionalismo y el representacionalísmo en general', nos encontramos con un conjunto de evidencias que indican que no descubriremos explicaciones computacionales y representacionales correctas si no damos la importancia que merece al papel del cuerpo y del entorno local: un papel que incluye definir problemas y, en ocasiones, resolverlos. Hemos visto que las cualidades elásticas de ¡os músculos y los niveles variables de energía de los niños contribuyen a concretar los problemas específicos que un cerebro determinado debe resolver. Y es fácil imaginar sí tuaciones similares donde unos parámetros ambientales y corporales pueden contribuir a la obtención de unas soluciones concretas: por ejemplo, ajustar se a unas extremidades basadas en muelles permite que los robots ambulantes se adapten a terrenos irregulares sin el esfuerzo computacional masivo que haría falta para obtener el mismo resultado empleando sensores y bucles de retroalimentación en un medio que no se ajuste (véanse también Michie y Johnson, 1984 y el capítulo 1 anterior). Además, cuando reconocemos el papel del cuerpo y del entorno (recuérdense los ejemplos de los niños que pi
206 I Explicar la mente extendida
saban suspendidos en el agua) en la construcción de problemas y de soluciones, se hace evidente que, para ciertos fines explicativos, el sistema global formado por cerebro, cuerpo y entorno local puede constituir un objeto de estudio apropiado y unificado. Sin embargo, estas nociones e ideas tan importantes son totalmente compatibles con el estudio de la cognición desde una perspectiva computacional1’ y representacional. En mi opinión, la auténtica conclusión de estas consideraciones es una mejor explicación com- putacional y representacional, no un rechazo total de estas perspectivas.
Teniendo esto presente, es revelador observar con más detenimiento algunos pasajes específicos donde se rechaza el computacionalismo. He aquí un ejemplo típico:
Los datos sobre el desarrollo brindan un convincente apoyo a... las posturas contrarias al computacionalismo. Es necesario rechazar la visión piagetiana de que el estado final del desarrollo es llegar a ser como un lógico suizo y la convicción maduracionista de que en el cerebro hay un ejecutivo... que dirige el curso del desarrollo (Thelen 1995, pág. 76).
La cuestión que cabe destacar es que, aquí (como en otros lugares), la expresión enérgica de una postura anticomputacional está seguida de una descripción más minuciosa y precisa de los objetivos. Si ignoramos las afirmaciones espectaculares y nos centramos en estas descripciones más minuciosas, veremos que el verdadero malo de la película no es el computacionalismo (o el representacionalismo) per se sino más bien:
1. La afirmación de que el desarrollo está dirigido por un plan totalmente detallado de antemano. 13 14
13. Quedan pendientes muchas cuestiones delicadas acerca de la manera correcta de comprender la noción misma de computación. En particular, hay quien afirma que la computación propiamente dicho sólo puede darse en sistemas que emplean estados discretos en vez de (por ejemplo) unidades con niveles continuos de activación. Este punto de vista «formalista» de la computación se vincula con las ideas de digitalización que subyacen a muchos resultados clásicos en la teoría de la computación. Sin embargo, también hay una noción de computación más informal (con unos orígenes históricos igualmente impresionantes en los trabajos iniciales del denominada computación analógica) relacionada con las ideas generales de procesamiento automático de información y de transformación de representaciones. Yo mismo adopto esta noción menos restrictiva de la computación en el presente volumen. Obsérvese que, desde esta perspectiva, la tarea de demostrar que un sistema es computacional se reduce a demostrar que transforma y procesa automáticamente información. Pero estas mismas nociones también son problemáticas. Véanse exposiciones más detalladas de todas estas cuestiones en Giunti, 1996: Smith, 1995; Smitb, 1996; Hardcastlc, 1995 y en los artículos de Harnad, 1994.
14. Véanse afirmaciones similares en las págs. 83-85, 161 y 331-338 de Thelen y Smith, 1994 y en la pág. 74 de Thelen, 1995.
Ser, computar, representar I 207
2. La afirmación de que la cognición adulta implica operaciones lógicas internas sobre estructuras de datos preposicionales (es decir, la noción logi- cista de la etapa final del desarrollo cognitivo atribuida a Piaget).
En lugar de estas tesis, Thelen y Smith proponen (de una manera bastante convincente desde mi punto de vista) lo siguiente:
1*. El desarrollo (y la acción) presentan un orden que es meramente ejecutor. Las soluciones son el resultado de un «montaje blando» de múltiples componentes heterogéneos, incluyendo la mecánica corporal, los estados y procesos neuronales y las condiciones ambientales (1994, pág. 311).
2*. Aun cuando la cognición adulta parezca muy lógica y preposicional, en realidad se basa en recursos (como metáforas de fuerza, acción y movimiento) desarrollados en una actividad en tiempo real y que tienen su base en la experiencia corporal (ibíd., pág. 323; Thelen, 1995).
El apoyo experimental para Ia se presentó en el capítulo 2 anterior. No enumeraré los argumentos a favor de 2 * ni intentaré decidir sobre ninguna de estas afirmaciones. Sólo diré que admitir estas dos afirmaciones es totalmente compatible con un compromiso sustancial con el empleo de la explicación computacional. De hecho, las pruebas presentadas funcionan mejor contra modelos que suponen codificaciones clásicas cuasi lingüísticas y contra la noción de que los estados iniciales de la mente del niño determinan por com pleto el curso de su desarrollo posterior. Pero incluso el venerable conexio- nismo hizo frente, hace ya tiempo, a la tiranía ejercida por las codificaciones cuasi lingüísticas- Y sin duda los especialistas en desarrollo atraídos por los modelos informáticos pueden abrazar la noción (que se expondrá más adelante) de soluciones parcialmente programadas, es decir, aquellos casos donde el programa inicial del niño está configurado por la evolución precisamente para permitir que la dinámica corporal y las contingencias del entorno local ayuden a determinar el curso y el resultado del proceso de desarrollo. Por tanto, los programas parciales compartirían el carácter lógico de la mayoría de los genes: no llegarían a constituir un diseño completo del producto final y cederían muchas decisiones a las condiciones y procesos del entorno local. Sin embargo, continuarían siendo unos factores aislables que, en un contexto natural, con frecuencia marcan una «diferencia típica e importante».15
Por tanto, supongamos que admitimos que, por lo menos en los casos examinados, el cerebro no contiene ninguna receta exhaustiva para el éxito
15. Véase una exposición completa del complejo caso de la especificación genética parcial en las págs. 116-117 de Dcnnett, 1995.
208 I Explicar fa mente extendida
conductual. ¿Se desprende de ello que el discurso sobre programas internos es necesariamente erróneo en casos como éstos? Y si fuera así, ¿también se desprendería que no es útil contemplar las raíces neuronales de esta actividad como algo que implica procesos computacionales? Argumentaré que la respuesta a ambas preguntas es «no». En pocas palabras, pongo en duda las transiciones implícitas desde «no existe ninguna receta exhaustiva» a «no hay programas internos» y desde «no hay programas internos» a «no hay computación». Me parece que estas posturas fallan por su base, aunque plantean una pléyade de cuestiones sutiles y profundas que no pretendo ser capaz de resolver completamente.
Consideremos la idea misma de un programa para hacer tal o cual cosa como, por ejemplo, calcular nuestros impuestos. La imagen más básica es la de una receta: un conjunto de instrucciones que, si se siguen fielmente, resolverán un problema. ¿Cuál es la diferencia entre una receta y una fuerza que, si se aplica, tiene un resultado determinado? Tomemos, por ejemplo, el calor aplicado a una sartén llena de aceite: el calor, cuando alcanza un valor determinado, ocasiona la emergencia de remolinos y bucles de convección en el aceite. ¿Es el calor {en ese valor determinado) un programa para la creación de estos efectos? ¿Es una receta para crear remolinos y bucles de convección? Sin duda, no: sólo es una fuerza aplicada a un sistema físico. Pero, aunque el contraste es evidente, es sorprendentemente difícil dar una explicación razonada de la diferencia. ¿Dónde deberíamos buscar las diferencias que marcan esa diferencia?
Un lugar donde mirar es la idea de programa, entendido literalmente como un conjunto de instrucciones. Las instrucciones se formulan en algún tipo de lenguaje: un sistema de signos que se pueden interpretar mediante algún dispositivo de lectura (un oyente para instrucciones habladas; un compilador para instrucciones en LISP; etc.). Por tanto, una razón por la que el calor aplicado a la sartén no se parece a un programa para bucles de convección puede ser que no presenta ningún indicio de un lenguaje: ningún rastro de símbolos o señales que necesiten posterior interpretación o descodificación.
Otra razón, relacionada con la anterior, es que el parámetro de control (la cantidad de calor necesaria para producir, por ejemplo, bucles de convección) parece ser demasiado simple e indiferenciado. Como uno de mis estudiantes comentó acertadamente, se parece más a enchufar el ordenador que a ejecutar un programa en él. Desde luego, sospecho que esta diferencia es la fundamental (aunque aquí es donde las aguas aún están demasiado turbias para ver con claridad) y que la cuestión de exigir un lenguaje o un código es, en cierto modo, derivada. Consideremos dos supuestos «programas» para calcular nuestros impuestos. Uno consta de 400 líneas de instrucciones
Ser, computar, representar I 209
y abarca explícitamente todo el terreno que cabe esperar. El otro está diseñado para ser ejecutado en un equipo muy especial que ya está preparado para calcular impuestos. Este «programa» sólo contiene la instrucción «calcular impuestos». Sin duda, es un ejemplo de programa muy restrictivo o marginal. Contiene una instrucción que (supongamos) debe ser descodificada por un dispositivo de lectura para que se produzca la conducta deseada. Pero parece tener más en común con el ejemplo del «mero enchufe» (y, en consecuencia, con el modelo del calor aplicado a la sartén) que con la imagen de una receta para el éxito. Así pues, quizá la base conceptual no sea la mera intervención de señales y descodificaciones sino la medida en que la conducta deseada (el cálculo de impuestos, los bucles de convección) esté realmente especificada por la fuerza aplicada en vez de ser simplemente activada por ella. Este diagnóstico parece intuitivamente atractivo y puede ayudar a explicar, por ejemplo, por qué es tentador tratar el ADN como si programara resultados físicos,'6 mientras se niega que el calor programe el aceite de la sartén.
Por tanto, la idea de un programa parcial es la idea de una especificación genuina que, no obstante, cede gran parte del trabajo y de la toma de decisiones a otras partes de la matriz causal global. En este sentido, se parece 16
16. Sin embargo, el caso de la programación genética es delicado e interesante y por ra zones que guardan mucha relación con nuestra discusión. El genoma, ¿codifica realmente los resultados evolutivos? En cierto sentido, no. Cada vez está mas claro que la mayoría de las ca racterístieas o rasgos de los individuos son el resultado de una compleja interacción entre múltiples genes y las condiciones ambientales locales. Por tanto, ¿debemos abandonar por completo la nocion de «genes para algo especifico»? La pregunta sigue abierta, pero recientemente varios teóricos han propuesto que las ideas sobre la codificación y la especificación genéticas todavia pueden tener sentido y ser útiles a pesar del hecho de que, como mucho, un gen de terminado es un determinante parcial cuyos efectos definitivos dependen en gran medida de la estructura del entorno y de la presencia de otros genes. Una razón es que decir que un gen de terminado es «para algo» nos alerta sobre cierto tipo de hecho funcional: un hecho cuya especificación no es problemática siempre y cuando las otras condiciones (el resto de los genes, e! entorno local I se mantengan constantes. Asi, se argumenta que es seguro y apropiado decir que un gen es un gen para un cuello largo si «los rivales para el lugar de ese gen en el cromosoma condujeran en el entorno pertinente (incluyendo el enlomo genético! a un cuello mas cono» (Sterelny, 1995, pág. 162J. ¿Por qué adornar la contribución genética con el barniz de un proposito tun gen para un cuello largo)1* Porque, dicho simplemente, el material genético existe para controlar esa característica, mientras que los parámetros ambientales locales (normal mentel no. Sterelny cita el ejemplo de unas plantas que se desarrollan de maneras distintas en climas diferentes. Estas diferencias tienen un valor adaptativo y son provocadas por la combi nación de las condiciones climáticas locales (que actúan como disparadores) y las influencias genéticas. Pero el genoma está estructurado precisamente para permitir esta adaptación climática, mientras que el clima, como todos sabemos, es totalmente indiferente al destino de los seres vivos. Véanse más exposiciones de todas estas cuestiones en Oyama, 1985; Dawkins, 1982; Gifford, 1990; Gifford, 1994; Dennnett, 1995 y Sterelny, 1995.
210 | Explicar la mente extendida
mucho a un programa normal de ordenador (escrito, por ejemplo, en LISP) que no especifica cómo o cuándo se alcanzarán ciertos subobjetivos y que cede estas tareas a funciones incorporadas al sistema operativo (de hecho, ningún programa informático ofrece una especificación completa de la manera de resolver un problema: en una o en varias ocasiones, la especificación se interrumpe y la actividad corre a cargo del sistema operativo o del hardware). Por tanto, la expresión «programa parcial» sirve principalmente para distinguir la clase de casos, más bien especiales, donde algunas de estas decisiones y procedimientos se dejan en manos de unas estructuras bastante distantes: estructuras de la matriz causal más amplia del cuerpo y el mundo externo. Por ejemplo, es correcto decir que un sistema de control motor como el circuito emulador descrito en Jordán y otros (1994) y examinado en el capítulo I anterior, aprende un programa para controlar las trayectorias del brazo. Sin embargo, se trata de un programa que sólo tendrá éxito si existe un telón de fondo específico de dinámica corporal (la masa del brazo, la elasticidad de los músculos) y de aspectos ambientales (la fuerza de la gravedad). Es adecuado verlo como un programa porque, en el fondo, especifica movimientos de alcanzar en una especie de vocabulario neuronal. Cuanto menos detallada sea la especificación requerida (es decir, cuanto más trabajo sea realizado por la dinámica intrínseca del sistema, bien a largo plazo, bien de una manera temporal), menos necesario será tratarlo como un programa. Por tanto, más que enfrentarnos a una dicotomía entre soluciones programadas y no programadas, nos enfrentamos a un continuo donde las soluciones pueden estar más o menos programadas en la medida en que un resultado deseado dependa de una serie de movimientos (lógicos o físicos) que requieran una especificación concreta en vez de una mera incitación.
Sin embargo, al profundizar en este contraste debemos tener presente la posibilidad muy real de que se produzca una cascada de actividad computacional donde, por medio de una secuencia de sistemas subordinados, una simple instrucción no estructurada sea tranformada progresivamente en una especificación muy detallada que al final controle la conducta (véanse, por ejemplo, Greene, 1972 y Gallistel, 1980). Si este desarrollo progresivo se produce en la cadena de sucesos neuronales, podemos considerar la etapa (o etapas) de especificación más detallada como un programa almacenado. La polémica afirmación de Thelen y Smith, Kelso y otros autores, es que quizá no valga la pena tratar como programas almacenados ni siquiera las etapas más detalladas de especificación neuronal: que la dinámica sinér- 17
17. El concepto de sinergia intenta capturar la idea de vínculos o acoplamientos que limitan el despliegue colectivo de un sistema que comprende muchas panes. Kelso (1995, pág. 38) cita como ejemplo las ruedas delanteras de un automóvil, que están obligadas a girar al
Ser, computar, representar I 211
gica17 del sistema corporal lleva a cabo tantas cosas, que las órdenes neuro- nales se comprenden mejor en todas las etapas como la aplicación de fuerzas simples a un sistema complejo cuerpo-entorno cuya propia dinámica recibe gran parte de la carga relacionada con la resolución de problemas. Sin embargo, desde una perspectiva menos radical se podría decir que lo que realmente demuestran estas investigaciones es que el problema de producir movimientos de alcanzar y similares puede exigir menos conjuntos internos de instrucciones detalladas de lo que hemos supuesto hasta ahora, a causa de la dinámica sinérgica bastante compleja que ya está implementada (por ejemplo) en los brazos y músculos mismos. Como dicen Thelen y Smith, puede que la especificación requerida para generar algunas conductas motrices se limite a estipular la configuración de unos cuantos parámetros esenciales (como, por ejemplo, la rigidez inicial del sistema muscular) que pueden tener unos efectos complejos en la dinámica total del sistema físico, de modo que la conducta de alcanzar se lleve a cabo sin especificar directamente ciertos parámetros como las configuraciones angulares de las articulaciones. La cuestión que cabe destacar es que la ausencia de un tipo particular de instrucciones o especificaciones (por ejemplo, que estipulen explícitamente las configuraciones angulares de las articulaciones y la pauta de activación muscular) no implica la ausencia completa de una especificación o programa. De hecho, esta caracterización solo parece convincente en el caso extremo donde la noción de una especificación codificada se reduce a la noción de una simple fuerza aplicada o de una sola instrucción no estructurada. Así pues, queda mucho espacio por explorar entre la idea de un programa almacenado que especifica una estrategia de resolución de problemas en un nivel muy bajo (por ejemplo, el nivel de la pauta de activación del músculo) y la idea de un sistema cuya dinámica intrínseca hace que una especificación sea totalmente innecesaria o la reduzca a la aplicación de una simple fuerza (que, en realidad, viene a ser lo mismo). Entre estos dos extremos se encuentra el espacio de lo que he denominado «programas parciales». Creo que la verdadera enseñanza de los trabajos sobre el control motor basados en los sistemas dinámicos es que éste es el espacio donde encontraremos los programas de la propia naturaleza.
Pero supongamos que no es así. Supongamos que no existe ningún nivel de elaboración neuronal de instrucciones que merezca denominarse «programa almacenado». Aun así, propongo que de ello no se deduce que la imagen del cerebro como dispositivo compiitacioml carezca de base. De hecho,
mismo tiempo en una sinergia incorporada que, sin duda, simplifica la dirección. Se puede aplicar con éxito el mismo concepto al ejemplo de las pautas de coordinación entre manos examinado en el capítulo 6 anterior (véase Kelso, 1995, pág. 52).
212 l Explicar la mente extendida
considero escandaloso que, después de todos estos años, la ciencia cognitiva siga comprendiendo mal la idea misma de computación. Ante esta falta de claridad, es imposible presentar aquí un argumento irrebatible. Pero una opción atractiva es aceptar una noción de computación que esté estrechamente vinculada con la idea de procesamiento automatizado de información y con la transformación mecanicista de representaciones. Según esta explicación, existiría una actividad de computación siempre que observáramos una transición entre representaciones controlada de una manera mecanicista, independientemente de que estas representaciones intervengan o no en un esquema de especificación que esté lo suficientemente detallado como para que lo consideremos un programa almacenado. Además, esta noción relativamente generosa1® de la computación da cabida a una variedad de estilos de computación que van desde la computación digital (definida en función de estados discretos) hasta la computación analógica (definida en función de cantidades continuas). Por esta razón, la tarea de demostrar que un sistema es computacional se reduce a demostrar que lleva a cabo transformaciones y procesamientos automatizados de información.
Así pues, en muchos aspectos parece prematuro deducir, a partir de las imágenes y pruebas aducidas por Thelen y Smith y otros autores, que deberíamos abandonar las nociones de computación y de representación interna en nuestros intentos por comprender la cognición biológica. En cambio, lo que realmente emerge de este trabajo y de los trabajos en la visión animada y la robótica examinados anteriormente, es un par de advertencias, ahora ya familiares pero muy importantes, que se pueden resumir como sigue:
l. Procuremos no atribuir demasiadas cosas a la cabeza (o al sistema re- presentacional interno). Lo que se llegue a representar y/o computar internamente estará determinado por un complejo malabarismo que hace intervenir factores ambientales y corporales en el hábito de resolución de problemas. Como resultado, en el quehacer biológico cotidiano habrá tanto soluciones parcialmente programadas como representaciones personalizadas u orientadas hacia la acción.
18 Naturalmente, el peligro es que esta noción sea ahora demasiado generosa, permitiendo (por ejemplo) que el sistema de fichas de una biblioteca y las redes de fax se consideren sistemas computacionales. Estoy de acuerdo en que, como mucho, estos casos son marginales. Sin embargo, la principal noción alternativa incurre en el error contrario. Esta noción (en bea- siones denominada «idea formalista de la computación») vincula la idea misma de computación a ideas sobre codificación digital y «conmutabilidad clásica». Pero la noción de computación analógica tiene una historia larga y distinguida y, en consecuencia, no se puede considerar contradictoria. Véanse exposiciones detalladas de todas estas cuestiones en Har- nad, 1994; Hardcastle, 1995; Smith, 1995 yGiunti, 1996.
Ser, computar, representar I 213
2. Cuidémonos de los supuestos rígidos sobre la forma de las representaciones internas o el estilo de la computación neuronal. No hay razón para suponer que las representaciones clásicas {localizadas en el tiempo y en el espacio) y la computación discreta y serial limiten el espacio de las soluciones representacíonales y computacionales. De todos modos, los modelos cone- xionistas ya han empezado a relajar estas limitaciones y no han hecho más que arañar la superficie de la gama de posibilidades abiertas a los sistemas biológicos.
8.5 Seguir el ritmo
Quizá haya otras razones para recelar de los enfoques basados en la representación. Como se ha argumentado recientemente, estos enfoques no pueden hacer justicia a las cruciales dimensiones temporales de la respuesta adaptativa real (véase especialmente la introducción a Port y van Gelder, 1995). Por ejemplo, los primeros modelos de carácter conexionista (véase el capítulo 3 anterior) no manifestaban ningún conocimiento intrínseco del tiempo o del orden y dependían de una variedad de ardides19 para eliminar la ambigüedad de secuencias con elementos idénticos. Además, la información de entrada para estas redes eran «instantáneas» del mundo y las salidas nunca eran patrones de actividad esencialmente extendidos en el tiempo. La aparición de las redes recurrentes (Jordán, 1986; Elman, 1991) constituyó un avance porque estas redes incorporaban bucles internos de retroalimenta- ción que permitían que las respuestas a nuevas entradas tuvieran en cuenta las actividades previas de las redes. Sin embargo, como indican Port y otros (1995), estas redes son más adecuadas para tratar con el orden que con la sincronización real. Por ejemplo, pueden especificar como salida una se cuencia ordenada de operaciones (como una serie de instrucciones para trazar un rectángulo; véase Jordán, 1986) o ser sensibles a restricciones grama ticales que dependan del orden de las entradas (véase el trabajo de Elman, 1991, sobre gramáticas artificiales). Pero el orden no es lo mismo que la sincronización real. Cuando corremos para alcanzar un autobús en marcha, debemos hacer algo más que producir la secuencia correcta de órdenes motri ces. Debemos tomar nota de una pauta que se despliega en el tiempo (el autobús que acelera alejándose de nosotros) y generar una gama de acciones compensatorias (una serie de órdenes motrices coordinada en el tiempo para las piernas, los brazos y el cuerpo). Y en el momento del contacto (si es que tenemos suerte) se debe producir un delicado acoplamiento entre la activi
19. Véanse algunas ejemplos en las pags. 119-120 de Churchland y Sejnowski, 1992
214 I Explicar la mente extendida
dad extendida en el tiempo de los dos sistemas (nosotros y el autobús). Esta conducta requiere que por lo menos uno de los sistemas responda a la sincronización real (no simplemente al orden) de los sucesos en el otro. Para modelar esto, los investigadores han empezado a buscar maneras de emplear las propiedades en tiempo real de las señales entrantes para «configurar» los recursos internos. El truco estriba en emplear la sincronización real de algunas señales de entrada como un «reloj» con el que medir otras señales similares. Una manera de conseguir esto es mediante el desarrollo de un «oscilador adaptativo». Estos dispositivos (Torras, 1985; McCauley, 1994; Port y otros, 1995) tienen dos propiedades fundamentales. En primer lugar, generan salidas periódicas de modo independiente (como las neuronas que tienen una frecuencia tónica de picos). En segundo lugar, esta actividad periódica puede estar influida por señales entrantes. Si este oscilador detecta señales entrantes, se dispara (produce un pico) inmediatamente y altera su periodicidad para acercarla un poco más a la de las señales entrantes. Con el tiempo, y dentro de unos límites fijos, este oscilador acabará activándose perfectamente en fase con las entradas. Si la señal de entrada cesa, el oscilador volverá gradualmente a su valor natural. Las versiones de estos dispositivos basadas en redes neuronales consiguen adaptarse empleando el familiar procedimiento de aprendizaje de descenso por un gradiente. Pero, en este caso, la información que impulsa el descenso es la diferencia entre la sincronización usual («esperada») de un pico y la sincronización real ocasionada por la tendencia del dispositivo a dispararse de inmediato si se detecta una señal de entrada. Por tanto, estos dispositivos se dejan «arrastrar» por la frecuencia de una señal detectada y entonces pueden mantener esa frecuencia durante un tiempo aunque la señal desaparezca o pierda el ritmo. Como este arrastre no es inmediato, las señales no periódicas no tienen efectos reales (sólo producen un pico con un ritmo inusual). Pero las señales regulares hacen que el dispositivo «siga el ritmo». Un sistema complejo puede utilizar muchos osciladores adaptativos, cada uno con un ritmo natural diferente y, en consecuencia, especialmente sensible a señales entrantes con cadencias distintas. El arrastre global en relación con un estímulo que contenga varios elementos periódicos diferentes (por ejemplo, una pieza musical) se produce cuando varios osciladores individuales se dejan arrastrar por elementos diferentes de la estructura temporal.20
Por ahora, la principal lección de todo esto es que los procesos internos con características temporales intrínsecas pueden figurar de manera destacada en la explicación de ün subconjunto importante de conductas adapta-
20. Vease una amplia exposición en Pon y otros, 1995; los párrafos anteriores de mi capítulo deben mucho a su tratamiento claro y conciso.
Ser, computar, representar ! 215
tivas. En estos casos, el «ajuste» entre el estado interno y las circunstancias externas permite abarcar mucho más que la noción usual de representación interna. El oscilador adaptativo realiza su trabajo ajustando su actividad a los ritmos de sucesos externos que producen señales periódicas. No representa esa periodicidad mediante algún símbolo arbitrario y menos aún con alguna codificación de tipo textual. Es mejor concebirlo como un sistema interno que se fusiona temporalmente con sistemas externos parasitando sus propiedades temporales reales. Para intentar analizar y explicar estas capacidades, necesitamos tanto la perspectiva en la que el sistema externo es una fuente de entradas que arrastran al oscilador, como la perspectiva que se centra en las propiedades posteriores del sistema acoplado más grande. Sin embargo, y a pesar de estas complicaciones, es indudable que sigue siendo natural e informativo describir el oscilador como un dispositivo cuyo papel adaptativo consiste en representar la dinámica temporal de algún sistema externo o de unos sucesos externos concretos. Después de todo, los aspectos temporales de los sucesos y los procesos externos son tan reales como los colores, los pesos, las orientaciones y todos los objetivos más familiares de las codificaciones neuronales. Sin embargo, en este caso es especialmente evidente que el tipo de representación implicada difiere de las concepciones corrientes: el vehículo de la representación es un proceso, con propiedades temporales intrínsecas. No es una estructura vectorial o simbólica arbitraria y no forma parte de un sistema de codificaciones cuasi lingüísticas. Quizá estas diferencias sean suficientes para persuadir a algunos teóricos de que es totalmente inadecuado denominar representacionales a estos procesos. Y en última instancia no vale la pena pelearse por esta palabra. Lo que sí parece claro es que sólo entenderemos el papel y la función del oscilador si comprendemos a qué aspectos de los procesos y sucesos externos está adaptado y los efectos que puede tener en otros sistemas neuronales y de control motor que consuman la información que proporciona.
8.6 Causalidad recíproca continua
Sólo queda una manera (que yo sepa) de intentar argumentar con fuerza en contra del representacionalismo. Se basa en apelar a la presencia de unas influencias continuas y mutuamente moduladores que vinculan cerebro, cuerpo y mundo. Ya hemos encontrado indicios de esta complejidad mutuamente moduladora en el funcionamiento interno del mismo cerebro (véase el caso de la visión de los mamíferos en el apartado 7.3 anterior). Pero supongamos que algo parecido a este nivel de complejidad interactiva caracterizara a algunos de los enlaces entre los circuitos neuronales, el cuerpo físico
216 I Explicar la mente extendida
y ciertos aspectos del entorno local. Los casos en los que estoy pensando se pueden presentar adaptando una analogía debida a Tim van Gelder (comunicación personal).
Consideremos un receptor de radio, cuya señal de entrada podemos tratar como un modulador continuo de la «conducta» de la radio (su salida de sonido). Ahora imaginemos (aquí es donde adapto la analogía para insistir en este punto) que la salida de la radio también es un modulador continuo del dispositivo externo (el transmisor) que emite la señal de entrada. En este caso, observamos una interacción verdaderamente compleja y temporalmente densa entre los dos componentes del sistema que podría conducir a dinámicas globales distintas (por ejemplo, a una retroalimenta- ción positiva o a un equilibrio estable) dependiendo de los detalles precisos de la interacción. El hecho fundamental es que, dada la naturaleza continua de las modulaciones mutuas, una estrategia analítica común daría pocos resultados. Naturalmente, esta estrategia común es el análisis de componentes tal como se ha descrito en el capítulo 6 anterior. Es indudable que en este ejemplo podríamos -y deberíamos- identificar distintos componentes. Pero esta estrategia fracasa si después intentamos comprender el despliegue conductual de un componente dado (por ejemplo, el receptor) tratándolo como si fuera una unidad aislada21 de su entorno local por los límites tradicionales de la transducción y la acción, porque estos límites, en vista de los hechos de la modulación mutua continua, parecerían arbitrarios en relación con este despliegue conductual concreto. No serían arbitrarios si, por ejemplo, la unidad receptora mostrara conductas discretas, en unidades de tiempo de recepción de señales y de su posterior emisión. Si así fuera, podríamos reconceptualizar los sucesos del entorno como si el mundo diera entradas a un dispositivo que luego produce salidas («acciones») que influyen en el mundo y que, en consecuencia, ayudan a moldear la próxima entrada de la secuencia: por ejemplo, podríamos desarrollar una versión interactiva tipo «atrapar y lanzar» del análisis de componentes, como se predice en el capítulo 6 anterior.
Otro ejemplo (propuesto por Randy Beer) puede ayudar a definir mejor esta diferencia. Consideremos un sistema simple con dos neuronas que, por separado, no muestran ninguna tendencia a oscilar rítmicamente. Sin embargo, en ocasiones ocurre que dos neuronas como éstas, cuando están vinculadas por algún proceso de señalización continua, modulan mutuamente su conducta y producen una dinámica oscilatoria. Llamemos «cerebro» a la
21. He tomado esta noción de aislamiento de Butler (en prensa). El capítulo 4 de esta obra presenta buenos argumentos contra la tesis radical de la cognición corpórea, aunque no aborda la clase de casos que constituyen un reto especial y que se examinan en el presente apartado.
Ser, computar, representar I 217
neurona I y «entorno» a la neurona 2. ¿Qué valor concreto tendría una división como ésta para comprender la conducta oscilatoria?
Está claro que aquí hay dos componentes y que es útil distinguirlos e incluso estudiar su dinámica individual. Sin embargo, si el objetivo es explicar la oscilación, la neurona «cerebro» no tiene nada de especial. Tranquilamente podríamos optar por tratar al otro componente (la neurona «entorno») como el sistema básico y describir la neurona «cerebro» como una mera fuente de perturbaciones para el «entorno». El hecho es que, en este caso indudablemente simplista, ningún componente disfruta de una posición especial cuando se trata de explicar las oscilaciones rítmicas. De hecho, la propiedad estudiada se entiende mejor si se trata como una propiedad emergente del sistema más amplio creado por el acoplamiento de las dos neuronas. De manera similar, en el caso de los cerebros biológicos y los entornos locales sería injustificable -como destaca acertadamente Buder (1998)- fingir que no nos enfrentamos a componentes distintos. Sin embargo, lo importante es ver si ciertos fenómenos estudiados se explican mejor otorgando una posición especial a uno de los componentes (el cerebro) y tratando al otro como una mera fuente de entradas y un espacio para salidas. En casos donde la conducta estudiada implica una causalidad recíproca continua entre los componentes, esta estrategia parece inadecuada. Admito que en estos casos no nos enfrentamos a un solo sistema indiferenciado. Pero el fenómeno estudiado es una propiedad emergente del acoplamiento de los dos componentes (perfectamente reales) y no se debería «asignar» a ninguno de los dos por separado.
Tampoco me parece que la causalidad recíproca continua^ sea un caso raro o excepcional en la resolución de problemas del ser humano. Los integrantes de un trío de jazz, cuando improvisan, están inmersos precisamente en una red de complejidad causal. La interpretación de cada miembro res ponde continuamente a las de los demás y, al mismo tiempo, ejerce su propia fuerza moduladora. Bailar, jugar a deportes interactivos y hasta tener una conversación son actividades que, en ocasiones, muestran el tipo de dinámica mutuamente moduladora que quiere premiar perspectivas más amplias que las que se centran en un solo componente y tratan a todos los demás como meras entradas y salidas. Naturalmente, se trata de casos donde lo que cuenta es algo parecido al entorno social. Pero las interacciones recíprocas densas pueden caracterizar igualmente bien nuestras relaciones con máqui- 22
22. También conocida como «causalidad circular»; vease, por e|emplo, la bibliografía sobre cibernética citada en las notas del capitulo 5. Esta noción también se destaca en Kelso, 1995. Evito esta expresión porque parece sugerir un proceso simple que implica una etapa de retroalimcntación desde la salida a la entrada. Los casos mas interesantes de causalidad recíproca continua implican múltiples fuentes asincrónicas de retroalimentación, veanse Kelso, 1995, pág. 9 y Ashby, 1956, pag. 54.
218 i Explicar la mente extendida
ñas complejas (como los automóviles y los aeroplanos) o incluso la interacción continua entre músicos e instrumentos. Lo que importa no es si el otro componente es por sí mismo un sistema cognitivo, sino la naturaleza del acoplamiento causal entre los componentes. Cuando este acoplamiento sustenta un intercambio continuo y mutuamente modulado, con frecuencia será productivo tener en cuenta la dinámica emergente del sistema global.
Por tanto, en la medida en que cerebro, cuerpo y mundo participen conjuntamente en episodios con una densa influencia causal recíproca, nos enfrentaremos a despliegues de conducta que se resistirán a la explicación basada en entradas y salidas de un motor cognitivo individual supuestamente aislado. ¿Qué significado tendría esto para el empleo en estos casos de la noción de representación interna en las explicaciones cognitivas científicas? Parece que sólo hay dos posibilidades.
La primera es que, a pesar de todo, podríamos añadir un barniz repre- sentacional a algún subconjunto específico de las estructuras correspondientes a la vertiente del agente. Imaginemos una red neuronal compleja A cuya dinámica acoplada con el entorno incluye una frecuencia de picos (de activación) específica que es utilizada por otras redes como fuente de información acerca de la presencia o ausencia de ciertos procesos ambientales externos: aquellos con los que la red A está acoplada tan íntimamente. Por tanto, las redes que se encuentran más abajo emplean los perfiles de respuesta de A como sustitutos de estos estados del entorno, Imaginemos también que, en ocasiones, los perfiles de la respuesta acoplada de/l también se pueden inducir, en ausencia de las entradas del entorno, por influencias neu- ronales que van de arriba abajo” y que cuando ocurre esto el agente se encuentra a sí mismo imaginando que participa en la interacción compleja en cuestión (por ejemplo, tocar en un trío de jazz). En estas circunstancias, parece natural y productivo tratar a A como si fuera un locus de representaciones internas a pesar de su participación ocasional en episodios de interacción recíproca densa con sucesos y procesos externos.
Sin embargo, la otra posibilidad es, sencillamente, que el sistema nunca muestre el tipo de evolución interna potcncialmente desacoplada que acabamos de describir. Esto es lo que ocurrirá, por ejemplo, si ciertos recursos internos sólo participan en intercambios ambientales densamente acoplados, continuos y recíprocos, sin que parezca existir ningún estado o proceso interno identificable cuyo papel en estas interacciones consista en contener elementos específicos de información acerca de los sucesos externos. Es decir, lo interno y lo extefno interaccionan de una manera adaptativamente va- 23
23. De hecho, éste es precisamente el tipo de escenario previsto por la hipótesis de las zonas de convergencia de Damasio y Damasio (véase el apartado 7.4 anterior).
Ser, computar, representar t 219
liosa pero, sencillamente, no sucumben a nuestros intentos de asignar unas funciones concretas de procesamiento de información a determinados componentes, estados o procesos puramente internos. En estos casos, el sistema muestra lo que se puede denominar un equilibrio adaptativo no representa- cional (un ejemplo cotidiano es el juego del tira y afloja con una cuerda: no sirve de nada concebir uno de los equipos como si fuera una representación de la fuerza ejercida por el otro, pero hasta el desplome final los dos conjuntos de fuerzas se influyen y sostienen entre sí con un delicado equilibrio).
Creo que cuando lo interno y lo externo muestran esta coevolución continua, mutuamente moduladora y no desacoplable, los instrumentos de descomposición del procesamiento de información alcanzan su máxima ineficacia. Lo que importa en estos casos son las propiedades reales y temporalmente ricas del intercambio continuo entre el organismo y el entorno. Sin embargo, aunque estos casos son muy interesantes conceptualmente, no constituyen un desafio serio para el papel general de la representación en la ciencia cognitiva. De hecho, no pueden plantear este desafío porque, por definición, se encuentran fuera de la clase de casos para los que lo más indicado es un enfoque representacional, como veremos a continuación.
8.7 Problemas ávidos de representación
Como hemos visto, el mayor desafío que se puede plantear a una interpretación basada en la representación proviene de casos donde la red de influencia causal llega a ser tan amplia y compleja que es prácticamente imposible aislar unos «elementos privilegiados» a los que asignar unas funciones adaptativas específicas de portar información. Estos casos suelen suponer la evolución continua y recíproca de múltiple sistemas estrechamente vinculados entre sí, cuyo efecto acumulativo («emergente») consiste en suscitar algún tipo de conducta o respuesta útil. Sin embargo, al intentar hacer justicia a estos casos problemáticos no deberíamos olvidar la gama de casos igualmente convincentes para los que una comprensión representacional parece muy adecuada. Se trata de los casos que suponen lo que en otro lugar24 he denominado «problemas ávidos de representación».
Recordemos el primer requisito de Haugeland para un sistema que utilice representaciones internas (véase el apartado 8.2 anterior). Según este requisito, el sistema debe coordinar sus conductas con características del entorno cuya presencia no siempre sea «segura». Creo que hay dos clases principales de casos donde se cumple esta condición. Se trata de: I) los ca
24. Vease Clark y Toribio, 1994.
sos que suponen razonar sobre estados de cosas ausentes, inexistentes o con- trafácticos, y/o 2) los casos que suponen una sensibilidad selectiva a estados de cosas cuyas manifestaciones físicas son complejas y difíciles de controlar.
La primera clase de casos (ya mencionada en el apartado 8.2 anterior) incluye pensamientos sobre sucesos distantes en el tiempo o en el espacio y pensamientos sobre los resultados potenciales de acciones imaginadas. En estos casos es difícil evitar la conclusión de que el razonamiento con éxito implica crear algún tipo de sustitutos previos e identificables para los fenómenos ausentes: sustitutos internos que hacen posible una coordinación conductual adecuada sin la orientación facilitada por una entrada externa constante.
La segunda clase de casos (que Haugeland no tiene en cuenta) es igualmente familiar, aunque un poco más difícil de describir. Son casos donde el sistema cognitivo debe responder selectivamente a estados de cosas cuyas manifestaciones físicas son totalmente diversas: estados de cosas que se unifican en algún nivel más bien abstracto, pero cuyos equivalentes físicos tienen poco en común. Como ejemplos podemos citar la capacidad para elegir todos los elementos valiosos de una habitación y la capacidad para razonar acerca de todas las posesiones del Papa. Es muy difícil ver cómo podemos conseguir que un sistema razone sobre cosas como éstas sin configurarlo para que primero asimile las múltiples entradas superficialmente diferentes a un proceso o estado interno común, de modo que después se pueda definir otro procesamiento (razonamiento) sobre este equivalente interno que puede ser un elemento, un patrón o un proceso cuyo contenido se corresponda con la propiedad abstracta. En estos casos, el éxito conductual parece depender de nuestra capacidad para comprimir o dilatar un espacio de entradas sensoriales. Para que un agente tenga éxito, debe aprender a tratar entradas con unas codificaciones tempranas (en las periferias sensoriales) muy diferentes como si requirieran la misma clasificación o, a la inversa, debe aprender a tratar entradas cuya codificaciones tempranas son muy similares como si requirieran clasificaciones diferentes. Los estados internos identificables desarrollados para servir a estos fines no son más que representaciones internas cuyos contenidos se refieren a los (esquivos) estados de cosas en cuestión.25 (Si alguna de estas explicaciones resultara ser correcta, sería difícil resistirse a la conclusión de que incluso el reconocimiento visual básico implica, en ocasiones, cómputos definidos sobre estados representacionales internos genuinos.)
En los dos tipos de casos mencionados (lo ausente y lo ingobernable), la característica común es la necesidad de generar otro estado interno cuyo papel adaptativo en relación con el procesamiento de información consista en
220 I Explicar la mente extendida
25. Véase una defensa más completa de esta afirmación en Clark y Thornton, 1996.
Ser, computar, representar ¡ 221
orientar la conducta a pesar de la hostilidad efectiva de las señales del entorno (es decir, o no hay ninguna señal, o las señales requieren un cómputo considerable para orientar de manera útil la acción). Al parecer, en estos casos ávidos de representación el sistema debe crear algún tipo de elemento, pauta o proceso interno cuya función sea sustituir el estado de cosas esquivo. Por tanto, se trata de casos donde lo más natural es esperar encontrar estados del sistema que se puedan considerar representaciones internas con todas las de la ley.
Realmente puede parecer que en tales casos deberían existir siempre representaciones internas subyacentes al éxito conductual. Sin embargo, esta conclusión es demasiado tajante porque es indudable que existe un elemento pragmático importante que aún podría desbaratar el intento de comprender el sistema desde un punto de vista representacional. Por tanto, aunque es evidente que los casos ávidos de representación exigen que algún tipo de propiedad sistémica compense la carencia de entradas procedentes del entorno seguras o fáciles de utilizar, de ello no se sigue que la propiedad pertinente se pueda individuar útilmente. Una vez más, esta individuación no será útil si supone una actividad tan compleja en el tiempo y una influencia recíproca entre tantos subsistemas que sea mejor concebir la «sustitución» como una propiedad emergente del funcionamiento total del sistema. En estos casos (si es que existen), se podría decir con toda la razón que el sistema total representa su mundo, pero no lo haría explotando nada que pudiéramos tratar productivamente como representaciones internas. Por tanto, la noción de representación interna sólo se puede utilizar cuando podemos establecer unas correspondencias relativamente detalladas entre unos vehículos internos y unas funciones adaptativas de transporte de información. Estos vehículos pueden estar distribuidos espacialmente (como en la hipótesis de las zonas de convergencia), ser temporalmente complejos e/o implicar cualidades analógicas y valores numéricos continuos. Pero deben ser identificables como subconjuntos bien diferenciados de la estructura o actividad sistémica total. Mi opinión (coherente con el estado de la neurocíencia contemporánea) es que esta identificación acabará siendo posible y que desempeñará un papel fundamental en la comprensión de ciertos aspectos de nuestro éxito adapta- tivo. Como mínimo, ahora podemos ver con más claridad qué haría falta para socavar un enfoque basado en la representación: haría falta demostrar que, incluso en los casos ávidos de representación, es prácticamente imposible aislar un sistema de vehículos detallados que desempeñen unas funciones adaptativas específicas de transporte de información. Además, hemos visto de muchas maneras que las ideas fundamentales de un enfoque corpóreo y embebido (codificaciones orientadas hacia la acción, resolución de problemas relacionada con el entorno y acoplamientos sinérgicos entre múl
222 I Explicar la mente extendida
tiples elementos) son, en cualquier caso, compatibles con el empleo de interpretaciones computacionales y representacionales.
Así pues, y a fin de cuentas, la resolución de este debate debe depender de futuros estudios empíricos. Sin duda, en el grado de complejidad de los procesos y estados internos existe un límite superior26 más allá del cual es simplemente poco informativo y explicativamente ocioso describir estos procesos y estados como representaciones internas. Pero probablemente la cuestión sobre el lugar exacto de este límite solo se resolverá mediante la experiencia práctica. La respuesta surgirá por ensayo y error, a medida que los experimentadores generen y analicen soluciones dinámicas reales a problemas cada vez más complejos y superficialmente «ávidos de representación». Estas confrontaciones pueden desembocar en un proceso de acomodación mutua donde las explicaciones basadas en los sistemas dinámicos se adapten y enriquezcan con interpretaciones y análisis computacionales y representacionales, y viceversa.27 O puede ocurrir que la pura complejidad de los procesos y las pautas dinámicas implicadas, y el profundo entretejido de elementos internos y externos, nos convenzan de que es inútil tratar de identificar unos aspectos específicos de la compleja y cambiante red causal como indicadores de la presencia de características ambientales específicas y que, en consecuencia, es inútil pretender obtener una comprensión representacional de la estructura y el funcionamiento del sistema. El resultado más probable, creo yo, no es tanto un rechazo total de las nociones de computación y representación como un replanteamiento parcial de estas nociones. Este replanteamiento está prefigurado en muchos análisis dinámicos de otros tipos de problema ávidos de representación (como la toma de decisiones y la planificación28) y es una continuación natural de programas de investigación basados en el conexionismo y en la neurociencia computacional.
Sin embargo, un replanteamiento como éste tendría consecuencias que irían más allá de la mera identificación de una nueva gama de vehículos internos capaces de desempeñar funciones de representación. Un aspecto positivo de este replanteamiento es que los vehículos dedicados a la representación ya no se limitarían al ámbito de los procesos y los estados internos. Por ejemplo, al hacer que los valores de unas variables colectivas tengan importancia para la representación, los teóricos dinámicos pueden permitir
26. Esta cuestión surgió durante una conversación especialmente fructífera con Randy Beer.
27. El trabajo reciente de Melanie Mitchell y Jim Crutchficld se dedica intensamente a esta visión de enriquecimiento mutuo; véanse, por ejemplo, Crutchfield y Mitchell, 1995 y Mitchell y otros, 1994.
28. Véanse ensayos en Port y van Gelder, 1995. Véase también van Gelder, 1995, págs. 376-377.
Ser, computar, representar I 223
que algunos de los estados portadores de contenidos de un sistema sean intrínsecamente amplios: que dependan de estados definidos únicamente en el sistema más general que comprende al agente y a algunas partes selectas del entorno local.29 Un aspecto negativo sería que, en la medida en que los vehículos dedicados a la representación floten más y más por encima del nivel de las variables y de ios parámetros básicos del sistema,30 31 podremos presenciar la fractura parcial de un potente y familiar esquema explicativo. La inquietud (ya familiar desde el apartado 6.4 anterior) es que, de esta manera, empezamos a separar la descripción representacional de un sistema (y, de una manera más general, su caracterización como procesador de información) del tipo de descripción que apelaría directamente al proyecto de elaborar o construir un sistema como él. En cambio, una de las principales virtudes de los modelos computacionales más habituales es que muestran cómo fluyen la información y las representaciones a través del sistema con el fin de producir recetas eficaces para generar esa conducta en un dispositivo físico real. Al permitir que se adhieran barnices representación ales a entidades dinámicas complejas (ciclos límite, trayectorias en espacios de estados, valores de variables colectivas, etc.), el teórico lanza la explicación basada en el procesamiento de información hacia un nivel de abstracción muy por encima de los detalles de los componentes y las variables básicas del sistema, cercenando así los vínculos entre la descripción representacional y los detalles específicos del funcionamiento interno. Ahora parece que las mejores explicaciones representacionales se pueden separar3 de los detalles de la implementación física mucho más de lo que se creía anteriormente.
29. Aquí, (a idea (que inicialmente puede parecer paradójica) es que, en ocasiones, sobrevienen unos «contenidos estrechos» (Fodor, 1986) a estados del agente junto con partes seleccionadas del entorno local. Véase Clark y Chaimcrs, 1998.
30. Por tanto, esta inquietud sólo se aplicará a las elecciones de vehículos dinámicos que no se basen en una comprensión detallada al nivel de los componentes. Las explicaciones co- nexionistas basadas en trayectorias, espacios de estados y atractores (véase, por ejemplo, El man, 1991) no se verán afectadas porque sus parámetros básicos ya están determinados por las propiedades de los componentes básicos. Lo mismo se podría decir de las explicaciones dinámicas con base neuronal (véase, por ejemplo, Jordán y otros, 1994).
31. Naturalmente, siempre ha habido una gran distancia entre una descripción algorítmica y cualquier implementación concreta. Pero una virtud fundamental de los enfoques computacionales usuales era que al menos limitaban las descripciones algorítmicas para garantizar que, en principio, se pudieran implemcntar empleando únicamente los recursos básicos de una máquina universal de Turing; véase, por ejemplo, Newell y Simón, 198!. (Por tanto, lo que una descripción dinámica abstracta puede perder como prescripción mecanicista detallada, lo puede compensar en fuerza temporal; véase van Gelder, 1995.)
224 { Explicar la mente extendida
8.8 Raíces
Los argumentos contrarios al representacionalismo y la computación examinados en los apartados anteriores tienen varios antecedentes, algunos recientes y otros no tanto. Concluiré la presente exposición esbozando algunas’2 de estas raíces y mostrando diversas diferencias en cuanto a énfasis y alcance.
Heidegger (1927) escribió sobre la importancia de Dasein (ser-ahí)," un modo de «ser-en-el-mundo» en el que no somos observadores distantes y pasivos sino participantes activos, y destacó que nuestras relaciones prácticas con el mundo (clavar clavos, abrir puertas, etc.) no suponen tanto unas representaciones separadas (por ejemplo, del martillo como un objeto rígido con un peso y una forma concretos) como unos acoplamientos funcionales', utilizamos el martillo para clavar el clavo. Para Heidegger, este acoplamiento práctico con el mundo se encuentra en el corazón de todo pensamiento e intencionalidad.” Una noción fundamental en este análisis es la idea de utensilio, es decir, de cosas que nos rodean y que figuran en las múltiples actividades basadas en la habilidad que subyacen a nuestras aptitudes cotidianas para solventar problemas con éxito.
Por tanto, el trabajo de Heidegger prefigura el escepticismo hacia lo que se puede denominar tipos de representación interna «neutrales respecto a la acción» y se hace eco de nuestro énfasis en el empleo de instrumentos y en los acoplamientos entre organismo y mundo orientados hacia la acción. Sin embargo, algunas inquietudes de Heidegger son radicalmente distintas de las del presente proyecto. En particular, Heidegger se oponía a la idea de que el conocimiento supone una relación entre las mentes y un mundo independiente (Dreyfus, 1991, págs. 48-51), una cuestión más bien metafísica en relación con la cual no adoptaré ninguna postura. Además, la noción que tiene Heidegger del entorno de la acción corpórea es completamente social. Mi versión de «estar ahí» es considerablemente más amplia e incluye todos los casos donde el cuerpo y el entorno local aparecen como elementos en una actividad extendida de resolución de problemas.”
Más cercano al proyecto actual en cuanto a espíritu y ejecución es el trabajo del fenomenólogo Mnurice Merleau-Ponty,” que se ocupó de describir 1
1 La expresión inglesa para el Dasein hcideggeniano es «being there», que significa tamo «ser ahí» como «estar ahí». El autor juega con ambos sentidos a lo largo del texto, empezando por el mismo título del libro (N. del T.).
32. Entre otros trabajos especialmente pertinentes se incluyen Maturana y Varela, 1987; Dreyfus, 1979; Winograd y Flores, 1986; Kclso, 1995 y varios de los artículos de Boden, 1996.
33. Véase una excelente discusión en los capítulos 3 y 6 de Dreyfus, 199!.34. Wheclcr (1995) aborda este conflicto y ofrece como solución una ampliación funda
mentada de la noción de trasfondo de Heidegger.35. Véase una excelente discusión de los temas comunes que vinculan el trabajo de Mcr-
Ser, computar, representar S 225
la actividad inteligente cotidiana como la puesta en juego de sinergias completas entre organismo, cuerpo y mundo. En particular, Merleau-Ponty destacó la importancia de lo que yo he denominado «causalidad recíproca continua», es decir, la idea de que debemos ir más allá de la imagen pasiva del organismo que percibe el mundo y reconocer que nuestras acciones pueden responder continuamente a sucesos del mundo que, a su vez, responden continuamente a nuestras acciones. Consideremos un encantador ejemplo, al que llamo «el caso del hámster y las pinzas»:
Cuando mi mano sigue cada esfuerzo que hace un animal para escapar mientras sostengo un instrumento para capturarlo, es evidente que cada uno de mis movimientos responde a una estimulación externa; pero también es evidente que estas estimulaciones no se podrían recibir sin los movimientos por los cuales expongo mis receptores a su influencia... Las propiedades del objeto y las intenciones del sujeto no sólo se entremezclan; también constituyen una nueva totalidad (Merleau-Ponty, 1942, pág. 13).
En este ejemplo, los movimientos de mi mano responden continuamente a los del hámster que se esfuerza por escapar, pero los forcejeos del hámster están continuamente moldeados y determinados por los movimientos de mi mano. Aquí, como dijera David Hilditch (1995), acción y percepción se fusionan en una especie de «danza interactiva libre entre el perceptor y lo percibido». Esta danza interactiva e iterada, como vimos, se reconoce ahora en el tra bajo reciente sobre los fundamentos computacionales de la visión animada.
Además, Merleau-Ponty también destaca que la percepción se dirige hacia el control de la conducta en el mundo real y en tiempo real. Aquí aporta algo muy parecido’6 a la noción de «facilitación» de Gibson, noción que, a su vez, ha inspirado directamente la idea de representaciones internas orientadas hacia Ja acción examinada en el capítulo 2 y el apartado 8.3 anteriores. Una facilitación es una oportunidad de uso o interacción que un objeto o condición brinda a cier to tipo de agente. Por ejemplo, a una persona una silla le facilita un asiento, pero para un pájaro carpintero la misma silla puede facilitarle algo muy diferente. * 36
leau-Ponty con proyectos actuales de la ciencia cognitiva corpórea y embebida en Hilditch, 1995. Varela y otros, J991, ofrecen un convincente tratamiento de muchos de los temas de Merleau-Ponty y se presenta explícitamente (véanse las págs. xv-xvii) como una continuación moderna del programa de investigación de ese autor.
36. Véanse algunas diferencias en las págs. 43-48 de Hilditch, 1995. Los paralelismos y las diferencias se vuelven a examinar en las págs. 203-204 de Varela y otros, 1991. Varela y otros argumentan que Gibson se comprometió demasiado con la noción de que las invariantes perceptivas simplemente estaban en el mundo exterior y que no eran construidas conjuntamente por el animal y la realidad. Varela y otros parecen estar comprometidos con el punto de vista contrario, según el cual estas invariantes dependen de la actividad del organismo guiada por la percepción.
226 I Explicar la mente extendida
A Gibson le interesaba especialmente el ajuste de la percepción visual a las características invariantes de la señal luminosa entrante para seleccionar directamente clases de acciones posibles (por ejemplo, las pautas de luz que especifican la presencia de un terreno llano y que brindan al ser humano la oportunidad de andar). Según Gibson, en la medida en que el sistema de percepción humano pudiera sintonizar con estas facilitaciones, no habría ninguna necesidad de invocar entidades adicionales, como las representaciones internas, que mediaran entre la percepción y la acción. En el apartado 8.3 anterior argumenté que, con frecuencia, un rechazo tan tajante deriva de una refundición innecesaria de dos nociones totalmente distintas. Una es la idea enteramente general de las representaciones internas como estados, estructuras o procesos internos cuyo papel adaptativo consiste en contener tipos específicos de información que serán utilizados por otros sistemas neuronales y orientadores de la acción. La otra es la idea más específica de las representaciones internas como codificaciones ricas y neutrales respecto a la acción de condiciones externas. Sólo en este último sentido más restringido se produce una contradicción entre las ideas de Gibson y el cons- tructo teórico de la representación interna.”
Por último, la reciente discusión de «la mente corpórea» presentada por Varela y otros (1991) muestra tres intereses básicos que también desempeñan un papel fundamental en el presente proyecto.37 38 39 En primer lugar, Vare- la y otros se proponen colocar en el lugar que se merece a la naturaleza activa de la percepción y a la manera en que nuestra organización cognitiva refleja nuestra participación física en el mundo. En segundo lugar, ofrecen algunos ejemplos muy convincentes de conductas emergentes en sistemas simples.19 En tercer lugar, colocan en un primer plano la noción de causali
37. La ¡dea de que los estados internos incorporan información que se puede desplegar de una manera computacionalmentc económica para orientar la acción posterior se encuentra, de una forma u otra, en Ballard, 1991; Brooks, 1991; Mataric, 1991; Chapman, 1990; Gibson, 1979; Gibson, 1982, Ncisser, 1993 y Turvey y otros, 1981
38. Otra área reciente de investigación donde la cuestión de la corporeización también ocupa un lugar preponderante, se dedica a estudiar cómo los esquemas y las imágenes basados en el cuerpo impregnan a estilos de pensamiento mucho más abstractos. Aquí, la idea fundamental es que nuestra manera de conceptualizar ciertos ámbitos rarificados (problemas morales, relaciones temporales, estructuras arguméntales, etc.) depende mucho de una especie de extensión metafórica de nociones básicas basadas en experiencias corporales. Aunque en espíritu mi interés por el papel del cuerpo y el mundo es claramente similar, en realidad es bastante diferente porque yo me centro en cómo las intervenciones físicas y las estructuras ambientales reales reconfiguran el espacio de los cómputos neuronales individuales. El estudio de las metáforas corporales se profundiza en Lakoff, 1987; Johnson, 1987, y en el capítulo 11 de Thelen y Smith, 199-4.
39. Véase especialmente el ejemplo de Bittorio en el capítulo 8 de Varela y otros, 1991.
Ser, computar, representar I 227
dad recíproca (o «circular») y sus implicaciones negativas para ciertos tipos de proyectos reduccionistas basados en componentes, Estas cuestiones se unifican en la idea de cognición como enacción. La ciencia cognitiva enactiva, tal como la definen Varcla y otros, es un estudio de la mente que no describe la cognición como el reflejo interno de un mundo objetivo externo sino que designa como locas básico del interés científico y explicativo las interacciones sensoriomotrices repetidas entre agente y mundo.40
Por tanto, Varela y otros se dedican a un proyecto muy relacionado con el nuestro, Con todo, existen algunas diferencias importantes en cuanto a énfasis e interés. En primer lugar, Varela y otros emplean sus reflexiones como pruebas para rebatir las perspectivas realistas y objetivistas del mundo. Yo evito deliberadamente esta postura porque conlleva el riesgo de oscurecer el valor científico de un enfoque corpóreo y embebido, vinculándolo a la idea problemática de que los objetos no son independientes de la mente.41 Lo que yo afirmo es, simplemente, que los aspectos de la estructura de la realidad que representan los cerebros biológicos se suelen orientar estrictamente hacia unas necesidades y capacidades sensoriomotrices específicas. Por tanto, el objetivo de gran parte de la crítica actual no es la idea de que los cerebros representen aspectos de un mundo independiente real, sino más bien la idea de que estas representaciones sean neutrales respecto a la acción y que, en consecuencia, requieran un importante esfuerzo computacional adicional para producir respuestas inteligentes. En segundo lugar, Varela y otros (ibíd., pág. 9), se oponen a la idea de que «la cognición es, fundamentalmente, representación». Nuestro enfoque es mucho más cordial con los análisis representacionales y basados en el procesamiento de información. Pretende reconceptualizar parcialmente las ideas sobre los contenidos y los formatos de varios estados y procesos internos, pero sin re chazar las ideas mismas de procesamiento de información y de representaciones internas. Además, nuestro proyecto destaca un cuerpo de investigaciones de ciencia cognitiva algo diferentes (las investigaciones sobre la robótica en mundo real la teoría de los agentes autónomos) y trata de mostrar cómo encajan las ideas y los análisis que emergen de estas investigaciones muy recientes en la trama más amplia de las investigaciones psicológicas, psicofísicas y evolutivas que constituyen el terreno común de ambas disciplinas.
40. Véanse las págs. 172-179 tle Varcla y otros, 1991, donde la influencia de las ideas de Merleau Pomy sobre la causalidad circular se destaca explícitamente
41. No puedo dejar de sospechar que existe algún desacuerdo entre Varcla, Thompson y Rosch acerca de esta cuestión porque en algunos lugares (véanse, por ejemplo, las págs. 172- 179) su argumento se detiene deliberadamente justo ames de esta conclusión radical, mientras que en otros lugares (véase, por ejemplo, el capítulo 10) parece apoyarla. Sin embargo, toda exégests es delicada y la insinuación de la existencia de una tensión interna es, necesariamen te, tentativa.
228 | Explicar la mente extendida
8.9 Representacionalismo mínimo
En mi opinión, el reciente escepticismo hacia el papel de la computación y la representación en la ciencia cognitiva es exagerado. Gran parte de este debate se puede formular mejor como una discusión entre los fans de los modelos maximalistas, detallados y neutrales respecto a la acción del mundo interno, y quienes sospechan (incluyendo a este autor) que gran parte de la conducta inteligente depende de unos recursos mínimos como, por ejemplo, codificaciones internas de carácter múltiple, parcial, personalizado y/u orientado hacia la acción. De manera similar, gran parte de la oposición a la idea del cerebro como dispositivo computacional se puede formular mejor como una oposición a la idea del cerebro como codificador de «especificaciones plenamente programadas» para el desarrollo o la acción. He argumentado que las condiciones mínimas para hablar con sentido de representaciones internas se dan cuando podemos desvelar con éxito la compleja trama causal de influencias y poner de manifiesto el papel adaptativo basado en el procesamiento de la información de algún sistema de estados o de procesos: un sistema que suponga una distribución espacial y una complejidad temporal, y que permita identificar con éxito las configuraciones físicas que sustituyen a estados específicos de cosas. Esta amplitud de miras puede perturbar a aquellas personas cuyas intuiciones sobre estas cuestiones se hayan forjado en la fragua más restrictiva de la reflexión sobre el lenguaje, los textos y las gramáticas artificiales,42 pero sospecho que todas las partes estarán de acuerdo en que
42 Vease, por ejemplo, el debate entre Vera y Simón (extremadamente liberales) y Tou- retzky y Pomerleau en Cognitwe Saetí ce, 18 (1994). Aunque se presenta más como una discusión sobre símbolos internos que sobre representaciones internas, este debate muestra exactamente el choque de intuiciones comentado en el texto. Touretzky y Pomerleau sólo identifican como símbolos internos los elementos que sean sintácticamente arbitrarios (lo que importa no es el estado físico per se sino solo su papel convencional), relativamente pasivos (manipulados por un procesador bien diferenciado) y capaces de entrar en episodios recursivos de combinación y recombinación basados en funciones. Vera y Simón cuentan como símbolos cualesquiera señales o estados internos cuya función sea designar o denotar. Mi propio punto de vista, como debe resultar evidente, se encuentra a medio camino entre estos dos extremos. Estoy de acuerdo con Touretzky y Pomerleau en que no se debe considerar un símbolo (o una representación interna) cualquier señal que pase por un sistema complejo. Pero basta con que una señal sea capaz de actuar como un sustituto genuino (controlando respuestas en ausencia de una entrada real del entorno) y que forme parte de algún tipo de sistema repre- sentacional. Sin embargo, como se argumentó en el apartado 8.1 anterior, estas limitaciones adicionales están muy lejos de exigir (os sistemas de símbolos clásicos y concadenadores imaginados por Touretzky y Pomerleau. De una manera más general, considero intuitiva la idea global de que un sistema interno de representación no se debe vincular en exceso con nuestra experiencia con lenguajes, textos y gramáticas artificiales, que son tipos específicos de esquemas cuyas propiedades pueden decir más sobre el perfil computacional del pensamiento hu
Ser, computar, representar I 229
una importante lección que se puede extraer del trabajo actual en la neuro- ciencia y en la teoría de los sistemas dinámicos es que no deberíamos tener una mentalidad cerrada acerca de la naturaleza de los sucesos internos que ayudan a explicar el éxito conductual. Estos sucesos internos pueden incluir toda clase de procesos neuronales complejos que dependan de amplias gamas de propiedades dinámicas, que incluyen atractores caóticos, ciclos límite, pozos potenciales, trayectorias en espacios de estados, valores de variables colectivas o sistémicas y muchas cosas más.45 De la misma manera, las explicaciones que invocan la representación interna pueden acabar otorgando a estos procesos dinámicos de carácter tan complejo y local el papel de vehículos para tipos específicos de información y de conocimientos. En la medida en que esto ocurra, la noción misma de representación interna podrá experimentar una transformación sutil que, ante todo, la despoje de las connotaciones clásicas que invitaban a concebir los vehículos típicos de la representación como estructuras relativamente sencillas y localizadas en el espacio y/o en el tiempo.
Debemos admitir que algunos casos plantean un problema especialmente difícil. Son los casos que implican procesos de causalidad recíproca continua entre factores externos e internos. Parece improbable que esta interacción continua pueda caracterizar la gama de casos donde el enfoque represen racional es más convincente, es decir, los casos que implican razonar sobre lo distante, lo inexistente o lo sumamente abstracto. En estos casos, el centro de atención se desplaza hacia la dinámica interna del sistema que se estudia. El problema crucial y todavía no resuelto es si esta dinámica interna encajará o no con una interpretación que, aun siendo más liberal, siga estando basada en la representación. En favor del «no» se puede aducir que a medida que la dinámica interna se hace más compleja o a medida que los supuestos contenidos se hacen más pequeños (personalizados, orientados hacia la acción), la base explicativa proporcionada por las interpretaciones basadas en la representación debe disminuir hasta acabar desapareciendo por debajo de un umbral aún por determinar. En favor del «sí» se puede destacar que aún no existe ninguna intrepretación alternativa de la resolu ción de problemas genuinamente ávidos de representación y que es difícil ver cómo se pueden dar explicaciones concisas, generales y claras de gran parte de nuestro éxito adaptativo sin reinventar, de algún modo, las ¡deas de procesamiento complejo y de estados internos contenido. 43 *
mano consciente que sobre el género total de sistemas de representación. Véanse más exposiciones en Kirsh, 1991; van Gelder, 1990; el capítulo 6 de Clark, 1993; Touretzky y Pomerleau, 1994, y Vera y Simón, 1994.
43. Véanse Skarda y Freeman, 1987; Beer, 1995; Thelen y Smith, 1994; Elman, 1994, yKelso, 1995.
230 I Explicar la mente extendida
Parece probable que para avanzar más en estas cuestiones deberemos aguardar la generación y el análisis de una gama más amplia de demostraciones prácticas: modelos basados en sistemas dinámicos que tengan como objetivo el razonamiento y la acción en dominios cada vez más complejos y abstractos. Creo que, a medida que se desarrollen estas investigaciones, veremos una coevolución cooperativa y bastante delicada entre múltiples tipos de análisis e ideas. Veremos la aparición de nuevas ideas sobre la representación y la computación que incorporen las economías de los estados internos orientados hacia la acción y de los procesamientos analógicos continuos, y que reconozcan la compleja danza conjunta de diversas fuentes internas y externas de variación. Aprenderemos a caracterizar la función adaptativa basada en el procesamiento de información de los estados y procesos internos, de maneras que no nos cieguen ante las complejidades de los intercambios interactivos que refuerzan gran parte de nuestro éxito adaptativo. Pero, en general, nos encontraremos añadiendo nuevos instrumentos ai repertorio de la ciencia cognitiva, refinando y reconfigurando -aunque no abandonando- los que ya poseemos. Después de todo, si el cerebro fuera tan sencillo que un solo enfoque pudiera desentrañar sus secretos, ¡nosotros mismos seríamos tan sencillos que no podríamos llevar a cabo esta tarea!44
4-t. Aunque esta frase es muy conocida, su origen es bastante incierto. Durante mucho tiempo yo la había atribuido al neurocienúfico soviético A. R. Luria, pero no he podido encontrar ninguna prueba que lo confirme. Casi lodos mis colegas científicos cognitivos ingleses y norteamericanos la conocen pero tampoco han podido encontrar su origen. Así que lo dejo como un ejercicio para el lector.
Tercera parte
MÁS ALLÁ
Y c! autobús de Jerónimo el Bosco partió de casa de Kcsey con un rótulo de destino en la parte delantera que decía «Masalla» y otro rótulo en la parte trasera que rezaba «Precaución: carga extraña».
T om Wo lfe , The Electric Kool-Aid Acid Test.
Vivimos en un mundo donde el habla es una institución.Maurice M ekleau-Po n ty ,
Phcrtoirienology o f Perception 0945/1962), pág. 184.
9 Mentes y mercados
9.1 Cerebros salvajes, mentes andamiadas
Como hemos visto, la razón biológica con frecuencia consiste en un batiburrillo de estratagemas en línea desplegadas «sobre la marcha» que están disponibles, en parte, gracias a nuestra capacidad para intervenir en diversos tipos de resolución de problemas de carácter colectivo u orientados a explotar el entorno. Sin embargo, es natural que nos preguntemos en qué medida (si la hay) puede servir este enfoque1 de base para comprender los aspectos más avanzados y distintivos de la cognición humana: no hablo de caminar, alcanzar, seguir paredes y buscar con la vista, sino de votar, elegir lo que consumimos, planificar dos semanas de vacaciones, gobernar un país, etc. Estos ámbitos más exóticos, ¿revelan al fin la delicada flor del pensamiento lógico, clásico, interno y manipulador de símbolos? ¿Es aquí donde por fin situaremos la gran linea divisoria entre la razón humana objetiva y los perfiles cog nitivos de otros animales?1 2
En los capítulos restantes propondré, de manera tentativa, que no hay necesidad de postular la existencia de esta línea divisoria, que la forma básica de la razón individual (rápida compleción de patrones en múltiples sistemas neuronales) es común en toda la naturaleza y que donde realmente destacamos los seres humanos es en nuestras asombrosas capacidades para crear y mantener una variedad de estructuras externas especiales (simbólicas y so- ciales-institucionales). Estas estructuras externas funcionan para comple
1. Véanse más enfoques en McCIamrock, 1995; Thelen y Smith, 1994; Rutkowska, 1993; Hutchins, 1995; Rcsnick, 1994, y Varela y otros, 1991. Véanse también los ensayos en Boden, 1996.
2. Véase Davidson, 1986.
234 t Más allá
mentar nuestros perfiles cognitivos individuales y difundir la razón humana a través de redes físicas y sociales cada vez más amplias cuyos cómputos colectivos muestran sus propias dinámicas y propiedades especiales.
Esta extensión de nuestro marco básico a casos más avanzados implica tres pasos fundamentales. En primer lugar, el razonamiento individual se vuelve a formular como una especie de estilo de cómputo rápido para la compleción de patrones. En segundo lugar, una parte considerable de la tarea de resolver problemas se descarga en estructuras y procesos externos, pero estas estructuras y procesos ahora tienden a ser más sociales e institucionales que puramente físicos. Y en tercer lugar, el lenguaje público (como medio de coordinación social y como instrumento para el pensamiento individual) ahora desempeña un papel fundamental.
En resumen, la idea es que la cognición avanzada depende de manera crucial de nuestras capacidades para disipar razonamiento: para difundir a través de estructuras sociales complejas el conocimiento y la sabiduría práctica que adquirimos y para reducir las cargas de los cerebros individuales situando estos cerebros en complejas tramas de restricciones lingüísticas, sociales, políticas e institucionales. Así pues, empezamos a vislumbrar que podemos enfrentamos a los fenómenos de la cognición avanzada con métodos que presentan una continuidad, al menos de una manera general, con el enfoque básico adoptado en los casos más simples. A poco que esto sea cierto, nuestros cerebros no serán tan diferentes de los órganos fragmentados, especializados y orientados hacia la acción de otros animales y de los robots autónomos. Pero nosotros, los seres humanos, destacamos en un aspecto crucial: somos expertos en estructurar nuestros mundos físicos y sociales y en extraer conductas complejas y coherentes de estos recursos tan difíciles de controlar. Empleamos la inteligencia con el fin de estructurar nuestro entorno para poder tener éxito con menos inteligencia. [Nuestros cerebros hacen que el mundo sea inteligente para que nosotros podamos ser unos tontos felices! O dicho de otra manera, el cerebro humano más estas piezas de andamiaje externo son los que finalmente constituyen la máquina de inferencias racional e inteligente que llamamos mente. Vistas así las cosas, está claro que somos inteligentes; sin embargo, nuestros límites se adentran en el mundo mucho más de lo que inicialmente pudiéramos suponer.3
3. La elección entre estas dos perspectivas es delicada y controvertible. Se abordara con más detalle en el capitulo 10.
Mentes y mercados I 235
9.2 Perdidos en el supermercado
Entramos en el supermercado para comprar una lata de alubias. Enfrentados a una abrumadora colección de marcas y precios, debemos decidir cuál vamos a comprar. Según la teoría económica clásica, en estas circunstancias un agente racional procede, a grandes rasgos, de la manera siguiente: el agente posee un conjunto preexistente y exhaustivo de preferencias que reflejan la calidad, el coste y quizá otros factores (el país de origen, etc.). Estas preferencias están asociadas a unos pesos o valores y el resultado final es una clasificación de las características deseadas. A continuación, esta clasificación compleja (y sistemática) de las preferencias se aplica a un conocimiento perfecto de las opciones que ofrece el mundo (el supermercado) y el agente seleccionador de alubias actúa para maximizar la utilidad esperada; es decir, el agente compra el artículo que mejor satisfaga los requisitos establecidos en el conjunto ordenado de preferencias (Friedman, 1953). Recientemente, esta imagen de la elección económica racional se ha denominado «paradigma de la racionalidad sustantiva» (Den- zau y North, 1995).
Sin embargo, como teoría de los mecanismos psicológicos de la elección individual cotidiana, el modelo de la racionalidad sustantiva falla por su base. El problema principal, según la conocida descripción de Herbert Simón (1982), es que los cerebros humanos, como mucho, sólo son locits de racionalidad parcial o limitada.4 Nuestros cerebros, como avalan repetidamente los capítulos precedentes, no han sido diseñados como instrumentos de una razón sin prisas, totalmente informada, ni para ofrecer respuestas perfectas partiendo de una información supuestamente perfecta.
En vista de la naturaleza «sobre la marcha», limitada y circunscrita en el tiempo de la cognición biológica, quizá sea sorprendente que la teoría económica clásica, con su visión de un razonador totalmente informado, lógicamente coherente, sin prisas y tranquilo, haya dado tanto de sí. Vista la evidente irrealidad psicológica de su modelo de la elección humana, ¿cómo es que la economía tradicional ha podido desarrollar modelos que predicen con un éxito por lo menos moderado el comportamiento de las empresas (en mercados competitivos con precios fijos), el comportamiento de los partidos políticos y los resultados de manipulaciones experimentales como la «doble subasta»? (Satz y Ferejohn, 1994; Denzau y North, 1995). Y -empleando un tono menos
4. Sin embargo, deberíamos distinguir la concepción de la razón como corpórea y embebida de la noción importante, pero todavía insuficientemente radical, de «racionalidad limitada», véase el apartado 9.3, más adelante.
236 I Más allá
optimista- ¿por qué no ha podido aclarar toda una colección de fenómenos sociales y económicos diferentes? Entre sus fracasos más sonados se encuentran la incapacidad de construir modelos de cambios económicos a gran escala con el tiempo y la incapacidad de construir modelos de elección en condiciones de gran incertidumbre como, por ejemplo, cuando no hay ningún conjunto preexistente de resultados que se puedan clasificar según su conveniencia (Denzau y North, 1995; North, 1993). Se trata de fracasos fundamentales en la medida en que se ramifican hacia una gran variedad de casos más concretos, como la incapacidad para construir modelos de la conducta de los votantes, para predecir el desarrollo de instituciones económicas y sociales, y para abordar la mayor parte de las elecciones que llevan a cabo los legisladores.5
Esta pauta de éxitos y fracasos es a la vez fascinante y reveladora porque la mejor manera de explicarla parece suponer una disociación entre casos de lo que se puede denominar elección muy andamiada y casos de pensamiento individual menos restringido. Como varios autores han argumentado recientemente,6 el paradigma de la racionalidad sustantiva parece funcionar mejor en los casos muy andamiados y fracasa progresivamente a medida que aumenta el papel del pensamiento individual poco restringido.
La idea de elección muy andamiada se encuentra en la base de unos importantes trabajos llevados a cabo recientemente por Satz y Ferejohn (1994) y Denzau y North (1995). El tema común es que la teoría económica neoclásica funciona mejor en situaciones donde la elección racional individual está muy limitada por la selección cuasi evolutiva de políticas y prácticas institucionales restrictivas. Esta ironía es destacada explícitamente por Satz y Ferejohn: «La teoría [tradicional] de la elección racional es más potente en contextos donde la elección está limitada» (pág. 72). ¿Cómo puede ocurrir esto? Según Satz y Ferejohn, la razón es simple: lo que actúa en estos casos no es tanto el pensamiento individual como las estructuras sociales e institucionales más amplias en las que está embebido el individuo. Estas mismas estructuras han evolucionado y prosperado (en los casos donde funciona la teoría económica) fomentando la selección de acciones colectivas que realmente maximicen el rendimiento en relación con un conjunto fijo de metas. Por ejemplo, el entorno competitivo de la economía de mercado garantiza que, en general, sólo sobrevivan las empresas que maximicen sus beneficios. Este hecho, más que cualquier otro hecho sobre las creencias, los deseos u otros aspectos psicológicos de los individuos implicados, asegura el éxito
5. La cuestión de la conducta de los votantes se plantea convincentemente en Satz y Ferejohn, 199-1, La cuestión del cambio institucional y la política pública se examina en North, 1993.
6. Especialmente Satz y Ferejohn, 199-1, y Denzau y North, 1995.
Mentes y mercados I 237
frecuente de los modelos de racionalidad sustantiva en predecir la conducta de las empresas. Las fuertes limitaciones impuestas por la estructura más amplia del mercado originan, en el nivel de la empresa, estrategias y políticas orientadas a maximizar los beneficios. Bajo la influencia de un andamiaje tan poderoso, las teorías y las visiones individuales del mundo pueden tener poco impacto en la conducta global de la empresa. Cuando el andamiaje externo de políticas, infraestructuras y costumbres es fuerte y -más importante aún- es el resultado de una selección competitiva, los miembros individuales son, en realidad, piezas intercambiables de un engranaje mayor. Este engranaje se extiende mucho más allá del individuo, incorporando estructuras sociales, físicas e incluso geopolíticas a gran escala. Lo que la teoría económica tradicional suele modelar con éxito es el razonamiento y conducta difusos de este engranaje más amplio. Existe una gran variedad de perfiles psicológicos individuales que son totalmente compatibles con ciertos roles funcionales concretos dentro de ese engranaje más amplio. Como comentaron Satz y Ferejohn (ibíd., pág. 79): «Muchos conjuntos de motivaciones individuales son compatibles con las limitaciones que el entorno competitivo del mercado impone a la conducta de una empresa. Con frecuencia, cuando explicamos la conducta de una empresa nos encontramos con pautas causales que se mantienen constantes en las diversas prácticas de actividad maxi- mizadora que encontramos en la Inglaterra calvinista y en la Comunidad de Ahorro y Préstamo de Texas».
En cambio, la teoría de la conducta de los consumidores es floja y tiene menos éxito. La razón de ello es que las ideas y la visión del mundo de cada individuo tienen preponderancia en las elecciones de consumo y el andamiaje externo es proporcionalmente más débil. De manera similar, la teoría de la conducta de los votantes es floja en comparación con la teoría de la conducta de los partidos durante las convocatorias electorales. Como ocurría antes, sólo sobreviven los partidos que superan la fuerte presión selectiva que impone la actividad orientada a maximizar los votos. En comparación, la elección individual es relativamente espontánea (ibíd., págs. 79-80).
Según Satz y Ferejohn, el factor crucial que distingue los casos con éxito de los casos sin éxito (del empleo de la teoría neoclásica que supone la racionalidad sustantiva) es la disponibilidad de una teoría de intereses determinada estructuralmente. En los casos donde el entorno estructura- dor global actúa para seleccionar acciones limitadas que se ajusten a un modelo específico de preferencias, la teoría neoclásica funciona. Y funciona porque la psicología individual deja de importar: las «preferencias» están impuestas por la situación más amplia y no hace falta que se repitan en la psicología individual. Por ejemplo, en un sistema electoral democrático bipartidista, la situación global selecciona al partido que actúa para maxi-
238 Más allá
mizar los votos. Esta fuerza estructurados externa nos permite atribuir «preferencias» a partir de las limitaciones para obtener el éxito en este engranaje mayor. Las limitaciones para los votantes individuales son mucho más débiles. Por tanto, los perfiles psicológicos reales pasan a un primer plano y la teoría neoclásica fracasa (Satz y Ferejohn, 1994, págs. 79-80; North, 1993, pág. 7). Este diagnóstico general está apoyado por el análisis de Denzau y North (1995), quienes destacan que la teoría económica tradicional construye buenos modelos de la elección en mercados competitivos de precio fijo y en ciertos estudios experimentales restringidos. En estos casos, según ellos, determinados aspectos institucionales desempeñan papeles importantes en el fomento de un rendimiento económico «de estilo maximizador». A modo de ilustración, Denzau y North citan algunos estudios computacionales fascinantes realizados por Gode y Sunder (1992) que se basan en unos agentes de bolsa de «inteligencia nula», unos agentes simulados que no teorizan, ni recuerdan sucesos, ni tratan de maximizar los resultados de una manera activa. Cuando se limitó a estos agentes simples a que sólo pujaran cuando ello no acarreara pérdidas inmediatas, se alcanzó una eficiencia del 75 % (medida como «porcentaje de la suma de las rentas potenciales de compra y venta» (ibíd., pág. 5). Sustituir los agentes de inteligencia nula (IN) por seres humanos sólo aumentó la eficiencia en un simple 1 %. Pero la alteración del andamiaje institucional (por ejemplo, reunir todas las ofertas en una subasta doble antes de contratar o permitir ofertar y contratar simultáneamente) provocó una mejora del 6 %. La conclusión firme es que «la mayor parte de los aumentos de eficiencia en algunas situaciones de distribución de recursos se pueden atribuir a detalles institucionales, independientemente de sus efectos en agentes racionales» (ibíd., pág. 5).
Los resultados de los experimentos con agentes IN demuestran claramente el poder de los entornos institucionales y de las limitaciones externas para fomentar conductas colectivas que se ajusten al modelo de la racionalidad sustantiva. Estos resultados encajan muy bien con las noticias, por lo demás inquietantes, de que la mayor parte de la economía tradicional no se vería afectada si las personas eligieran al azar (Alchian, 1950, citado en Satz y Ferejohn, 1994) en vez de maximizar la satisfacción de sus preferencias, y de que las palomas y las ratas con frecuencia pueden rendir de maneras coherentes con la teoría de la racionalidad sustantiva (Kagel, 1987, citado en Satz y Ferejohn, 1994). Estos resultados tienen sentido si el andamiaje de la elección por medio de estructuras restrictivas de escala superior es, en ocasiones, el portador más vigoroso de fuerza maximizadora. En los casos más extremos de esta restricción, el individuo que elige no es más que una simple pieza que desempeña el mismo papel funcional limitado que también pueden
Mentes y mercados I 239
desempeñar un agente de inteligencia nula, una paloma, una rata, un agente humano o, en los peores casos, un dispositivo que funcione a cara o cruz.7
9.3 ¿Oficinas inteligentes?
Todo lo dicho hasta ahora indica que el andamiaje es importante: la estructuración externa proporcionada por instituciones y organizaciones carga con gran parte del peso explicativo para interpretar las pautas económicas actuales. Para ver dónde encaja la psicología humana, empecemos por preguntarnos: ¿qué tipo de mente individual necesita un andamiaje externo?
Como hemos visto, un papel vital de las estructuras y los andamiajes externos está plenamente predicho por trabajos recientes sobre la cognición individual. La noción de racionalidad limitada de Simón (1982) probablemente fue el primer paso en esta dirección. Pero aunque Simón rechazó con razón la noción de los agentes humanos como razonadores lógicos perfectos, siguió comprometido con un modelo de computación básicamente clasicis- ta (véanse la introducción y el capítulo 3 anteriores) que implicaba unas reglas explícitas y unas estructuras de datos cuasi lingüísticas. La principal diferencia era el empleo de la heurística con el objetivo de satisfacer más que de optimizar, es decir, el empleo de «reglas generales» para encontrar una solución viable con unos gastos mínimos de tiempo y potencia de procesamiento.
El resurgir de las ideas conexionistas (redes neuronales artificiales, pro cesamiento distribuido en paralelo; véase el capítulo 3 anterior) nos llevó aún más allá al poner en duda los modelos clásicos de la representación interna y del proceso computacional.
En el apartado 3.3 anterior vimos que, de hecho, estos sistemas sustituyen el razonamiento y la inferencia paso a paso por el reconocimiento rápido de patrones. Esta sustitución produce un perfil concreto de puntos fuertes (aptitudes motrices, reconocimiento de rostros, etc.) y débiles (planificación a largo plazo, lógica) que nos permite determinar de qué manera las estructuras externas pueden complementar y potenciar la cognición individual aislada. Se había argumentado que las estructuras externas nos permitían su
7. Con esto no quiero afirmar (erróneamente) que las elecciones extremadamente andamiadas siempre se ajustan a las normas de la racionalidad sustantiva. Esto sólo ocurre si el mismo andamiaje institucional ha evolucionado como resultado de una presión selectiva para roa- ximizar las recompensas, y si el entorno económico ha permanecido estable o si el propio andamiaje institucional original incorpora una flexibilidad suficiente para abordar cambios posteriores.
240 I Más allá
perar dominios de problemas que requerían un despliegue secuencial y sistemático de capacidades básicas para la compleción de patrones y para la producción y reutilización de resultados intermedios. El sencillo ejemplo presentado en e! capítulo 3 anterior se refería al empleo de lápiz y papel para extender unos conocimientos aritméticos simples (por ejemplo, que 7 x 7 = 49) a la solución de problemas más complejos (por ejemplo, 777 x 777). Ahora podemos ver, de una manera muy general, que las instituciones, las empresas y las organizaciones parecen compartir muchas propiedades esenciales con el lápiz, el papel y la práctica aritmética de este ejemplo. El lápiz y el papel proporcionan un medio externo en el que nos comportamos (empleando recursos básicos en línea) según dicte la práctica o política general de las multiplicaciones largas. La mayoría de nosotros no conocemos la justificación matemática del procedimiento. Pero lo empleamos y funciona. De manera similar, las empresas y las organizaciones constituyen un recurso externo donde los individuos se comportan de acuerdo con una serie de normas, políticas y prácticas. En estos ámbitos, la resolución cotidiana de problemas suele suponer el empleo de estrategias de reconocimiento de patrones localmente eficaces que se invocan como resultado de alguna incitación externa (como un papel verde en la bandeja de «entrada», cumplimentado de una manera prefijada) y que dejan huellas en forma de otras señales (hojas de papel, mensajes de correo electrónico, etc.) que estarán disponibles para manipulaciones futuras dentro del engranaje más amplio de la empresa. En estos contextos, al menos a corto plazo, el papel de la racionalidad individual puede llegar a ser marginal. Si el engranaje global y las estrategias se han seleccionado para maximizar los beneficios, el hecho de que los individuos sean piezas que desplieguen formas muy limitadas de racionalidad, orientada a la compleción de patrones, carecerá de importancia. (Se podría decir que las neuronas individuales son piezas aún más limitadas, pero una vez organizadas en cerebros mediante la selección natural también sostienen una razón más elevada).
Así pues, gran parte de lo que sucede en el complejo mundo de los seres humanos se puede comprender, de una manera un tanto sorprendente, como si implicara algo semejante a los «algoritmos estigmérgicos» presentados en el apartado 4.3 anterior. Recordemos que la estigmergia supone el empleo de estructuras externas para controlar, inducir y coordinar acciones individuales. También es posible modificar estas estructuras externas y moldear así las conductas futuras. En el caso de la construcción de termiteros, aunque las acciones de cada termita están controladas por la estructura local del nido, esas mismas acciones suelen producir modificaciones en la estructura que, a su vez, inducen a los mismos -o a otros- individuos a desarrollar más actividad. Naturalmente, aunque los seres humanos se encuentran in
Mentes y mercados I 241
mersos en los entornos restrictivos de grandes instituciones sociales, políticas o económicas, ¡no son termitas! A diferencia de las termitas, nosotros no desempeñaremos siempre una acción sólo porque un estímulo externo parezca exigirlo. Sin embargo, nuestros éxitos (y a veces nuestros fracasos) colectivos se suelen comprender mejor si consideramos que el individuo sólo elige sus respuestas dentro de las limitaciones -con frecuencia poderosas- impuestas por los contextos de acción más amplios de carácter social e institucional. Y de hecho esto es justamente lo que cabe esperar cuando reconocemos que la naturaleza computacional de la cognición individual no es ideal para abordar ciertos ámbitos complejos. Al parecer, en estos casos sólo resolvemos el problema (por ejemplo, construir un «Jumbo» o gobernar un país) de una manera indirecta, creando estructuras externas más grandes, tanto físicas como sociales, que puedan inducir y coordinar una larga sucesión de episodios -que se pueden tratar individualmente- de resolución de problemas, conservando y transmitiendo las soluciones parciales a lo largo de la sucesión.
9.4 Dentro de la máquina
Las organizaciones, las fábricas, las oficinas, las instituciones y otras entidades similares son los andamiajes a gran escala de nuestro éxito cognitivo distintivo. Sin embargo, estas totalidades más amplias, al tiempo que ofrecen información y andamiaje al pensamiento individual, también reciben estructura e información a través de los actos de comunicación de los individuos y mediante episodios de resolución de problemas en solitario. Un proyecto crucial para las ciencias cognítivas de la mente corpórea es iniciar la difícil tarea de comprender y analizar esta compleja relación reciproca: una tarea de enormes proporciones que exigirá el empleo de simulaciones que operen en múltiples escalas de tiempo y niveles de organización, Lo ideal sería que estas simulaciones abarcaran el cambio evolutivo genético, el aprendizaje y la resolución de problemas de carácter individual, los procesos de evolución de culturas y artefactos y las capacidades emergentes para la resolución de problemas de grupos de agentes en comunicación. Sin embargo, y muy a mi pesar, esto es pedir demasiado dada la situación actual en este campo Pero al menos es posible empezar a rascar la superficie de estas cuestiones.
Se han dado algunos intentos apreciables de construir modelos para parte de la interacción entre la evolución genética y el aprendizaje individual (Ackley y Littman, 1992; Nolfi y Parisi, 1991; véanse discusiones en Clark, 1993 y Clark, 1996b). Sin embargo, para la presente discusión son más pertinentes los intentos de construir modelos de la interacción entre el aprendí-
242 j Más allá
zaje individual, la evolución de culturas y artefactos, y las pautas de comunicación entre grupos. Siguiendo esta línea, Hutchins (1995) se propuso investigar la influencia de diversas pautas de comunicación en las capacidades colectivas de resolución de problemas de grupos pequeños de «agentes» artificiales simples. En esta simulación, cada agente era una red neuronal pequeña que comprendía algunas unidades de procesamiento conectadas entre sí. Cada unidad codificaba algún rasgo específico del entorno. Unos vínculos excitadores conectaban entre sí rasgos que se sustentaban mutuamente; otros vínculos inhibidores conectaban entre sí rasgos mutuamente contradictorios. Por ejemplo, un rasgo como «es un perro» sería codificada por una sola unidad con vínculos excitadores con (por ejemplo) las unidades «ladra» y «es peludo» y con vínculos inhibidores con (por ejemplo) las unidades «maúlla» y «es un gato» (estando estas dos últimas vinculadas entre sí mediante una conexión excitadora). Estas redes se conocen como redes de satisfacción de restricciones.
Una vez configuradas (mediante el aprendizaje o codificándolas a mano) las redes de satisfacción de restricciones muestran unas notables propiedades de razonamiento semejantes a la compleción de patrones. Imaginemos que las diversas unidades reciben señales de entrada procedentes del entorno. La activación de unas pocas unidades que figuren en una red de conexiones excitadoras producirá actividad en todas las unidades restantes de esa red. Así, la entrada «ladra» producirá un perfil de activación global adecuado para la categoría «perro», etc. Con frecuencia, las unidades individuales «eligen» entre responder (activarse) o no sumando las entradas recibidas a través de diversos canales y comparando el resultado con un valor de umbral. Como resultado, cuando una red de satisfacción de restricciones se ha acostumbrado a una interpretación de la entrada (por ejemplo, haciendo que se activen todas las unidades relacionadas con las características del perro), eliminar esta interpretación puede ser difícil porque las unidades se prestan entre sí un apoyo considerable. Según Hutchins, esta característica de esta clase redes concuerda bastante bien con el familiar efecto psicológico del sesgo a la confirmación, es decir, la inclinación a desatender, descartar o reinterpretar de una manera creativa las pruebas que van contra alguna hipótesis o modelo que ya se ha establecido (como una entrada «maúlla» aislada; véase, por ejemplo, Wason, 1968).
Ahora imaginemos una comunidad de redes de satisfacción de restricciones donde cada red tiene un nivel distinto de actividad inicial («predisposición») y un acceso diferente a los datos del entorno. Hutchins demuestra que, en estos casos, la manera precisa en que se estructura la comunicación entre las redes marca una profunda diferencia en el tipo de resolución colectiva de problemas que vaya a aparecer. Sorprendentemente, Hutchins (pág. 252) en
Mentes y mercados I 243
contró que, en esta clase de casos, no siempre es mejor más comunicación que menos. En particular, si desde el principio se permite que todas las redes influyan en la actividad de las demás (que se comuniquen), el sistema global muestra un grado extremo de sesgo a la confirmación: mucho más que cualquiera de las redes estudiadas por separado. La razón es que la densidad de las pautas de comunicación impone una fuerte tendencia a descubrir con rapidez una interpretación compartida de los datos, es decir, a encontrar un patrón de actividad estable para todas las unidades. En vez de asignar el valor debido a los datos externos que reciben como entrada, las redes se vuelcan mucho más en estas restricciones internas (la necesidad de en contrar un conjunto de patrones de activación que no perturbe a las otras redes). Como resultado, el grupo social se precipita «hacia la interpretación más cercana al centro de gravedad de sus predisposiciones, independientemente de la evidencia» (ibíd., pág. 259).
En cambio, si limitamos el nivel de comunicación inicial daremos tiempo a cada red para que equilibre sus predisposiciones con la información procedente del entorno. Si la comunicación entre las redes se posibilita después, el sesgo global a la confirmación se reduce activamente: es decir, el grupo tiene más probabilidades de encontrar una solución correcta que cualquiera de sus integrantes por separado. Estos resultados indican que la ventaja colectiva de un jurado sobre una decisión individual se puede disipar proporcio- nalmente al nivel de comunicación inicial entre sus miembros.8 Con todo, lo más importante es que este ejemplo ilustra una manera de poder empezar a comprender, de una forma rigurosa, algunos aspectos de la delicada interacción entre la cognición individual y la dinámica de grupo. Sin duda, esta comprensión será crucial para apreciar mejor las funciones de las estructuras institucionales y organizativas en la resolución colectiva de problemas, y para determinar el papel del equilibrio entre la cognición individual y el andamiaje externo al que esa misma cognición da forma y en cuyo seno habita.
Una consecuencia de la sencilla demostración acabada de presentar es que hay espacio para que evolucionen pautas de comunicación entre los agentes (a lo largo del tiempo cultural-evolutivo) que satisfagan mejor las necesidades de resolución de problemas de un colectivo determinado. En una fascinante simulación anterior, Hutchins y Hazelhurst (1991) mostraron que los artefactos culturales (palabras y símbolos) que fluyen por el interior de la máquina colectiva pueden «evolucionan para satisfacer mejor ciertas nece
8. Compárese con el teorema del jurado de Condorcet, según el cual si (entre otras cosas) las elecciones del jurado son independíenles, entonces el voto por mayoría del jurado será correcto con más frecuencia que el de cualquiera de sus integrantes por separado.
244 t Más allá
sidades específicas de resolución de problemas. En este estudio, Hutchins (un científico cognitivo) y Hazelhurst (un antropólogo cultural) crearon una sencilla simulación por ordenador en la que varias generaciones consecutivas de redes conexionistas sencillas mejoraban gradualmente su capacidad para resolver problemas creando y pasándose un conjunto de artefactos culturales: concretamente, un lenguaje simple que codificaba información sobre algunas correlaciones destacadas entre sucesos del entorno. Esta simulación se basaba en un grupo de «ciudadanos» (redes conexionistas) capaces de aprender a partir de dos tipos de estructuras del entorno: unas «estructuras naturales» (correlaciones observadas entre sucesos y, en este caso, entre las fases de la luna y la marea) y unas «estructuras artificiales» (que suponían aprender mediante la exposición a símbolos que representan ios estados de la luna y de la marea). Gracias a su capacidad intrínseca para la compleción de patrones y el aprendizaje, estas redes pueden aprender a asociar símbolos con sucesos y a denotar sucesos mediante símbolos. Por tanto, pueden generar símbolos para reflejar experiencias y pueden emplear estos símbolos para ocasionar los tipos de experiencia que normalmente provocaría el suceso real (que, en sí mismo, no es más que otro tipo de codificación en esta simulación sencilla). En consecuencia, la exposición a unos símbolos produce una especie de «experiencia vicaria» de los sucesos asociados. Además, algunas simulaciones incorporaban un «sesgo en la selección de artefactos» donde unos productos culturales (estructuras de símbolos) eran seleccionados por otros ciudadanos con una probabilidad que reflejaba, en parte, la competencia (el grado de éxito) de la red que los había producido.
El estudio de Hutchins-Hazelhurst suponía observar el éxito relativo de muchas generaciones de redes. Pero, a diferencia del trabajo sobre algoritmos genéticos examinado en el capítulo 5 anterior, todas las generaciones eran idénticas en cuanto a estructura interna: no se permitía ninguna mejora genética. A pesar de ello, la acumulación gradual de mejores artefactos externos (las estructuras simbólicas que representaban los estados de la luna y las mareas) permitió que las generaciones posteriores aprendieran unas regularidades ambientales que las generaciones anteriores a ellas no habían podido aprender. La contribución de cada individuo a las generaciones futuras no era genética: consistía en un artefacto simbólico que comprendía entradas para las fases de la luna y los estados de la marea. En parte, los ciudadanos de generaciones posteriores recibían entrenamiento con los artefactos generados por sus predecesores inmediatos, aunque la selección de estos artefactos se hacía o bien al azar (todos los artefactos de la generación anterior tenían la misma probabilidad de ser empleados) o bien en relación con el sesgo de selección (favoreciendo así a los mejores artefactos).
Mentes y mercados I 245
Los resultados fueron claros: las primeras generaciones no podían predecir la regularidad. Las generaciones posteriores, idénticas al nacer y empleando los mismos procedimientos de aprendizaje, fueron capaces de resolver el problema. Las simulaciones en las que intervenía el sesgo de selección tuvieron más éxito que las basadas en la elección al azar. Por tanto, la existencia de unos productos artificiales y de unas estrategias para seleccionar estos productos posibilita un tipo de aprendizaje multigeneracio- nal que es independiente del cambio genético y que amplía enormemente los horizontes del aprendizaje individual.9
En estas sencillas simulaciones vemos algunos de los primeros intentos de dar un poco de cuerpo cuantitativo y analítico a las ideas sobre la resolución colectiva de problemas en comunidades de agentes capaces de crear y explotar diversos tipos de estructuras externas de símbolos. Estas estructuras de símbolos son la «sangre» que fluye por el tejido social e institucional más amplio que moldea y habilita el pensamiento humano individual.
9.5 Entornos de diseño
Hace poco, Rodney Brooks, el creador de muchos de los robots móviles descritos en capítulos anteriores, planteó esta pregunta: ¿cómo podemos obtener una conducta coherente a partir de múltiples procesos adaptatívos sin un control centralizado? Se trata de una pregunta acuciante si, como sospechan muchos neurocientíficos y especialistas en robótica, incluso la cognición humana avanzada depende de múltiples sistemas internos, con una comunicación limitada, que explotan formas de representación interna parciales y orientadas hacia la acción. Sin el gran homúnculo central -el área interna donde, como dice Dennett (1991), todo «se junta»- ¿qué impide que la conducta se convierta en caótica y contraproducente? Brooks (1994) considera tres fuentes de restricción: la coherencia natural (donde el mundo físico determina, por ejemplo, que la acción A se realice antes que la acción B), la coherencia diseñada (donde el sistema posee, por ejemplo, una jerarquía preincorporada de metas) y diversas formas de modulación global de bajo coste (como los efectos hormonales).
A esta lista podemos añadir ahora la idea de automodulación estigmérgi- ca: el proceso mediante el cual los cerebros inteligentes estructuran activamente sus propios mundos externos (físico y social) para suscitar acciones exitosas con menos cómputo individual. Al parecer, la coherencia y la fuer
9. Vease más información sobre la interacción entre el aprendizaje humano y los artefac tos culturales en Norman, 1988 y en el apartado 10.3 posterior.
246 I Más allá
za de la resolución de problemas de gran parte de la actividad humana puede estar enraizada en el hecho simple, pero con frecuencia desatendido, de que somos los seres que más explotan los andamiajes externos de todo el planeta. Construimos «entornos de diseño» en los que la razón humana es capaz de sobrepasar ampliamente el ámbito computacional del cerebro biológico básico. Por tanto, la razón avanzada es, más que nada, el reino del cerebro andamiado: el cerebro en su contexto corporal, interaccionando con un mundo complejo de estructuras físicas y sociales. Estas estructuras externas limitan y potencian a la vez las actividades de resolución de problemas del cerebro básico, cuyo papel principal es sustentar una sucesión de respuestas iteradas y locales de compleción de patrones. Dentro de este paradigma, los éxitos de la economía clásica (por citar sólo un ejemplo) emergen como si dependieran básicamente de la dinámica a corto plazo de respuestas fuertemente determinadas por tipos particulares de estructuras organizativas o institucionales: estructuras que, a su vez, han evolucionado como resultado de la presión selectiva para maximizar cierto tipo de gratificaciones.
Con todo, en la mayoría de los casos estos mismos andamiajes externos son producto del pensamiento y la actividad de seres humanos aislados o en colectividad. Por tanto, la presente discusión apenas rasca la superficie de un proyecto enorme y difícil: comprender la manera en que nuestro cerebro estructura y habita a la vez un mundo poblado de culturas, países, lenguas, organizaciones, instituciones, partidos políticos, redes de correo electrónico y toda la inmensa parafemalia de estructuras externas y andamiajes que orientan y dan contenido a nuestras acciones cotidianas.
Todo esto, como observa Hutchins (1995) de forma harto significativa, sólo sirve para recordarnos algo que ya sabíamos: si nuestros logros superan a los de nuestros antepasados, no es porque nuestros cerebros sean más inteligentes que los suyos. Nuestros cerebros son las piezas de unos engranajes sociales y culturales más grandes que muestran la huella de los ingentes esfuerzos realizados anteriormente por individuos y colectividades. En un sentido bastante literal, este engranaje es la corporeización persistente de la riqueza de conocimientos alcanzados. Esta gigantesca razón extendida es la que más se beneficia de nuestros simples esfuerzos individuales y por ello constituye el vehículo principal de nuestro éxito cognitivo distintivo.
10 Lenguaje: el artefacto definitivo
10.1 El poder de la palabra
¿Qué hace por nosotros el lenguaje público? Hay una respuesta fácil y común que, si bien no es incorrecta, induce sutilmente a error. Esta respuesta es que el lenguaje nos ayuda a comunicar ideas, permitiendo que otros seres humanos se beneficien de lo que sabemos y que nosotros nos beneficiemos de lo que saben los demas. Sin duda esto es cierto y establece una de las principales fuentes de nuestro éxito cognitivo. Con todo, el énfasis en el lenguaje como medio de comunicación tiende a cegarnos ante otro papel más sutil, pero igualmente poderoso: el papel del lenguaje como instrumento1 para alterar la naturaleza de las tareas computacionales que intervienen en diversos tipos de resolución de problemas.
La idea básica es muy sencilla. Consideremos un artefacto o instrumento familiar como unas tijeras.7 Normalmente, un artefacto como éste suele pre- 1 2
1. Entre los autores recientes que suscriben alguna versión de este punto de vista del lenguaje se incluyen Dennett (1991, 1995), Carruthcrs (1996) y. posiblemente, Gauker (1990, 1992) Carruthcrs distingue muy cuidadosamente entre el interés «comunicativo» y el interés «cognitivo» del lenguaje (págs. 44 y 52). En el apartado 10.2 posterior intentaré aclarar algunas similitudes y diferencias entre estas concepciones y la noción del lenguaje como transformador cnmputacional. En una línea parecida, McClamrock (1995) ofrece una interesante explicación del «lenguaje embebido» donde destaca hechos acerca del contexto externo (físico y social) en el que se usa el lenguaje. Aunque la discusión de McClamrock (véase, por ejemplo, ibíd., págs. 116-131) se centra en el debate entre las teorías «intemalisras» y «externalistas» del significado, varías de sus observaciones tienen que ver directamente con mis intereses y los examinaré en el apartado 10.3 posterior. La perspectiva que desarrollo está muy en deuda con e! tratamiento que hace Hutchins (1995) del papel de los medios extemos en la construcción de sistemas cognitivos extendidos (véanse también los capítulos 4 y 9 anteriores).
2. Richard Gregory (1981) comenta el papel de los artefactos (incluyendo las tijeras)
248 I Más allá
sentar una adaptación doble: un ajuste bidireccional, con el usuario por un lado y con la tarea por otro. Por una parte, la forma de las tijeras se adapta muy bien a la forma y las capacidades de manipulación de la mano humana. Por otra parte, cuando el artefacto se utiliza confiere al agente unas capacidades o facultades características que los seres humanos no poseen de manera natural: la capacidad de hacer cortes rectos y limpios en ciertos papeles y tejidos, la capacidad de abrir envoltorios, etc. Esto no puede ser más evidente: después de todo, ¿por qué otra razón valoramos este artefacto?
En muchos aspectos, el lenguaje público es el artefacto definitivo. No sólo nos confiere facultades adicionales de comunicación; también nos permite reestructurar una variedad de tareas difíciles, pero importantes, y darles unos formatos más adecuados para las capacidades computacionales básicas del cerebro humano. De la misma manera que las tijeras nos permiten explotar nuestras capacidades manipuladoras básicas para alcanzar nuevos fines, el lenguaje nos permite explotar nuestras capacidades cognitivas básicas de transformación y reconocimiento de patrones para que se amplíen hacia nuevos horizontes conductuales e intelectuales. Además, como el lenguaje público también presenta la adaptación doble descrita anteriormente, puede constituir un conjunto de artefactos lingüísticos cuya misma forma ha evolucionado, en parte, para explotar las contingencias y los sesgos del aprendizaje y el recuerdo de los seres humanos. (Esta adaptación inversa -del artefacto al usuario- podría ser la base de una nueva perspectiva sobre la controversia acerca de los mecanismos innatos para la adquisición y la comprensión del lenguaje.) Por último, la pura intimidad de las relaciones entre el pensamiento humano y los instrumentos del lenguaje público nos plantea el interesante y delicado enigma consistente en determinar dónde acaba el usuario y dónde empieza el instrumento.
10.2 Más allá de la comunicación
La idea de que el lenguaje puede hacer mucho más que servir simplemente como vehículo para la comunicación no es nueva. Está claramente presente en el trabajo de especialistas en el desarrollo como Lev Vy- gotsky (1962) y Laura Berk (véase, por ejemplo, Díaz y Berk, 1992). Fi-
como medios para reducir la carga computacional del individuo y ampliar nuestros horizontes conductuales. Daniel Dennett (1995, págs. 375-378) se ha dedicado al mismo tema, describiendo una clase de animales a los que denomina seres «gregorianos» (en homenaje a Richard Gregory): seres que explotan anefactos diseñados como amplificadores de la inteligencia y como depósitos del conocimiento y la sabiduría adquiridos. Véase también Norman, 1988.
Ei lenguaje: un artefacto definitivo I 249
gura en los argumentos y las conjeturas filosóficas de, por ejemplo, Peter Carruthers (1996) y Ray Jackendoff (1996). Y aparece en las especulaciones más orientadas hacia la ciencia cognitiva de Daniel Dennett (1991, 1995). Será útil examinar algunas ideas fundamentales de esta literatura antes de seguir con nuestra versión preferida: concretamente, la idea del lenguaje como transformador computacional que permite a los cerebros completadores de patrones abordar problemas cognitivos que, si no, serían intratables.
Durante los años treinta, Vygotsky, un psicólogo de la época, propuso la idea de que el empleo del lenguaje público tiene unos profundos efectos en el desarrollo cognitivo. Postuló unos fuertes vínculos entre el discurso, la experiencia social y el aprendizaje. Dos ideas de Vygotsky que son especialmente pertinentes para nuestros fines actuales se refieren al habla privada y la acción andamiada (la acción realizada dentro de la «zona de desarrollo proximal»; véanse Vygotsky, 1962 y el capítulo 3 anterior). Decimos que una acción está «andamiada» si se basa en algún apoyo externo. Este apoyo puede consistir en el empleo de instrumentos o en la explotación del conocimiento y las aptitudes de otras personas; dicho en otras palabras, el concepto de andamiaje (tal como yo lo utilizaré)5 abarca una amplia clase de potenciaciones físicas, cognitivas y sociales que nos permiten alcanzar una meta que, en caso contrario, sería inalcanzable. Como ejemplos sencillos se pueden citar el empleo de un compás para trazar un círculo perfecto, el papel de los miembros de una tripulación para que el piloto mantenga el rumbo y la capacidad de un niño pequeño para dar sus primeros pasos cuando sus padres lo sostienen. Aunque la noción de «zona de desarrollo proximal» de Vygotsky se refiere a los casos en que un niño es temporalmente capaz de tener éxito en determinadas tareas sólo mediante la orientación o la ayuda proporcionada por otro ser humano (normalmente uno de los padres o un educador), esta noción encaja con el interés de Vygotsky en el habla privada de la manera siguiente: cuando un niño sigue las indicaciones verbales de un agente más experimentado, con frecuencia puede tener éxito en tareas que, en caso contrario, encontraría imposibles de realizar (pensemos en cuando aprendimos a atarnos los cordones de los zapatos). Más adelante, cuando el adulto no está presente, el niño puede llevar a cabo un diálogo similar, pero esta vez consigo mismo. Aunque hay quien dice que, incluso en este último caso, el había (sea en 3
3. Como mencioné en el capítulo 3 anterior, esta utilización es algo más amplia de lo ñor mal. Gran parte de la literatura de inspiración soviética considera que el andamiaje es intrín secamente social. Yo amplío esta noción para incluir todos los casos donde se hacen intervenir estructuras externas para potenciar la resolución de problemas.
250 I Más allá
voz alta, sea «interiorizada») desempeña la función de orientar la conducta, enfocar la atención y evitar errores comunes. En estos casos, el papel del lenguaje consiste en orientar y dar forma a nuestra propia conducta: es un instrumento para estructurar y controlar la acción, no un mero medio de transferencia de información entre agentes.
Esta idea de Vygotsky está apoyada por investigaciones más recientes sobre el desarrollo. Berk y Garvin (1984) observaron y grabaron el discurso de un grupo de niños de edades comprendidas entre cinco y diez años. Encon traron que la mayor parte de su habla privada (no dirigida a otros oyentes) parecía orientada a dirigir y controlar las propias acciones del niño y que la incidencia de este discurso aumentaba cuando el niño estaba solo y trataba de llevar a cabo alguna tarea difícil. En estudios posteriores (Bivens y Berk, 1990; Berk, 1994) se encontró que los niños que más hablaban para sí eran los que después dominaban mejor las tareas. A partir de este estudio y de otros similares, Berk llegó a la conclusión de que el habla dirigida hacia uno mismo (sea en voz alta, sea interiorizada) es un instrumento cognitivo crucial que nos permite destacar las características más desconcertantes de situado nes nuevas, y dirigir y controlar mejor nuestras propias acciones orientadas a la resolución de problemas.
El tema del lenguaje como instrumento también ha sido desarrollado por el filósofo Christopher Gauker. Sin embargo, el interés de Gauker se centra en replantear el papel intraindividual del lenguaje en función de lo que él denomina «análisis causa-efecto». La idea es describir el lenguaje público «no como un instrumento para representar el mundo o expresar los propios pensamientos, sino como un instrumento para efectuar cambios en el propio entorno» (Gauker, 1990, pág. 31). Para captar el sabor de esta afirmación, consideremos el empleo de un símbolo por parte de un chimpancé para pedir un plátano. El chimpancé pulsa una teda concreta de un teclado (la situación física precisa de la tecla puede variar en cada prueba) y aprende que hacer que se ilumine ese símbolo tiende a provocar que aparezcan plátanos. Según Gauker, la comprensión cuasi lingüística del chimpancé es explicable en función de su reconocimiento de una relación causa-efecto entre la produc ción de un símbolo y cambios en su entorno local. Gauker examina una variedad de conductas de empleo de símbolos y concluye que todos sucumben a este tipo de análisis. Esto le lleva a suponer que, si bien la comprensión lingüística de los seres humanos es claramente más compleja, también «consiste en captar las relaciones causales en las que pueden intervenir los signos lingüísticos» (ibíd., pág. 44).
Gauker tiende a ver el rol del lenguaje como si fuera, por así decir, directamente causal: como una manera de conseguir que se hagan las cosas, muy parecida a alargar la mano y tomar una tarta. Sin embargo, la idea de
El lenguaje: un artefacto definitivo I 251
que aprendemos mediante la experiencia las fuerzas causales peculiares de unas señales y unos símbolos concretos es, en principio, mucho más amplia, incluso podríamos descubrir, como en los ejemplos de Vygotsky, que la emisión de palabras y frases dirigidas a nosotros mismos tiene ciertos efectos en nuestra propia conducta.4 5 También podríamos aprender a explotar el lenguaje como instrumento de una manera mucho más indirecta, para alterar la forma de los espacios de problemas computacionales (véase el apartado 10.3 siguiente).
Una pregunta evidente que plantea el supuesto papel del lenguaje como instrumento dirigido hacia uno mismo es, «¿cómo funciona?». ¿Qué tiene el habla dirigida hacia uno mismo que la hace adecuada, por ejemplo, para desempeñar una función orientadora? Después de todo, ¡no está nada claro cómo nos podemos decir algo que no sepamos ya! En este sentido, es indudable que el lenguaje público puede llegar a ser, como mucho, un medio para expresar ideas ya formuladas y entendidas en otro código interno más básico. Sin embargo, éste es precisamente el punto de vista que una explicación «supracomunicativa» del lenguaje tiene que rechazar en última instan cia. Una manera de rechazarlo consiste en describir el lenguaje público como si él mismo fuera el medio para un tipo especial de pensamiento. Otra manera (en modo alguno exclusiva y no del todo definida) consiste en describir las entradas linguaformes como si tuvieran efectos distintivos en algún dispositivo computacional interno. Carruthers (1996) defiende la primera; Dennett (1991) ofrece una versión de la segunda.’ Carruthers argumenta que, en este caso por lo menos, deberíamos tomarnos muy en serio la evi dencia de nuestra propia introspección. Por supuesto, muchas veces parece que nuestros propios pensamientos estén compuestos por palabras y oraciones del lenguaje público. Y según Carruthers, la razón de que tengamos esta impresión es porque es verdad: «...el pensamiento interno se da, literalmente, en forma de habla interna».6 Por extensión, Carruthers considera que muchos empleos del lenguaje, más que una cuestión de simple comunica
4. Creo que esta idea se origina en la convincente discusión de Dennett (1991, capítulos 7 y 8) acerca del papel de las palabras como medio de autoestimulación. La discusión de este tema continúa en el capítulo 13 de Dennett, 1995.
5. Un foco fundamental de los tratamientos de Carruthers y de Dennett es la relación entre lenguaje y conciencia. No discutiré estas cuestiones aquí, salvo para decir que me inclino más por Churchland (1995, capítulo 10), quien describe la conciencia básica como la propiedad común de los seres humanos y de muchos animales no lingüísticos. El lenguaje aumenta increíblemente el poder de la cognición humana. Pero no creo que intervenga en las percepciones básicas del placer, el dolor y el mundo sensorial inherentes al verdadero misterio de la conciencia.
6. Véase una detallada exposición en el capítulo 2 de Carruthers (1996).
252 I Más allá
ción, son una cuestión de lo que él acertadamente denomina pensamiento público. Esta perspectiva encaja satisfactoriamente con la noción de Vygotsky defendida por Berk y también es aplicable al interesante caso de escribir nuestras ideas. Según Carruthers (ibíd., pág. 56), «no es que primero tengamos un pensamiento personal y después lo escribamos, sino que pensar es el escribin>. Volveré más adelante a esta cuestión (véanse el apartado 10.3 y el epílogo posteriores) porque creo que, si bien lo que dice Carruthers es casi correcto, podemos comprender mejor su idea tratando la escritura como una manipulación del entorno que transforma el espacio de problemas para los cerebros humanos.
Como ya se ha dicho, otra manera de desarrollar un punto de vista su- pracomunicativo del lenguaje consiste en suponer que, en realidad, las entradas lingüísticas reprograman o alteran de alguna otra manera la estructura computacional de alto nivel del cerebro mismo. Aunque su interpretación es delicada (y, en consecuencia, tentativa), Dennett (1991, pág. 278) parece sostener este punto de vista cuando propone que «las mentes humanas conscientes son máquinas virtuales más o menos seriales, implementadas de manera ineficiente en el hardware en paralelo que la evolución nos ha proporcionado». En éstos y en otros pasajes del mismo trabajo, la idea parece ser que bombardear (algo parecido a) un cerebro que procesa en paralelo, que es conexionista y que completa patrones con (entre otras cosas) textos y frases en lenguaje público (recordatorios, planes, exhortaciones, preguntas, etc.), da como resultado un tipo de reorganización cognitiva semejante a la que se produce cuando un sistema informático emula a otro. En tales casos, la instalación de un nuevo programa permite que el usuario trate una máquina serial basada (por ejemplo) en el lenguaje LISP como si fuera un enorme dispositivo conexionista en paralelo. Lo que Dennett propone (ibíd., pág. 218), es el mismo truco pero al revés: la simulación de algo parecido a un instrumento serial lógico pero empleando los recursos totalmente diferentes de las redes neuronales masivamente paralelas que la evolución biológica favorece para la supervivencia y la acción en mundo y tiempo reales.
Sorprendentemente, Dennett (1995, págs. 370-373) propone que esta sutil reprogramación del cerebro mediante (principalmente) un bombardeo lingüístico es lo que produce el fenómeno de la conciencia humana (nuestro sentido del yo) y nos permite sobrepasar con mucho los logros conductuales y cognitivos de la mayoría de los animales. Por tanto, Dennett atribuye en gran medida nuestras habilidades cognitivas avanzadas no a nuestro hardware innato (que sólo puede diferir en aspectos pequeños, aunque importantes, del de otros animales) sino a la manera especial en que ios efectos de la cultura y el lenguaje modifican diversas características plásticas (progra-
El lenguaje: un artefacto definitivo I 253
mables) de! cerebro. Como dice Dennett (1991, pág. 219), esta máquina serial se instala gracias a una «miríada de microajustes en la plasticidad del cerebro». Naturalmente, la mera exposición a la cultura y el lenguaje no es suficiente para garantizar una cognición parecida a la humana. Podemos exponer una cucaracha a todo el lenguaje que queramos y no hallaremos ningún rastro de las transformaciones cognitivas que Dennett ve en nosotros. Dennett no dice que no haya diferencias iniciales en cuanto al hardware. Lo que dice es que la existencia de unas diferencias relativamente pequeñas en el hardware (por ejemplo, entre nosotros y los chimpancés) nos permite crear un lenguaje público y otros desarrollos culturales que, mediante un efecto de bola de nieve, conducen a grandes cambios y potenciaciones de la cognición, incluyendo quizá la instalación literal de un nuevo tipo de dispositivo computacional dentro del cerebro,
La visión de Dennett es compleja y adolece de ambigüedad. Sin duda, la imagen que yo deseo desarrollar está profundamente relacionada con ella, aunque difiere (creo yo) en un aspecto fundamental. Mientras que Dennett considera que el lenguaje público es a la vez un instrumento cognitivo y una fuente de reorganización profunda pero sutil del cerebro, yo me inclino a verlo, en esencia, como un simple instrumento: como un recurso externo que complementa, pero no altera en profundidad, los modos básicos de representación y computación del cerebro. Es decir, considero que los cambios son relativamente superficiales y que se dirigen a permitirnos el empleo y la explotación de diversos recursos externos. Naturalmente, estas posturas no son completamente distintas. El mero hecho de que repitamos frases mentalmen te y las utilicemos para orientar y alterar nuestra conducta significa que no podemos - y no deberíamos- tratar el lenguaje y la cultura como recursos totalmente externos. Sin embargo, sigue siendo posible que esa repetición, más que implicar el empleo de un dispositivo computacional fundamentalmente diferente en el cerebro, implique el empleo de los mismos recursos de siempre (esencialmente completadores de patrones) para construir modelos de los tipos especiales de conducta observados en el mundo del lenguaje público. Y como observa Paul Churchland (1995, págs. 264-269), de hecho existe una clase de redes conexionistas («redes recurrentes»; véanse el capítulo 7 anterior; Elman, 1993 y una discusión adicional en Clark, 1993) que parecen ser muy adecuadas para modelar y apoyar esta conducta lingüística.
Esta visión de la repetición interior está muy bien desarrollada por los conexionistas David Rumelhart, Paul Smolensky, James McClelland y Geof- frey Hinton, quienes argumentan que la estrategia general de «construir modelos mentales» de la conducta de determinados aspectos de nuestro entorno es especialmente importante en la medida en que nos permite imaginar recursos externos con los que hemos interaccionado físicamente con ante
254 f Más allá
rioridad y repetir mentalmente la dinámica de estas interacciones. Así, la experiencia de trazar y utilizar diagramas de Venn nos permite entrenar una red neuronal que, más adelante, nos permitirá manipular mentalmen te diagramas de Venn imaginarios. Sin duda, estas manipulaciones imagi- narias requieren un recurso neuronal especialmente entrenado, pero no hay razón para suponer que este entrenamiento tenga como resultado la instalación de un tipo diferente de dispositivo computacional. Es el mismo proceso de siempre, dedicado a la compleción de patrones en espacios re- presentacionales de muchas dimensiones, pero aplicado al ámbito especial de un tipo específico de representación externa. Rumelhart y otros destacan el claro vinculo con la noción de Vygotsky resumiendo su punto de vista como sigue (1986, pág. 47):
Se nos puede instruir para que nos comportemos de una manera concreta. Podemos considerar que responder a este tipo de instrucciones equivale, sim - plemente, a responder a un suceso del entorno. También podemos recordar una de estas instrucciones y «decirnos a nosotros mismos» lo que debemos hacer: de esta manera, interiorizamos la instrucción. Creemos que el proceso de seguir instrucciones es esencialmente el mismo, independientemente de que nos las digamos nosotros mismos o de que se nos diga lo que debemos hacer. Así pues, también aquí se da la interiorización de un formato representacional externo.
El pasaje (págs. 44-48) del cual se ha extraído la cita anterior es extraordinariamente rico y toca varios de nuestros temas principales. Rumelhart y otros observan que estos formalismos externos son especialmente difíciles de inventar y lentos de desarrollar, y que por sí mismos son ejemplos de productos que sólo pueden evolucionar (de una manera parecida al intento de alzarse uno mismo tirándose de las orejas) gracias a un proceso, mediatizado lingüísticamente, de almacenamiento cultural y refinamiento gradual a lo largo de muchas vidas. También observan que, cuando utilizamos representaciones externas reales, podemos emplear nuestras capacidades motrices y perceptivas básicas para descomponer problemas en partes y ocuparnos de series de subproblemas, almacenando mientras tanto los resultados intermedios: una importante propiedad que volveremos a examinar en el apartado10.3 posterior.
De manera similar, el enfoque que voy a proponer describe el lenguaje como un artefacto externo cuyo diseño se orienta más a complementar el perfil de procesamiento básico que compartimos con otros animales que a transformarlo. En este enfoque no se considera que la experiencia con el lenguaje sea fuente de una profunda reprogramación interna. La cuestión de si presenta la repetición lingüística interna como algo que, en ocasiones, constituye literalmente determinados procesos cognitivos humanos (como
El lenguaje: un artefacto definitivo I 255
afirma Carruthers) es discutible. Creo que lo importante no es tratar de responder a la difícil pregunta: «¿Realmente pensamos con palabras?» (cuya respuesta seguramente es, «jEn cierto sentido sí y cierto sentido no!»), sino tratar de ver, simplemente, qué beneficios computacionales puede extraer un cerebro completador de patrones del fértil entorno de estructuras externas simbólicas y manipulables. Así, ha llegado el momento de que desafiemos al lenguaje en su guarida.
10.3 Cambio de espacios
¿Cómo pueden complementar los artefactos lingüísticos la actividad de un cerebro completador de patrones? Propongo que una función fundamental se refleja en el concepto de cambio de espacios: el agente que explota estructuras externas de símbolos cambia lo que sería (en el mejor de los casos) un cómputo interno que exigiría mucho tiempo y esfuerzo por una representación adquirida culturalmente. De hecho, es el mismo cambio que realizamos de una manera puramente interna cuando nos detenemos justo antes de manipular físicamente unos símbolos externos y empleamos nuestros modelos internos de esos mismos símbolos para formular un problema mediante una forma de notación que lo haga más fácil de resolver. Y como se ha observado con frecuencia, seguramente son nuestras experiencias anteriores con la manipulación de símbolos externos reales lo que prepara el camino para estos episodios más autosuficientes de resolución de problemas simplificada mediante símbolos.
Los ejemplos son innumerables y entre ellos se incluyen el empleo de la numeración arábiga (en vez, por ejemplo, de la numeración romana) como notación para resolver problemas aritméticos; el empleo de diagramas de Venn para resolver problemas de la teoría de conjuntos; el empleo de los lenguajes especializados de la biología, la física, etc., para plantear y resolver problemas complejos; y el empleo de listas y agendas como ayuda para la planificación individual y la coordinación de grupos. Todo estos casos comparten una base lógica subyacente: incorporar directamente parte del conocimiento necesario para resolver un problema a los recursos mismos que empleamos para representar el problema. Pero los detalles precisos de cómo se realiza este intercambio y cómo expande nuestro potencial cognitivo varía de un caso a otro. Por tanto, será útil distinguir varías maneras de cambiar esfuerzos computacionales individuales por representaciones transmitidas culturalmente.
Los casos más simples son los que suponen el empleo de soportes externos de símbolos para descargar parte de nuestra memoria en el mundo. En
256 I Más allá
estos casos, simplemente utilizamos el mundo artificial formado por textos, diarios, libretas, etc., como soporte para almacenar sistemáticamente conjuntos de datos grandes y con frecuencia complejos. También podemos emplear manipulaciones externas simples (como dejar una nota en el espejo) para suscitar el recuerdo en la memoria biológica incorporada, y en el momento oportuno, de ciertas intenciones e informaciones. Por tanto, este empleo de artefactos lingüísticos forma una continuidad con una variedad de manipulaciones del entorno más sencillas, como dejar un envase de aceite vacío en la puerta para que topemos con él al salir y nos acordemos de comprar más aceite.
Un caso algo más complejo (Dennett, 1993) se refiere al empleo de etiquetas para simplificar el entorno. En ciertos casos empleamos señales y eti quetas perceptivamente simples para que nos ayuden a abordar entornos complejos. Los dibujos de las puertas de los servicios, los rótulos de los clubes nocturnos y las señales de los centros urbanos cumplen este papel. Ha cen que un pequeño aprendizaje individual pueda dar mucho de sí, ayudándonos a encontrar objetivos en escenarios nuevos sin que sepamos de antemano, y de una manera detallada, qué debemos buscar o dónde debemos buscarlo. McCIamrock (1995, pág. 88) describe muy bien esta estrategia diciendo que mediante ella «imponemos en el entorno ciertas propiedades estables que hacen disminuir nuestra carga computacional y la necesidad de que hagamos inferencias».
Muy similar, pero quizá menos evidente, es el empleo de etiquetas lingüísticas para simplificar el entorno de aprendizaje de ciertos conceptos importantes (esta función ya se ha examinado y ejemplificado en el capitulo 9 anterior mediante la simulación de «la luna y las mareas» de Hutchins). Al parecer, el empleo de etiquetas simples ofrece al dispositivo de aprendizaje una base sólida que le permite comprimir enormes espacios de búsqueda hasta un tamaño manejable.7
Los beneficios más sofisticados del empleo de la representación lingüística se concentran en el empleo del lenguaje para coordinar la acción. Decimos a otros que estaremos en tal lugar a tal hora. Incluso jugamos a este juego con nosotros mismos, quizá escribiendo en una lista qué cosas vamos a hacer y cuándo las haremos. Un efecto de esta planificación explícita es facilitar la coordinación de acciones. Así, si comunicamos a alguien que estaremos en la estación a las 9 de la mañana, esa persona podrá planificar su viaje para venir a recogernos. O, en el plano individual, si tenemos que comprar pintura para retocar el coche y salir a comprar otras cosas, pode
7. Véanse discusiones adicionales de este fenómeno, especialmente cuando se presenta en el aprendizaje conexionísta, en Clark, 1993 (págs. 97-98), y Clark y Thornton (1997)
El lenguaje: un artefacto definitivo I 257
mos minimizar nuestro esfuerzo imponiendo un orden adecuado y siguiendo un plan explícito. Cuanto mayor sea el espacio de demandas y oportunidades, más necesario será emplear lápiz y papel para reunir y reorganizar repetidamente las opciones y para conservar el resultado como una especie de estructura externa de control, disponible para orientar nuestras acciones posteriores.
Sin embargo, aunque estas funciones de coordinación son importantes, no agotan todas las ventajas de la planificación explícita (normalmente ba sada en el lenguaje). Como ha indicado Michael Bratman (1987), la crea ción de planes explícitos puede tener un papel especial en la reducción de la carga cognitiva en línea de agentes con recursos limitados como nosotros. Es decir, nuestros planes poseen una estabilidad que reduce la cantidad de deliberaciones en línea que realizamos cuando nos ocupamos de gran parte de nuestro quehacer cotidiano. Naturalmente, una información nueva puede hacer -y así ocurre con frecuencia- que modifiquemos nuestros planes. Pero no dejamos que cualquier cambio leve provoque un replanteamiento de nuestros planes, ni siquiera cuando, permaneciendo igual todo lo restante, podemos elegir de una manera ligeramente diferente. Según Brat man, el papel de esta estabilidad es impedir el derroche que significaría un proceso continuo de replanteamientos y elecciones (exceptuando, naturalmente, los casos donde este trastorno esté bien compensado).5 Por tanto, las formulaciones y los intercambios lingüísticos desempeñan un papel fundamental en la coordinación de actividades (tanto en el plano interpersonal como en el individual) y también en la reducción de la cantidad de delibe raciones en línea que llevamos a cabo.
Muy relacionado con estas funciones de control y coordinación se en cuentra el fascinante -pero mal comprendido- papel de la repetición interna del habla en la manipulación de nuestra atención y en la distribución de nuestros recursos cognitivos. Los resultados evolutivos mencionados en el apartado 10.2 anterior (sobre la manera en que el habla dirigido hacia uno mismo mejora la resolución de problemas) sugieren que el habla interno es como una especie de bucle de control adicional capaz de modular el uso que hace el cerebro de sus propios recursos cognitivos básicos. En las relaciones interpersonales, este fenómeno se da cuando seguimos instrucciones escritas o respondemos a las indicaciones orales de otra persona para aprender a conducir o a navegar. Cuando practicamos por nuestra cuenta, la repetición mental de estas mismas instrucciones actúa como una señal de control que, de alguna manera, nos ayuda a supervisar y corregir nuestra conducta.
8, Ve-jse una exposición a fondo en Bratman, 1987.
258 I Más allá
Dreyfus y Dreyfus (1990) han argumentado que la repetición interna sólo desempeña este papel en los principiantes y que los verdaderos expertos dejan atrás estos apoyos lingüísticos. Pero, aunque es claramente evidente que, por ejemplo, los conductores expertos no repiten mentalmente consignas como «retrovisor, intermitente, maniobra», esto no demuestra que el razonamiento basado en el lenguaje no desempeñe ningún papel en el rendimiento de los expertos. Un interesante estudio llevado a cabo recientemente por Kirsh y Maglio (véase el capítulo 3 anterior) examina el papel de la reacción y de la reflexión linguaforme en sujetos expertos en el juego de ordenador Tetris. Recordemos que, en este juego, el jugador intenta acumular puntos colocando de una manera compacta unos objetos geométricos (zoi- des) que caen hacia abajo desde la parte superior de la pantalla. Cuando un zoide desciende, el jugador puede manipularlo haciendo que gire o se desplace antes de llegar al fondo. Cuando un zoide llega al fondo se detiene y aparece otro zoide por la parte superior de la pantalla. La velocidad de caída aumenta a medida que avanza la partida. Pero (y aquí está el truco) cuando se completa una hilera (es decir, cuando una hilera está totalmente ocupada por zoides) ésta desaparece. Si el jugador es lento colocando los zoides, la pantalla se va llenando hasta que ya no pueden entrar más zoides por arri ba y la partida finaliza. Por tanto, los niveles de juego más avanzado exigen fundamentalmente una toma rápida de decisiones. El juego del Tetris es un ejemplo claro de ámbito que parece exigir un razonamiento de estilo cone- xionista y de compleción de patrones para alcanzar el nivel de un experto. Además, si el modelo de Dreyfus y Dreyfus es correcto, este razonamiento en paralelo y orientado a la compleción de patrones debería explicar de una manera exhaustiva la habilidad de un experto. Pero curiosamente no parece que sea así. El juego de un experto parece depender de una delicada -y nada evidente- interacción entre un módulo rápido dedicado a la compleción de patrones y un conjunto explícito de intereses o normativas de nivel superior. Aunque estos resultados son preliminares y sería inapropiado presentarlos de una manera detallada, su principal observación es que los verdaderos expertos en el Tetris dicen que no se basan únicamente en un conjunto de respuestas adaptativas rápidas producidas (por así decir) por una red entrenada, sino que también emplean unos intereses o normativas de nivel superior para supervisar la salida de la red especializada con el fin de «descubrir tendencias o desviaciones en relación con... la normativa» (Kirsh y Maglio 1991, pág. 10). Entre los ejemplos de estas normas se incluyen «no agrupar en el centro y tratar de mantener el contorno plano» y «evitar depender de piezas» (ibíd., págs. 8-9). Pero precisamente éstas son las normas improvisadas que (según Dreyfus y Dreyfus) sólo podríamos asociar a jugadores novatos. Con todo, como la atención a estas normas parece marcar especialmente el
El lenguaje: un artefacto definitivo I 259
juego de los verdaderos expertos, deberíamos preguntarnos cómo pueden ayudar estas normas al nivel de juego de un experto, dadas las limitaciones de tiempo que sufren las respuestas, Simplemente, no hay tiempo para reflexionar sobre estas normas con el fin de corregir la salida en línea destinada a un zoide descendente concreto.
Aquí es donde Kirsh y Maglio hacen una conjetura que llama a la reflexión. Proponen que el papel de las normativas de nivel superior probablemente es indirecto. En vez de corregir la salida de una red entrenada, el efecto de la normativa puede ser alterar el centro de atención para entradas posteriores. La idea es que, en ocasiones, la red entrenada (o «módulo reactivo», como dicen Kirsh y Maglio) tomará decisiones que conducirán a situaciones peligrosas que no cumplan la normativa de nivel superior. El remedio no es anular el módulo reactivo, sino manipular las entradas que recibe a partir de ese momento y presentarle vectores de características que, cuando sean procesadas por el módulo de la manera usual, produzcan salidas que cumplan la normativa. Así pues, según la descripción de Kirsh y Maglio, de las normativas se encarga un recurso definido y muy «infectado de lenguaje» que modula indirectamente la conducta de una agencia reactiva más básica, rápida y fluida. Por desgracia, la manera precisa en que se lleva a cabo esta modulación indirecta está descrita de una manera muy vaga, aunque Kirsh y Maglio especulan que podría funcionar centrando la atención perceptiva en ciertas regiones peligrosas o aumentando la resolución de unas rutinas visuales específicas.
Naturalmente, la ventaja más evidente de la codificación lingüística de los pensamientos y las ideas es que esta codificación transforma nuestras ideas en señales compactas y fáciles de transmitir, permitiendo que otros seres humanos las puedan refinar, criticar y explotar. Este es el papel comunicativo que, según mi propuesta, tiende a dominar nuestras ideas intuitivas sobre el papel y la función del lenguaje. Pero la concepción que tengamos de este papel tan familiar seguirá siendo pobre mientras no lo veamos en el contexto computacional específico que nos ofrecen los modelos conexionistas generales del cerebro biológico, ya que una característica destacada de estos modelos es la extrema dependencia de trayectorias de sus hábitos de aprendizaje. Por ejemplo, una convincente serie de experimentos llevados a cabo porje ff Elman (1994) y otros demostró que el aprendizaje conexionista es muy dependiente de la secuencia de casos de entrenamiento. Si el entrenamiento inicial sale mal, la red suele ser incapaz de recuperarse. Una red concreta demostró que sólo podía aprender reglas gramaticales complejas a partir de un conjunto de oraciones de ejemplo, si antes había sido entrenada con un subconjunto más básico de ejemplos que destacaran (por ejemplo) la concordancia de número entre sujeto y verbo. Una exposición prematura a
260 I Más allá
casos gramaticales más complejos (como dependencias muy distantes) llevaría a unas malas «soluciones» (mínimos locales) iniciales de las que la red no se podría liberar.9 El aprendizaje humano, como el de las redes neuronales artificiales, parece estar sometido, al menos hasta cierto punto, a la dependencia de trayectorias. Ciertas ideas sólo se pueden comprender cuando ya se han comprendido otras. El entrenamiento recibido por una mente la prepara para que capte y abarque ideas que no pueden ser comprendidas por otra. De hecho, los procesos de la educación formal pretenden guiar a men tes jóvenes (y no tan jóvenes) por un genuino viaje intelectual, viaje que incluso podría empezar con ideas que ahora se sabe que son incorrectas pero que, por sí solas, parecen ser capaces de preparar al sistema para que más adelante aprecie unas verdades más exactas. Estos hechos prosaicos reflejan dependencias de trayectorias cognitivas: no podemos llegar a todas partes desde cualquier lugar y el lugar donde ahora nos encontramos limita enormemente nuestras futuras trayectorias intelectuales potenciales. De hecho, la dependencia de trayectorias se explica muy bien si consideramos que el progreso intelectual supone algo parecido a un proceso de búsqueda computa- cional en un espacio grande y complejo. Los aprendizajes previos hacen que el sistema se incline a probar ciertas regiones de ese espacio y no otras. Cuanto más adecuado sea el aprendizaje previo, más manejable será la tarea de aprender una nueva regularidad: el aprendizaje previo actúa como un filtro en el espacio de opciones que hay que explorar. Las redes neuronales artificiales que aprenden mediante el método de descenso por un gradiente (véase el capítulo 3 anterior) están extremadamente restringidas porque la rutina de aprendizaje las obliga a explorar siempre los bordes de su posición actual en el espacio de pesos. Como esto constituye su conocimiento actual, estas redes no puede ir «saltando» por un espacio de hipótesis. Por tanto, la situación actual de una red en el espacio de pesos (su conocimiento actual) restringirá de una manera fundamental las «ideas» nuevas que podrá explorar posteriormente (Elman, 1994, pág. 94).
Cuando nos enfrentamos a dispositivos que muestran señales de depender de trayectorias, la observación trivial de que el lenguaje permite empaquetar y transmitir ideas entre individuos adquiere un nuevo vigor. Ahora podemos apreciar cómo estas migraciones permiten la construcción comunitaria de trayectorias y progresiones intelectuales sumamente delicadas y difíciles. Una idea que sólo estaba al alcance de la experiencia previa de Joe, pero que sólo puede florecer en el nicho intelectual que ofrece ahora el cerebro de Mary, puede desarrollar todo su potencial viajando entre Joe y
9. Véase un tratamiento detallado de este caso, incluyendo la otra manera principal de resolver el problema por parte de Elman (limitando la memoria inicial), en Clark, 1994,
El lenguaje: un artefacto definitivo I 261
Mary como y cuando haga falta. La trayectoria hacia una buena idea puede entrecruzar varias historias individuales de aprendizaje, haciendo que el mínimo local de un agente se convierta en un sólido bloque de construción para otro. Además, la gran cantidad de nichos intelectuales disponibles dentro de una comunidad vinculada lingüísticamente, constituye una matriz impresionante de posibles trayectorias entre agentes. Por tanto, la observación de que el lenguaje público permite que la cognición humana sea colectiva (Churchland, 1995, pág. 270) adquiere una nueva dimensión cuando reconocemos el papel de este empeño colectivo en trascender la naturaleza dependiente de trayectorias de la cognición humana individual. Incluso una búsqueda ciega y poco inteligente de recodificaciones productivas de datos almacenados, producirá, de vez en cuando, unos resultados impactantes. Al permitir que estos resultados circulen entre los individuos, la razón andamiada por la cultura es capaz de explorar progresivamente unos espacios en los que la razón individual dependiente de trayectorias nunca se podría adentrar. (Véase una investigación detallada y con base estadística de esta afirmación en Clark y Thomton, 1997.)
Esta imagen general encaja limpiamente con el trabajo exploratorio de Merlin Donald (1991) sobre la evolución de la cultura y la cognición. Donald reconoce claramente el papel crucial de ciertas formas de andamiaje externo (concretamente, de los sistemas externos de memoria) en el pensamiento humano. Pero distingue dos tipos principales de andamiaje, que él denomina mítico y teórico. Según Donald, antes de los griegos ya se utilizaban diversos formalismos externos pero sólo al servicio de mitos y narraciones. La innovación fundamental de los griegos fue empezar a utilizar el medio escrito para registrar los procesos del pensamiento y el razonamiento. Mientras que los registros escritos anteriores sólo contenían mitos o teorías acabadas (que se debían aprender a rajatabla y transmitir relativamente inalteradas), los griegos empezaron a registrar ideas parciales, especulaciones con pruebas a favor y en contra de ellas, etc. Esta nueva práctica permitió la circulación de conjeturas y soluciones parciales, que luego eran enmendadas y completadas por otros, etc. Según Donald (ibíd., pág. 343), lo que así se creó fue «mucho más que una invención simbólica, como el alfabeto, o que un soporte específico de memoria externa, como la mejora del papel o la impresión»; lo que se creó fue «el proceso de descubrimiento y cambio cognitivo externamente codificados».
Para completar nuestro inventario inicial de las virtudes cognitivas del pensamiento andamiado por el lenguaje, consideremos las propiedades físicas de ciertos medios externos. Por ejemplo, mientras redacto este capítulo no paro de crear, eliminar y reorganizar trozos de texto. Tengo ficheros (tanto en papel como informáticos) con todos los apuntes y fragmentos que he
262 : Más allá
ido almacenando durante un largo período de tiempo y que pueden tener relación con este tema. Tengo libros y artículos originales llenos de comentarios y anotaciones. Mientras traslado cosas de acá para allá (de una manera literal y física), interaccionando primero con una y luego con otra y elaborando nuevos comentarios, anotaciones y planes, la forma intelectual del ca pítulo crece y se solidifica. Esta forma no surge totalmente desarrollada a partir de una meditación interna. Es el producto de una sucesión de interacciones sostenidas y repetidas entre mi cerebro y una variedad de accesorios externos. Me atrevo a decir que, en estos casos, gran parte del pensamiento real incluye bucles y circuitos que salen de la cabeza y pasan por el entorno local. Los argumentos y las tesis intelectuales de gran amplitud casi siempre son producto de cerebros que actúan en concierto con múltiples recursos externos. Estos recursos nos permiten llevar a cabo manipulaciones y yuxta posiciones de ideas y datos que pronto desconcertarían a un cerebro no potenciado."1 En todos estos casos, el entorno físico real de Jos símbolos y las palabras impresas nos permite buscar, almacenar, ordenar y reorganizar datos de maneras ajenas al repertorio incluido en el cerebro biológico."
La lección es clara. El habla pública, la repetición interna y el empleo de textos escritos e informáticos son poderosos instrumentos que reconfiguran la forma del espacio computacional. Una y otra vez cambiamos cómputos in dividuales por representaciones adquiridas culturalmente. Una y otra vez empleamos palabras para enfocar, aclarar, transformar, descargar y controlar nuestro propio pensamiento. Así entendido, el lenguaje no es un mero espejo imperfecto de nuestro conocimiento intuitivo.1’ Es una parte integrante del mecanismo mismo de la razón.
10. El caso sencillo de manipular físicamente fichas de ImcJcct o Scrabblc para presentar nuevos fragmentos de palabras potencíales a un cerebro especializado en completar patrones (véanse Kirsh, 1995 y el capítulo 3 anterior) es una versión a escala minúscula de la misma estrategia.
11. Por ejemplo, Bechtel (1996, pág. 128) comenta que «las representaciones lingüísticas poseen características que no se pueden encontrar en nuestras representaciones cognitivas internas. Por ejemplo, los registros escritos pueden perdurar sin cambios durante largos periodos de tiempo, mientras que nuestra “memoria” interna parece basarse en la reconstrucción, no en la recuperación de registros almacenados. Ademas, mediante los diversos dispositivos sintácticos proporcionados por el lenguaje, se pueden guardar directamente relaciones entre piezas de información (por ejemplo, que un árbol se cayó y una persona dio un salto) que, de no ser así, se podrían llegar a confundir (como ocurre cuando sólo se vinculan mediante una estructura asociativa como una red concxionista simple)»
12. Creo que, en ocasiones, el hecho de no apreciar plenamente las múltiples funciones del lenguaje público conduce al neuroíilósofo Paul Churchland a desestimar la expresión linguafor- me como si fuera un simple reflejo superficial de nuestro conocimiento «real» (véase, por ejemplo, Churchland, 1989, pág. 18). Véase una discusión en Clark, 1996a y en el apartado 104 siguiente.
El lenguaje: un artefacto definitivo I 263
10.4 Pensar sobre el pensar: el efecto del manglar
Si vemos que un árbol crece en una isla, ¿cuál de los dos creemos que apareció primero? Lo natural (y casi siempre correcto) es suponer que la isla proporcionó el suelo fértil en el que pudo arraigar una semilla afortunada. Sin embargo, los manglares1’ constituyen una reveladora excepción a esta regla general. Los mangles crecen a partir de unas semillas flotantes que introducen las raíces en fondos cenagosos de poca profundidad. La semilla hace crecer unas complejas raíces verticales desde la superficie del agua, formando lo que a todas luces parece un árbol pequeño con zancos. Sin embargo, el complejo sistema de raíces aéreas pronto atrapa tierra, hierba y detritus. Después de un tiempo, la acumulación de material atrapado forma una pequeña isla. A medida que pasa el tiempo, la isla crece más y más. Al final, un número creciente de estas islas pueden acabar uniéndose, haciendo que la línea de la costa llegue hasta los árboles. Durante todo este proceso, y a pesar de nuestras intuiciones previas, la tierra es construida progresivamente por los árboles.
Sospecho que en algunas clases de pensamiento humano actúa este «efecto del manglar». Es natural suponer que las palabras siempre están enraizadas en el suelo fértil de los pensamientos preexistentes. Pero al menos en algunas ocasiones la influencia parece ir en la dirección contraria. Un ejemplo sencillo es la poesía. Cuando elaboramos un poema, no sólo nos limitamos a emplear palabras para expresar pensamientos: con frecuencia, las mismas propiedades de las palabras {su estructura y su cadencia) determinan los pensamientos que el poema llegará a expresar. Se puede producir una inversión parcial similar durante la elaboración de argumentos y textos complejos. Cuando escribimos nuestras ideas, generamos una señal cuyo formato nos abre una nueva gama de posibilidades. Podemos revisar una y otra vez las mismas ideas, abordándolas desde ángulos diferentes y con actitudes mentales distintas. Podemos conservar las ideas originales para juzgarlas y probar sin ningún riesgo algunas alteraciones sutiles. Las podemos almacenar para compararlas y combinarlas con otros conjuntos de ¡deas de maneras que pronto desconcertarían a una imaginación no potenciada. Como se destacó en el apartado anterior, así es como las propiedades reales del texto físico transforman el espacio de pensamientos posibles.
Estas observaciones me llevan a formular la siguiente conjetura: quizá el lenguaje público es el responsable de un conjunto de características dis- 13
13. Un ejemplo especialmente espectacular es el gran bosque de mangles, conocido como «Las diez míl islas», que se extiende hacia el norte desde Cayo Oeste hasta la región de los Everglades. Los mangles negros de esta región pueden alcanzar alturas de 25 m (Landi, 1982, págs. 361-363).
264 1 Más allá
tintivas del pensamiento humano que se plasman en la capacidad para manifestar una dinámica cogmtwa de segundo orden. Denomino dinámica cog- nitiva de segundo orden a un cúmulo de capacidades que implican autoe- valuación, autocrítica y respuestas compensatorias ajustadas con precisión.1* Esto es lo que ocurre, por ejemplo, cuando reconocemos un defecto en uno de nuestros planes o argumentos y dedicamos recursos cog- nitivos a eliminarlo, o cuando reflexionamos sobre la poca fiabilidad de nuestros juicios iniciales en ciertos tipos de situaciones y, como resultado, actuamos con un cuidado especial, o cuando averiguamos por qué hemos llegado a una conclusión determinada comprendiendo las transiciones lógicas de nuestro propio pensamiento, o cuando descubrimos las condiciones bajo las cuales pensamos mejor y tratamos de provocarlas. La lista podría continuar, pero creo que la pauta ya está clara. En todos estos casos pensamos en nuestros propios perfiles cognitivos o en unos pensamientos concretos. Este «pensar sobre el pensar» es un buen candidato para una capacidad inconfundiblemente humana, es decir, que no esté manifiestamente presente en los animales con los que compartimos este planeta y que no emplean ningún lenguaje. Por tanto, es natural que nos preguntemos si esto puede constituir una clase entera de pensamiento en la que el lenguaje desempeñe un papel generativo: una especie de pensamiento que no sólo se refleje en nuestro empleo de palabras (o que esté potenciado por ellas) sino que dependa directamente del lenguaje para su propia existencia. En este modelo, el lenguaje público y la repetición interna de oraciones actúan como las raíces aéreas del mangle: las palabras actuarían como puntos fijos capaces de atraer y acumular más material intelectual, creando las islas de pensamiento de segundo orden tan características del paisaje cognitivo del Homo sapiens.
A grandes rasgos, es fácil ver cómo puede haber ocurrido esto. En cuanto formulamos un pensamiento en palabras (o sobre papel) se convierte en un objeto para nosotros mismos y para los demás. Como objeto, es una cosa sobre la cual podemos pensar. Para crear ese objeto no necesitamos pensar sobre pensamientos, pero en cuanto está ahí, inmediatamente se da la oportunidad de tratarlo como si fuera un objeto por derecho propio. Por tanto, el proceso de formulación lingüística crea una estructura estable a la que se adhieren pensamientos posteriores. 14
14. Se me ha informado de dos trabajos muy recientes que destacan estos temas. Jean-Pie rre Changeux (neurocientífico y biólogo molecular) y Alain Connes (matemático) proponen que la autoevaluación es lo que distingue a la verdadera inteligencia; véase Changeux y Connes, 1995. Derek Bickerton (lingüista) ensalza el «pensamiento fuera de línea» y destaca que ninguna otra especie parece tener (a capacidad para detectar problemas en su propio rendimiento y tomar medidas adecuadas para rectificarlos; véase Bickerton, 1995.
El lenguaje: un artefacto definitivo I 265
El lingüista Ray Jackendoff ha propuesto algo parecido acerca del papel potencial de la repetición interna de frases. Jackendoff (1996) propone que la repetición mental de frases puede ser el medio principal por el que nuestros pensamientos se convierten en objetos a los que luego podemos dedicar más atención y reflexión. La afirmación fundamental es que la formulación lingüística hace que los pensamientos complejos estén disponibles para los procesos de atención mental y que esto, a su vez, los abre a toda una gama de posteriores operaciones mentales. Por ejemplo, nos permite seleccionar distintos elementos de un pensamiento complejo y examinarlos uno a uno. También nos permite «estabilizar» ideas muy abstractas en la memoria de trabajo, así como revisar y criticar nuestro propio razonamiento de maneras que serían imposibles con otra modalidad de representación.
¿Qué hace que la repetición interna de frases desempeñe un papel tan fuera de lo común? Propongo que la respuesta se debe encontrar en el papel más prosaico (y anterior en el tiempo) del lenguaje como instrumento de comunicación. Para funcionar como un instrumento eficiente de comunicación, el lenguaje público se habrá ido transformando en un código adecuado para los intercambios interpersonales donde se presentan ideas que después se examinan y se someten a crítica. Y esto, a su vez, implica el desarrollo de un código que minimice la contextualidad (la mayoría de las palabras retienen, esencialmente, los mismos significados en las diferentes oraciones en las que aparecen), que sea efectivamente neutral en cuanto a la modalidad (una idea puede ser suscitada por entradas visuales, auditivas o táctiles y aun así conservarse empleando la misma fórmula verbal) y que permita memorizar con facilidad cadenas simples de palabras.15 Por tanto, cuando «congelamos» nuestros propios pensamientos en forma de oraciones re cordables, independientes del contexto y que trascienden la modalidad, creamos un tipo especial de objeto mental: un objeto que se deja examinar desde múltiples ángulos cognitivos, que no está condenado a sufrir cambios o alteraciones cada vez que nos exponemos a nuevas entradas o a nueva información y que organiza ideas en un nivel de abstracción más elevado a partir de los detalles idiosincrásicos de sus orígenes proximales en la impresión sensorial. Propongo que este objeto mental encaja de manera ideal en las operaciones evaluadoras, críticas y enfocadas con precisión que caracterizan la cognición de segundo orden. Es un objeto adecuado para los exámenes minuciosos y repetidos que supone la noción de Jackendoff de prestar aten
15. Annette Karmiloff-Smith destaca las dimensiones del lenguaje público neutrales en cuanto a la modalidad en su trabajo estrechamente relacionado sobre la redescripción repre- sentacional. Para la relativa independencia del contexto de ios signos y símbolos de! lenguaje público, véanse Kirsh, 1991 y el capítulo 6 de Clark, 1993.
266 1 Más alté
ción a nuestros propios pensamientos. Por tanto, el sistema de codificación del lenguaje público es especialmente idóneo para intervenir en el ámbito más privado de la representación interna, el autoexamen y la autocrítica, tal como había predicho Vygotsky en los trabajos mencionados en el apartado10.2 anterior. El lenguaje se revela como un recurso fundamental mediante el cual redescribimos con eficacia16 17 nuestros propios pensamientos en un formato que los hace asequibles para una variedad de nuevas operaciones y ma nípulaciones.
Es verosímil concebir la emergencia de esta dinámica cognitiva de segundo orden como una raíz de la auténtica explosión de tipos y variedades de estructuras externas de andamiaje acaecida en la evolución cultural humana. La capacidad de pensar en nuestro propio pensamiento nos permite estructurar activamente nuestro mundo con el fin de fomentar, sostener y ampliar nuestros propios logros cognitivos. Este proceso también se alimenta a sí mismo, como cuando la aparición del texto escrito y de la notación nos permitió empezar a fijar secuencias de pensamiento y de razonamiento cada vez más complejas y extendidas, y tratarlas como objetos de posterior examen y atención (recordemos las conjeturas de Merlin Donald en el apartado anterior). Una vez asentado este aparato (interno y externo) de reflexión basado en oraciones y textos, podemos esperar el desarrollo de nuevos tipos de pensamiento y de codificación de carácter no lingüísticos dedicados a dirigir las oraciones y los textos y a interaccionar con ellos de maneras cada vez más poderosas y efi ciernes.'7 Así consideradas, las construcciones lingüísticas son una nueva clase de objetos que nos invitan a desarrollar nuevas capacidades (no basadas en el lenguaje) de utilización, reconocimiento y manipulación. Por tanto, los modos de pensamiento con frases y sin ellas han coevolucionado para complementar, y no para duplicar, las ventajas cognitivas que ofrece cada uno.
Creo que el hecho de no apreciar esta profunda complementariedad es lo que ha llevado a Paul Churchland (uno de los mejores y más imaginativos neurofilósofos) a rechazar la expresión linguaforme como si fuera un simple reflejo superficial de nuestro conocimiento «verdadero». Churchland teme que sin este rechazo podríamos describir erróneamente todo el pensamiento y la cognición como si implicara la repetición inconsciente de cadenas de símbolos parecidos a frases y que, en consecuencia, podríamos pasar por alto
16. La idea de que la cognición avanzada implica procesos repetidos donde el conocimiento y la representación obtenidos se redescriben en nuevos formatos (que luego sostienen nuevos tipos de operación y de acceso cognitivos) se examina con mucho más detalle en Kar- miloff-Smith, 1992; Clark, 1993; Clark y Karmiloff-Smith, 1994, y Dennett, 1994. La hipótesis original de la redescripción representacional fue desarrollada por Karmiloff-Smith (1979, 1986).
17. Véanse, por ejemplo, Bechtel, 1996, págs. 123-131; Clark, 1996a, págs. 120-125.
El lenguaje: un artefacto definitivo I 267
las potentes codificaciones basadas en patrones y prototipos que parecen ser biológica y evolutivamente fundamentales. Pero ahora hemos explorado una parte sustancial del fértil territorio que hay en medio.18 19 Ai combinar un conjunto de aptitudes biológicamente básicas para el reconocimiento de patrones con los «adhesivos cognitivos» especiales de la palabra y el texto, nosotros, al igual que los mangles, creamos paisajes nuevos: nuevos puntos fijos en el mar del pensamiento. Concebido como un artefacto cognitivo complementario, el lenguaje puede ampliar genuinamente nuestros horizontes cognitivos sin necesidad de intentar la tarea imposible de recapitular los contenidos detallados del pensamiento no lingüístico.
10.5 La adaptación del lenguaje al cerebro
Consideremos un artefacto mal diseñado como, por ejemplo, uno de los primeros programas para procesar textos que era extraordinariamente difícil de aprender y muy incómodo y frustrante de utilizar. jUn ser mutante imaginario que encontrara fácil un programa como éste seguramente hubiera necesitado unos recursos nerviosos diseñados especialmente para adquirir esta competencia con rapidez!
Ahora consideremos un artefacto diseñado a la perfección: el clip para sujetar papeles.'9 Para aprender a utilizar los clips con rapidez y habilidad no es necesario ser un mutante con un cerebro diseñado especialmente, porque el mismo clip está adaptado para facilitar una utilización sencilla por parte de seres como nosotros (pero no por parte de ratas o palomas) en nuestros entornos de oficina.
Supongamos (y sólo supongamos) que el lenguaje es así. Es decir, que es un artefacto que ha evolucionado, en parte, para que seres como nosotros lo puedan adquirir y utilizar con facilidad. Por ejemplo, puede presentar estructuras fonéticas o gramaticales que exploten determinadas predisposiciones naturales del cerebro y del sistema perceptivo del ser humano. De ser esto así, podría parecer que nuestros cerebros están especialmente adapta dos para adquirir un lenguaje natural, pero de hecho sería el lenguaje natural el que estaría especialmente adaptado para ser adquirido por nosotros, a pesar de todas las imperfecciones cognitivas.
18. Dennett (1991) explora precisamente este territorio intermedio. Examino de manera detallada la subestimación del papel del lenguaje por parte de Cburchland en Clark, 1996. Véanse ejemplos de esta subestimación en la pág. 18 de Churchland, 1989 y en las págs. 265-270 de Cburchland y Churchland, 1996.
19. Vease una exposición completa del clip en Petroski, 1992.
268 t Más allá
Sin duda, la verdad se encuentra a medio camino. Recientes conjeturas de varios científicos cognitivos (véase, por ejemplo, Newport, 1990) indican que ciertas características de los lenguajes naturales (como la estructura morfológica) pueden estar orientadas a explotar efectos «de ventana» proporcionados por las limitaciones de la memoria y la atención típicas de los seres humanos jóvenes. Y Christiansen (1994) ha argumentado explícitamente, desde el punto de vista de la investigación conexionista, que la adquisición de un lenguaje está potenciada por una especie de relación simbiótica entre el lenguaje y sus usuarios, de manera que un lenguaje sólo puede persistir y prosperar si es aprendido y utilizado con facilidad por sus anfitriones humanos. Esta relación simbiótica fuerza al lenguaje a cambiar y a adaptarse de maneras que fomenten el aprendizaje.
Esta adaptación inversa, donde el lenguaje natural está adaptado en cierta medida al cerebro humano, puede ser importante para evaluar la medida en que nuestra capacidad para aprender y emplear el lenguaje público se debería tomar, en sí misma, como prueba de que cognitivamente somos muy diferentes de otros animales. Porque ocurre que, al parecer, los seres humanos son los únicos animales capaces de adquirir y explotar plenamente los sistemas simbólicos complejos, abstractos y abiertos del lenguaje público.2* Sin embargo, no hace falta suponer que esto requiera unas diferencias neu- rológicas y computacionales esenciales y aplastantes entre nosotros y otros animales.” Unos cambios neuronales relativamente secundarios pueden haber posibilitado el aprendizaje básico del lenguaje por parte de nuestros antepasados y, de ahí en adelante, el proceso de adaptación inversa puede haber conducido a formas lingüísticas que exploten mejor las predisposiciones cognitivas preexistentes e independientes del lenguaje (especialmente en los seres humanos jóvenes).22 Según este modelo, el cerebro humano no tiene
20. En lo que sigue pasaré por alto algunos grandes debates sobre el lenguaje animal en general y el lenguaje de los chimpancés en particular. Véanse planteamientos ecuánimes en el capítulo 13 de Dennett, 1995, y en el capítulo 10 de Churchland, 1995.
21. Véase una exposición crítica en Pinker, 1994; Christiansen, 1994; el capítulo 10 de Churchland, 1995, y el capítulo 13 de Dennett, 1995
22. Sin embargo, cualquier intento de argumentar de una manera convincente la afirmación extrema de que el aprendizaje del lenguaje humano no supone ningún dispositivo especializado en el cerebro para (a adquisición del lenguaje, debe enfrentarse a una gran variedad de pruebas y argumentos lingüísticos detallados. En particular, debe encarar el argumento de la «pobreza del estimulo» (Pinker, 1994), según el cual es simplemente imposible adquirir la detallada competencia gramatical que nos caracteriza a partir de los datos de aprendizaje a los que nos exponemos y suponiendo únicamente unos mecanismos de aprendizaje generales y no sesgados. Como lo único que yo digo es que la adaptación inversa puede desempeñar algún papel en restar importancia a la cantidad de «dotación innata» que debemos postular, no intentaré abordar aquí esta cuestión. Véase una defensa a fondo de la afirmación extrema en Christiansen, 1994.
El lenguaje: un artefacto definitivo f 269
porqué diferir profundamente del cerebro de los animales superiores. En cambio, los seres humanos normales se benefician de una pequeña innovación neurológica que, junto con un entorno increíblemente potenciador de un lenguaje público cada vez más adaptado a la inversa, ha conducido a las explosiones cognitivas de la ciencia, la cultura y el aprendizaje humanos.
A la vaga y sugerente noción de la adaptación inversa se le puede dar un poco de cuerpo cuantitativo y computacional (aunque de una manera claramente simplista). Haré y Elman (1995) han utilizado una «filogenia cultural» de redes conexionistas para construir un modelo, con cierto detalle de la serie de cambios que caracterizaron la evolución desde el pretérito del inglés antiguo (hacia el año 870) hasta el pretérito del inglés moderno. Mostraron que esta evolución histórica se puede modelar, con cierto detalle, mediante una serie de redes neuronales donde las salidas de una generación se utilizan como datos de entrenamiento para la próxima. Este proceso produce cambios en el mismo lenguaje a medida que éste se altera para reflejar los perfiles de aprendizaje de sus usuarios. En pocas palabras, esto es lo que sucede: una red original es adiestrada en las formas del inglés antiguo. Luego se adiestra otra red (aunque no a la perfección) a partir de las formas producidas por la primera. A continuación se utiliza esta salida para adiestrar otra red, y así sucesivamente. Lo crucial es que cualquier error que cometa una red cuando aprende a establecer correspondencias, pasan a formar parte del conjunto de datos de la siguiente red. Los patrones difíciles de aprender y los elementos que se parecen a otros con inflexiones diferentes, tienden a desaparecer. Como dicen Haré y Elman (ibíd., pág. 61): «Al principio, las cía ses [de verbos] difieren en su coherencia fonológica y en el tamaño de su clase. Las pautas que inicialmente son menos comunes o están menos definidas son las más difíciles de aprender y tienden a perderse tras varias generaciones de aprendizaje. Este proceso va en aumento a medida que la clase dominante capta nuevos miembros y se convierte en un atractor cada vez más poderoso». Al estudiar así la interacción entre un conjunto de datos externos y los procesos de aprendizaje individual, Haré y Elman pudieron hacer algunas predicciones bastante precisas (confirmadas por los hechos lingüísticos) sobre la evolución histórica del inglés antiguo al inglés moderno. La consecuencia más importante para nuestros fines es que, en estos casos, los andamiajes mismos externos de la cognición se adaptan para prosperar mejor en el nicho proporcionado por los cerebros humanos. Por tanto, la comple- mentariedad entre el cerebro biológico y sus accesorios y apoyos artificiales está impuesta por unas fuerzas coevolutivas que unen a usuarios y artefactos en un bucle virtuoso de mutua modulación.
270 I Más allá
10.6 ¿Dónde acaba la mente y empieza el resto del mundo?23
Las complejidades de la dinámica usuario-artefacto nos invitan a reflexionar sobre un tema más general: cómo concebir la frontera entre un sistema inteligente y el mundo. Como vimos en capítulos anteriores, esta frontera parece ser más plástica de lo que se había supuesto anterioramente: en muchos casos, unos recursos extracorporales seleccionados son parte importante de unos procesos computacionales y cognitivos extendidos. Llevada hasta el extremo, esta fuga de la mente hacia el mundo amenaza con reconfigurar la imagen fundamental que tenemos de nosotros mismos, ampliando nuestra visión de las personas para incluir, en ocasiones, características del entorno local. Probablemente, esta ampliación es más verosímil en casos donde intervienen como accesorios externos el texto escrito y la pa labra hablada, porque las interacciones con estos accesorios son omnipresentes (en las sociedades cultas modernas), fiables y evolutivamente básicas. En estas culturas, los cerebros humanos dan por sentados estos soportes de texto y discurso con la misma seguridad con que dan por sentado que actúan en un mundo de peso, fuerza, fricción y gravedad. El lenguaje es una constante y, como tal, se puede confiar en él con toda seguridad como telón de fondo contra el cual se desarrollan los procesos en línea de la computación neuronal. De la misma manera que un controlador de red neuronal diseñado para mover un brazo hacia un objetivo en el espacio definirá sus órdenes para tener en cuenta la elasticidad de los músculos y los efectos de la gravedad, los procesos del razonamiento pueden aprender a tener en cuenta las aportaciones potenciales de la reorganización y la descarga textual, y de la repetición y el intercambio vocal. Por tanto, las capacidades cognitívas maduras que identificamos como mente e intelecto se pueden parecer más a la navegación en barco (véase el capítulo 3) que a las capacidades del cerebro biológico aislado. La navegación en barco emerge de la adecuada orquestación de un sistema extenso y complejo que comprende personas, instrumentos y prácticas. De la misma manera, sospecho que gran parte de lo que iden-
23. En la literatura filosófica, esta pregunta se presta a dos respuestas usuales. O seguimos las demarcaciones intuitivas de la piel y el cráneo, o suponemos que, en realidad, esta cuestión se refiere ai análisis del significado y procedemos a examinar los pros y contras de la doctrina (a grandes rasgos) putnamianos según la cual «los significados, simplemente, no están en la cabeza» (Putnam, 1975). Sin embargo mi propuesta es adoptar una postura distinta de estas dos según la cual los procesos cognitivos no respetan los límites de la piel o del cráneo. Es decir, afirmo 1) que la noción intuitiva de la mente se debería desprender de sus tendencias intern tetas, y 2) que las razones para ello no dependen del (discutible) papel de la referencia del mundo real y de las condiciones de verdad para determinar el significado de símbolos mentales o lingüísticos. Véase una exposición a fondo en Clark y Chalmers, 1998.
El lenguaje: un artefacto definitivo I 271
dficamos como nuestras capacidades mentales en realidad pueden ser propiedades de los sistemas más amplios, y extendidos en el entomo, de los que los cerebros humanos mismos son sólo una parte (importante!.
Esto es mucho decir y no espero convencer aquí a los escépticos. Pero creo que no es tan descabellado como puede parecer a primera vista. Después de todo, en general es bastante difícil trazar una línea divisoria clara entre un instrumento y su usuario.^ Cuando tomamos una piedra para cascar una nuez, es evidente que esa piedra es un instrumento. Pero si un pájaro suelta una nuez en pleno vuelo para que se rompa al chocar contra el suelo, ¿es el suelo un instrumento? Algunas aves tragan piedras pequeñas para facilitar la digestión: ¿son instrumentos estas piedras? ¿O quizá una vez tragadas simplemente pasan a formar parte del ave? ¿Es un instrumento el árbol al que trepamos para escapar de un depredador? ¿Y la tela de una araña?
Propongo que el lenguaje público y sus apoyos en el texto y la notación simbólica no son diferentes de las piedras tragadas por las aves. En ambos casos, la respuesta a la pregunta «¿Dónde acaba el usuario y empieza el instrumento?» es muy delicada. A la luz del conjunto global de nuestras discusiones anteriores, como mínimo estoy convencido de dos afirmaciones. La primera es que algunas acciones humanas se asemejan más a pensamientos de lo que parece a primera vista. Se trata de las acciones cuyo verdadero objetivo es alterar las tareas computacionales a las que se enfrenta el cerebro cuando trata de resolver un problema: lo que Kirsh y Maglio llaman «acciones epistémicas». La segunda afirmación es que ciertos daños causados al entorno pueden tener la misma relevancia moral que los daños causados a personas: al decir esto pienso especialmente en las personas con lesiones neurológicas (véanse los casos del capítulo 3 anterior) que consiguen salir adelante añadiendo a su entorno cotidiano unas capas especialmente densas de accesorios y apoyos externos. Me parece que alterar estos apoyos se parecería más a un delito contra las personas que a un delito contra la propiedad. Por ejemplo, Clark y Chalmers (1998) describen el caso de una persona con lesiones neurológicas que depende en grado extremo de un cuaderno que siempre lleva consigo y a cuyos contenidos se remite en numerosas situaciones cotidianas. En este caso, la destrucción gratuita del cuaderno tendría un aspecto moral especialmente inquietante: es indudable que dañaría a la persona en el sentido más literal que se pueda imaginar.
A la luz de estas inquietudes y del evidente valor metodológico (véanse los capítulos 3,4, 6 y 8 anteriores) de estudiar los sistemas extendidos cere- 24
24. He tomado los ejemplos siguientes de Beth Presión (1995). Véanse también Beck, 1980, y Gibson e Ingold, 1993.
272 I Más allá
bro-cuerpo-mundo como totalidades computacionales y dinámicas integradas, estoy convencido de que (en ocasiones) es valioso tratar los procesos cognitivos como si se extendieran más allá de los estrechos confines de la piel y del cráneo. Y me pregunto si también se debería ampliar la noción intuitiva de la mente misma para abarcar una variedad de accesorios y apoyos externos; es decir, me pregunto si el sistema que solemos denominar «mente», en realidad es mucho más amplio que el que denominamos «cerebro». A primera vista, esta conclusión tan general puede parecer difícil de digerir. Creo que una razón de ello es que tendemos a confundir lo mental con lo consciente. Y aunque no pretendo afirmar en absoluto que la conciencia individual se extienda más allá de la cabeza, parece evidente que no todo lo que ocurre en el cerebro y constituye un proceso mental o cognitivo (en el sentido científico actual) está vinculado con un procesamiento conscienteP Quizá sea más verosímil suponer que lo que mantiene los verdaderos procesos mentales y cognitivos en la cabeza es una especie de transportabilidad. Es decir, nos inclinamos hacia una visión de lo que podría llamarse «la mente desnuda»: una visión de los recursos y operaciones que siempre podemos hacer intervenir en una tarea cognitiva, independientemente de cualquier otra oportunidad que el entorno local nos pueda facilitar o no.
Comprendo bien este reparo. Parece evidente que el cerebro (o quizá, desde este punto de vista, el conjunto cerebro-cuerpo) es un objeto de estudio y de interés definido y genuino. Y lo que hace que sea así es, precisamente, el hecho de que abarque un conjunto central, básico, y transportable 25
25. Ei reflejo vestibular-ocular IRVO), por tomar solo un ejemplo de entre varias docenas de ellos, estabiliza la imagen del mundo en la retina para compensar el movimiento de la cabeza (véase, por ejemplo, Churchland y Sejnowski, 1992, págs. 353-365). Naturalmente, esta operación es crucial para la visión humana. Y la conciencia humana percibe el mundo de una forma que depende del funcionamiento correcto del RVO. Pero los pasos computacionales realizados por los circuitos del RVO no figuran entre nuestros contenidos conscientes. Si las transformaciones computacionales de las que depende el RVO se realizaran empleando algún dispositivo externo (una versión neuronal de un pulmón de acero o una máquina de diálisis), la interacción entre los estados conscientes y los cómputos del RVO podría seguir inalterada. Por tanto, sea cual sea el papel que desempeñe la consciencia (y sea cual sea el significado de este término) en algún punto del bucle, ese papel mismo no se puede arrogar la potestad de rechazar la caracterización de las transformaciones de algunos dalos externos como parte de nuestro p rocesamiento cognitivo. Algo así sólo tendría sentido si nos liáramos la manta a la cabeza y no consideráramos cognitivos los procesos que no pudieran ser objeto de una introspección consciente. (Si el lector cree que el RVO se encuentra en un nivel demasiado bajo para que se le considere un ejemplo de proceso no consciente pero genuinamente cognitivo, que lo sustituya por otro que le parezca mejor como, por ejemplo, los procesos de recuerdo dirigidos por los contenidos o la habilidad, invisible a la introspección, que pueda subyacer a la capacidad para saber la regla que se debe aplicar en el paso siguiente de una deducción lógica).
El lenguaje: un artefacto definitivo I 273
de recursos cognitivos. Estos recursos pueden incorporar acciones corporales como partes integrales de ciertos procesos cognitivos (como cuando, durante un cálculo difícil, utilizamos los dedos para descargar la memoria de trabajo). Pero no abarcarán los aspectos más contingentes de nuestro entorno externo que pueden estar presentes o no, como una calculadora de bolsillo. En última instancia, no creo que la transportabilidad pueda tener un peso conceptual suficiente, y por dos razones. En primer lugar, existe el riesgo de incurrir en una petición de principio. Si nos preguntamos por qué tendría que ser importante la transportabilidad para la constitución de ciertos procesos mentales o cognitivos, parece que la única respuesta es que deseamos que estos procesos vengan en un paquete separado y transportable individualmente. Pero esto sería volver a invocar el límite entre la piel y/o el cráneo cuando lo que se discute es, precisamente, la legitimidad de este límite en sí. En segundo lugar, sería fácil (aunque un poco tedioso para el lector) concebir varios casos problemáticos. ¿Qué ocurriría si alguien siempre llevara encima una calculadora de bolsillo? ¿Qué pasaría si algún día lleváramos estos dispositivos implantados en el cerebro? ¿Qué pasaría si tuviéramos «acoplamientos corporales» para una variedad de dispositivos como éstos y nos «preparáramos» cada día añadiendo dispositivos adecuados para la actividad de resolución de problemas prescrita para ese día? Tampoco la vulnerabilidad de estos dispositivos adicionales a ciertos desperfectos o daños concretos sirve para distinguirlos, porque el cerebro biológico también corre el riesgo de perder capacidades específicas para la resolución de problemas a causa de lesiones o traumas.
Pero, en el fondo, quizá la causa más profunda de nuestras inquietudes sea esa entidad extraordinariamente enigmática a la que llamamos yo.26 La supuesta extensión de los procesos cognitivos y mentales hacia el mundo, ¿implica una especie de «fuga» correlativa (ciertamente inquietante) del yo hacia el entorno local? Ahora parece (¡lo siento!) que la respuesta es «Sí y No». No, porque (como ya se ha admitido) los contenidos conscientes sobrevienen a los cerebros individuales. Pero Sí, porque estos episodios conscientes son, como mucho, instantáneas del yo considerado como un perfil psicológico en desarrollo. Estoy dispuesto a admitir que los pensamientos, considerados únicamente como instantáneas de nuestra actividad mental consciente, se pueden explicar totalmente mediante el estado del cerebro en cada momento. Pero el flujo del razonamiento y el pensamiento, y la evolución en el tiempo de las ideas y las actitudes, están determinados y explicados por la interacción íntima, compleja y continua entre cerebro, cuerpo y mundo. Nada me impide de
26. Véase en Várela y otros (1991) una exposición interesante, aunque muy diferente, de las implicaciones de un enfoque corpóreo y embebido para las concepciones del yo.
274 i Más allá
cir que el hecho de que escriba un libro como éste responde a una característica genuina de mi perfil psicológico, a pesar de que el flujo y la forma de las ideas expresadas dependerá profundamente de una variedad de interacciones repetidas entre mi cerebro biológico y un pequeño arsenal de codificaciones, recodificaciones y recursos estructuradores externos.
Naturalmente, esta perspectiva liberal de los procesos y los perfiles cog- nitivos se debe equilibrar mediante una buena dosis de sentido común. No se puede extender la mente hacia el mundo por las buenas. Un análisis que me atribuyera el conocimiento de todos los datos de la Encyclopaedia Bri- tannica sólo porque he pagado los plazos y le he encontrado espacio en el ga raje, carecería de valor. Y tampoco deberíamos dejar que desapareciera la distinción entre mi mente y la del lector sólo porque se nos vea charlando en el autobús. Entonces, ¿qué distingue los casos más convincentes de la existencia de una sólida extensión cognitiva de los otros casos?
Algunas características importantes de los casos convincentes se pueden aislar con facilidad, como ocurre con el cuaderno antes mencionado de la persona con una lesión cerebral. El cuaderno siempre está ahí: no está encerrado en el garaje ni se consulta de vez en cuando. La información que contiene es fácil de encontrar y utilizar. Esta información se acepta automáticamente: no se somete a un examen crítico a diferencia de las reflexiones de un compañero en el autobús. Por último, la información ha sido recopilada y corroborada por el propio usuario (a diferencia de las entradas de una enciclopedia). Puede que no todas estas condiciones sean esenciales. Y puede que haya pasado por alto otras. Pero la imagen general es la de una relación usuario-artefacto bastante especial donde el arte facto siempre está presente, se utiliza con frecuencia, está hecho «a medida» del usuario y éste tiene una profunda confianza en él. Como hemos visto en numerosas ocasiones en capítulos anteriores, los agentes humanos pueden extraer todo tipo de beneficios cognitivos y computacionales fundamentales a partir de interacciones con artefactos que apenas tienen alguna -o ninguna- de estas características. Pero, probablemente, sólo podremos argumentar la extensión de las nociones moralmente resonantes de yo, mente y agente para que incluyan aspectos del mundo más allá de la piel, si se cumple algo parecido a estas condiciones. Por tanto, los límites del yo -y no sólo los de computación y del proceso cognitivo general- sólo amenazan con extenderse hacia el mundo cuando la relación entre el usuario y el artefacto es casi tan estrecha e íntima como la que existe entre la araña y su tela.27
27. Véase en Dawkins, 1982, un tratamiento biológico especialmente inteligente de este tipo de casos.
El lenguaje: un artefacto definitivo I 275
En el caso de la persona y el cuaderno, el aspecto crucial es que las entradas del cuaderno desempeñan, en la conducta de la persona como agente, la misma función explicativa2S que una información codificada en la memoria a largo plazo. Las condiciones especiales mencionadas (accesibilidad, refrendo automático, etc.) son necesarias para garantizar este tipo de iso- morfismo funcional. Sin embargo, aunque admitamos que este isomorfismo existe (algo que muchos no harán), puede que sea posible evitar la conclusión radical del agente distribuido. Una conclusión alternativa (que considero igualmente aceptable) sería que el agente continúa encerrado dentro del envoltorio de la piel y el cráneo, pero que sus creencias, sus conocimientos y quizá otros estados mentales, ahora dependen de vehículos físicos que (en ocasiones) se pueden extender para incluir unas características seleccionadas del entorno local. Esta imagen mantiene la noción del agente como combinación de cuerpo y cerebro biológico y, en consecuencia, nos permite decir -como seguramente deberíamos hacer- que e! agente, en ocasiones, manipula y estructura esos mismos recursos externos con el fin de reforzar, descargar o transformar aún más sus propias actividades básicas de resolución de problemas. Pero también permite que, a veces, este «alcanzar» el mundo suponga la creación de redes cognitivas y computacionales más amplias: redes cuya comprensión y análisis requiere aplicar los instrumentos y conceptos de la ciencia cognitiva a entidades híbridas más amplias que comprenden cerebros, cuerpos y una amplia variedad de procesos y estructuras externas.
En resumen, me conformo con dejar que las nociones de yo y de agencia encajen donde sea. A fin de cuentas sólo afirmo que, como mínimo, tenemos buenas razones explicativas y metodológicas para aceptar (en ocasiones) una noción bastante liberal del alcance de los procesos cognitivos y computacionales que permita explícitamente la diseminación de estos procesos por el cerebro, el cuerpo, el mundo y los artefactos. Entre estos artefactos destacan las diversas manifestaciones del lenguaje público. El lenguaje es, en muchos aspectos, el artefacto definitivo: es tan omnipresente que casi es invisible y su carácter es tan íntimo que no está claro si es un instrumento o una dimensión del usuario. Cualesquiera que sean los límites, como mínimo nos enfrentamos a una economía estrechamente vinculada donde el cerebro biológico está increíblemente potenciado por algunas de sus creaciones más extrañas y recientes: palabras en el aire, símbolos en páginas impresas.
28. Véase un planteamiento a fondo de esta afirmación en Clark y Chalmers, 1998.
11 Mentes, cerebros y atunes: un resumen en salmuera
La capacidad para nadar de muchos peces y animales acuáticos, como los atunes y los delfines, es asombrosa. Estos seres superan de largo cualquier producto que la ciencia náutica haya podido producir. No sólo son magos de la maniobrabilidad: al parecer, su propulsión es totalmente paradójica. Por ejemplo, se estima que el delfín carece de la fuerza suficiente1 para propulsarse a las velocidades que llega a alcanzar. En un intento de desenmarañar este misterio, dos expertos en dinámica de fluidos, los hermanos Michael y George Triantafyllou, se han visto conducidos a una interesante hipótesis: que la extraordinaria eficiencia natatoria de ciertos animales se debe a la evolución de una capacidad para explotar y crear fuentes adicionales de energía cinética en un entorno acuoso. Al parecer, estos animales explotan los remolinos, torbellinos y vórtices del agua para «turboalimentar» su propulsión y ampliar su capacidad de maniobra. En ocasiones, estos fenómenos aparecen en los fluidos de manera natural {por ejemplo, cuando una corriente de agua choca contra una roca). Pero la explotación de estas ayudas externas por parte de estos animales no se acaba aquí. Por ejemplo, también pueden crear activamente una variedad de vórtices y gradientes de presión (sacudiendo la cola) que después utilizan para dar velocidad y agilidad a una conducta posterior. Controlando y explotando de esta manera la estructura de su entorno local, estos animales pueden arrancar y girar con tal rapidez que, en compa-
1. La estimación de que el delfín es unas siete veces más débil de lo que debiera tiene su origen en el biólogo James Gray. Como indican Triantafyllou y Triantafyllou (1995, pág. 66), aún no es posible comprobar con rigor esta estimación. Pero realmente parece que los delfines generan una extraordinaria fuerza de propulsión a partir de unos recursos bastante limitados: de ahí los intensos esfuerzos de investigación dedicados recientemente a desentrañar los misterios de la propulsión délos animales pisciformes. (VéanseGray, 1968; HoaryRandal!, 1978, y Wu y otros, 1975, así como los estudios avanzados de los hermanos Triantafyllou.)
278 I Más allá
ración, nuestros transatlánticos parecen torpes, pesados y lentos. «Con la ayuda de un desfile continuo de estos vórtices» , dicen Triantafyllou y Trian- tafyllou (1995, pág. 691, «es posible que la eficiencia natatoria de un pez llegue incluso a superar el cien por cien.» Los buques y los submarinos no obtienen estas ventajas: tratan el entorno acuático como un obstáculo que hay que superar y no buscan transformarlo para sus propios fines controlando y manipulando la dinámica de los fluidos que rodean el casco.
Este relato sobre los atunes2 nos recuerda que los sistemas biológicos se benefician profundamente de la estructura de su entorno local. La mejor manera de concebir el entorno no es viéndolo únicamente como un ámbito de problemas a superar. El entorno también es, en un sentido fundamental, un recurso que cabe tener en cuenta en las soluciones. Como hemos visto, esta simple observación tiene algunas consecuencias de gran alcance.
Antes que nada, debemos reconocer el cerebro por lo que es. No es el cerebro de un espíritu incorpóreo convenientemente anclado a un armazón ambulante de carne y sangre. Al contrario, en esencia es el cerebro de un agente corpóreo capaz de crear y explotar estructuras en el mundo. Si concebimos el cerebro como controlador de la acción corpórea, en ocasiones veremos que dedica una considerable cantidad de energía a controlar y explotar estructuras del entorno y no a solucionar un problema directamente y de una vez. Estas estructuras, moldeadas mediante una secuencia repetida de interacciones cerebro-mundo, pueden alterar y transformar el problema original hasta que adopte una forma manejable para los recursos limitados de una cognición orientada a la compleción de patrones, al estilo de las redes neuronales.
En segundo lugar, y como consecuencia de lo anterior, no deberíamos confundir el perfil de resolución de problemas de la mente corpórea y embebida en el entorno físico y social, con el perfil de resolución de problemas del cerebro básico. El hecho de que los seres humanos pueden hacer lógica y ciencia no implica que el cerebro contenga un auténtico instrumento lógico o que codifique teorías científicas con un formato similar a su expresión habitual mediante palabras y frases.3 En realidad, tanto la lógica como la
2. El atún robot de aluminio anodizado de 1,25 m de largo y con ocho segmentos que aparece en la lámina 3, está siendo estudiado en un tanque de prueba del Massachusetts Insti- tute of Technology. Este trabajo se esboza en Triantafyllou y Triantafyllou, 1995. Algunos estudios detallados anteriores se comunican en Triantafyllou y otros, 1993, y en Triantafyllou y otros, 1994.
3. Aquí, la imagen corpórea y embebida simplemente va en apoyo de la antigua insistencia de los conexionistas en que la codificación neuronal no adopta la forma de frases. Véanse las versiones conexionistas de este argumento, por ejemplo, en Churchland, 1989, y Clark, 1989.
Mentes, cerebros y atunes: un resumen en salmuera I 279
ciencia se basan en gran medida en el empleo y la manipulación de medios externos, especialmente los formalismos del lenguaje y la lógica, y las capacidades de almacenamiento, transmisión y refinamiento proporcionadas por las instituciones culturales y el empleo de textos escritos y hablados. Como he argumentado, es mejor ver estos recursos como ajenos pero complementarios al estilo de almacenamiento y computación del cerebro. El cerebro no necesita malgastar su tiempo duplicando estas capacidades. En cambio, debe aprender a conectar4 5 con los medios externos para aprovechar al máximo sus virtudes características.
En tercer lugar, ya es hora de que empecemos a encarar algunas cuestiones bastante desconcertantes (¿o debería decir metafísicas?). Para empezar, la naturaleza y los límites del agente inteligente parecen ser más borrosos cada vez. En el cerebro ya no existe un ejecutivo central:3 un verdadero jefe que organice e integre las actividades de múltiples subsistemas especializados. Y tampoco existe ya un límite nítido entre el pensador (el ingenio intelectual incorpóreo) y su mundo. En lugar de esta reconfortante imagen de la mente, nos encontramos con una especie de caja de sorpresas repleta de agencias internas, cuyos papeles computacionales se suelen describir mejor incluyendo características del entorno local (tanto en los complejos bucles de control como en una amplia variedad de manipulaciones y transformaciones de información). En vista de todo esto, en algunos casos quizá sea conveniente considerar el sistema inteligente como un proceso extendido en el espacio y en el tiempo que no está limitado por el tenue envoltorio de la piel y el cráneo.6 Desde una perspectiva menos radical, las divisiones tradicionales entre percepción, cognición y acción7 parecen ser cada vez menos útiles. Con la desaparición del ejecutivo central, la percepción y la cognición parecen más difíciles de distinguir en el cerebro. Y la división entre pensamiento y acción se hace añicos en cuanto reconocemos que las acciones en el mundo real suelen desempeñar, precisamente, los tipos de funciones que más se suelen asociar con los procesos internos de cognición y computación.
4. Curiosamente, la repetición interna de frases (y otras maneras de construir modelos de medios externos) ocupa un lugar intermedio. En estos casos, realmente nos beneficiamos duplicando ¡memamente la dinámica general de un medio externo. Pero, como vimos en el capítulo 10, no necesitamos suponer que esta repetición implique la creación de un recurso compu- tacional totalmente nuevo. En cambio, podemos utilizar tipos familiares de redes neuronales completadoras de patrones, entrenados mediante nuestras experiencias de manipulación de formalismos externos reales. Véanse más comentarios al respecto en el capítulo 10 de Church- land, 1995, y en Rumelhart y otros, 1986.
5. Dennett (1991) ofrece una extensa y fascinante meditación sobre este tema.6. Véase otra exposición al respecto en Clark y Chalmers, 1998.7. Esto se reconoce cada vez más en la psicología del desarrollo. Véanse los trabajos exa
minados en el capítulo 2, especialmente Thelen y Smith, 1994, y Rutkowska, 1993.
280 I Más allá
En cuarto (y último) lugar, e independientemente de cualesquiera sutilezas metafísicas, todo esto implica unas consecuencias metodológicas urgentes e inmediatas. En la medida en que la perspectiva corpórea y embebida esté bien encaminada, la ciencia cognitiva ya no se podrá permitir los sesgos individualistas y aislacionistas que caracterizaron los primeros decenios de su andadura. Ahora necesitamos una visión más amplia que incorpore múltiples enfoques culturales y ecológicos además del núcleo tradicional de la neurociencia, la lingüística y la inteligencia artificial. Y necesitamos instrumentos nuevos con los que investigar efectos que abarcan múltiples escalas temporales, implican a múltiples individuos e incorporan complejas interacciones ambientales. Es probable que, hoy por hoy, lo mejor sea combinar hábilmente enfoques basados en los sistemas dinámicos, la robótica en mundo real y simulaciones a gran escala (de efectos evolutivos y colectivos). Pero he argumentado que estas investigaciones se deben entrelazar cuidadosamente con la investigación neurocientífica en curso y anclarse, siempre que sea posible, en el conocimiento del cerebro biológico. En la búsqueda de este entrelazamiento, sería una insensatez echar por la borda el núcleo de la comprensión científica cognitiva -que tanto esfuerzo ha costado construir- basada en las nociones de representación interna y de computación. La verdadera lección de nuestras investigaciones sobre la cognición corpórea y embebida no es que tengamos éxito sin representación (o, peor aún, sin computación), sino que los tipos de representación interna y de computación que empleamos han sido seleccionados para complementar los complejos entornos sociales y ecológicos en los que debemos actuar. Así pues, será conveniente que no ignoremos ni minimicemos la importancia de estos entornos más amplios.
Y aquí estamos. Al final de un viaje largo y seguramente inacabado. Hemos encontrado curvas, desvíos y -admitámoslo- uno o dos escollos que no hemos podido demoler y nos hemos limitado a rodear. Aún queda mucho por hacer, pero espero haber atado algunos cabos, haber tendido algunos puentes y haber destacado algunas cuestiones apremiantes. Y aunque puede ser que -como Humpty Dumpty en la segunda parte de Alicia en el país Je las maravillas, Alicia a través del espejo- cerebro, cuerpo y mundo tarden un montón de tiempo en reunirse otra vez, creo que vale la pena perseverar en este empeño porque hasta que estas piezas no encajen en su sitio, no nos podremos ver tal como somos ni podremos apreciar la compleja confabulación que subyace al éxito adaptativo
Epílogo: habla un cerebro1
Soy el cerebro de Juan.1 2 Físicamente no soy más que una masa de células de color grisáceo y de aspecto más bien mediocre. Mi superficie tiene un relieve muy intrincado y poseo una estructura interna bastante diferenciada. Juan y yo mantenemos una relación muy íntima; de hecho, en ocasiones es difícil distinguirnos. Pero, a veces, Juan lleva esta intimidad demasiado lejos y se siente muy confundido acerca de mi papel y mi funcionamiento. Imagina que organizo y proceso información de maneras que reflejan su propia perspectiva del mundo. En resumen: piensa que sus pensamientos son, en un
1. Las ideas y los temas presentados en esta pequeña fantasía deben mucho a las visiones de Paul Churchland, Patricia Churchland, Daniel Dennett, Marvin Minsky, Gilbert Ryle, John Haugeland y Rodney Brooks. Al reunir estos temas he tratado de conseguir una divergencia máxima entre los hechos en el nivel del agente y los hechos en el nivel del cerebro. No pretendo afirmar dogmáticamente que la neurociencia actual postule inequívocamente una divergencia tan radical. Varias de las cuestiones acerca de las cuales permito que el cerebro adopte una postura siguen siendo objeto de debate científico. (Véase una muestra de este debate en Churchland y Sejnowski, 1992, y Churchland y otros, 1994.) En vista del concepto literario adoptado, hacer referencias explícitas me parecía fuera de lugar; sin embargo, si las hiciera, incluiría especialmente las siguientes: Dennett, 1978a; Dennett, 1991; Minsky, 1985; Churchland, 1989; Haugeland, 1995; el articulo de R. Brooks, «Intelligence without representation». ArtificialIrtlelltgence, 4 1 (1991), págs. 139-159; la obra de G. Ryle TbcConcepl OfMmd (Hut chinson, 1949); c! artículo de C. Warrington y R. McCarthy «Categórica of knowledge; further fractionations and an attempted integración», Bram, 110 (1987), págs. 1.273 1.296 Vease mi propia exploración de algunos de estos lemas en Clark, 1993, y Clark, 1995
2. O el de María, Mariano o Pepa. La elección de este nombre clásico de varón no pretende ser más que un pequeño homenaje a los antiguos artículos de la revista Renden Digetl con títulos como «soy el hígado de John» o «soy el riñón de Joc». Estos artículos también daban voz a nuestros diversos órganos internos, permitiéndoles explicar sus estructuras, necesi dades y patologías directamente al lector.
282 I Estar ahí
sentido muy directo, mis pensamientos. Pero aunque en esto hay algo de verdad, en realidad las cosas son bastante más complicadas de lo que Juan sospecha, como trataré de demostrar.
En primer lugar, Juan es ciego por naturaleza a la mayor parte de mis actividades cotidianas. Como mucho, capta algunos detalles ocasionales y sombras deformadas de mí verdadero trabajo. Hablando en general, estos efímeros detalles sólo representan los productos de mi vasta actividad subterránea y no los procesos que los originan. Estos productos incluyen el juego de las imágenes mentales y los pasos en una serie lógica de pensamientos o ideas.
Además, Juan accede a estos productos de una manera bastante improvisada. Lo que filtra hacia su consciencia es algo parecido a lo que aparece en la pantalla de un ordenador. En los dos casos, lo que se muestra es un resumen, hecho a medida, de los resultados de ciertos episodios de actividad interna: resultados que tienen una utilidad concreta para el usuario. Después de todo, la evolución no derrocharía tiempo y dinero (búsqueda y energía) en mostrar a Juan un registro fiel de ese funcionamiento interno, a menos que pudiera ayudar a Juan a cazar, sobrevivir y reproducirse. Así que, a Juan, se le hace saber lo mínimo acerca de mis actividades internas. Todo lo que necesita saberes el significado global del resultado final de algunas actividades selectas: que parte de mí se encuentra en un estado asociado con la presencia de un depredador peligroso y que lo más oportuno es huir, y otras cosas por el estilo. Por tanto, lo que Juan (el agente consciente) obtiene de mí se parece bastante a lo que obtiene un conductor de los indicadores del salpicadero: información sobre unos cuantos parámetros internos y externos que pueden influir productivamente en su actividad general de conducción.
Existe un conjunto de importantes malentendidos en torno a la cuestión de la procedencia de los pensamientos. Juan me concibe como la fuente de los productos intelectuales que identifica como sus pensamientos. Pero, hablando en plata, yo no tengo pensamientos de Juan. Juan sí tiene pensamientos de Juan y yo no soy más que un elemento en el conjunto de procesos y sucesos físicos que permiten que se produzca el pensar. Juan es un agente cuya naturaleza se concreta mediante una compleja interacción en la que intervienen incontables sucesos internos (incluyendo mi actividad), una corporeización física particular y una manera de encajar (embeberse) en el mundo. La combinación de la corporeización y el encaje origina unos acoplamientos informativos y físicos persistentes entre Juan y su mundo: estos acoplamientos dejan gran parte del «conocimiento» de Juan en el mundo exterior, disponible para ser recuperado, transformado y utilizado como y cuando sea necesario.
Tomemos este sencillo ejemplo: hace unos días, Juan estuvo sentado en su escritorio durante mucho tiempo y trabajando muy duro. Al final se
Epilogo: habla un cerebro I 283
levantó y salió del despacho, satisfecho con el trabajo del día. «Mi cerebro», reflexionaba (porque se precia de su fiscalismo), «ha trabajado muy bien. Se le han ocurrido varias buenas ideas.» En la imagen que tenía Juan de los sucesos del día, yo era la fuente de esas ideas: ideas que él creía haber plasmado en papel por mera conveniencia y para evitar el olvido. Naturalmente, agradezco que Juan me dé tanto mérito. Me atribuye directamente los productos intelectuales terminados. Pero, al menos en este caso, el mérito se debería repartir un poco más. Sin duda, mi papel en el origen de estos productos intelectuales es vital: ¡destruidme y -ciertamente- esta productividad intelectual se acabará! Pero mi función está constituida de una manera más delicada de lo que sugiere la sencilla imagen que tenía Juan. Esas ideas de las que tan orgulloso se sentía no surgieron totalmente formadas a partir de mi actividad. La verdad sea dicha, actué más bien como un factor mediador en algunos bucles complejos de retroalimentación que abarcaban a Juan y a partes seleccionadas de su entorno local. Dicho claramente, me pasé el día en una variedad de interacciones íntimas y complejas con varios aditamentos externos. Sin ellos, los productos intelectuales terminados nunca hubieran tomado forma. Si mal no recuerdo, mi papel fue acompañar a Juan mientras repasaba un montón de anotaciones y materiales antiguos, y reaccionar a estos materiales produciendo unas cuantas críticas e ideas fragmentarias. Estas pequeñas respuestas se fueron almacenando en forma de más anotaciones en papeles y márgenes de hojas. Más adelante, intervine en la reorganización de estas anotaciones al ponerlas en limpio, añadiendo nuevas reacciones sobre la marcha a esas ideas fragmentarias. Este ciclo de lectura, respuesta y reorganización externa se repitió una y otra vez. Al final de la jornada, las «buenas ideas» cuyo mérito me había adjudicado Juan con tanta rapidez habían surgido como fruto de esas interacciones pequeñas y repetidas entre los diversos medios externos y yo. Por tanto, el mérito no fue tanto mío como del proceso extendido en el espacio y en el tiempo en el que yo había cumplido una función.
Si lo pensara bien, es probable que Juan estuviera de acuerdo con esta descripción de mi papel aquel día. Pero yo le advertiría que hasta esto puede ser ilusorio. Hasta ahora me he permitido hablar como si fuera un recurso interno unificado que conttibuye a estos episodios interactivos. Esto es una ilusión reforzada por el presente dispositivo literario y que Juan parece compartir. Pero, una vez más, y en honor a la verdad, yo no soy una voz interna sino muchas. De hecho, soy tantas voces internas a la vez, que la metáfora misma de la voz interna debe ser ilusoria, porque sugiere la existencia de unas subagencias internas bastante sofisticadas y que quizá poseen una conciencia rudimentaria de sí mismas. En realidad, yo sólo estoy for-
284 I Estar ahí
mado por múltiples corrientes sin conciencia de procesos computacionales que se ejecutan en paralelo y que suelen ser relativamente independientes. Más que una masa de agentes minúsculos, soy una masa de «no agentes» sintonizados y sensibles a unas entradas concretas, hábilmente orquestados por la evolución para producir una conducta intencional con éxito en la mayoría de las entornos cotidianos. Por tanto, mi voz única sólo es un artificio literario.
En el fondo, todos los errores que comete Juan son variaciones del mismo tema. Cree que veo el mundo como él, que empaqueto las cosas como él y que pienso de la misma manera que él comunicaría sus pensamientos. Nada de esto es cierto. No soy el eco interno de las conceptualizaciones de Juan. Más bien soy la fuente, algo extraña, de las mismas. Para ver lo extraño que puedo llegar a ser, basta con que Juan reflexione en las consecuencias extraordinarias e inesperadas que pueden tener mis lesiones en los perfiles cognitivos de seres como él. Por ejemplo, si me lesionara podría provocar un deterioro selectivo de la capacidad de Juan para recordar los nombres de objetos manipulables pequeños y, sin embargo, dejar intacta su capacidad para nombrar objetos grandes. Y es que almaceno y recupero de una manera diferente la información con una gran carga visual y la información que tiene una gran carga funcional; el primer método ayuda a distinguir objetos grandes y el segundo objetos pequeños. La cuestión es que esta faceta de mi organización interna es totalmente ajena a Juan: respeta necesidades, principios y oportunidades de las que Juan es totalmente inconsciente. Por desgracia, en vez de tratar de comprender mis maneras de almacenar información tal como son, Juan prefiere imaginar que organizo mi conocimiento de la misma manera que él organiza el suyo, muy influido por las palabras particulares de su lenguaje. Así, supone que almaceno información en grupos que corresponden a lo que él denomina «conceptos» (en general, nombres que figuran en sus clasificaciones lingüísticas de sucesos, estados y procesos del mundo). Aquí, como de costumbre, Juan se da demasiada prisa en identificar mi organización con su propia perspectiva. Es indudable que almaceno y accedo a grupos de información que juntos, y siempre y cuando yo funcione normalmente, apoyan una amplia gama de empleos productivos de las palabras y una gran variedad de interacciones con los mundos físico y social. Pero los «conceptos» que tanto ocupan la imaginación dejuan, no son más que los nombres públicos de unas cajas de sorpresas que contienen unos conocimientos y unas aptitudes con unas bases neuronales múltiples y diversas. En lo que a mí respecta, los «conceptos» dejuan no se corresponden con nada especialmente unificado. ¿Y por qué deberían hacerlo? Esta situación se parece a la de una persona que sabe construir barcos. Hablar de la capacidad de construir un barco es emplear
Epilogo: habla un cerebro I 285
una frase sencilla para denotar un conjunto de aptitudes cuyas bases cogni- dvas y físicas varían enormemente. Esta unidad sólo existirá en la medida en que ese conjunto concreto de aptitudes físicas y cognitivas tenga un significado especial para una comunidad de agentes (marineros). Me parece que los «conceptos» de Juan son precisamente eso: nombres para complejos de aptitudes cuya unidad no se basa en hechos sobre mí, sino en hechos sobre el modo de vida de Juan.
La tendencia dejuan a proyectar ilusoriamente su propia perspectiva en mí, se extiende a su concepción de mi conocimiento del mundo externo. Cuando Juan da un paseo, se siente poseedor de una imagen tridimensional estable de su entorno inmediato. A pesar de las sensaciones de John, yo no dispongo de nada semejante. Yo me limito a detectar pequeñas regiones de detalle en rápida sucesión, pasando de un aspecto de la escena visual a otro. Y no me molesto en almacenar todos esos detalles en un modelo interno que requiera un mantenimiento y una actualización constantes, porque soy experto en repasar partes de la escena y volver a crear un conocimiento detallado siempre que sea necesario. Como resultado de este truco y de otros parecidos, la capacidad dejuan para desenvolverse en su entorno local es tan fluida que se cree poseedor de una visión interna constante de los detalles de ese entorno. La verdad es que lo que Juan ve está más relacionado con las capacidades que yo le confiero para interaccionar constantemente, en tiempo real, con abundantes fuentes externas de información, que con el registro pasivo y permanente de información en función del cual él concibe su visión.
La verdad, triste pero cierta, es que no tengo casi nada que ver con lo que Juan cree que soy. Seguimos siendo unos extraños a pesar de nuestra intimidad (o quizá a causa de ella). El lenguaje dejuan, sus introspecciones y su fiscalismo, lo inclinan a identificar en exceso mi organización con su propia perspectiva limitada y así no puede ver mi naturaleza fragmentaria, oportunista y, en general, extraña, Se olvida de que, en gran medida, soy un dispositivo orientado hacia la supervivencia muy anterior a la emergencia de la capacidad lingüística, y así que mi función de promover la cognición consciente y linguaforme no es más que una reciente actividad suplementaria. Naturalmente, esta actividad es una raíz básica de sus falsas ideas. Al poseer un vehículo tan magnífico para la manipulación y la expresión compacta y comunicable del conocimiento, Juan tiende a confundir las formas y convenciones de ese vehículo lingüístico con la estructura misma de la actividad neuronal.
Pero mientras hay vida hay (más o menos) esperanza. Ultimamente me siento animado por la aparición de nuevas técnicas de investigación, como la obtención no invasiva de imágenes del cerebro, el estudio de redes neurona- les artificiales y la investigación de la robótica en mundo real. Estos estudios
286 I Estar ahí
y técnicas auguran una mejor comprensión de las complejas relaciones existentes entre mi actividad, el entorno local y la construcción del mosaico que constituye la sensación de yo. Mientras tanto no olvidemos que, a pesar de nuestra intimidad, Juan sabe realmente muy poco sobre mí. Imaginadme como un marciano dentro de su cabeza.’
3. Gracias a Daniel Dcnnctt, Joseph Goguen, Keilh Sutherland, Dave Chalmcrs y a un evaluador anónimo por su apoyo, sus consejos y sus sugerencias.
Bibliografía
Abraham, R y Shaw, C., 1992, Dynamics-The Geometry ofBehevior. Addison-WesleyAcldey, D. y Littman, D., 1992, «Interacdons between leaming and evolution», en Artificial
Ufe íí, C. Langton y otros (comp.), Addison-Wesley.Adoipb, K., Eppler, E. y Gibson, E.( 1993, «Crawling versus walking: Infants’ perception of affor-
dances for locomodon on slopes», Child Developwent, 64, págs. 1.158-1.174.Agre, R., 1988, «The Dynamic Structure of Everday Life», tesis doctoral, Department of Electrical
Engineering and Computer Sdence, Massachusetts lnstitute of Technology.Agre, P. y Chapman, D., 1990, «What are plans for?», en Designing Autonomous Agcn/s, P.
Maes (comp,), M1TPress.Albus.J. 1971, «A theory of ccrebellar function», Matbematical Biosciettces, 10, págs. 25-61.Alexopoulos, C. y Mims, C., 1979, Introductory Mycology, 3* ed., Wiley.Ashby.R, 1952, Destgnfora Brain, Chapman & Hall (trad. cast.: Proyecto para un cerebro, 1965).Ashby, R , 1956, lutroductron to Cybernetics, Wiley.Ashworth, J. y Dce, )., 1975, The Btology ofSltme Molds, Edward Arnold.Ballard, D., 1991, «Anímate visión». Artificial Intelhgence, 48, págs. 57-86.Baum, C., 1993, «The Effects of Occupation on Behaviors of Persons with Senile Dementia of
the Alzhcimers Type and Their Carers», tesis doctoral, George Warren Brown School of Social Work, Washington University, St. Louis.
Bechtel, W. y Richardson, R , 1992, Discovering Complexity Decompoution and Locahzalion as Saentific Research Strategres, Princeton University Press.
Beck, B., 1980, Animal Tool Bebavror The Use and Manufacture of Too/s by Animáis, Garland.Beckers, R , Holland, O. y Deneubourg, J., 1994, «From local actions to global tasks: Stig-
mergy and collective robotics», en Artificial Ufe 4, R. Brooks y P Maes (comps.), MIT Press.
Beer, R., 1995a, «Computational and dynamical languages for autonomous agents», en Mmd as Motioii, R. Port y T. van Gclder (comps.), MIT Press.
Beer. R , 1995b, «A dynamical Systems perspecrive on agent-environment interaction», Artificial Intelhgence, 72, págs. 173-215.
Beer, R. y Chiel, H. 1993 «Simulations of cockroach locomodon and escape», en Brologrcal Neural Networks tn Invertebrale Neuroetbology and Robotics, R. Beer y otros (comps.l, Academic Press.
Beer, R y Gallagher, J., 1992, «Evolving dynamical neural networks for adaptive behavior», Adaptwe Behavtor, 1, págs. 91-122.
280 I Estar ahí
Bcer, R., Ritman, R. y McKenna, T. (comps.), 1993. BiológicalNeuralNetworksin Invertebra- te Neuroetbology and Robottcs, Academic Press.
Becr, R., Chiel, H., Quinn, K., Espenschied, S. y Larsson, R., 1992, «A dtstributed neural nct- work architecture for hexapod robot locomotion», Neural Computation 4, n° 3, págs. 356- 365.
Belew, R., 1990, «Evolución, leaming, and culture: Compucational metaphors for adaptive al- gorithms», Complex Systems, 4, págs. 11-49.
Bcrk, L., 1994,«WhychiIdren talk co l\iem selves»,Sacntific American, 271, n°5, págs. 78 83.Berk, L. y Garvín, R., 1984, «Developmcnt of prívate speech among low incomc Appalachian
children», Developmental Psycbology, 20, n° 2, págs. 271-286.Bickerton, D., 1995, Language and Human Behavior, University of Washington Press.Bivens, J. y Berk, L., 1990, «A longitudinal study of the dcvelopment of elementary school chil
dren s prívate speech», Merrill-Palmer Quarlerly, 36, n° 4, págs. 443-463.Boden, M., 1988, Computer Models o f Mind, Cambridge University Press.Boden, M., 1996, Oxford Readings in the Philosopby o f Artificial Life, Oxford University Press.Bratmon, M., 1987, Intentions, Plans and Practical Reason, Harvard University Press.Bratman, M., Israel, D. y Pollack, M., 1991, «Plans and rcsource-bounded practical reasoning»,
en Philosopby and Al: Essays at the Interface, R. Cummins y J. Pollock (comps.), MIT Press.Brooks, R., 1991, «Intelligence without reason», en Proceedtngs of the ¡2tb International joint
Conference on Artificial Intelligence, Morgan Kauffman.Brooks, R., 1993, «A robot that walks: Emcrgent behaviors from a carefully evolved network»,
en Biological Neural Networks in Inverlebrate Neuroetbology and Robotics, R. Beer y otros (comps,), Academic Press.
Brooks, R., 1994, «Coherent behavior from many adaptive processes», en From Animáis to Animáis, 3, D, Cltff y otros (comps.), MIT Press.
Brooks, R. y Maes, P., (comps.), 1994, Artificial Ufe, 4, MIT Press.Brooks, R. y Stcin, L., 1993, «Building Brains for Bodics», memorándum 1.439, Artificial In-
telligence Laboratoty, Massachusctts Institutc of Technology.Bruner, J., 1968, Processes in Cognitive Growth■ Infancy, Clark University Press.Bu5emeyer, J . y Townsend, J., 1995, «Decisión field theory», en Mind as Motion, R. Port y T.
van Gelder (comps.), MIT Press.Buder, K„ Intemal Affairs: A Critique o f Externalism in the Philosopby ofMtnd, Kluwer, 1998.Campos, J., Hiatt, S., Ramsey, D., Henderson, C. y Svejda, M., 1978, «The emergente of fear
on the visual diff», en The Developmenl of Afject, volumen 1, M. Lewis y R. Rosenblum (comps.), Plenum.
Carruthers, P. (1996) Language, Thought and Consciousness: An Essay in Philosopbical Psycbology Cambridge University Press.
Chambers, D. y Reisberg, D., 1985, «Can mental ímages be ambiguous?», Journal of Experimental Psycbology: Human Perceplion and Performance, II, págs. 317-328.
Changeux, J.-P., y Connes, A., 1995, Conversations on Mind, Matter andMathematics, Prince- ton University Press.
Chapman, D., 1990, «Vision, Instrucción and Acción», informe técnico 1204, Artificial Intelli- gente Laboratory, Massachusetts Institute of Technology.
Christiansen, M., 1994, «The Evolución and Acquisition of Language», PNP Research Repon, Washington University, St. Louts.
Churchland, P. M., 1989, A Neurocomputational Perspective, MIT Press.Churchlond, P. M., 1995, The Engine of Reason, the Seat o f the Soul, MIT Press.Churchland, P. S. y Sejnowski, T., 1992, The Computahonal Bratn, MIT Press.Churchland, P. S., Ramachandran, V. S. y Sejnowski, T. J., 1994, «A critique of puré visión»,
en Large-Scale Neuronal Tbeones o f the Bratn, C. Koch y J. Davis (comps.), MIT Press.
Bibliografía I 289
Clark, A., 1986, «Superman; the image», Analysis, *16, n‘ 4, págs. 221-224.Clark, A,, 1987, «Beíng therc; why implementation matters to cognitivc scicncc», AI Review l,
n° 4, págs. 231-244.Clark, A., 1988a, «Superman and theduck/rabbít»,/4fWyrír48, n° 1, págs. 54-57Clark, A., 1988b, «Being there (again); a reply to Connab, Shiels and Wavish», Artificial hite
lligence Review 66, it"3, págs. 48 51.Clark, A., 1989, Microcognition: Philosophy, Cogmtive Science and Parallel Distributed Proces
sing, M1T Press.Clark, A., 1993 ,Associative Engines■ Connectionism, Concepts and Representational Cbange,
M1T Press.Clark, A., 1994, «Representational trajectories in connectionist learning», Mtnds and Machi
nes, 4, págs. 317-332.Clark, A., 1995, «Movtng minds: Re tlnnking representation in the heat of situated action», en
Pbilosophtcal Perspectivas, 9: AI Connectionism and Philosophical Psycbology, J. Tomber- lin (compj.
Clark, A., 1996a, «Connectionism, moral cognition and collaborative problem solving», en Mind and Moráis: Essays on Ethics and Cognitivc Science, L. May y otros (comps.), MIT Press.
Clark, A. (1996), «Philosophical íoundanons», en Handbook ofPerception and Cognition, volumen 14: Artificial Intelligence andComputattonal Psycbology, M. Boden (comp.), Aca- demic Press.
Clark, A. y Chalmers, D., 1998, «The Extended Mind». Analysis, 58, págs. 7-19.Clark, A. y Karmiloff-Smith, A., 1993, «The cognizer’s innards: A psychological and philosop
hical perspective on the development of thought», Mind and Langtiage, 8, págs. 487-519.Clark, A. y Thomton, C. (1997), «Trading spaces: Connectionism and the limits of learning»,
BehavioralandBrain Sciences, 20, págs. 57-90Clark, A. y Toribio, J., 1995, «Doing without representtng^M.íyn/éeje, 101, págs. 401-431.Cliff, D., 1994, «Al anda-lifc: Ncvermind the blocksworld», A/SB Qnarierty, 87, págs. 16-21.Colé, M., Hood, L. y McDermott, R., 1978, «Ecológica! niche picking», en Memory Observad
Remembenng m Natural Contexts, U. Neisser, (comp.) Freeman, 1982.C o n n e l l ,1989, «A Colony Architecture for an Artificial Creature», informe técnico II 5 1,
MIT AI Lab.Cottrell, G., 1991, «Extracting features from faces using compressíon networks», en Connec
tionist Models: Proceedings of the 1990 Summer Scbool, D. Touretzky y otros (comps.), Morgan Kauffman.
Crtitchficld, J. y Mitchell, M., 1995, «The evolución of emergent computation», en Proceedings of tbe National Academy o f Science, 92, págs. 10.742-10.746.
Culicover, R, y Hamish, R., (comps.), Neural Connections, Mental Computation, MIT Press.Damasio, A., 1994, Descartes' Error, Grosset Putnam (trad. cast.: El error de Descartes, Crítica,
1996).Damasio, A. y Damasio, H., 1994, «Cortical Systems for retneval of concrete knowlcdgc: The
convergence zone framework», en LargeScale Neuronal Tbeories o f the Braiii, C. Koch y J. Davis (comps.), MIT Press.
Damasio, A., Tramel, D. y Damasio, H., 1989, «Amnesia caused by herpes stmplex encephalitis, infarctions in basal forebrain, Alzheímer’s disease and anoxia», en Handbook of Neuropsy- chology, volumen 3, F Boller y J. Graiman (comps.), Elsevter.
Damasio, A., Tramel, D, y Damasio, H., 1990, «Individuáis with sociopathic behavior caused by frontal damage fail to respond autonomically to social stimuli», Behavioral and Bratn Research, 4, págs. 81-94.
Damasio, H,, Grabowski, T., Frank, R., Galaburda, A. y Damasio, A., 1994, «The retum of
290 I Estar ahí
Phineas Gage: Clues about the brain from the skuü oí a famous patient», Science, 264, págs. 1.102-1.105.
Davidson, C., 1994, «Common sense and the Computer», NetvScientist, 142, Abril 2, págs. 30-33.Davidson, D., 1986, «Rational animáis», en Actions and Evenls, E. Lepore y B. McLaughlin
(comps.), Blackwell.Davies, M. y Stone, T., (comps.), 1995, Mental Simnlation: Evaluatiom and Applications,
Blackwell.Dawkins, R., 1982, The Extended Pbenotype, Oxford Uníversity Press.Dawkins, R., 1986, TheBlind Watchmaker, Longman (trad. cast.: El relojero dego, RBA, 1993).Dean, P., Mayhew, J. y Langdon, P., 1994, «Learning and maintaimng saccadtc accuracy: A
model oí brainstem-cerebellum imeractions», Journal of Cognilive Neuroicience, 6, págs. 117-138.
Dennett, D,. 1978a, Brainstorms, MIT Press.Dennett, D., 1978b, «Why not he whole iguana?», Behavioral and Brain Sciences, 1. págs. 103-
104.Dennett, D., 1991, Conscíousness Explaincd, Little, Brown (trad. cast.: La consciencia explica
da, Buenos Aires, Paidós, 1996).Dennett, D., 1993, «Labeling and learning», Mtndand Language, 8, págs. 540 548.Dennett, D., 1995, Darwin’s Dangerous Idea: Evolution and the Meanings o f Life, Simón and
Schuster.Denzau, A. y North, D., 1995, «Shared Mental Models: Ideologies and Insiitutions», inédito.Díaz, R. y Berk, L. (comps.), 1992, Prívate Speech: From Social ¡nteraction to Self-Regulation,
Erlbaum.Donald, M,. 1991, Origins o f the Modern Mind, Harvard Univcrsity Press.Dretske, F., 1988, Explaining Behavior: Reasons in a World of Causes, MIT Press.Dretske, F., 1994, «If you can’t make one you don’t know how it works», en Midwest Studies in Pbi-
losophy XIX: Philosophical Naturalism, University of Notre Dame Press.Dreyfus, H., 1979, What Computen Can’t Do, Harper & Row.Dreyfus, H., 1991, Being-in-the-World: A Commenlary on Heidegger’s Being and Time, División
l, MIT Press.Dreyfus, H. y Dreyfus, S., 1990, «What is morality? A phenomenological account of the deve-
lopment of ethical experience», en Universalista vs, Communttananism, D. Rasmussen (comp.), MIT Press.
Edelman, G., 1987, Neural Darwinism, Basic Books.Edelman, G. y Mountcastle, V., 1978, The Mindful Brain, MIT Press.Edwards, D„ Baum, C. y Morrow-Howell, N., 1994, «Home environments of inner city elderly
with dementia: Do they facilítate or inhibit function?», Geroutologist, 34, n° 1, págs. 64.Elman, J., 1991, «Representation and structure in connectionist models», en Cognilive Models
of Speech Processing, G. AJtman (comp.), MIT Press.Elman, J., 1994, «Learning and development in neural networks: The importance of starting
smail», Cognition, 48, págs. 71-99.Elman, J., 1995, «Language as a dynamical System», en Muid as Molían, R. Port y T. van Gcl-
der (comps.), MIT Press.Farah, M., 1990, Visual Agnosia, MIT Press.Farr, M.f 1981, How to Know the True Shme Molds, Wílliam BrownFeigenbaum, E., 1977, «The art of artificial intelligence: 1. Themes and case studies of know-
ledgc engineering», en Proceedings of the Fífth International Joint Conference on Artificial Intelligence.
Felleman, D. y Van Essen, D., 1991, «Distributed hierarchial Processing in primate visual cor- tex», Cerebral Cortex, 1, págs. 1 47.
Bibliografía i 291
Fodor, J., 1975, The Language o/Thought, Crowell (trad. cast.: El lenguaje del pensamiento, Alianza, 1984).
Fodor, J., 1986, Individualism and supervenience. Proceedtngs of the Aristotelian Society, Suppl. 60, págs. 235-263.
Fikes, R. y Nilsson, N., 1971, «STRIPS: A new approach (o the application of theorem proving to probíem solving», Artificial Intelligence, 2, págs. 189-208.
Fodor, J. y Pylyshyn, Z., 1988, «Connectionism and cognitive architecture», Cogntdon, 28, págs. 3-71.
Friedman, M., 1953, Essays in Positwe Economics, University of Chicago Press (trad. cast.: Ensayos sobre economía positiva, Gredos, 1967).
Gallistel, C., 1980, The Organizalion o/Behavior, Erlbaum.Gauker, C., 1990, «How to leam a language like a chimpanzee», Pkilosophical Psychology, 3,
n° 1, págs. 31-53.Gauker, C., 1992, «The Lockean theory of communication», Noús, ne 26, págs. 303-324.Gesell, A., 1939, «Reciprocal interweaving in neuromotor development» Journal of Compara-
tive Neurology, 70, págs. 161-180.Gibson.J. J., 1979, The Ecologtcal Approach to Visual Perceptton, Houghton Mifflin.Gibson, J. J., 1982, «Reasons for realism», en Selected Essays of james ]. Gibson, E. Reed y R.
Jones (comps.), Erlbaum.Gibson, K. y Ingold, T. (comps.), 1993, Tools, Language and Cognition in Human Evolution,
Cambridge University Press.Gifford, F., 1990, «Genetic traits», Btology and Philosophy, 5, págs. 327-347.Giunti, M., 1996, «Is Computationalism the Hard Core of Cognitive Science?», ponencia pre
sentada en Convego Triennale SILFS, Roma.Gluck, M. y Rumelhart, D. (comps.), 1990, Neuroscience and Connectionist Theory, Erlbaum.Gode, D. y Sunder, S., 1992, «Allocative Efficiency of Markets with Zero Intelligence (ZI) Tra-
ders: Markets as a Partía! Substitute for Individual Rationality», Documento de trabajo n° 1992-16, Camegie Mellon Gradúate School of Industrial Administration.
Goldberg, D., 1989, Genetic Algonthms in Search, Optuntzation, and Machine Learnmg, Ad dison-Wesley.
Goldman, A., 1992, «In defense of the simulation theory», Mmdand Language, 7, n° 1-2, págs. 104-119.
Gopalkrishnan, R., Triantafyllou, M. S., Triantafyllou, G. S. y Barrett, D., 1994, «Active vorticity control in a shear flow using a flapping foil», Journal of Fluid Dynamics, 274, págs. 1-21.
Gordon, K , 1992, «The simulation theory: Objections and misconceptions», Mind and Language, 7, n° 1-2, págs. 1-33.
Grasse, P. P., 1959, «La Reconstruction du Nid et les Coordinations Inter-Individuelles chez Be- llicositermes Natalensis et Cubitem/es sp. La Theorie de la Stigmergie: Essai D’interpretation des Termites Constructeurs», Insect Societies, 6, págs. 41-83.
Gray, J., 1968, Animal Locomoiian, Weidenfeld & Nicolson.Graziano, M., Anderson, R. y Snowden, R., 1994, «Tuning of MST neurons to spiral motions»,
Journal o f Neuroscience, 14, págs. 54-67.Greene, P. H., 1972, «Problems of organization of motor systems», en Progress in Theoretical
Biology, volumen 2, R. Rosen y F. Schnell (comps.), Academic Press.Gregory, R., 1981, Mind in Science, Cambridge University Press.Grifford, F., 1990, «Genetic traits», Biology and Philosophy, 5, págs. 327-347.Haken, H., Kelso, J. y Bunz, H., 1985, «A theoretical model of phase transitions in human
hand movements», BiologicalCybernetics,5\, págs. 347-356.Hallam, J. y Malcolm, C. A. (en prensa), «Behavior, perception, action and intelligence: the
view from situated robots», Philosophical Transcripts of the Royal Sociely, Londres.
292 I Estar ahí
Hardcastle, V. (1995), «Computationolism», Synthese, 102. págs. 1-15.Haré, M. y Elman, J., 1995, «Leaming and morphological change», Cogmtion, 56, págs. 61-98Hamad, S. (comp.), 1994, «Special issue on "What is Compuration?"», Mtnds and Machines,
4, n* 4, págs. 377-488-Harvey, I-, Husbands, P y Cliff, D., 1994, «Seemg ihe light: Artificial evolution, real visión»,
en From Animan tú Animáis, 3, D. Cliff y otros (comps.), MIT Press.Haugeland, J „ 1981, «Semantic engines: A iniroduction lo mind design», en MindDesign: Phi-
losophy, Psychology, Artificial Intelligence,]. Haugeland (comp.), MIT Press.Haugeland,J., 1991, «Representarional general», en Philosophy and Connecttonist Theory, W.
Ramscy y otros (comps.), Erlbaum.Haugeland, J., 1995, «Mind embodied and embedded», en MindandCogmtion, Y.-H. Houng
y J.-C. Ho (comp ), Taipei: Academia Sínica.Hayes, P., 1979, «The naive physics manifestó», en Expert Systems in the Microelectronic Age,
D Michie (comp.), Edinburgh University Press.Hebb, D., 1949, The Organtzalton ofBebavior, Wiley (trad. cast.: Organización de la conducta,
Debate, 1985).Heidegger, M., 1927, Betng and Time (traducción), Harper and Row, 1961 (trad. cast.: El ser y
el ¡tempo, FCE, 1980).Hildiich, D., 1995, «At the Heart of the World: Maurice Merleau-Ponty’s Existentíal Pheno-
menology of Percepción and the Role of Snuated and Bodily Intelligence in Perceptually Guided Coping», tesis doctoral, Washington University, St. Louis.
Hofstadter, D., 1985, Metamagical Themas: Questing fot the Essence o f Mind and Pattern, Pen - güín.
Hogan, N., Bizzi, E., Mussa-Ivaldi, F. A. y Flash, T., 1987, «Controlling multijoint motor be- havior», Exerctse and Sport Science Revietvs, 15, págs. 153-190.
Hotland, J „ 1975, Adaplation in Natural and Artificial Systems, University of Michigan Press.Hooker, C., Penfold, H. y Evans, R., 1992, «Control, connectionism and cognición: Towards a
new regulatory paradigm», British Journal for the Philosophy of Science, 43, n° 4, págs. 517 - 536.
Hutchins, E., 1995, Cogmtion in the Wild, MIT Press.Hutchins, E. y Hazdhurst, B., 1991, «Leaming in the cultural process», en Artificial Life 11, C.
Langton y otros (comps.), Addison-Westey.Jackendoff, R. (1996), «How language helps us thmk», Pragmatics and Cognition, 4, págs. 1 -
24.Jacob, E., 1977, «Evolution and tinkertng», Science, 196, n" 4.295, págs-1.161-1.166.Jacobs, R., Jordán, M. y Barto, A„ 1991, «Task decomposition through competition in a mo
dular connectionist architccture: The what and where visual tasks», Cognitive Science, 15, págs. 219-250.
Jacobs, R,, Jordán, M., Nowlan, S. y Hincón, G., 1991, «Adaptive mixtures of local experts», Neural Computation,}, págs. 79-87.
Jeffcrson, D. Collins, R., Cooper, C., Dyer, M., Flowers, M., Korf, R., Taylor, C. y Wang, A,, 1991, «Evolution as a theme in artificial life», en Proceedings o f tkeSecond Conference on Artificial Life, C. Langton y D. Farmer (comps.), Addison-Weslev.
Johnson, M., 1987, The Body in the Mind: The Bodily Basis o f Imagination, Reason and Mea- ning, University of Chicago Press (trad. cast.: El cuerpo en la mente: Fundamentos corporales del significado. la imaginación y la razón. Debate, 1991).
Johnson, M., Maes, P. y Darrell, T., 1994, «Evolving visual routines», en Artificial Life 4, R. Brooks y P, Maes (comps.), MIT Press.
Jordán, M., 1986, «Serial Orden A Parallel Distributed Processing Approach», informe 8.604, Insdtutc for Cognitive Science, University of California, San Diego.
Bibliografía I 293
Jordán, M., Flash, T. y Amon, Y., 1994, «A model of ihc leaming of arm trajeciories from spa- tial deviations», Journal of Cngmtwe Neuroscience, 6, n° 4, págs. 359 376.
Kaelbling, L., 1993, Leaming tn EmbeddedSystems, MIT Press.Kagel, J., 1987, «Economics according to the rat {and pigeons too)», en Laboralory Experi
mentarían m Economía Six Points o/Vtew. A. Roth (comp.), Cambridge University Press.Kandel, E. y Schwarz, J., 1985, Principia of NeuralScience, Elsevier.Karmiloff-Smith, A., 1979, /I Funcríonal Approacb ¡o Child Language, Cambridge Umversity
Press (trad. cast.: Mas alia de la modernidad, Alianza, 1994)Karmiloff-Smith, A., 1986, «From meta-process to conscious access», Cogrution, 23, págs. 95-147.Karmiloff-Smith, A., 1992, Beyond Modularity: A Developmental Perspeclive On Cognitive
Science, MIT Press (trad. cast.: Más allá de la modernidad, Alianza, 1994).Kauffman, S., 1993, The Origins of Order: Self-Organization and Selection in Evolution, Oxford
University Press.Kawato, M.p y otros, 1987, «A hierarchical neural network model for the control and leaming
of voluntary movement», Biological Cybemetics, 57, págs. 169-185.Kelso, S., 1995, DynamicPatterns, MIT Press.Kírsh, D.p 1991, «When is iníormation explicitly represented?», en Information Thought and
Contení, P. Hanson (comp.), UBC Press.Kirsh, D., 1995, «The intclligent use of space», Artificial Intelligence, 72, págs. 1-52.Kirsh, D. y Maglio, R., 1991, «Reaction and Reflection in Tetris», informe de investigación D-
015, Cognitive Science Department, University of California, San Diego.Kirsh, D, y Maglio, P, 1994, «On distinguishing epistemic from pragmatic action», Cognitive
Science, 18. págs. 513-549.Klein rock, L. y Niisson, A., 1981, «On óptima! scheduling algorithms for timeshared systems»,
Journal of the ACM, 28, pág. 3.Knierim, J . y Van Essen, D., 1992, «Visual cortcx: Cartography, connectivity and concurrent
Processing», CurrenI Opinión in Neurobiology, 2, págs. 150-155.Koza, J., 1991, «Evolution and co-evolution of Computer programs to control independently
acting agents», en From Animáis to Animáis I, J.-A. Meyer y S. Witson (comps.), MI f Press.
Koza.J,, 1992, Genetic Programming, MIT Press.Laird, J „ Newell, A. y Rosenbloom, P., 1987, «SOAR: An architecture for general intelligen
ce», Artificial Intelligence, }3 , págs. 1-64.Lakoff, G., 1987, Women, Fireand Dangerous Thtngs. What Categoría Reveal about the Mind,
University of Chicago Press.Landi, V., 1982, The Great American Countryside, Collier Macmillan.Le Cun, Y., Boser, B., Denker, J . S., Henderson, D., Howard, R., Hubbard, W, y Jackal, L.,
1989, «Back propagaron applicd to handwrittcn zip code recognition», Neural Computa- tion, 1, págs. 541-551.
Lenat, D. y Feigenbaum, E., 1992, «On the thresholds of knowledge», en Fonndations of Artificial Intelligence, D. Kirsh (comp ), MIT Press.
Lenat, D, y Guha, R., 1990, Building Large Knowlcdge-BasrdSystems: Representarían and ¡n- ference in the CYC Project, Addison-Wesley.
Lichtenstein, S. y Slovic, P, 1971, «Reversáis of preferente between bidsand choices ingam bling decisions», Journal of Experimental Psychoiogy, 101, págs. 16-20.
Lieberman, P., 1984, The Biology and Evolution ofLanguage, Harvard University Press.Lin, L., 1993, «Reinforcement Lcarning for Robots Using Neural Networks», tesis doctoral,
Camegic Mellon University.Mackay, D., 1967, «Ways of looking at perception», en Models for tbe Perception of Speech and
Visual Form, \V. Wathen-Dunn (comp.), MIT Press.
294 I Estar ahí
Mackay, D., 1973, «Visual stability and voluntary eyc movements», en Handbook o f Sensory Pbysiology, volumen VII/3a, R. Jung (comp.), Springer-Verlag.
Maes, P., 1994, «Modeling adaptive autonomous agents», Artificial Life, 1, n° 1-2, págs. 135-162.Magnuson, J. J., 1978, «Locomotion by scobrid fishes: Hydromechanics morphology and beha-
vion>, en Fish Pbysiology, W. Hoar y D. Randail (comps.), Academic Press.Malone, T., Fikes, R., Grant, K. y Howard, M., 1988, «Enterprise: A markerlike task schedu-
ler for distributed computing environments», en The Ecology o f Computaron, B. Huber- man (comp.), North-Holland.
Marr, D., 1969, «A tbeory of cerebellar cortex», Journal of Pbysiology, 202, págs. 437-470.Marr, D., 1982, Vision, Freeman (trad. cast.: La visión, Alianza, 1985).Matarte, M., 1991, «Navigating with a rat brain: A neurobiologically inspired model for robot
spatial represemation», en FromAnimáistoAnimáis 1, (comps.),J.-A. MeyeryS. Wtlson, MIT Press.
Maturana, H. y Varela, F., 1987, The Tree o f Knowledge The Btologtcal Roots of Human Un- derstanding, New Science Library (trad. cast.: El árbol de! conocimiento: Las bases biológicas del conocimiento humano, Debate, 1989).
McCauley, J „ 1994, «Finding metrical structure in time», en Procecdings of the 1993 Connec- tionist ModelsSummer Scbool, M. Mozer y otros (comps.), Erlbaum.
McCauley, R. (comp.), 1996, The Cburchlands and Their Crttics, Blackweli.McClamrock, R., 1995, Existential Cognition, University of Chicago Press.M c C le lla n d ,1989, «Paraüel distributed processing Implications for cognition and develop-
ment», en Parallel Distributed Processing: Implications for Psychology and Neurobiology, R, Morris (comp.), Clarendon.
McClelland, J., Rumelhart, D. y Hinton, G., 1986, «The appeal of parallel distributed processing», en Parallel Dtstnbuted Processing: Explorations in the Microstructure of Cognition, volumen 1: Foundations, D. Rumelhart y otros (comps.), MIT Press (trad. cast.: «El atractivo del procesamiento distribuido en paralelo», en Introducáón al procesamiento distribuido en paralelo, Alianza, 1992).
McConkie, G., 1979, «On the role and control of eye movements in reading», en Processing of Visible Language, P. Kolers y otros (comps.), Plenum.
McConkie, G., 1990, «Where Visión and Cognition Meet», ponencia presentada en el HFSP Workshop on Object and Scene Perception, Leuven, Bélgica.
McConkie, G. y Rayner, K., 1976, «Identifying the span of the effective stimulus in reading: Lite- rature review and theories of reading», en Theorettcal Models and Processes of Reading, H. Singer y R Ruddell (comps.), International Reading Association.
McCulloch, W. y Pitts, W., 1943, «A logical calculus the ideas immanent in nervous activity», Ballet in ofMathematical Geophysics, 5, págs. 115-133.
McGraw, M. B., 1945, The Neuromuscular Maturation of the Human Infant, Columbia University Press.
McNaughton, B., 1989, «Neurona! mechanism for spatial computation and Information stora- ge», en Neural Connections, Mental Computation, L. Nadel y otros (comps.), MIT Press.
McNaughton, B. y Nade!, L., 1990, «Hebb Marr Networks and the neurobiological represen- tation of action in space», en Neurosaence and Conncctionist Thtory, M. Gluck y D. Rumelhart (comps.), Erlbaum.
Menczer, E., y Belew, R., 1994, «Evolving sensors in environments of controlled complexity», en Artificial Life, 4, R. Brooks y P. Maes (comps.), MIT Press.
Merleau-Ponty, M., 1942, La Structure du Comportment, Presses Universitaires de France, traducción al inglés: The Structure ofhehavior (Beacon, 1963) (trad. cast.: La estructura del comportamiento, Hachette, 1976).
Merleau-Ponty, M., 1945, Phenontenologie de la Perception, París: Gaüimard, traducción al in-
glés: Phenomenology o f Perceptíon (Routledgc y Kegan Paul. 1962) (trad. cast.: Fenomenología de la percepción, Península, 1997).
Michie, D. y Johnson, R., 1984, The Creative Computer, Penguin.Miller, G. y Cliff, D., 1994, «Protean behavior in dynamic games: Arguments for che co evo-
lution oí pursuit-evasion tactics», en Fro/« Animáis to Animáis, 3, D. Cliff y otros (comps.), MIT Press.
Miller, G. y Freyd, J., 1993, Dynamic Mental Representations o f Anímate Motion. Cognitive Science Research Paper 290, University of Sussex.
Millikan, R., 1984, Language, Thougbt and Other Biológical Categortes, MIT Press.Millikan, R., 1994, «Biosemantics», en Mental Representaron: A Reader, S. Stich y T. Warfield
(comps.), Blackwell.Millikan, R., 1995, «Pushmi-Pullyu» Representations, en Pbilosophical Perspectives 9: A l, Con•
neclionism and Pbilosophical Psycbology, J. Tomberlin (comps.).Minsky, M., 1985, TheSociety ofMind, Simón & Schuster (trad. cast.: La sociedad de la mente,
Galápagos, 1986).Mitchell, M., Crutchfield, J. y Hraber, P., 1994, «Evolving celluiar autómata to perform computa-
tions: Mechanisms and impediments», Physician D, 75, págs. 361-391.Morrissey, J. H., 1982, «Cell proportioning and panera formation», en The Development of
Dictyostelium discoideum, W. Loomis (comp.), Academic Press.Motter, B„ 1994, «Neural correlates of attenuve selection for color or luminance in extrastria-
te area V4» ,Journal of Neuroscience, 14, págs. 2.178-2.189.Nadel, L., Cooper, L., Culicover, P., y Haraish, R. (comps.), 1989, Neural Connections, Mental
Computations, MIT Press.Neisser, U., 1993, «Without perceptíon there is no knowledge: Implications for artificial inte-
lligence», en Natural and Artificial Minds, R. Burton (comp.), State University of New York Press.
Newell, A., 1990, Unified Theories o f Cognition, Harvard University Press.Newell, A. y Simón H., 1972, Human Problem Solving, Prentice-Hall.Newell, A. y Simón, H., 1981, «Computer Science as empirical inquiry», en Mind Design, J.
Haugeland (comp.), MIT Press.Newport, E., 1990, «Maturational constraints on language learning», Cognitive Science, 14,
págs. 11-28.Nolfi, S., Floreano, D., Miglino, O. y Mondada, F., 1994, «How to evolve autonomous robots:
different approaches in evolutionary robotics», en Artificial Life, 4, R. Brooks y P. Maes (comp.), MIT Press.
Nolfi, S., Miglino, O. y Parisi, D., 1994, «Phenotypic Plasticity in Evolving Neural Networks», informe técnico PCIA-94-05, CNR Instítute of Psychology, Roma.
Nolfi, S. y Parisi, D„ 1991, «Auto-Teaching: Networks That Develop Their Own Teaching In- put», informe técnico PCIA91 -03, CNR Instítute of Psychology, Roma.
Norman, D., 1988, The Psychology ofEveryday Things, Basic Books.North, D., 1993, «Economic Performance Through Time», texto del discurso de aceptación
del Premio Nobel de Economía.Norton, A., 1995, «Dynamics: An introduction», en Mind as Motion, R. Pon y T. van Gelder
(comps.), MIT Press.O ’Keefe, J., 1989, «Computations the hippocampus might perform», en Neural Connections,
Mental Computations, L. Nadel y otros (comps.), MIT Press.O’Regan, J., 1990, «Eye movemcnts and reading», en Eye Movements and Their Role in Visual
and Cognitive Processes, E. Kowler (comp.), Elsevier.O’Regan, K., 1992, «Solving the “real" mystcries of visual perceptíon: The world as an outsi-
de memory», Canadian Journal o f Psychology, 46, págs. 461-488.
Bibliografía i 295
296 I Estar ahí
Oyama, S., 1985, The Ontogeny of Information: Developmental Systems and Evolution, Cambridge University Press.
Pearson, K., 1985, «Are there central pattem generators for walking and flight in insects?», en Feedback and Motor Control in Invertebrates and Vertebrales, W. Bames y M. Gladden (comps.), Croom Helm.
Petroski, H., 1992, «The evolution of artifacts», American Saenttst, 80, págs. 416-420.Piaget, J., 1952, The Ongins oflntelligence in Children, International University Press (trad.
cast.: El nacimiento de la inteligencia en el niño, Crítica, 1985).Piaget, J., 1976, The Grasp of Consciousness Action and Concept tn the Young Child, Harvard
University Press (trad. cast.: La toma de conciencia, Morata, 1981).Pinker, S., 1994, The Language Instinct Morrow (trad. cast.: El instinto del lenguaje. Alianza,
1995).Plunkett, K. y Sinha, C., 1991, «Connectionism and developmental theory», Psyhkologisk
Skriflsene Aarhus, 16, págs. 1 34.Polit, A. y Bizzi, E., 1978, «Processes controlling arm movements in monkeys», Sctence, 201,
págs. 1.235-1.237.Port, R., Cummins, F y McCauley, J., 1995, «Naive time, temporal pattems and human audi
tíon», en Mindas Motion, R. Port y T. van Gelder (comps.), MIT Press.Port, R. y van Gelder, T., 1995, Mind as Motion: Explorations in the Dynamics of Cognition,
MIT Press.Posner, M. y Rothbart, M., 1994, «Constructing neuronal theories of mind», en Large-Scale
Neurona! Theones of the Bratn, C. Koch y J. Davis (comps.), MIT Press.Presión, B., 1995, «Cognition and Tool Use» (borrador).Putnam, H., 1975, «The meaning of “meaning”», en Mind, Language and Reality, H. Putnam
(comp.), Cambridge University Press (trad. cast.: «El significado dé “significado"», en L. M. Valdés Villanueva (comp.) La búsqueda del significado Lecturas de filosofía del lenguaje, Tecnos, 1991).
Pylyshyn, Z., 1986, Computation and Cognition, MIT Press (trad. cast.: Computación y conoci miento, Debate, 1988).
Quinn, R. y Espenschied, K., 1993, «Control of a hexapod robot using a biologically inspired neural network», en Biológical Neural Networks tn ¡nvertebrale Neuroethology and Robo- tics, R. Beer y otros (comps.), Academíc Press.
Rayncr K., Well, A. y Pollarsek, A., 1980, «Asymmetry of the effective visual field in readtng», Perceptual Psychophysics, 27, págs. 537-544.
Resnick, M., 1994a, «Leaming about life», Artificial Life, I, págs. 229-242.Resnick, M., 1994 b, Turtles, Termites, and Traffic farns: Explorations in Massively Parallel Mi-
croworlds, MIT Press.Ritzmann, R., 1993, «The neural organization of cockroach escape and its role in contcxt-de-
pendent orientation», en Biological Neural Networks in ¡nvertebrale Neuroethology and Robotics, R. Beer y otros (comps.), Academíc Press.
Rosenblatt, E., 1962, Principies of Neurodynamics, Spartan Books.Rovee-Collier, C., 1990, «The “memory system" of prelinguistic infants», en The Development
and Neural Bases of Higher Cognitive Functions, A. Diamond (comp.), New York Aca- demy of Sciences.
Rumelhart, D. y McClelland J., 1986, «On leaming the past tenses of English verbs», en Para- lid Distríbtited Processing: Explorations in the Microstmcture of Cognition, volumen 2: Psy- chologicaland BiologicalModels,]. McClelland y otros (comps.), MIT Press.
Rumelhart, D., Smolensky, P., McClelland, J. y Hinton, G., 1986, «Schemata and sequential thought processes in PDP models», en Parallel Distributed Processing: Explorations in the Micmstructu- re of Cognition, D, Rumelhart y otros (comps.), MTT Press (trad. cast.: «Esquemas y procesos
Bibliografía 1 297
de pensamiento secuencia en los modelos PDP», en Introducción al Procesamiento Distribuido en Paralelo, Alianza, 1992).
Rutkowska, J., 1984, «Explaining Infam Percepuon: Insights from Artificial Intelligence», Cognitive Studies Research Paper 005, University of Sussex.
Rutkowska, J., 1986, «Developmental psychology’s comribution to cognitive science», en v4r- tificial IntelligenceSociety, K. Gilí (comp.), Wiley.
Rutkowska, J., 1993, The Computational Infant, Harvester Wheatsbeaf.Saito, F, y Fukuda, T., 1994, «Two link robot brachiation with connectionist Q-leaming», en
From Animáis to Antmats, 3, D. Cliff y otros (comps.), MIT Press.Saltzman, E., 1995, «Dynamics and coordínate systems in skilled sensorimotor activity», en
Mindas Motion, R. Pon y T. van Gelder (comps.), MIT Press.Salzman, C. y Newsome, W., 1994, «Ncural mechanísms for forming a perceptual decisión»,
Science, 264, pdgs. 231 237.Satz, D. y Ferejohn, J., 1994, «Rational choice and social theory», JournalofPhilosophy, 9.102,
págs. 71-87.Schieber, M., 1990, «How might the motor cortex individúate movements?», Trends in Neu-
rosaence, 13, n" 11, págs. 440-444.Schieber, M. y Hibbard, L., 1993, «How somatotopic ¡s the motor cortex hand area?», Scien
ce, 261, págs. 489-492.Shields, P J y Rovee-ColÜer, C., 1992, «Long temí memory for context-specific category in-
formation at six months», Chtld Development, 63, págs. 245-259.Shortliffe, E., 1976, Computer Based Medical Consultations: MYCIN, Elsevier.Simón, H., 1969, «The architecture of complexity», en The Sciences of the Artificial, H. Simón
(comp), Cambridge University Press (trad. cast.. Las ciencias de lo artificial, ATE, 1979).Simón, H., 1982, Models of Bounded Rationality, Volúmenes 1 y 2, MIT Press.Skarda, C. y Freeman, W., 1987, «How brains make chaos in order to make sense of the
world», Behavioral and Brain Sciences, 10, págs. 161-195.Smith, B. C., 1995, «The Foundations of Computation», ponenaa presentada en el AISB95 Works-
hop on the Foundations of Cognitive Science, University of Sheffield.Smith, B. C., 1996, On the Ongtn of Objects, MIT Press.Smithers, T., 1994, «Why better robots make n harder», en From Animáis to Animats, 3, D.
Cliff y otros (comps.), MIT Press.Smolensky, P., 1988, «On the proper treatment of conncctionism», Behavioral and Brain Scien
ces, 11, págs. 1-74.Steels, L., 1994, «The artificial life roots of artificial intelligence», Artificial lafe 1, n° 1-2, págs.
75-110.Stein, B. y Meredith, M., 1993, The Merging of the Senses, MIT Press.Sterelny, K., 1995, «Understanding life: Recent work in philosophy of biology», British Journal
for the Philosophy of Science, 46, na 2, págs. 55-183.Suchman, A., 1987, Plans andSituated Actions, Cambridge University Press.Sutton, R., 1991, «Reinforcement learníng architecture for animats», en From Animáis toAni
mats 1, J.-A. Meyer y S. Wilson (comps.), MIT Press.Tate, A., 1985, «A review of knowledge based planníng techniques», Knowledge Engineertng
Review, 1, págs. 4-17.Thach, W., Goodkin, H. y Keating, J., 1992, «The cerebellum and the adaptive coordination
of movement», Annual Review of Neurosctencc, 13, págs. 403-442.Thelen, E., 1986, «Treadmill-elicited stepping in scven month oíd infants», Child Develop
ment, 57, págs. 1.498 1.506.Thelen, E., 1995, «Time scale dynamtcs and the development of an embodied cognition», en
Mindas Motion, R. Port y T. van Gelder (comps.), MIT Press.
298 I Estar ahí
Thelen, E., Fisher, D. M., Ridley Johnson, R. y Griffin, N., 1982, «The effccts oí body build and arousal on newborn infanr stepping», Development Psychobtology, 15, págs. 447-453.
Thelen, E. Fisher, D. M. y Ridley-Johnson, R., 1984, «The rclarionship bctvecn physical growih and a newborn reílcx», Infattt BekaviorandDevelopment J , págs. 479-493.
Thelen, E. y Smith, L., 1994, A DynamicSystems Approach lo tbe Development of Cogrtilion and Action, MIT Press.
Thelen, E. y Ulrich, B., 1991, «Hidden skills: A dynamic System analysis of treadmill stepping during the First year», Monographs of theSociety for Research in CbildDevelopment, n” 223.
Thelen, E., Ulrich, B. y Niles, D., 1987, «Bdateral coordination in human infants: Stepping on a splitbeit treadmill», Journal o f Experimental Psy cholo gy: Human Perception and Performance, 13, págs. 405-410.
Tomasello, Krugcr,y Ratner, 1993, «Cultural íeaming». BebavioralandBrainSciences, 16, págs. 495-552.
Torras, C., 1985, Temporal-Pattern Leanting in NeuralModels, Springer Verlag.Touretzky, D. y Pomerleau, D., 1994, «Reconstructing physical Symbol systcms», Cognitive
Science, 18, págs. 345-353.Triantafyllou, G. S., Triantafyllou, M. S. y Grosenbaugh, M. A., 1993, «Optimal thrust de
velopment in oscillating foils with application to fish propulsión», Journal o f Pluids and Structures, 7, n°2, págs. 205-224.
Triantafyllou, M. y Triantafyllou, G., 1995, «An effident swimming machine», Scientific American, 272, n° 3, págs. 64-71.
Turvey, M., Shaw, R., Reed, E. y Mace, W,, 1981, «Ecological laws of perceiving and acting», Cognition, 9, págs. 237-304.
Valsiner, A., 1987, Culture and the Development of Chtldren't Action, Wiley.Van Essen, D., Anderson, C. y Olshausen, B., 1994, «Dynamic routing strategies in sensory,
motor, and cognitive Processing», en Large-Scale Nenronal Tbeories o f the Braut, C. Koch y j. Davis (comps.), MIT Press.
Van Essen, D. y Gallant, J., 1994, «Neural mechanisms of form and motion proccssing in the primate visual system», Neurnn, 13, págs. 1-10.
Van Gelder, T., 1990, «Compositionality: A connectionist variation on a classical theme», Cog nittve Saence, 14, págs. 355-384.
Van Gelder, T., 1991, «Connectionism and dynamical explanation», en Proceedings of the 13th Annual Conference of the Cognitive Science Society, Chicago.
Van Gelder, T., 1995, «What tnight cognition be, if not computation H , Journal o f Pkilosophy, 92, n°7, págs. 345-381.
Varela, F., Thompson E. y Rosch, E., 1991, The Ernbodied Mind: Cognitive Science and Human Experience, MIT Press (trad. cast.: De cuerpo presente: Las ciencias cognitivas y la experiencia humana, Gedisa, 1992).
Vera, A. y Simón, H., 1994, «Reply to Touretzky and Pomerleau: Reconstructing physical sym- hol systems», Cognitive Science, 18, págs. 355-360.
Vogel, S., 1981, «Behavior and the physical svorld of an animal», en Perspectivas in Etbology, volumen 4, P. Bateson y P. Klopfcr (comps.), Plenum.
Von Foerster, H., (comp.), 1951, Cyberneltcs: Transactions of the Seventb Conference. Josiah Macyjr. Foundation.
Von Uexkull, J., 1934, A stroll through the worlds on animáis and men, en Instinctive Behavior, K. Lashley (comp.), International Univcrsities Press.
Vygotsky, L. S-, 1986, Thought and Language (traducción al inglés de la edición de 1962), MIT Press (trad. cast.: Pensamiento y lenguaje, Buenos Aires, Patdos, 1995).
Wason, P., 1968, «Reasoning about a rule», Quarierly Journal of Experimental Psychology, 20, págs. 273 281.
Bibliografía I 299
Watkins, C., 1989, «Leaming from Delayed Rcwards», tesis doctoral, Kings College.Welch, R., 1978, Perceptual Modificatiort: Adapting to AlteredSensory Environments, Acade-
mic Press.Wertsch, J., (comp), 1981, The Coiicept of Activüy m Soviet Psychology, Sharpe.Wheeler, M., 1994, «From activación to activity», /1/5B Quartcrly, 87, págs. 36-42.Wheeler, M., 1995, «Escaping from the Cartesian mind-set: Heideggcr and artificial Ufe», en
Lecture Notes in Artificial Intelligence 929, Advances in Artificial Life, Granada, España.Whorf, B., 1956, Language, Thought and Reality, Wiley (trad. cast.. Lenguaje, pensamiento y
realidad, Barra!, 1971).Wiener, N., 1948, Cybernelics, or Control and Communication in tbe Animal and in the Machi
ne, Wiley (trad. cast.: Cibernética o el control y la comunicación en animales y máquinas, Tusquets, 1985).
Wimsatt, W., 1986, «Forms of aggregativity», en Human Nature and Natural Knowledge, A. Donagan y otros (comps.), Reidel.
Wimsatt, W. (en prensa), «Emergence as non-aggreganvity and the biases of reductionisms, en NaturalContradicltons: Perspectiveson Ecology and Cbange, P. Taylor yJ. Hada (comps.).
Winograd, T. y Flores, E., 1986, Understanding Computen and Cognition: A New Foundation, Ablex.
Woolsey, T., 1990, «Pcripheral Alteración and Somatosensory Devclopment», en Development of Sensory Systems in Wanimals,] Coleman (comp.), Wiley.
Wu, T. Y. T., Brokaw, C. J., Brennen, C., (comps.), 1975, Swimming andFlying in Nature, volumen 2, Plcnum.
Yamuchi, B. y Beer, R., 1994, «Integrating reactive, sequenrial and leaming behavior using dy- namical neural networks», en From Animáis to Animáis, 3, D. Cliff (comp,), MIT Press.
Yarbus, A., 1967, Eye Movements and Vision, Plenum.Zelazo, P. R., 1984, «The devclopment of walktng: New findings and oíd assumptions»,/ottr-
nal of Motor Behavior, 15, págs. 99-137.Zhang, J. y Norman, D., 1994, «Rcpresentations in distributed cognitive tasks», Cognttive
Science, 18, págs. 87 122.
Indice analítico y de nombres
Abraham, R., 144,161 Acción, cpistémica, 105 109, 124 Acldey, D., 142,241 Adaptación, inversa, 268 269 Agentes autónomos, 44,49-60, 71 74 Agentes de inteligencia nula, 238 239
Véase también Mobots Agre, R, 203Algoritmos genéticos, 134-139,241-242,244
Véase también Evolución Algoritmo de retropropagación, 97-98
Véase también Redes neuronales Alien, W'oody, 193 Alzheimcr. enfermedad de, 108 Análisis de tareas, 167Andamiaje, 86-88, 102-104, 125 126,233-246,
248-275Aprendizaje de descenso por un gradiente, 98,
135,213-214,260 Véase también Redes neuronales
Atún, 277-278Autoorganización, 80,84, 114
Véase también Sistemas dinámicos
Ballard, D., 67,69,152,200-201 Bechiel, \V„ 160 Beckers, R.. 118Beer, R.,44,54-55,135-137,141,145,146,151,
165,169-170,196,199,216 Bcrk, L„ 248,250 Bivcns,J.,250 Braquiación, 55,57,60 Bratman, M„ 257Brooks, R., 51-54, 58-59, 69, 71-72, 189, 199,
245Bucles de acción
Véase desarrollo Buscmeyer, J., 171 Butler, K„ 217
Carruthers, R, 249,251-252,255Causalidad^circular, 154— recíproca continua, 143, 154-155,225
Véanse también Sistemas dinámicos; Representaciones
Cerebelo, 78 Chalmers, D., 271 Chapman, D., 104 Chiel.H., 44,54-55 Christiansen, M., 268 Churchland, P. M„ 203,253,262 Churchland.PS., 69,70,79 Clip, 267Cognición, corpórea radical, 198-199 COG, 58-60 Comunicación, 243-246
Véase también Lenguaje Computación
Véanse también Representación; Sistemas dinámicos
— extendida hacia el entorno, 255-262,272— y explicación, 149-175— y programas, 204-213— y representación, 212-213,255-262 Conexión adaptativa, 197 Conexionismo
Véase Redes neuronales Consciencia, 253,272 Contrafactuales, 164 Control, centralizado, 80,83-86 Control ncuronal, 184-191
302 i Estar ahí
Cottrell, G.r 101 Creencias, extendidas, 275 Cucaracha, 42,43, 135-139 CYC, proyecto, 40-42,43,45.46, 93, 98
Damasio, A.. 171,172, 186-190 Damasto, H,, 171,172 Dasein, 224 Dawkins, R., 132 Dean, P., 62Dcnnett, D., 51, 151, 245, 248, 249, 251-253,
256Denzau, A., 235-236,238 Dependencia de trayectorias, 259-260 Desarrollo, 75 92— próxima!, 86,249-250— sin planes, 79-83— y andamiaje, 86-88— y bucles de acción, 76-79— y montaje blando, 83-86 Descomposición, basada en la actividad
Véase Arquitectura de subsunctón Detectores de características, 183 Díaz, R., 248Dictyostehum dosccideum, 114 Dinámica usuario-artefacto, 270-275 Discurso, privado, 250
Véase también Lenguaje Donald, M.,261,266 Dretske, E., 168,196 Dreyfus, H.,44,224,258 Dreyfus, S., 258
Economía, 235-246 Edelman, G., 185 Efecto del manglar, 263-267 Elección, raciona], 233-246 Elman.J., 213,253,259-260,269 Emergencia, 84 85,127
Véase también Auloorganización— directa e indirecta, 116-118, 120-121, 155,
157— en la construcción de termiteros, 117-118— y descomposición, 127— y explicación, 149-175,215-219— y reducción, 150-151 Emulación motriz, 62-63 Enacción, 227 Espenschied, K., 55 Estígmergta, 118-119,240,245 Etiquetas
Véase Lenguaje Evolución— biológica, 132-133,146-147— simulada, 131-139, 141
Véase también Algoritmos genéticos
Explicación basada en componentes, 150-151, 188-191,215-219
Feigenbaum, E., 41,45 Felleman, D., 182 FerejolmJ., 235-238 F¡kes, R„ 94,105 Física ingenua, 94 Fodor.J., 190 Freeman, W., 199 Freyd.J., 197 Friedman, M.,235 Fukuda, T„ 57 58
Gage, Phineas, 171 GaUagher.J., 135-137, 165, 199 Garvín, R., 250 Gauker, C., 250-251 Gibson.J., 75,91.199,225-226 Gode, D„ 238 Graziano, M„ 183 Greene, P.,210
Haken, H., 164 Hallam.J., 158 Haré, M„ 269 Harvey, I., 137Haugeland.J., 194-195, 197,220 Mayes, P., 94 Hazelhurst, B., 243-244 Heidegger, M., 199,224 Hibbard, L., 179 Hilditch.D., 129,225 Hinton, G., 253 Hofstadter, D„ 157158 Hongos muciiagínosos, 113-114 Hooker, C., 203Hutchins, E , 103,119-122,242-246,256
Identidad, 124, 126
Jackendoff, R., 249,265 Jacob, E, 133 Jefferson, D., 135 Jordán, M„ 101,210,213
Kagel, J., 238 Kawato, M„ 62Kelso.J.A.S., 154,159,163,169.210 Kirsh.D., 102 104,105 108, 111,124,258 259,
271Knierim.J,, 184 Koza.J., 135
Le Cun, Y., 101 Lenat, D ,41,45
índice analítico y de nombres I 303
Lenguaje— como adaptado inversamente al cerebro,
267-269— como artefacto, 247-275— como instrumento para el pensamiento, 234,
247-275— como sistema de comunicación, 247-255,
259-262— del pensamiento, 234— nociones supracomunicativas del, 251,252— y arención, 264-267— y discurso interno, 249-250,254-255— y dependencia de trayectorias, 259-269— y etiquetas, 255,256-257— y límite instrumento/usuario, 270-275— y pensamientos sobre pensamientos, 263 -
267Lieberman.R, 133 Littman, O., 142,241
Maes, R, 84,160,189Maglio, P„ 105-108, 111, 124,258,259,271Malcolm, C., 158Mapa— como controlador, 90— somatotópico, 179-181 Matarte, M-, 88-89 Maturana, H., 199 McCauley, R., 214 McCIamrock, R-, 256 McClelland, J., 253 Memoria, 255-256 Mente
Véanse también Representaciones; Sistemas dinámicos
— como controladora de la acción, 45-46, 88-92,110
— extendida en el mundo, 233-246,270-275 Merleau-Ponty, M., 199,224-225 Micromundos, 51,99Miglino, O., 142 Miller, G., 197 Millikan, R., 91,196 Mobots
Véase también Agentes autónomos Mottcr, B., 184 Mountcastle, V., 185 Movimientos sacidicos, 61-62,67-68,70 MYCIN, sistema experto, 50
NETtalk, 95-96 Neurociencia, 171 191 Newport, E., 268 Newsome, \V., 183 Nilsson, N ., 94,105 Nolfi, S., 142,241
Norman, D,, 101 North.D., 235-236,238
Oportunidades, 226 Osciladores adaptativos, 214
Parisi.D., 142,241 Pearson, K.,54 Percepción— contenidos, 63-71,91-92— y acción, 69-70,77-79,241— v cognición, 46,52-53,76-77,91-92 Piaget, J., 75,207Planificación— a largo plazo, 101— central, 61,71-72— y acción corpórea, 88-90, 103— y autoorganización, 115,119-123— y lenguaje, 257-259 Port.R., 165,213,214 Principio 007,235-236,238Problemas ávidos de representación, 198,200,
219-223,229Procesamiento distribuido en paralelo
Véase Redes neuronales Procesamiento reentrante, 185 Programas parciales, 204-213 Pseudoplasmodio, 115
Quinn, R., 55-56
Ramachnndran, V., 70 Racionalidad, limitada, 239-241 sustantiva, 235-239 Reconstrucción racional, 123-124,Redes neuronales artificíales, 54-55, 58-59, 93-
11, 127Véase también Representaciones
— aprendizaje en, 97-99,260— como controladoras de la acción, 135-139— como dispositivos de complcción de patro
n e s ^ , 100-104, 109,233,239-246,258— recurrentes, 253— ventajas e inconvenientes, 100-103,123-124— y algoritmos genéticos, 135-139— y cerebros reales, 94-95— y estructuras extemas, 100-111,239-246— y satisfacción de restricciones, 242-243 Redcscripcion representacional, 265 Reduccionismo, 150-151Regulador de Watt, 139,143 Representaciones internas
Véanse también Cómputo; Sistemas dinámicas; Mente; Problemas ávidos de representación
304 I Estar ahí
— en el cerebro, 177-191 -explícitas, 52,72,98, 108-109, 120— orientadas hacia la acción, 76,88 92,200 204 ■ parciales, 63-65,67,69 70, 85-86, 92— pushmi-pullyu, 91— replanteamtemo, 222-223,228-229— y cómputo, 142-143.— y desacoplamiento, 219-223--y explicación, 142-175,215-219,71-72— y lenguaje público, 253-275— y modelos del mundo, 61-71,87-88,92— y símbolos, 40-42,44,71 -72— y tiempo, 213-215Representación orientada hacia la acción. 76,
88 92,200-204Resnick, M., 80,116, 142, 157 Retroalimentauón positiva, 81, 103,114-115
Véase también Auioorganización Richardson, R., 160 Ritzmann, R., 42-43 Robots— Aitila, 54— Herbert, 51-54,63,65— hexápodo, 54-55 Rumelhart, D., 253-254
Sano, F„ 57-58 Salzman, C , 183 Salzman, E., 166 Satz, D., 236-238 Schieber, M., 179-180,190 Sejnowslu, T., 70Sensación dependiente del nicho, 63-64 Sensores, 141 Shaw, C-, 144,161 Símbolos externos. 243 275 Simón, H„ 132,235,239 Simulación, 139-142 Sinergia, 180-181,204-205
Véanse también Variables colectivas, Sistemas dinámicos
Sistemas dinámicos, 143 -147— acoplados, 139,144— puros, 166-167— leona de los, 143-147, 161 166— y comprensión explicativa, 149-175,188-191— y cognición de alto nivel, 165-166— y representación, 198-230— y tiempo, 213-215 Skarda, C., 199
Smith, L., 76-77,169,199,204-207,211-212 Smithers, T., 199, 158,139-140 Smolensky, R, 253 SOAR, sistema, 94Soluciones descentralizadas, 113-123,189-191
Véanse también Planificación, Auioorganiza- ción
Steels, L., 155-156,158,160 Slein, L., 58 STR1PS, programa, 94 Subsunción, 52-54,61,72,88 Sunder, S . 238-239
Tetris, juego, 107, 258 Thach.T., 78-79Thelcn, E., 76 77,79,83 85,168 169.199,204-
207,211-212 Thormon, C., 261 Tiempo, 213-215
Véase también Sistemas dinámicos Torras, C., 214 Townsend.J-, 171 Triantafyllou, G., 277 Triantafyllou, M., 277
Umtvell, 64-71
Van Esscn, D . 182-185Van Gelder, T., 143 144, 160, 165, 173, 199,
213,216Varcla, E, 199,226-227 Variables colectivas, 116 Vejiga natatoria, 133 Visión, 182 185- animada, 67, 69 71, 105, 152-153, 182-183,
190Vogel, S., 87Von Ucxkull, J., 64,66-67 Vygotsky, L„ 75.86,249-250
Wason, R, 242Wbeeler, M., 151,160,165, 199 Wímsatt, \V., 161
Yamnchi, B., 137Yarbus, A., 69 Yo,273-275
Zeluzo, R, 80-81Zonas de convergencia, 186-190,202