TESIS: ¿ES POSIBLE UNA CIENCIA COGNITIVA HEIDEGGERIANA?UNIVERSIDAD
NACIONAL AUTÓNOMA DE MÉXICO PROGRAMA DE MAESTRÍA Y DOCTORADO EN
FILOSOFÍA
FACULTAD DE FILOSOFÍA Y LETRAS INSTITUTO DE INVESTIGACIONES
FILOSÓFICAS
METAFÍSICA Y ONTOLOGÍA
TESIS QUE PARA OPTAR POR EL GRADO DE:
MAESTRA EN FILOSOFÍA
PRESENTA: MARÍA JIMENA CLAVEL VÁZQUEZ
TUTOR DR. PEDRO ENRIQUE GARCÍA RUIZ FACULTAD DE FILOSOFÍA Y
LETRAS
CIUDAD DE MÉXICO, MAYO 2016
UNAM – Dirección General de Bibliotecas
Tesis Digitales
PROHIBIDA SU REPRODUCCIÓN TOTAL O PARCIAL
Todo el material contenido en esta tesis esta protegido por la Ley
Federal del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos
(México).
El uso de imágenes, fragmentos de videos, y demás material que sea
objeto de protección de los derechos de autor, será exclusivamente
para fines educativos e informativos y deberá citar la fuente donde
la obtuvo mencionando el autor o autores. Cualquier uso distinto
como el lucro, reproducción, edición o modificación, será
perseguido y sancionado por el respectivo titular de los Derechos
de Autor.
1
y a Andrés.
2
Agradecimientos
Al programa de becas nacionales de CONACYT por el apoyo financiero
brindado para este
proyecto de investigación de maestría.
A Andrés por su compañía, su apoyo incondicional y por las
incansables discusiones
filosóficas.
A mi mamá por su gran ejemplo y por enseñarme que siempre hay que
ver hacia adelante.
A Adriana por no ser sólo una gran hermana, sino una gran amiga. A
Ígor por siempre estar
ahí. A Tadzio por todo su cariño y soporte. A Rosita por su inmenso
amor.
Todo mi agradecimiento a mi familia, amigos y colegas. En especial
a Fabiola, a Paulina, a José
Luis, a Guillermo, a Mary, a Sebastián, a la Mtra. María Elena
García Peláez, al Dr. José
Alberto Ross, al Dr. Luis Xavier López Farjeat y a Enrique.
Al Dr. Pedro Enrique García Ruiz por su inmenso apoyo a lo largo de
la maestría y en la
elaboración de este trabajo.
A mis lectores, Dr. Jorge Reyes, Dra. Pilar Gilardi, Dra. Rebeca
Maldonado, Dr. Carlos Oliva
por sus valiosas contribuciones a este trabajo.
A very special thanks to Professor Michael Wheeler who welcomed me
with open arms to
discuss the arguments presented here and answered all of my
questions. My stay at the
University of Stirling contributed enormously to my philosophical
formation.
3
Índice
Introducción
.............................................................................................................................................
4
Parte 1. Un naturalismo se esconde en las ciencias cognitivas
fenomenológicas ......................... 12
Capítulo 1. Las ciencias cognitivas fenomenológicas
...................................................................
12
Contribuciones críticas a las ciencias cognitivas: el paradigmático
caso de Hubert Dreyfus
.........................................................................................................................................................
13
Una propuesta de naturalismo para las ciencias cognitivas
fenomenológicas ..................... 70
Parte 2. Las objeciones de Martin Heidegger al naturalismo
...........................................................
83
Capítulo I. La relación de la fenomenología con las ciencias
positivas ..................................... 88
La filosofía: una ontología fenomenológica
..............................................................................
88
Las ciencias positivas como saberes ónticos
...........................................................................105
La relación entre la filosofía y las ciencias positivas
..............................................................118
Capítulo II. La analítica existencial y su relación con las
ciencias positivas ............................127
La analítica existencial
................................................................................................................127
El lugar de la analítica existencial en el proyecto fenomenológico
de Heidegger. ............133
La relación de la analítica existencial con la psicología y la
antropología ...........................136
Conclusión
............................................................................................................................................149
Bibliografía
............................................................................................................................................151
4
Introducción
¿Qué son las ciencias cognitivas fenomenológicas si no quimeras
filosóficas? Éstas parecen
salir de un bestiario filosófico en el que en una misma empresa
teórica se intentan poner en
consonancia dos quehaceres incompatibles. La fenomenología ha
pronunciado desde el
principio el rechazo a la primacía de un proceder científico. Las
Investigaciones Lógicas de Husserl
comienzan por objetar al psicologismo que permeaba la época con
base en la idea de que el
ámbito de la significatividad no puede ser develado por un quehacer
empírico. Lo propio de la
fenomenología es recuperar este ámbito trascendental, con respecto
al cual una empresa
científica tiene poco que decir. En lo que respecta a este ámbito,
la ciencia es ingenua. Esta
idea queda plasmada de un modo incendiario cuando Heidegger afirma
que “La ciencia no
piensa” (Heidegger, 2005, pág. 8).
Por el otro lado, en la filosofía el naturalismo se ha vuelto
moneda corriente. Y podemos
encontrar afirmaciones tan radicales como la de Heidegger. Patricia
Churchland cita la
afirmación de Adam Smith que dice que “la ciencia es el gran
antídoto al veneno del
entusiasmo y la superstición” (“Science is the great antidote to
the poison of enthusiasm and
superstition”) (Churchland, 2011, pág. 4). Detrás de esta
referencia se encuentra la idea de que
el conocimiento científico es el paradigma de verdad que podrá
derribar cualquier
incertidumbre.
Ésta es la tensión que las ciencias cognitivas fenomenológicas
retan. El objetivo de este trabajo
es enfrentar dicha tensión e intentar mostrar por qué éstas no
pertenecen a un bestiario
filosófico, sino que son un intento genuino de comenzar un diálogo
fructífero tanto para las
ciencias cognitivas como para la fenomenología.
Ahora bien, para mostrar de qué manera podríamos llegar a un punto
intermedio y disolver la
tensión entre la fenomenología y el naturalismo, he decidido
centrarme en Martin Heidegger.
El primer motivo que me llevó a ello es que el diálogo con su
filosofía fue uno de los
parteaguas para el nacimiento de las ciencias cognitivas
fenomenológicas. Hubert L. Dreyfus
cuestionó el optimismo de las investigaciones en inteligencia
artificial (en adelante, IA) desde la
fenomenología de Heidegger. En segundo lugar, me parece que
Heidegger sostiene una
postura anti-naturalista que aparenta ser bastante fuerte, pero que
en realidad no lo es. Si bien
Heidegger admite que las ciencias positivas requieren de una
fundamentación ontológica, en su
camino filosófico pasa de una actitud indiferente con respecto a
dicha relación entre las
5
ciencias y la filosofía, hasta el rechazo de la ciencia moderna en
virtud de que ésta es la
culminación de la metafísica de la presencia, es decir, del
malentendido ontológico de la
tradición. El anti-naturalismo de Husserl y de Merleau-Ponty, en
contraste, tiene algo
fundamentalmente distinto. Ninguno de los dos admitirá que la
pregunta por la significatividad
pueda ser respondida científicamente, sin embargo, eso no implica
una clausura del diálogo
con la ciencia. Esto se ve en la idea que Husserl tiene de la
fenomenología como ciencia de
ciencias, así como es notorio en el diálogo de Merleau-Ponty con la
psicología del desarrollo y
la Gestalt.1 Mi idea es que la actitud anti-naturalista de
Heidegger no se sigue necesariamente
de sus ideas filosóficas desarrolladas de 1927 a 1930. Me limité a
tratar con el pensamiento de
Heidegger de esta época porque éste es el Heidegger con quien
dialogan las ciencias cognitivas
fenomenológicas.
Esta tesis está dividida en dos partes: las ciencias cognitivas
fenomenológicas y su naturalismo,
y el anti-naturalismo en la fenomenología de Heidegger. A lo largo
del primer capítulo
presento qué son las ciencias cognitivas fenomenológicas. Debido a
que las propuestas que se
pueden enmarcar en esta empresa interdisciplinaria son muchas,
decidí tomar sólo algunos
ejemplos que me parecen paradigmáticos para ejemplificar las
distintas maneras en que las
ciencias cognitivas se han visto influidas por la
fenomenología.
Creo que es esencial enfatizar que las ciencias cognitivas
fenomenológicas no son
fenomenología. Éstas tienen como fin aclarar el fenómeno de la
cognición. Las descripciones
de la fenomenología les han sido de mucha utilidad para aclarar
características de nuestro
modo de ser que no estaban plasmadas en teorías anteriores. Sin
embargo, estas propuestas no
pretenden responder las cuestiones propias de la fenomenología. Los
problemas que se
plantean son distintos, pero irremediablemente vinculados entre sí.
Grosso modo, mientras
que la fenomenología Heideggeriana busca responder una pregunta
ontológica, las ciencias
cognitivas quieren entender cómo funciona la mente.
El primer capítulo se divide, a su vez, en dos partes. En la
primera parte tomo las propuestas
de Hubert Dreyfus, de la cognición enactiva, de Phil Agre y David
Chapman, y de Michael
Wheeler. En este capítulo distingo entre contribuciones positivas y
negativas a las ciencias
1 No quisiera reducir la fenomenología a estos tres filósofos,
simplemente me parecen paradigmáticos
en lo que respecta al problema del naturalismo. Husserl por
inaugurar la fenomenología como una
respuesta al naturalismo, Merleau-Ponty por su diálogo activo con
la psicología y Martin Heidegger por
su anti-naturalismo.
cognitivas fenomenológicas. Las contribuciones negativas son las
que parten de la
fenomenología para señalar algunos errores en los enfoque
tradicionales de las ciencias
cognitivas. Para ejemplificar esto tomé a Dreyfus. Como ya había
mencionado, su caso es el
parteaguas de las ciencias cognitivas fenomenológicas. El caso de
Dreyfus, además, resulta
sumamente enriquecedor para entender el contexto de las ciencias
cognitivas, en especial, su
relación con la IA.
Para tratar las contribuciones positivas, distinguí entre
contribuciones activas y pasivas. Las
primeras son contribuciones que inspiran el planteamiento de una
teoría sobre la cognición,
permiten el desarrollo de un método de investigación, o inspiran un
modelo de la cognición.
En este caso tomé la teoría de la cognición enactiva y el modelo
computacional desarrollado
por Agre y Chapman. En ambos casos, su comprensión de la cognición
recibe influencia por
parte de la fenomenología. Con respecto a la teoría enactiva de la
mente, es importante notar
que así como reciben influjo de la fenomenología, su teoría se
inspira también en un
planteamiento biológico anterior, así como en ideas filosóficas
diversas incluyendo la influencia
del budismo. El diálogo con la fenomenología resulta sumamente
importante para el desarrollo
de un método que les permita sistematizar los reportes de primera
persona que obtienen en
algunos experimentos. En el caso de Agre y Chapman, Agre considera
que la influencia de la
fenomenología tiene principalmente un carácter narrativo. Esto es
importante porque, de todas
las propuestas que analicé, la de Agre es la que sostiene un
naturalismo más fuerte, aceptando
la fenomenología como una simple inspiración. Finalmente, entre los
casos de contribuciones
positivas, traté la propuesta de Wheeler como una contribución
pasiva de la fenomenología.
Wheeler analiza los conceptos que están detrás de nuevos esfuerzos
de las ciencias cognitivas,
en concreto, de quienes defienden que la cognición debe entenderse
en términos de sistemas
dinámicos. La idea de Wheeler es hacer explícitos los conceptos
detrás de estas nuevas
propuestas de las ciencias cognitivas y articularlos en un marco
conceptual heideggeriano. La
articulación de estos conceptos abre nuevos caminos para continuar
con la investigación.
Lo que estas propuestas tienen en común es que, aunque no defienden
un naturalismo fuerte,
sí defienden la idea de que la filosofía debe de ser continua con
la ciencia. Este naturalismo, a
diferencia de otras propuestas, no implica que la filosofía esté
supeditada a la ciencia. En
realidad, acepta que la fenomenología es capaz de abrir el fenómeno
del ser humano de una
manera que la ciencia nunca podría hacerlo y, en esa medida, es
capaz de abrir nuevas
perspectivas para tratar con la cognición. Sin embargo, sí afirman
que hay una continuidad
7
entre la fenomenología y la ciencia. Es decir, la fenomenología no
es considerada sin más una
especie de ciencia fundamental que marca indiscutiblemente las
pautas del quehacer científico
sino uno más de los interlocutores. Así, si bien la fenomenología
puede señalar errores en el
quehacer de las ciencias cognitivas, la fenomenología no tiene la
última palabra.
Esta idea no me parece descabellada. En última instancia, la
fenomenología y las ciencias
cognitivas no están hablando de algo distinto. De una u otra manera
están tratando con
nosotros mismos. Esto es claro en lo que respecta a las ciencias
cognitivas, sin embargo, con
respecto a la fenomenología, esta afirmación puede ser peligrosa:
hay quienes consideran que
ésta, en particular la fenomenología de Heidegger, no está tratando
con nosotros sino con un
ámbito que nos trasciende como individuos. A pesar de ello, creo
que un punto en común que
tienen las distintas perspectivas fenomenológicas es que el punto
de partida irremediable de su
quehacer es nuestra propia experiencia cotidiana. En esa medida,
creo que podemos decir que
sí están hablando de lo mismo. Es por ello que sería de esperarse
que así como los
planteamientos fenomenológicos impactan a las ciencias cognitivas,
lo que las últimas digan
debería tener algún impacto en la fenomenología. Esta segunda
afirmación es la que resulta
más problemática.
En el segundo capítulo de la primera parte de la tesis intento
darle forma a un naturalismo
débil en el que pueda plasmar la actitud naturalista de las
propuestas de las ciencias cognitivas
fenomenológicas. Si bien hay muchos intentos por hacer explícito el
naturalismo que está
detrás de su actitud naturalista (ejemplo de ello son Gallagher
(2010), Zahavi (2010) y Reynolds
(2014b)), he decidido partir de cero en esta formulación del
naturalismo. Lo que busqué fue
partir de un análisis del naturalismo en sus diversas formulaciones
para llegar a una
formulación en la que se hiciera explícita la actitud naturalista
de las propuestas expuestas en el
primer capítulo.
Para lo anterior, distinguiré primero entre una actitud naturalista
y un naturalismo explícito. La
primera es una actitud que pueden sostener tanto filósofos como
científicos y que aunque se
basa en ciertos supuestos ontológicos y epistemológicos, estos no
son explícitos en sus
propuestas. Mientras que un naturalismo explícito da sustento a
estos supuestos. Consideraré
que todo naturalismo implica una afirmación epistemológica sobre el
modo como debe
estudiarse la realidad y una afirmación ontológica sobre lo que
constituye esa misma realidad.
Distinguiré entre distintas formulaciones del naturalismo: la
semántica, la epistemológica y la
ontológica. Me centraré en la formulación semántica pues desde esta
perspectiva podré
8
exponer los términos en que parece darse el naturalismo de las
ciencias cognitivas
fenomenológicas. Éstas se encuentran ya enmarcadas por el intento
de poner en diálogo dos
discursos distintos. Finalmente, mostraré que de una actitud
naturalista se sigue necesariamente
un proyecto de naturalización. En otras palabras, para ser
consecuentes con una postura
naturalista es necesario dar cuenta de las consecuencias que tiene
asumir esta postura sobre una
disciplina no científica.
En la segunda parte de este capítulo daré cuenta del supuesto
ontológico que podrían sostener
las ciencias cognitivas fenomenológicas. Me parece que ellas pueden
comprometerse con un
materialismo. Defender que ellas podrían comprometerse con esta
tesis no quiere decir que la
misma esté libre de problemas. Sin embargo, sí permite plantear que
para dar cuenta de la
realidad pueden aceptarse dos recuentos distintos. El recuento
científico ontológico puede
considerarse como necesario en la medida en que determina qué entes
caben en nuestra
ontología. Sin embargo, este recuento es meramente causal. Lo que
intentaré mostrar es que
puede defenderse que hay un segundo tipo de recuento que es el
constitutivo. La prioridad de
la ciencia (que es la afirmación con la que todo naturalismo,
fuerte o débil, concuerda) consiste
en la necesidad de su recuento. Sin embargo, este recuento no es
suficiente.
En la segunda parte de la tesis me concentro en la fenomenología
heideggeriana. En primer
lugar intento explicar en qué consiste la relación de la ciencia
con la filosofía. Distingo que la
filosofía tiene dos labores distintas. Por un lado, encontramos la
cuestión fundamental por el
sentido del ser. Pero también podemos identificar la labor de las
ontologías regionales. Éstas, si
bien, no necesariamente son parte del trabajo de la filosofía, sí
tienen un carácter filosófico que
se fundamenta en el modo de ser mismo del Dasein.
Intento también plasmar en qué consiste los argumentos
anti-naturalistas de Heidegger. El
filósofo alemán se pronuncia en contra de un naturalismo que quiera
enmarcar el quehacer
filosófico en un proceder que no le corresponde. Como ya había
adelantado, Heidegger no
niega la continuidad de la filosofía y la ciencia. Sin embargo,
esta continuidad no es necesaria,
sino sólo posible. Considero que esta indiferencia con respecto a
un posible diálogo entre
ambas perspectivas puede verse también como un
anti-naturalismo.
Ahora bien, me parece que la tensión entre ciencia y filosofía se
encuentra, en realidad, en la
analítica del Dasein. Ésta es la que podría confundirse con una
antropología filosófica. Si bien
Heidegger parece indiferente frente a la idea de que disciplinas
como la antropología y la
psicología tomaran la analítica existencial de base. Ésta, en
definitiva, no puede considerarse
9
como una antropología filosófica porque, en primer lugar, el Dasein
no es un ente al modo de
los demás. En consecuencia, no es posible determinarlo como una
región de lo ente. Ahora
bien, el que la antropología o la psicología quisieran partir de
esta analítica no es
particularmente problemático: se enfrentarán al carácter
provisional que tiene este análisis. Hay
un punto que me parece central rescatar para poder discutir la
posibilidad del diálogo entre la
analítica existencia y otras disciplinas ónticas. La analítica
existencial no trata sobre un ente, sin
embargo, no puede sino partir de la descripción de la experiencia
cotidiana de nuestra
existencia. La primera parte del Ser y tiempo escrito trata
precisamente de este análisis. Y ésta la
que resulta de interés para las ciencias cognitivas
fenomenológicas. Heidegger se muestra
indiferente frente al intento de ciencias ónticas por entablar un
diálogo con su analítica porque
en ésta podrían rescatarse elementos esenciales de nuestra
experiencia, pero lo que es
fundamental del Dasein –su vínculo irrebasable con el ser– se
pierde. De manera que no hay
análisis del Dasein que sirva como suelo fundamental porque a este
fundamento le pertenece
esencialmente negarse a aparecer. Así, no hay diálogo positivo con
respecto a lo que resulta
central en la filosofía de Heidegger.
Sin embargo, me parece que eso no debería de cerrar el diálogo
absolutamente. Lo que sale a
relucir en la analítica existencial no es irrelevante en lo que
respecta a la comprensión de lo que
somos nosotros mismos. Esto es lo que rescatan las ciencias
cognitivas fenomenológicas. Pero
no sólo eso. Me parece que hay que dar el siguiente paso. Intentaré
argumentar que las ciencias
cognitivas sí pueden iluminar la comprensión que tenemos de nuestra
experiencia. Esto dice
poco en lo que respecta a la tarea fundamental de la filosofía de
Heidegger. Pero si aceptamos
que no tenemos de otra más que empezar el camino de la filosofía
partiendo de nuestra propia
experiencia, todo aquello que pueda enriquecer lo que sabemos de
ella, debería de ser tomado
en cuenta. Es en ese sentido que intentaré mostrar que la
fenomenología y las ciencias
cognitivas podrían tener algo más que decirse la una a la
otra.
Ahora bien, creo que antes de comenzar resulta fundamental aclarar
algunos conceptos:
a) Las ciencias cognitivas: éstas son una empresa
interdisciplinaria que pretende
comprender la cognición humana, es decir, las habilidades mentales
y procesos que
posibilitan el comportamiento inteligente. Es posible identificar
tres enfoques
principales de las ciencias cognitivas: el cognitivismo clásico, el
conexionismo y el
10
enfoque situado de la cognición. 2 Las ciencias cognitivas
involucran el trabajo de la
psicología cognitiva, la psicología de la percepción, la
lingüística, la IA, las
neurociencias, la psicología del desarrollo y la filosofía.
b) El cognitivismo clásico: debido a los avances tecnológicos del
S. XX en informática y
computación, los investigadores tomaron la teoría de la información
y la teoría de la
computación como modelos para entender la cognición. Ésta, en
consecuencia, se
tomó como procesamiento de información o, en otras palabras, como
la manipulación
de símbolos cuya operación es especificada por una regla o
algoritmo. La inteligencia
artificial se volvió relevante porque permite la simulación de
comportamiento
inteligente, de manera que sirve como un campo de prueba para una
teoría de la mente.
Para la inteligencia artificial construir equivale a explicar. Así,
si un sistema artificial
logra llevar a cabo un comportamiento parecido al del ser humano,
entonces la
operación (la función) que ha sido ejecutada se toma como
explicativa.
c) El conexionismo: entre los problemas a los que se enfrentaron
los investigadores del
primer enfoque se encuentra el aprendizaje interactivo desde la
experiencia. Para
poderlo resolver, algunos investigadores tomaron como paradigma el
conexionismo.
Éste se desarrolló en las neurociencias desde los años 40. Sin
embargo, fue un enfoque
marginal hasta los 80. La cognición estaba modelada como una
arquitectura neuronal
representacional. Estos modelos tenían la ventaja de ser
bilógicamente más atinados
que los modelos anteriores. La idea central es que la computación
de una función
lógica debía entenderse como la suma de los valores de cada
conexión neuronal.
d) La cognición situada: este enfoque involucra cuatro tesis
distintas. La de la cognición
corporizada (embodied cognition), según la cual hay procesos
corporales que constituyen la
cognición; la tesis de la cognición extendida (extended cognition),
que afirma que hay
elementos ajenos al sistema cognitivo que también son constitutivos
de la cognición; la
tesis de la cognición situada* (embedded cognition), que dice que
la cognición involucra
elementos ajenos al sistema cognitivo, aunque no sean considerados
como
constitutivos; y, finalmente, la tesis de la cognición enactiva
(enactive cognition) que
2 Una de las cuestiones más discutibles con respecto a las ciencias
cognitivas es, precisamente, qué
entienden por cognición. Así, los distintos enfoques de las
ciencias cognitivas difieren en esta noción
acerca del fenómeno que intentan explicar.
11
sostiene tesis similares a las tesis de la cognición extendida y
corporizada, pero enfatiza
el carácter performativo de los procesos cognitivos, estableciendo
que existe un vínculo
muy fuerte entre la acción, la cognición y la percepción.
12
Parte 1. Un naturalismo se esconde en las ciencias cognitivas
fenomenológicas
Capítulo 1. Las ciencias cognitivas fenomenológicas
En este capítulo pretendo dar cuenta de qué son las ciencias
cognitivas fenomenológicas y de
qué modo la fenomenología se ha mostrado como una aportación
relevante a ellas. A grandes
rasgos podemos decir que éstas surgen de la influencia que ha
tenido la fenomenología en
algunas propuestas de las ciencias cognitivas, ya sea porque (a)
busquen renovar las propuestas
de las ciencias cognitivas tomando como hilo conductor de sus
planteamientos ciertos
conceptos fenomenológicos; o (b) porque intenten resolver algún
problema muy concreto,
como es el caso de la consciencia, a través de una propuesta
metodológica de carácter
fenomenológico. En ambos casos, los investigadores se inspiran en
planteamientos propios de
la fenomenología que les permiten acceder a una nueva perspectiva
del fenómeno que
enfrentan. Una de las primeras características que es posible notar
de la relación entre estas
disciplinas es que tiende a ser unidireccional pues va regularmente
de la fenomenología hacia
las ciencias cognitivas.3 A lo largo de este capítulo pretendo
mostrar cómo se ha dado dicha
relación: cómo ciertas propuestas de las ciencias cognitivas han
retomado conceptos de la
fenomenología para dar cauce a sus investigaciones.
Ahora, si bien hay muchas propuestas que tienen influjo por parte
de la fenomenología, dicho
influjo no es sistemático. Esto se hará evidente a lo largo de la
exposición: no sólo retoman
propuestas filosóficas que no son fenomenológicas, sino que incluso
llegan a caracterizar el
influjo de la fenomenología como algo meramente anecdótico. Ejemplo
de ello es el
planteamiento de Phil Agre (1997) quien considera que la lectura de
fenomenólogos fue un
hecho anecdótico en el desarrollo de su modelo, a pesar de que éste
tiene características
claramente fenomenológicas. Frente a la gran cantidad de propuestas
que se encuentran dentro
3 Es posible encontrar casos en los que las ciencias cognitivas
tienen cierta influencia sobre la
fenomenología. Ejemplo de ello sería el texto de Helena De Preester
The sensory component of imagination:
the motor theory of imagination as a present-day solution to
Sartre’s critique (2012) en el que De Preester
argumenta que, tal como Sartre lo sugiere, la visión de la
imaginación de este último y de Edmund
Husserl sólo podrían desarrollarse con una teoría motora de la
imaginación.
Ahora bien, el problema es que para argumentar a favor del diálogo
entre ambas disciplinas –es decir,
para aceptar lo que De Preester le atribuye a Sartre– es necesario
que la fenomenología acepte, en
primer lugar, que una teoría científica tiene algo que decirle.
Abordaré este problema en el tercer
capítulo e intentaré mostrar que hay al menos un motivo para creer
que el diálogo sería necesario.
13
del marco de las ciencias cognitivas fenomenológicas, para realizar
este análisis me será más
sencillo hacer una especie de tipología del influjo que tiene la
fenomenología sobre las ciencias
cognitivas. He elegido estos casos porque me parecen
representativos y permiten ver con
claridad los distintos modos como se ha dado esta influencia. Si
bien, en lo que resta de la tesis
me concentraré en Martin Heidegger y el problema del naturalismo
que se desprende de estas
propuestas, a lo largo de este capítulo no trataré únicamente las
ciencias cognitivas que han
tomado a Heidegger como interlocutor. El motivo es que, como
mencioné, las ciencias
cognitivas fenomenológicas no han sido influidas únicamente por
propuestas
fenomenológicas, sino propuestas filosóficas diversas. Tal es el
caso de Terry Winograd y
Fernando Flores en Understanding Computers and Cognition (1987),
texto en el que los autores
retoman no sólo la filosofía de Martin Heidegger, sino también
algunas ideas de Searle y
Gadamer.
Comenzaré por distinguir entre contribuciones negativas o críticas
y contribuciones positivas.
Tomaré como contribuciones negativas o críticas aquellas que
objetan o critican los supuestos
filosóficos que subyacen a la investigación de las ciencias
cognitivas. En cambio, consideraré
que las contribuciones positivas son propuestas: (a) activas, para
programas y métodos de
investigación inspirados por una descripción fenomenológica; o (b)
pasivas, que articulan
algunos resultados y propuestas de las ciencias cognitivas en
términos fenomenológicos.
Mostraré que una propuesta crítica hacia los enfoques tradicionales
de las ciencias cognitivas
muestra la necesidad de desarrollar una propuesta que parta de la
fenomenología misma. En
otras palabras, muestra la necesidad de una propuesta positiva.
Mostraré también que todos
estos ejemplos parecen sostener un naturalismo débil que intentaré
sistematizar a lo largo del
segundo capítulo de esta primera parte.
Contribuciones críticas a las ciencias cognitivas: el paradigmático
caso de Hubert
Dreyfus
La fenomenología se ha mostrado relevante para las ciencias
cognitivas como un enfoque
crítico a algunas perspectivas tradicionales de la cognición.
Hubert Dreyfus es el pensador
contemporáneo que desde un suelo fenomenológico puso en entredicho
ciertos
planteamientos de la inteligencia artificial.4 Las objeciones de la
fenomenología hacia las
4 El planteamiento de Hubert Dreyfus tiene el mérito de mostrar las
carencias de los enfoques
tradicionales de las ciencias cognitivas que se expresaban en los
primeros desarrollos de la inteligencia
14
ciencias cognitivas se dirigen a las bases filosóficas de los
distintos programas de investigación.
En consecuencia, se desprende de estas objeciones la necesidad de
un planteamiento positivo.
En la recuperación de ciertos conceptos fenomenológicos que se
anteponen a las bases de los
enfoques tradicionales de las ciencias cognitivas, se ve la
necesidad de levantar un nuevo
programa de investigación que parta de un fundamento distinto. Me
interesa tratar con la
propuesta de Dreyfus por varios motivos. El primero es el impacto
que tuvo la propuesta en el
desarrollo de la IA, pues no sólo marcó nuevos caminos para su
posible desarrollo sino que
también orilló a los investigadores a enfrentar sus objeciones.5
Otro aspecto relevante de su
crítica es que ésta ha ido cambiando a lo largo de los años y en
sintonía con nuevos desarrollos.
artificial. Sin embargo, esto de ninguna manera quiere decir que el
influjo de la fenomenología en las
ciencias cognitivas sea la primera instancia de un diálogo entre la
psicología y la fenomenología. Cabe
recordar que la fenomenología de Husserl nace inspirada en la
filosofía de la psicología de Brentano y
como respuesta a los planteamientos psicologistas de la lógica que
permearon las últimas décadas del s.
XIX y principios del s. XX. Heidegger en los Seminarios de Zollikon
menciona la dificultad de vincular los
avances de la ciencia con respecto al funcionamiento del cerebro y
nuestra propia experiencia; en
concreto, dirige su crítica a las ciencias computacionales que
empezaban a hacerse notar. Por último, no
podemos ignorar el diálogo de Merleau-Ponty con ciertas propuestas
de la psicología del desarrollo,
entre otras. 5 En 1963, Dreyfus fue invitado a “evaluar el trabajo
vanguardista de Alan Newell y Herbert Simon”
(Dreyfus, 2012) a la RAND Corporation (Research and Development).
En 1965, tras su estadía, comenzó a
circular un texto suyo llamado Alchemy and Artificial Intelligence
en el cual Dreyfus comenzó a articular sus
objeciones a los programas de investigación de IA. En 1968, Seymour
Papert publicó el memo The
Artificial Intelligence of Hubert Dreyfus: a Budget of Fallacies en
respuesta a la crítica de Dreyfus al progreso de
la inteligencia artificial. La crítica de Dreyfus se dirigía a los
cimientos mismos de las investigaciones que
personas como Terry Winograd, Seymour Papert, Herbert Simon y Allen
Newell (entre otros) estaban
llevando a cabo. Entre otras cosas, Dreyfus negó la posibilidad que
anticipaba Simon de que diez años
después una máquina podría ganarle a un ser humano en un juego de
ajedrez. La disputa llegó a tal
grado que Richard Greenblatt retó a Dreyfus a un juego de ajedrez
con su recién creado programa
MacHack. Dreyfus perdió. Fue tras su estadía en RAND que escribió
su texto What computers can’t do.
(Rheingold, 1985)
Así como hubo una recepción negativa de las críticas de Dreyfus,
hubo también una recepción positiva.
El mismo Dreyfus narra que fue invitado en 1986 por Patrick Winston
(director del laboratorio de IA
del MIT) a dar una plática. Otro ejemplo es el de Terry Winograd
quien cambió de perspectiva tras
revisar los argumentos de Dreyfus. Winograd cuenta en el prólogo de
la recopilación Heidegger, Coping,
and Cognitive Science (Wrathall & Malpas, 2000) que su primer
encuentro con Dreyfus fue precisamente a
través del memo de Papert. Sin embargo, Winograd se mantuvo en
contacto con Dreyfus durante
muchos años. En parte fueron estas conversaciones las que llevaron
a Winograd a cambiar su
investigación de IA a un enfoque fenomenológico sobre la
interacción entre seres humanos y
computadoras. Esto es notorio en el texto que redactó con Fernando
Flores en 1986, Understanding
Computers and Cognition.
15
De tal manera que para poder dar cuenta de sus críticas a la IA y a
las ciencias cognitivas será
necesario buscar los argumentos en textos distintos. En esta
sección me concentraré en What
computers still can’t do (1994) y Why Heideggerian AI failed and
how fixing it would require making it more
Heideggerian (2012); tomaré estos dos textos como un continuo. En
What computers can’t do, la
crítica de Dreyfus está dirigida al cognitivismo clásico que guiaba
las investigaciones de IA; sin
embargo, en la versión del texto de 1994, What computers still
can’t do, sus objeciones se
extienden hacia el paradigma conexionista de las ciencias
cognitivas. El texto Why Heideggerian
AI failed continúa con este mismo proyecto al mostrar que los
proyectos que tomaron en
cuenta sus objeciones –y otros que parecían dirigirse hacia lo que
él mismo había señalado– no
fueron lo suficientemente radicales en sus propuestas de
investigación. Las objeciones de
Dreyfus tienen la ventaja de avanzar al ritmo que se van dando
nuevos desarrollos de las
ciencias cognitivas.6 Pero además, han permitido ver de qué modo
una nueva propuesta de
cognición puede servir como hilo conductor de una investigación
empírica. A través de sus
objeciones, Dreyfus concluye que las ciencias cognitivas deben
continuar sus investigaciones a
la luz de descripciones fenomenológicas del ser humano, pues a
través de una descripción de
este tipo es posible dar cuenta de las condiciones tanto necesarias
como suficientes del
comportamiento humano. Una afirmación como la anterior, muestra
que, tras una propuesta
de carácter crítico, es necesario abrir las puertas a una
contribución positiva por parte de la
fenomenología a las ciencias cognitivas. Esto último fue lo que
algunos investigadores se
propusieron hacer tras las críticas de Dreyfus.
El que la conclusión de Dreyfus señale la necesidad de que la
fenomenología contribuya de
manera positiva a las ciencias cognitivas implica en parte que el
éxito o fracaso de los
programas de investigación de IA no es algo que podamos prever de
antemano, sino que
6 Cabe recordar que las ciencias cognitivas son una empresa
interdisciplinaria que involucra el trabajo de
la psicología cognitiva, de ciencias computacionales, de filosofía
de la mente y de neurociencias. Debido
a que como empresa nace del enfoque computacional de la mente, en
un inicio la IA tenía un papel
preponderante pues el desarrollo de programas que pudieran realizar
tareas cognitivas propiamente
humanas servirían para explicar la maquinaria psicológica de la
mente humana. Sin embargo, con el
enfoque conexionista de la mente la IA dejó de tener la misma
relevancia pues despertó interés el
estudio de las conexiones neuronales para entender la inteligencia.
De este modo, la IA comenzó a
perfilarse más hacia el desarrollo de tecnologías que hacia su
papel explicativo con respecto a la mente
humana. Las primeras objeciones de Dreyfus se dirigen, pues, a la
inteligencia artificial. Más adelante,
las dirigirá hacia el conexionismo argumentando que ambos enfoques
descansan sobre los mismos
supuestos.
16
depende del desarrollo de estos mismos programas de investigación.
Es decir, que la pregunta
por el éxito o fracaso de la IA es una pregunta empírica. Esta
caracterización del problema
resulta relevante para poder entender los términos de un diálogo
con la fenomenología. Esto
querría decir que el debate entre la postura cartesiana de la
cognición y la postura
heideggeriana, desde la cual se abren las objeciones de Dreyfus,
puede decidirse únicamente a
través del desarrollo de programas de investigación científica. La
cuestión puede enfocarse
desde dos perspectivas. La primera sería decir que aquello que va a
decidirse de manera
empírica es la legitimidad del programa de investigación. Si esto
es así, lo que se cuestiona es la
manera como se procede en un programa de investigación y se afirma
que la funcionalidad de
los conceptos depende del subsecuente progreso de la investigación.
Sin embargo, la
afirmación de que el progreso de un programa de investigación es
una cuestión empírica no
sólo se vincula con la funcionalidad de los conceptos guía, sino
que necesariamente se vincula
también a su validez. Pues, ¿qué es lo que nos permitiría validar
los conceptos heideggerianos
si un programa de investigación guiado por ellos falla? Fue
precisamente por la falta de
progreso de los programas de investigación en IA que Dreyfus
identificó que estos se
sustentaban en conceptos filosóficos cuestionables. Así, si
empíricamente vemos el fracaso de
un programa de investigación guiado por los conceptos
fenomenológicos, de acuerdo con la
propuesta de Dreyfus, deberíamos dirigirnos en parte hacia los
conceptos que lo guían y
revisarlos. De acuerdo con el filósofo norteamericano, viendo el
fracaso de la IA podemos
concluir que no puede avanzar mucho más a menos que cambie de
perspectiva:
“Este fracaso no implica que este tipo de IA sea imposible; nadie
ha podido llegar a
semejante objeción. Más bien, parecería que, hasta el momento, el
programa de
investigación que se basa en el supuesto de que los seres humanos
nos comportamos
de manera inteligente haciendo uso de hechos y reglas ha llegado a
un callejón sin
salida, y no tenemos ningún motivo para pensar que en algún momento
podría tener
éxito.”7 (Dreyfus, 1992, pág. ix)
A pesar de ello, la dependencia de los desarrollos empíricos de
ciertos conceptos que sirven
como hilos conductores es lo que permite que desde la filosofía sea
posible plantear una
7 “This failure does not mean that this sort of AI is impossible;
no one has been able to come up with
such a negative proof. Rather, it has turned out that, for the time
being at least, the research program
based on the assumption that human beings produce intelligence
using facts and rules has reached a
dead end, and there is no reason to think it could ever succeed.”
(Dreyfus, 1992, pág. ix)
17
objeción como la de Dreyfus. Me explico: Dreyfus ve que los
programas de investigación en
IA no son programas progresivos, sino todo lo contrario: son
programas degenerativos. Esto
no es algo que sea evidente desde un análisis meramente conceptual;
sin embargo, sí parecería
que es posible anticiparse. Así, si bien la respuesta a la pregunta
por el progreso o degeneración
de un programa de investigación es empírica, desde sus bases
teóricas podemos dar cuenta de
su posible degeneración.
Los programas de investigación en IA dependen en última instancia
de una descripción
adecuada del cuerpo que, como tal, tiene que incluir nuestras
“necesidades, deseos, placeres,
dolores, movimientos, contexto cultural.”8 (Dreyfus, 2012, pág.
97). Es decir, cualquier
programa de investigación que parta de una noción de la mente que
no incorpore lo anterior
no puede ser un programa de investigación progresivo. De acuerdo
con Dreyfus, el cambio
tiene que darse en la definición de cognición ya no como el mero
procesamiento de
información de un mundo exterior, sino que esta definición debería
señalar que el
comportamiento inteligente implica la identificación de información
que es relevante en
contextos específicos y no conocidos con anterioridad sin necesidad
de recurrir a un conjunto
de reglas preestablecidas. Éste es el carácter de significatividad
que enfatiza la fenomenología.9
El significado, entonces, no consiste en un conjunto de objetos
cuya relación es especificada
por una serie de reglas de acuerdo con una situación
predeterminada. Sino que, en última
instancia, el significado consiste en las posibles interacciones
que quedan abiertas para un
agente al encontrarse en una situación. Las posibilidades quedan
abiertas no por una
descripción de la situación encontrada, sino en virtud de las
interacciones previas. Parece
imposible, según esta noción del comportamiento inteligente,
determinar las respuestas de un
agente con respecto a un entorno. Para Dreyfus, de acuerdo con la
manera en que actuamos
8 “(…) we would have to include in our program a model of a body
very much like ours with our needs,
desires, pleasures, pains, ways of moving, cultural background,
etc”. (Dreyfus, 2012, pág. 97) 9 Heidegger, por ejemplo, considera
que la existencia tiene un carácter interpretativo en el que
comprendemos lo que nos rodea desde el plexo significativo en que
consiste el mundo. En otras
palabras, no es que primero veamos al objeto de acuerdo con sus
características físicas y después éste
adquiera significado; ni quiere decir que el significado de algo
debe entenderse como una definición,
aislada de un contexto; más bien comprendemos “significados que
remiten los unos a los otros
formando una compleja red de significados entrelazados” (Escudero,
2009, págs. 48-49).
18
corporizado y situado.10
Para llegar a este planteamiento, Dreyfus se basa en la filosofía
de Heidegger, de Merleau-
Ponty y del primer Wittgenstein. De este modo llega a que: “(…) el
problema del
conocimiento de sentido común no es realmente un problema acerca
del modo como
representamos conocimiento; más bien, la comprensión cotidiana y de
sentido común del
contexto que nos permite experimentar qué es relevante al momento
en que lidiamos tanto
con cosas como con personas es un tipo de know-how.”11 (Dreyfus,
1992, pág. xi). Dreyfus
quiere llegar a señalar que el error de los programas de
investigación en IA se encuentra,
entonces, en el supuesto de que la comprensión del contexto, es
decir, nuestra capacidad para
determinar qué es relevante y qué no lo es, nuestra capacidad para
lidiar con contextos
determinados, no depende de una capacidad de representación
simbólica adecuada, sino que es
una habilidad adquirida y cuya formación depende de la interacción
misma.
Siguiendo a Lakatos, Dreyfus califica los programas de
investigación en IA como programas
degenerativos.12 De acuerdo con el primero, la progresión o
degeneración de un programa de
investigación tiene que evaluarse de acuerdo con la progresión o
degeneración en sus teorías
con respecto a sus predecesores: es decir, es la serie de teorías
que guía un programa de
investigación la que puede caracterizarse como progresiva o
degenerativa y no una teoría
aislada. Una serie de teorías debe considerarse, en primer lugar,
como parte de la misma serie si
tn+1 es capaz de resolver alguna anomalía de tn al añadirle
cláusulas auxiliares a esta última o al
reinterpretar alguna cláusula ya existente (es decir, si son
capaces de llevar a cabo una
10 Para Dreyfus, al centro de esta discusión debe encontrarse la
noción de representación como
contraria a la noción de contexto (background) ya que, de acuerdo
con él, el ser humano no se relaciona
con su entorno a través de representaciones del mismo. En
consecuencia, lograr programar una
representación exhaustiva de un entorno a través de la cual un
sistema pueda actuar sobre este mismo
entorno no logra explicar la inteligencia humana pues no parece que
nosotros actuemos sobre la base
de una representación de este tipo. 11 “(…) the
commonsense-knowledge problem was not really a problem about how to
represent
knowledge; rather, the everyday commonsense background
understanding that allows us to experience
what is currently relevant as we deal with things and people is a
kind of know-how” (Dreyfus, 1992,
pág. xi). 12 La filosofía de la ciencia de Lakatos se inscribe
dentro del debate del s. XX sobre la metodología de
las teorías científicas junto con Karl Popper, Thomas Kuhn, Michael
Polanyi y Paul Feyerabend.
(Nickles, 2000). Hoy en día, en la filosofía de la ciencia, no se
discute el carácter de la investigación
científica en general, sino en particular, es decir, con respecto a
cada disciplina científica.
19
transformación en estos problemas auxiliares), además de contar al
menos con tanto contenido
sin refutar como tn. Ahora bien, la serie puede considerarse como
teóricamente progresiva si
tn+1 excede en su contenido empírico a tn, es decir, si predice
algún hecho nuevo y hasta el
momento inesperado. Por otro lado, una serie teóricamente
progresiva puede considerarse
empíricamente progresiva si algo del nuevo contenido empírico de
tn+1 es corroborado. Así,
una tn+1 considerada como una transformación en las hipótesis
auxiliares de tn es progresiva
cuando es teórica y empíricamente progresiva. Es decir, cuando es
capaz de corroborar una
hipótesis que no había sido anticipada por su predecesora.
De acuerdo con Dreyfus, éstas son las condiciones que no puede
cubrir la IA y para mostrarlo
realiza un recorrido histórico señalando en qué sentido la IA no ha
tenido éxito. Los
programas de investigación en IA ofrecieron una nueva perspectiva
con respecto a las
preguntas sobre la inteligencia humana. A pesar del éxito que
lograron las investigaciones, se
han encontrado fenómenos que se resisten tanto a la perspectiva
planteada como a sus técnicas
y métodos. De este modo se hace notorio que la caracterización de
los programas de IA como
degenerativos depende de sus predicciones empíricas y de su
capacidad para corroborarlas.
Dreyfus encontrará que los programas de investigación en IA han
caído en lo que el filósofo
israelí, Yehoshua Bar-Hillel, llamó la falacia del primer paso: es
decir, la asunción de que un
programa de investigación progresará con base en el éxito obtenido
tras haber dado
únicamente el primer paso. Es decir, la crítica de Dreyfus se
dirige al canto de victoria
anticipado de las investigaciones en IA: si bien encontraron el
modo de simular
comportamiento inteligente que parecía humano, pronto se
encontraron con ciertos obstáculos
que, según Dreyfus, sólo pueden ser superados tras una revisión de
los conceptos que guían su
quehacer.13 Así, si lo que pretenden estos programas de
investigación es simular el
comportamiento humano inteligente en sus distintas expresiones, no
podían evitar toparse con
nuestra capacidad de tener un trato hábil con las situaciones
concretas y con la resolución de
13 En la discusión que se suscitó con los investigadores
involucrados en programas de IA, una de las
actividades que para Dreyfus ejemplificaba el modo de pensar y
actuar del ser humano era el juego de
ajedrez precisamente porque en éste es necesario adaptarse a las
tantas jugadas que el oponente podría
avanzar. Sin embargo, lo que realmente interesaba a Dreyfus era
mostrar que para el ser humano
aquello que resulta significativo y nos permite interactuar con un
entorno complejo se da en términos
de posibilidades incalculables. Así, un ejemplo de ello podría ser
algo que Taylor menciona en su Ética
de la autenticidad. De acuerdo con Taylor, el comportamiento que se
sigue de la muerte de un pariente no
puede anticiparse a las diversas situaciones en las que se
encontrará el deudo (Taylor, 1994).
20
problemas del día a día. El problema, según el filósofo
norteamericano, fue la falsa
generalización del éxito que tendrían al explicar el comportamiento
humano, generalización
basada en el éxito que tuvieron al lograr explicar ciertos
comportamientos humanos desde la
definición de inteligencia como manipulación de representaciones
simbólicas. En otras
palabras, el problema ha sido, en parte, generalizar esta
definición de inteligencia.
Ahora bien, como mencioné antes Dreyfus llega a esta conclusión
tras un análisis del avance de
las investigaciones de IA. Ahora bien, mientras que en What
computers still can’t do Dreyfus llega
hasta el análisis de modelos conexionistas de la mente, en su texto
Why Heideggerian AI failed
podemos ver cuáles son las objeciones de Dreyfus a una propuesta
que en apariencia tomó en
cuenta las observaciones hechas a la IA hasta cerca de los años 70.
De este modo, podemos
distinguir entre seis etapas cuyo análisis abordaré a
continuación.
I. Simulación cognitiva (1957 - 1962).
En esta primera etapa se logró el desarrollo de programas
computacionales de traducción
lingüística, de resolución de problemas y de reconocimiento de
patrones.14 En todos los casos,
el éxito fue parcial: con respecto a las traducciones lingüísticas,
aunque era posible obtener
traducciones éstas no podían calificarse como traducciones útiles.
Con respecto a la resolución
de problemas, mediante la recolección de protocolos de sujetos
experimentales humanos y
análisis heurísticos15 fue posible crear programas capaces de
probar, por ejemplo, algunos de
14 El reconocimiento de patrones se refiere al proceso de analizar
“una imagen, una parte de un
discurso, una señal electrónica, o cualquier muestra de información
y clasificarla en diversas categorías.”
(Nilsson, 2010, pág. 62). Mientras que los programas de traducción
lingüística hacen referencia a la
traducción de lenguajes naturales a lenguajes computacionales. Para
la traducción lingüística es
necesario primero distinguir entre distintos niveles lingüísticos,
por ejemplo: los niveles morfológico,
sintáctico y semántico. La teoría sintáctica de Noam Chomsky fue
sumamente relevante para estos
desarrollos. Máquinas capaces de traducir de un lenguaje natural a
otro se presentaron, por ejemplo, en
el New York Times del 31 de mayo de 1949; de igual manera, en 1952
Bar-Hillel organizó una
conferencia sobre traducción lingüística en el MIT. (Nilsson, 2010,
págs. 103, ss.) 15 Lo que permite un análisis heurístico es dar con
soluciones probables para un problema. Debido a su
carácter falible es, más bien, un tipo de razonamiento útil para el
descubrimiento de procesos. Por
ejemplo, con respecto al uso de procesos heurísticos, Newell, Simon
y Shaw en el texto Empirical
Explorations with the Logic Theory Machine: a Case Study in
Heuristics dicen lo siguiente: “La investigación
aquí reportada [sobre la Logic Theory Machine] tiene como objetivo
entender los procesos complejos
(heurísticos) que son efectivos al resolver un problema. De ahí que
no estemos interesados en métodos
que garanticen soluciones, pero que requieren una gran cantidad de
computación. Más bien, queremos
21
los teoremas de los Principia mathematica. Un caso del éxito en la
resolución de problemas es el
General Problem Solver de Herbert Simon, Allen Newell y John C.
Shaw.16 A pesar de estos casos,
la resolución de problemas se entorpecía al enfrentarse a
cuestiones más complejas.
Finalmente, la dificultad con la que se toparon en el
reconocimiento de patrones fue el de
encontrar un principio suficientemente general que permitiera
realizar esta tarea en cualquier
caso dado.
Ésta fue, en realidad, la dificultad en todos los casos: es
necesario dar cuenta del modo como el
conocimiento de un contexto y la experiencia pasada con la que
cuenta un ser humano puede
ser determinante para llevar a cabo este tipo de tareas o llevarlas
a cabo con mayor eficiencia.
Es decir, resulta determinante para el desarrollo de estos
programas comprender de qué modo
el ser humano es capaz de distinguir lo esencial de lo que no lo es
en ciertos contextos y
situaciones.
entender cómo un matemático, por ejemplo, es capaz de probar un
teorema a pesar de que no sabe en
qué momento alcanza el éxito o si siquiera lo alcanzará.”
(Feigenbaum & Feldman, 1963, pág. 109)
Con respecto a su programa SAINT (Symbolic Automatic Integrator),
James R. Slagle dice que una
transformación simbólica es heurística cuando “aunque es aplicable
y plausible, hay un riesgo
significativo de que el siguiente paso no sea el apropiado”
(Feigenbaum & Feldman, 1963, pág. 197).
Fred M. Tonge describe su programa heurístico de una línea de
ensamblaje de la siguiente forma:
“Dado que este enfoque [heurístico] no garantiza una solución
óptima, la medida última de un
programa heurístico es si provee mejores soluciones con más rapidez
o soluciones menos costosas que
otros métodos.” Especifica también que ha tomado esta perspectiva
porque en lo que respecta a
problemas combinatorios como el de una línea de ensamblaje, no se
tienen aún soluciones por parte de
técnicas matemáticas avanzadas. (Feigenbaum & Feldman, 1963,
pág. 168). 16 Una idea central de los desarrollos de Newell y Simon
para la “mecanización de la inteligencia” es la
“transformación de estructuras de símbolos [símbolos y listas de
símbolos]” y la “búsqueda de las
secuencias adecuadas de transformaciones”. En 1959, Newell, Simon y
Shaw presentaron el General
Problem Solver (GPS) como una teoría sobre el modo de
comportamiento humano al resolver
problemas. Este programa estaba basado en un programa anterior
llamado el Logic Theorist. La idea
detrás de este programa es representar el problema a resolver como
una estructura simbólica e irla
transformando hasta obtener la estructura simbólica del problema
resuelto. De este modo es posible
tener el registro de las transformaciones necesarias hasta obtener
el resultado esperado, la así llamada
explosión combinatoria. Newell y Simon consideraban necesario el
uso de reglas heurísticas para poder
dar con la explosión combinatoria, pues a través de estas reglas se
puede dar con ciertos patrones de
transformaciones funcionales. Para Newell y Simon, la heurística es
“‘un proceso que podría resolver
un problema, pero de lo cual no se tiene garantía’” (Nilsson, 2010,
pág. 83). La diferencia del GPS con
respecto al LT es que el primero “transformaba problemas en
subproblemas”. En cambio, el GPS
computaba la diferencia entre una estructura simbólica que
representaba el problema a resolver y otra
estructura que representaba el problema resuelto. (Nilsson, 2010,
pág. 87)
22
II. Procesamiento de información semántica (1962 - 1967).
En esta segunda etapa, los programas de investigación en IA habían
logrado ya la
programación de máquinas inteligentes que, aunque no necesariamente
llevan a cabo una tarea
al modo humano, son capaces de llegar a resultados similares. El
objetivo que tenían en mente,
a lo largo de esta etapa, era la ampliación del horizonte de la
resolución de problemas, todavía
haciendo uso de reglas heurísticas. La cuestión, de acuerdo con
Dreyfus, es que se asume que
todo comportamiento humano, descrito en estas reglas heurísticas,
puede ser “formalizado y
procesado por una computadora digital” (Dreyfus, 1992, pág. 137).
Un ejemplo de esta etapa
es el programa STUDENT de Daniel Bobrow que, de acuerdo con su
propia descripción, es
capaz de comprender un conjunto de expresiones limitadas del
inglés.17 Esta capacidad es, en
última instancia, la capacidad de procesar símbolos. Del mismo modo
que en la etapa anterior,
a pesar del éxito en un conjunto limitado de resoluciones, los
programas se muestran incapaces
de recolectar y distinguir la información relevante para desempeñar
sus tareas. Así, para
proseguir con sus avances las investigaciones en IA tendrían que
lograr la programación de un
conjunto de instrucciones más complejas que permiten responder de
manera adecuada a
distintos escenarios. La diferencia entre el modo como funciona un
programa como
STUDENT y el ser humano es que no parece que los seres humanos
lidiemos con un conjunto
de hechos aislados. De acuerdo con Dreyfus, más que enfrentar este
tipo de dificultades de
procesamiento, los seres humanos parecemos más bien darles la
vuelta. Ahora bien,
recordemos que, en parte, los objetivos de las investigaciones de
IA pretenden explicar la
inteligencia humana por medio de la programación. Es decir, si se
logra programar un
dispositivo para que dé con los mismos resultados con los que daría
un ser humano,
podríamos concluir que los procesos por medio de los cuales el
dispositivo llegó a ellos son los
mismos o similares a los que utilizaríamos nosotros. Y esto es
precisamente lo que cuestiona
Dreyfus en este punto: “¿Por qué, a la luz de estas dificultades,
quienes se dedican a la
simulación cognitiva asumen que el procesamiento de información de
una computadora revela
el procesamiento de información de un ser humano?, ¿y por qué
quienes trabajan en IA
17 El programa de Daniel Bobrow (alumno de doctorado de Marvin
Minsky), STUDENT, era capaz de
resolver problemas algebraicos que eran presentados a modo de
historia. El programa llegaba a una
solución a partir de ciertas relaciones ya conocidas o ya dadas.
(Nilsson, 2010, pág. 111)
23
asumen que debe de haber alguna manera de que quehaceres humanos
sean ejecutados
digitalmente?”18 (Dreyfus, 1992, pág. 151)
III. Manipulación de micro-mundos (1967 - 1972).
Durante la tercera etapa a la que se refiere Dreyfus se programaron
sistemas que consistían en
la manipulación de micro-mundos. Ejemplo de ello es el sistema de
Terry Winograd,
SHRDLU, en el que se simula el uso de un brazo robótico que mueve
un conjunto de bloques
de distintos tipos y que, además, permite dialogar con el programa
para preguntarle sobre el
micro-mundo de bloques, así como para darle órdenes.19 El mundo en
el que funciona este
programa es un dominio que puede ser analizado de manera aislada.
Sin embargo, supone que
esto mismo podría hacerse con los contextos a los que se enfrenta
el ser humano: “Este
concepto implica que aunque cada área del discurso humano parece
abrirse hacia el resto de las
actividades humanas, sus infinitas ramificaciones no son sino
aparentes y eventualmente
convergen en un conjunto auto-contenido de hechos y relaciones.”20
(Dreyfus, 1992, pág. 10)
De acuerdo con Dreyfus, esto se debe a que los programas de
investigación en IA adoptan un
método que ha resultado exitoso para algunos de los problemas que
enfrentaban, pero que
implica la simplificación de las actividades humanas y la
incomprensión de que éstas adquieren
sentido en un conjunto organizado de objetos, propósitos,
habilidades y prácticas, y no en
descripciones de elementos aislados y la descripción de sus
relaciones. Así, la manipulación de
micro-mundos no es sino la construcción de un mundo de acuerdo con
descripciones
18 “Why, in the light of these difficulties, do those pursuing
Cognitive Simulation assume that the
information processes of a computer reveal the hidden information
processes of a human being, and
why do those working in AI assume that there must be a digital way
of performing human tasks?”
(Dreyfus, 1992, pág. 151) 19 El programa de Terry Winograd causó
gran impresión precisamente porque era capaz de sostener un
diálogo sobre la manipulación de un micro-mundo, este mundo que
consistía en bloques y un brazo
que podía manipular los bloques. De este modo, este programa podía
recibir órdenes en inglés y
realizarlas, pero también contestar preguntas sobre el micro-mundo.
El programa requería
conocimiento sintáctico para poder recibir órdenes y responder,
pero también requería poder relacionar
lo que se le ordenaba con el micro-mundo, es decir, conocer el
significado de los términos utilizados
para darle órdenes. Y, finalmente, era capaz de realizar
inferencias con respecto a las órdenes dadas.
(Nilsson, 2010, págs. 182 - 184) 20 “This concept implies that
although each area of discourse seems to open out into the rest of
human
activities its endless ramifications are only apparent and will son
converge on a self-contained set of
facts and relations.” (Dreyfus, 1992, pág. 10)
24
simbólicas y esto no parece cuadrar con ciertos resultados de
investigaciones sobre percepción
y sobre la formación cotidiana de conceptos. 21 (Dreyfus, 1992,
pág. 24)
IV. Enfrentando el problema de la representación del
conocimiento.
En esta cuarta etapa, que va de 1972 a 1977, se logró también
programar un dispositivo para
identificar características relevantes de un dominio específico. En
estos programas, el know-how
cotidiano era representado como un conjunto de instrucciones. Un
ejemplo de ello es el
proyecto Dendral de Edward Feigenbaum, Bruce Buchanan, Joshua
Lederberg y Carl
Djerassi.22 El objetivo de este programa era identificar moléculas
orgánicas desconocidas a
partir de un conjunto de datos. Una de las características de este
programa es la ingeniería de
conocimiento que permite desarrollar nuevas reglas que permitan
mejorar la búsqueda de, en
este caso, moléculas. Ahora bien, un programa como éste es exitoso
precisamente porque los
parámetros de relevancia de una característica han sido ya
especificados. El problema entonces
es identificar precisamente lo que es relevante. En este momento
surgen varios desarrollos que
pretenden solucionar este problema. Por ejemplo, Minsky propuso el
concepto del marco
estructural23 para la representación de un micro-mundo que tiene
que lidiar con conocimiento
de sentido común. Por el otro lado, Winograd y Bobrow intentaron
utilizar estos mismos
marcos estructurales en el estudio del know-how cotidiano.
Finalmente, Roger Schank desarrolló
estos marcos estructurales como guiones que codifican actividades
sociales estereotípicas.
21 Dreyfus no especifica a qué trabajos está haciendo referencia.
Sin embargo, más adelante menciona el
trabajo de Erich Goldmeier quien realizó investigaciones en el
marco de la psicología de la Gestalt. 22 El objetivo de este
proyecto (que incluyó varios programas) era dar con la estructura
de un
compuesto químico. Este programa utilizaba como base el
conocimiento que tenían los investigadores.
Precisamente a lo que hace referencia el término “ingeniería de
conocimiento” es a la idea de que los
programas puestos en marcha funcionan con base en los conocimientos
del especialista. Así, cuando un
agente (en este caso, el programa) es pobre en lo que respecta a
sus métodos, debe de ser rico en lo que
respecta al conocimiento especializado con el que cuenta. (Nilsson,
2010, págs. 197 - 200). 23 En el memo A Framework for Representing
Knowledge, Minsky define el marco estructural (frame) de la
siguiente manera: “cuando uno se encuentra en una nueva situación
(o hay un cambio substancial en el
modo como se enfrenta un problema) uno selecciona en la memoria una
estructura llamada marco.
Ésta es recordada como un marco que puede adaptarse a la realidad
al cambiar tantos detalles como
sean necesarios. Un marco es una estructura de información que
representa una situación estereotípica,
como encontrarse en cierto tipo de sala, o ir a una fiesta infantil
de cumpleaños. En parte la
información trata sobre el modo como debe utilizarse este marco.
Por otro lado también trata sobre las
expectativas de lo que debería de suceder. Y sobre qué hacer si no
se cumplen las expectativas.”
(Minsky, 1975, págs. 211 - 212). Dreyfus vincula la idea de Minsky
a la noción husserliana de noema en
la que el contenido del acto consciente otorga un horizonte de
expectativas. (Dreyfus, 1992)
25
Ahora bien, de acuerdo con Dreyfus, estudios de psicología infantil
han mostrado que un niño
no aprende cómo comportarse en un contexto determinado a partir de
algo como lo que
Schank desarrolló, sino que lo aprenden en tanto que su aprendizaje
tiene lugar en un contexto
de prácticas compartidas con otros agentes. Así, éste se da en las
interacciones cotidianas y no
como un mero aprendizaje de hechos y creencias.
Ésta es la última etapa que Dreyfus analiza en su texto What
computers still can’t do. De acuerdo
con él, todos estos desarrollos han asumido que al afinar las
descripciones del mundo
representado, los pasos que tiene que ejecutar el agente, o al
aumentar la cantidad de
descripciones con las que cuenta el sistema, será posible
reproducir el comportamiento
humano. Es decir, es una cuestión de tiempo para que se logre
imitar estos comportamientos.
Sin embargo, Dreyfus considera que más que seguir insistiendo en la
misma línea de
investigación que se ha seguido hasta ahora, los programas de
investigación de IA deberían
cuestionar si esos supuestos de hecho permiten el avance de la
disciplina.
V. Ciencias cognitivas corporizadas, situadas y extendidas.
Ahora bien, en su texto Why Heideggerian AI failed Dreyfus critica
las propuestas de ciencias
cognitivas que siguen un modelo de la mente corporizada, situada y
extendida.24 La noción de
la mente extendida parece superar el dualismo cartesiano de una
mente que se enfrenta a un
mundo que es ontológicamente distinto a ella al defender que los
procesos cognitivos no se
reducen a procesos cerebrales y, no sólo eso, sino que el uso de
artefactos es necesario para
llevarlos a cabo. Sin embargo, lo anterior no es sino una mera
apariencia pues en realidad lo
que no superó es la idea de que la cognición tiene que entenderse
como la manipulación de
representaciones simbólicas.25
24 Entre los enfoques que critica se encuentra el de Rodney Brooks
quien sigue la idea de que “el mejor
modelo del mundo es el mundo mismo”. Así, en lugar de programar un
sistema que utilizara
representaciones del mundo, el sistema usado por Brooks utilizaba
sensores que le dieran información
conforme avanzaban. Ahora bien, para Dreyfus el problema es que los
robots de Brooks responden a
ciertas “características del sistema que ya han sido determinadas,
y no a un contexto o un significado
cambiante” (Dreyfus, 2012, pág. 67). 25 El mayor problema de una
teoría representacional de la mente es la imposibilidad de
representar el
contexto en el que actúa el agente, precisamente porque para que
una representación sea funcional
necesita una descripción exhaustiva del contexto. Sin embargo, el
contexto no queda abierto en
términos de características que puedan ser absolutamente descritas
pues involucra las expectativas del
agente con respecto al contexto y todas las posibilidades de acción
que quedan abiertas.
26
VI. La propuesta neurodinámica de Walter Freeman.
Finalmente, Dreyfus analiza la propuesta de Walter Freeman basada
en Heidegger y en
Merleau-Ponty.26 Lo que Dreyfus quiere enfatizar de esta propuesta
es que precisamente no
requiere de representaciones. De acuerdo con Freeman, el cerebro
tiene que entenderse como
un sistema dinámico no linear cuyo aprendizaje depende de su
acoplamiento a un entorno. Es
decir, el cerebro es un sistema que se determina de acuerdo con las
experiencias de sus
acciones pasadas. Así, el cerebro no representa un mundo exterior
sino que el estado cerebral
es el resultado de la suma de experiencias pasadas. La distinción
que tendría este modelo con
un conductismo es que los cambios en los estados cerebrales
dependen de una experiencia
holística o global y no discreta.27 Si bien sólo en el tiempo
podemos decidir si el modelo de
Walter Freeman es funcional, tiene la ventaja de que es un modelo
adecuado al modo como
nuestro entorno de hecho se nos presenta.28 Dice Dreyfus: “Si no
podemos lograr que nuestro
modelo cerebral responda a la significatividad del contexto tal
como se nos muestra
específicamente a los seres humanos, el proyecto de desarrollar IA
heideggeriana situada y
corporizada no puede llevarse a cabo.” (2012, pág. 91)
De acuerdo con Dreyfus, el camino más adecuado para proseguir las
investigaciones científicas
sobre la mente humana no es la programación de sistemas que tengan
acceso a mayor
información ni la programación de un conjunto de instrucciones más
complejo y fino; sino
seguir un camino como el de Freeman: partir de una noción de
cognición que no esté
caracterizada por la manipulación de representaciones. Es decir, el
problema de los desarrollos
previos ha sido que suponen que es necesario refinar el conjunto de
instrucciones sin
cuestionar siquiera si tal conjunto de instrucciones es necesario
para el agente humano.
26 Walter Freeman señala en su texto Societies of Brains (Freeman,
1995) que el motivo por el cual las
neurociencias están en crisis es que la búsqueda por el significado
no se ha dirigido de manera
adecuada. Los modelos, de acuerdo con Freeman, se han concentrado
en explicar el funcionamiento de
un cerebro aislado de su interacción con un entorno y con otros
agentes. Dice Freeman en su prólogo
que “el significado surge en las relaciones sociales”. 27 De
acuerdo con el modelo de Freeman la interacción con el entorno,
considerado en su totalidad y
no como elementos aislados. En cambio, para el conductismo, la
respuesta del sistema se determina en
virtud de un estímulo determinado, es decir, un elemento discreto.
28 Este señalamiento es sumamente relevante para poder entender la
relación entre la fenomenología y
las ciencias cognitivas. De acuerdo con lo que Dreyfus señala una
explicación sobre la cognición
humana no puede separarse de manera tajante de nuestra
experiencia.
27
Dreyfus acude a la fenomenología porque en ella encuentra una
noción de la cognición
humana que parte de nuestra experiencia del mundo y que parece ser
más adecuada que la
noción de cognición que utilizan los investigadores de IA y
ciencias cognitivas. Desde la
fenomenología este enfoque tradicional ha sido y puede ser
cuestionado precisamente porque
provee una descripción que es neutra con respecto a los supuestos
teóricos tradicionales y
parte de la experiencia humana de la primera persona, es decir,
toma en cuenta cómo lidiamos
con nuestro entorno en el día a día. Dreyfus recuerda que el
desarrollo de IA fue posible
únicamente tras el desarrollo de las computadoras digitales, ya que
una computadora digital
puede simular cualquier proceso que pueda ser formalizado como un
conjunto de
instrucciones y elementos discretos.
El filósofo norteamericano considera que la IA es consecuencia del
supuesto platónico de que
una acción puede considerarse inteligente sólo si puede explicarse
como un know-what y que
esta idea marca la pauta al racionalismo moderno (Leibniz,
Descartes, Kant y Frege)29 La IA
descansa en el supuesto según el cual un comportamiento puede
considerarse como inteligente
si puede ser expresado como un conjunto de definiciones y reglas
que expliquen las relaciones
entre estos elementos. En esto, precisamente, se ha basado el falaz
optimismo con respecto a
los desarrollos en IA: si el comportamiento inteligente se debe al
procesamiento de
información entonces una computadora digital puede simularlo sin
problema alguno: “Por
debajo de su optimismo se encuentra la convicción de que el
comportamiento humano
inteligente es el resultado del procesamiento de información por
una computadora digital, y ya
que la naturaleza ha producido este tipo de comportamiento que
tiene la forma de
procesamiento de información, una programación adecuada debería de
ser capaz de obtener tal
29 Dreyfus sustenta esta afirmación en el Eutifrón de Platón. De
acuerdo con Dreyfus, cuando Sócrates
le pregunta a Eutifrón si tiene un conocimiento científico tal
sobre la piedad y lo divino que puede
justificar en él la acción de haber entregado a su padre por
asesinato.
A ojos del filósofo norteamericano, en esta petición, Platón más
bien solicita una explicación
epistemológica. Es decir, Sócrates le pide cuentas de su
conocimiento científico sobre lo divino para
poder entender por qué ha entregado a su padre. Así, lo que subyace
a esta petición de Platón es el
supuesto de que todo actuar humano depende de un conocimiento
proposicional. Éste es precisamente
el fenómeno al que Dreyfus se refiere en sus observaciones a los
desarrollos de IA que pretenden
programar reglas heurísticas para lograr la simulación de un cierto
comportamiento.
28
comportamiento de una máquina digital, ya sea imitando la
naturaleza o programando sobre la
naturaleza”30 (Dreyfus, 1992, pág. 155)
De acuerdo con Dreyfus, podemos formular este supuesto de maneras
distintas.
A. El supuesto biológico.
De acuerdo con Dreyfus, este supuesto se puede formular como la
idea de que el cerebro es
como una computadora digital. Esto se sostiene en las
investigaciones neurofisiológicas que
descubrieron que las neuronas disparan un brote o estallido de
energía, el cual fue interpretado
como la unidad de información neuronal, y comparado, a su vez, con
el bit como unidad de
información computacional. (Dreyfus, 1992, pág. 159)
Ahora bien, de acuerdo con el filósofo norteamericano, este
supuesto da por sentado que la
computadora comparte con el cerebro su carácter interactivo. Sin
embargo, ésta no se
constituye a través de la interacción, sino que ya programada se
busca que interactúe con un
entorno a través de una serie de símbolos. Dice Dreyfus: “(...) la
diferencia entre la naturaleza
fuertemente interactiva de la organización cerebral y el carácter
no interactivo de la
organización de una máquina sugiere que mientras los argumentos
biológicos sean relevantes,
la evidencia se opondrá a la posibilidad de utilizar una
computadora digital para producir
inteligencia.”31 (Dreyfus, 1992, pág. 162)
B. El supuesto psicológico.
Este segundo supuesto asume, de acuerdo con Dreyfus, que además del
plano biológico, el
cerebro cuenta con una dimensión funcional o psicológica
equivalente a la que tiene una
computadora digital en el plano de la programación. Ahora bien, en
este punto es importante
distinguir entre el supuesto biológico recién expuesto y el
supuesto psicológico. La analogía, a
diferencia del supuesto biológico, se coloca en un plano distinto,
ya no en el disparo neuronal,
sino en las funciones que determinan el comportamiento resultante.
Es decir, en lo que son
30 “Underlying their optimism is the conviction that human
intelligent behavior is the result of
information processing by a digital computer, and, since nature has
produced intelligent behavior with
this form of processing, proper programming should be able to
elicit such behavior from digital
machines, either by imitating nature or by out-programming her.”
(Dreyfus, 1992, pág. 155) 31 “(...) the difference between the
“strongly interactive” nature of brain organization and the
non-
interactive character of machine organization suggests that insofar
as biological arguments are relevant,
the evidence is against the possibility of using digital computers
to produce intelligence.” (Dreyfus,
1992, pág. 162).
29
análogas la computadora y el cerebro es en la programación: en las
operaciones de símbolos
discretos que determinan cuáles serán los datos de entrada
aceptados y cuáles serán los datos
de salida producidos. Este supuesto se deriva del primero en tanto
que, según Dreyfus, si se
asume que lo propio del cerebro biológico es ser un procesador de
información, entonces este
nivel de procesamiento existe. En otras palabras, el primer
supuesto asume que el cerebro
biológico es un tipo de procesador, mientras que el segundo
supuesto asume que procesa el
tipo de información propio de la computadora y lo hace al modo de
una computadora.
Dreyfus encuentra este supuesto en la siguiente afirmación de
Fodor: “toda operación del
sistema nervioso es idéntica a alguna secuencia de operaciones
elementales”32 (Dreyfus, 1992,
pág. 167, cita de The appeal to Tacit Knowledge in Psychological
Explanation, pág. 629). Los supuestos
de Fodor son que la información que el cerebro orgánico recibe, su
input, es información
proveniente de estímulos sensibles. El cerebro procesa esta
información con operaciones
discretas y lo hace de acuerdo con un programa heurístico.
De acuerdo con Dreyfus, este segundo supuesto está sustentado en la
idea de que el
procesamiento de información