TESIS: ¿ES POSIBLE UNA CIENCIA COGNITIVA HEIDEGGERIANA?

162
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO PROGRAMA DE MAESTRÍA Y DOCTORADO EN FILOSOFÍA FACULTAD DE FILOSOFÍA Y LETRAS INSTITUTO DE INVESTIGACIONES FILOSÓFICAS METAFÍSICA Y ONTOLOGÍA ¿ES POSIBLE UNA CIENCIA COGNITIVA HEIDEGGERIANA? TESIS QUE PARA OPTAR POR EL GRADO DE: MAESTRA EN FILOSOFÍA PRESENTA: MARÍA JIMENA CLAVEL VÁZQUEZ TUTOR DR. PEDRO ENRIQUE GARCÍA RUIZ FACULTAD DE FILOSOFÍA Y LETRAS CIUDAD DE MÉXICO, MAYO 2016

Transcript of TESIS: ¿ES POSIBLE UNA CIENCIA COGNITIVA HEIDEGGERIANA?

TESIS: ¿ES POSIBLE UNA CIENCIA COGNITIVA HEIDEGGERIANA?UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO PROGRAMA DE MAESTRÍA Y DOCTORADO EN FILOSOFÍA
FACULTAD DE FILOSOFÍA Y LETRAS INSTITUTO DE INVESTIGACIONES FILOSÓFICAS
METAFÍSICA Y ONTOLOGÍA
TESIS QUE PARA OPTAR POR EL GRADO DE:
MAESTRA EN FILOSOFÍA
PRESENTA: MARÍA JIMENA CLAVEL VÁZQUEZ
TUTOR DR. PEDRO ENRIQUE GARCÍA RUIZ FACULTAD DE FILOSOFÍA Y LETRAS
CIUDAD DE MÉXICO, MAYO 2016
UNAM – Dirección General de Bibliotecas
Tesis Digitales
PROHIBIDA SU REPRODUCCIÓN TOTAL O PARCIAL
Todo el material contenido en esta tesis esta protegido por la Ley Federal del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos (México).
El uso de imágenes, fragmentos de videos, y demás material que sea objeto de protección de los derechos de autor, será exclusivamente para fines educativos e informativos y deberá citar la fuente donde la obtuvo mencionando el autor o autores. Cualquier uso distinto como el lucro, reproducción, edición o modificación, será perseguido y sancionado por el respectivo titular de los Derechos de Autor.
1
y a Andrés.
2
Agradecimientos
Al programa de becas nacionales de CONACYT por el apoyo financiero brindado para este
proyecto de investigación de maestría.
A Andrés por su compañía, su apoyo incondicional y por las incansables discusiones
filosóficas.
A mi mamá por su gran ejemplo y por enseñarme que siempre hay que ver hacia adelante.
A Adriana por no ser sólo una gran hermana, sino una gran amiga. A Ígor por siempre estar
ahí. A Tadzio por todo su cariño y soporte. A Rosita por su inmenso amor.
Todo mi agradecimiento a mi familia, amigos y colegas. En especial a Fabiola, a Paulina, a José
Luis, a Guillermo, a Mary, a Sebastián, a la Mtra. María Elena García Peláez, al Dr. José
Alberto Ross, al Dr. Luis Xavier López Farjeat y a Enrique.
Al Dr. Pedro Enrique García Ruiz por su inmenso apoyo a lo largo de la maestría y en la
elaboración de este trabajo.
A mis lectores, Dr. Jorge Reyes, Dra. Pilar Gilardi, Dra. Rebeca Maldonado, Dr. Carlos Oliva
por sus valiosas contribuciones a este trabajo.
A very special thanks to Professor Michael Wheeler who welcomed me with open arms to
discuss the arguments presented here and answered all of my questions. My stay at the
University of Stirling contributed enormously to my philosophical formation.
3
Índice
Introducción ............................................................................................................................................. 4
Parte 1. Un naturalismo se esconde en las ciencias cognitivas fenomenológicas ......................... 12
Capítulo 1. Las ciencias cognitivas fenomenológicas ................................................................... 12
Contribuciones críticas a las ciencias cognitivas: el paradigmático caso de Hubert Dreyfus
......................................................................................................................................................... 13
Una propuesta de naturalismo para las ciencias cognitivas fenomenológicas ..................... 70
Parte 2. Las objeciones de Martin Heidegger al naturalismo ........................................................... 83
Capítulo I. La relación de la fenomenología con las ciencias positivas ..................................... 88
La filosofía: una ontología fenomenológica .............................................................................. 88
Las ciencias positivas como saberes ónticos ...........................................................................105
La relación entre la filosofía y las ciencias positivas ..............................................................118
Capítulo II. La analítica existencial y su relación con las ciencias positivas ............................127
La analítica existencial ................................................................................................................127
El lugar de la analítica existencial en el proyecto fenomenológico de Heidegger. ............133
La relación de la analítica existencial con la psicología y la antropología ...........................136
Conclusión ............................................................................................................................................149
Bibliografía ............................................................................................................................................151
4
Introducción
¿Qué son las ciencias cognitivas fenomenológicas si no quimeras filosóficas? Éstas parecen
salir de un bestiario filosófico en el que en una misma empresa teórica se intentan poner en
consonancia dos quehaceres incompatibles. La fenomenología ha pronunciado desde el
principio el rechazo a la primacía de un proceder científico. Las Investigaciones Lógicas de Husserl
comienzan por objetar al psicologismo que permeaba la época con base en la idea de que el
ámbito de la significatividad no puede ser develado por un quehacer empírico. Lo propio de la
fenomenología es recuperar este ámbito trascendental, con respecto al cual una empresa
científica tiene poco que decir. En lo que respecta a este ámbito, la ciencia es ingenua. Esta
idea queda plasmada de un modo incendiario cuando Heidegger afirma que “La ciencia no
piensa” (Heidegger, 2005, pág. 8).
Por el otro lado, en la filosofía el naturalismo se ha vuelto moneda corriente. Y podemos
encontrar afirmaciones tan radicales como la de Heidegger. Patricia Churchland cita la
afirmación de Adam Smith que dice que “la ciencia es el gran antídoto al veneno del
entusiasmo y la superstición” (“Science is the great antidote to the poison of enthusiasm and
superstition”) (Churchland, 2011, pág. 4). Detrás de esta referencia se encuentra la idea de que
el conocimiento científico es el paradigma de verdad que podrá derribar cualquier
incertidumbre.
Ésta es la tensión que las ciencias cognitivas fenomenológicas retan. El objetivo de este trabajo
es enfrentar dicha tensión e intentar mostrar por qué éstas no pertenecen a un bestiario
filosófico, sino que son un intento genuino de comenzar un diálogo fructífero tanto para las
ciencias cognitivas como para la fenomenología.
Ahora bien, para mostrar de qué manera podríamos llegar a un punto intermedio y disolver la
tensión entre la fenomenología y el naturalismo, he decidido centrarme en Martin Heidegger.
El primer motivo que me llevó a ello es que el diálogo con su filosofía fue uno de los
parteaguas para el nacimiento de las ciencias cognitivas fenomenológicas. Hubert L. Dreyfus
cuestionó el optimismo de las investigaciones en inteligencia artificial (en adelante, IA) desde la
fenomenología de Heidegger. En segundo lugar, me parece que Heidegger sostiene una
postura anti-naturalista que aparenta ser bastante fuerte, pero que en realidad no lo es. Si bien
Heidegger admite que las ciencias positivas requieren de una fundamentación ontológica, en su
camino filosófico pasa de una actitud indiferente con respecto a dicha relación entre las
5
ciencias y la filosofía, hasta el rechazo de la ciencia moderna en virtud de que ésta es la
culminación de la metafísica de la presencia, es decir, del malentendido ontológico de la
tradición. El anti-naturalismo de Husserl y de Merleau-Ponty, en contraste, tiene algo
fundamentalmente distinto. Ninguno de los dos admitirá que la pregunta por la significatividad
pueda ser respondida científicamente, sin embargo, eso no implica una clausura del diálogo
con la ciencia. Esto se ve en la idea que Husserl tiene de la fenomenología como ciencia de
ciencias, así como es notorio en el diálogo de Merleau-Ponty con la psicología del desarrollo y
la Gestalt.1 Mi idea es que la actitud anti-naturalista de Heidegger no se sigue necesariamente
de sus ideas filosóficas desarrolladas de 1927 a 1930. Me limité a tratar con el pensamiento de
Heidegger de esta época porque éste es el Heidegger con quien dialogan las ciencias cognitivas
fenomenológicas.
Esta tesis está dividida en dos partes: las ciencias cognitivas fenomenológicas y su naturalismo,
y el anti-naturalismo en la fenomenología de Heidegger. A lo largo del primer capítulo
presento qué son las ciencias cognitivas fenomenológicas. Debido a que las propuestas que se
pueden enmarcar en esta empresa interdisciplinaria son muchas, decidí tomar sólo algunos
ejemplos que me parecen paradigmáticos para ejemplificar las distintas maneras en que las
ciencias cognitivas se han visto influidas por la fenomenología.
Creo que es esencial enfatizar que las ciencias cognitivas fenomenológicas no son
fenomenología. Éstas tienen como fin aclarar el fenómeno de la cognición. Las descripciones
de la fenomenología les han sido de mucha utilidad para aclarar características de nuestro
modo de ser que no estaban plasmadas en teorías anteriores. Sin embargo, estas propuestas no
pretenden responder las cuestiones propias de la fenomenología. Los problemas que se
plantean son distintos, pero irremediablemente vinculados entre sí. Grosso modo, mientras
que la fenomenología Heideggeriana busca responder una pregunta ontológica, las ciencias
cognitivas quieren entender cómo funciona la mente.
El primer capítulo se divide, a su vez, en dos partes. En la primera parte tomo las propuestas
de Hubert Dreyfus, de la cognición enactiva, de Phil Agre y David Chapman, y de Michael
Wheeler. En este capítulo distingo entre contribuciones positivas y negativas a las ciencias
1 No quisiera reducir la fenomenología a estos tres filósofos, simplemente me parecen paradigmáticos
en lo que respecta al problema del naturalismo. Husserl por inaugurar la fenomenología como una
respuesta al naturalismo, Merleau-Ponty por su diálogo activo con la psicología y Martin Heidegger por
su anti-naturalismo.
cognitivas fenomenológicas. Las contribuciones negativas son las que parten de la
fenomenología para señalar algunos errores en los enfoque tradicionales de las ciencias
cognitivas. Para ejemplificar esto tomé a Dreyfus. Como ya había mencionado, su caso es el
parteaguas de las ciencias cognitivas fenomenológicas. El caso de Dreyfus, además, resulta
sumamente enriquecedor para entender el contexto de las ciencias cognitivas, en especial, su
relación con la IA.
Para tratar las contribuciones positivas, distinguí entre contribuciones activas y pasivas. Las
primeras son contribuciones que inspiran el planteamiento de una teoría sobre la cognición,
permiten el desarrollo de un método de investigación, o inspiran un modelo de la cognición.
En este caso tomé la teoría de la cognición enactiva y el modelo computacional desarrollado
por Agre y Chapman. En ambos casos, su comprensión de la cognición recibe influencia por
parte de la fenomenología. Con respecto a la teoría enactiva de la mente, es importante notar
que así como reciben influjo de la fenomenología, su teoría se inspira también en un
planteamiento biológico anterior, así como en ideas filosóficas diversas incluyendo la influencia
del budismo. El diálogo con la fenomenología resulta sumamente importante para el desarrollo
de un método que les permita sistematizar los reportes de primera persona que obtienen en
algunos experimentos. En el caso de Agre y Chapman, Agre considera que la influencia de la
fenomenología tiene principalmente un carácter narrativo. Esto es importante porque, de todas
las propuestas que analicé, la de Agre es la que sostiene un naturalismo más fuerte, aceptando
la fenomenología como una simple inspiración. Finalmente, entre los casos de contribuciones
positivas, traté la propuesta de Wheeler como una contribución pasiva de la fenomenología.
Wheeler analiza los conceptos que están detrás de nuevos esfuerzos de las ciencias cognitivas,
en concreto, de quienes defienden que la cognición debe entenderse en términos de sistemas
dinámicos. La idea de Wheeler es hacer explícitos los conceptos detrás de estas nuevas
propuestas de las ciencias cognitivas y articularlos en un marco conceptual heideggeriano. La
articulación de estos conceptos abre nuevos caminos para continuar con la investigación.
Lo que estas propuestas tienen en común es que, aunque no defienden un naturalismo fuerte,
sí defienden la idea de que la filosofía debe de ser continua con la ciencia. Este naturalismo, a
diferencia de otras propuestas, no implica que la filosofía esté supeditada a la ciencia. En
realidad, acepta que la fenomenología es capaz de abrir el fenómeno del ser humano de una
manera que la ciencia nunca podría hacerlo y, en esa medida, es capaz de abrir nuevas
perspectivas para tratar con la cognición. Sin embargo, sí afirman que hay una continuidad
7
entre la fenomenología y la ciencia. Es decir, la fenomenología no es considerada sin más una
especie de ciencia fundamental que marca indiscutiblemente las pautas del quehacer científico
sino uno más de los interlocutores. Así, si bien la fenomenología puede señalar errores en el
quehacer de las ciencias cognitivas, la fenomenología no tiene la última palabra.
Esta idea no me parece descabellada. En última instancia, la fenomenología y las ciencias
cognitivas no están hablando de algo distinto. De una u otra manera están tratando con
nosotros mismos. Esto es claro en lo que respecta a las ciencias cognitivas, sin embargo, con
respecto a la fenomenología, esta afirmación puede ser peligrosa: hay quienes consideran que
ésta, en particular la fenomenología de Heidegger, no está tratando con nosotros sino con un
ámbito que nos trasciende como individuos. A pesar de ello, creo que un punto en común que
tienen las distintas perspectivas fenomenológicas es que el punto de partida irremediable de su
quehacer es nuestra propia experiencia cotidiana. En esa medida, creo que podemos decir que
sí están hablando de lo mismo. Es por ello que sería de esperarse que así como los
planteamientos fenomenológicos impactan a las ciencias cognitivas, lo que las últimas digan
debería tener algún impacto en la fenomenología. Esta segunda afirmación es la que resulta
más problemática.
En el segundo capítulo de la primera parte de la tesis intento darle forma a un naturalismo
débil en el que pueda plasmar la actitud naturalista de las propuestas de las ciencias cognitivas
fenomenológicas. Si bien hay muchos intentos por hacer explícito el naturalismo que está
detrás de su actitud naturalista (ejemplo de ello son Gallagher (2010), Zahavi (2010) y Reynolds
(2014b)), he decidido partir de cero en esta formulación del naturalismo. Lo que busqué fue
partir de un análisis del naturalismo en sus diversas formulaciones para llegar a una
formulación en la que se hiciera explícita la actitud naturalista de las propuestas expuestas en el
primer capítulo.
Para lo anterior, distinguiré primero entre una actitud naturalista y un naturalismo explícito. La
primera es una actitud que pueden sostener tanto filósofos como científicos y que aunque se
basa en ciertos supuestos ontológicos y epistemológicos, estos no son explícitos en sus
propuestas. Mientras que un naturalismo explícito da sustento a estos supuestos. Consideraré
que todo naturalismo implica una afirmación epistemológica sobre el modo como debe
estudiarse la realidad y una afirmación ontológica sobre lo que constituye esa misma realidad.
Distinguiré entre distintas formulaciones del naturalismo: la semántica, la epistemológica y la
ontológica. Me centraré en la formulación semántica pues desde esta perspectiva podré
8
exponer los términos en que parece darse el naturalismo de las ciencias cognitivas
fenomenológicas. Éstas se encuentran ya enmarcadas por el intento de poner en diálogo dos
discursos distintos. Finalmente, mostraré que de una actitud naturalista se sigue necesariamente
un proyecto de naturalización. En otras palabras, para ser consecuentes con una postura
naturalista es necesario dar cuenta de las consecuencias que tiene asumir esta postura sobre una
disciplina no científica.
En la segunda parte de este capítulo daré cuenta del supuesto ontológico que podrían sostener
las ciencias cognitivas fenomenológicas. Me parece que ellas pueden comprometerse con un
materialismo. Defender que ellas podrían comprometerse con esta tesis no quiere decir que la
misma esté libre de problemas. Sin embargo, sí permite plantear que para dar cuenta de la
realidad pueden aceptarse dos recuentos distintos. El recuento científico ontológico puede
considerarse como necesario en la medida en que determina qué entes caben en nuestra
ontología. Sin embargo, este recuento es meramente causal. Lo que intentaré mostrar es que
puede defenderse que hay un segundo tipo de recuento que es el constitutivo. La prioridad de
la ciencia (que es la afirmación con la que todo naturalismo, fuerte o débil, concuerda) consiste
en la necesidad de su recuento. Sin embargo, este recuento no es suficiente.
En la segunda parte de la tesis me concentro en la fenomenología heideggeriana. En primer
lugar intento explicar en qué consiste la relación de la ciencia con la filosofía. Distingo que la
filosofía tiene dos labores distintas. Por un lado, encontramos la cuestión fundamental por el
sentido del ser. Pero también podemos identificar la labor de las ontologías regionales. Éstas, si
bien, no necesariamente son parte del trabajo de la filosofía, sí tienen un carácter filosófico que
se fundamenta en el modo de ser mismo del Dasein.
Intento también plasmar en qué consiste los argumentos anti-naturalistas de Heidegger. El
filósofo alemán se pronuncia en contra de un naturalismo que quiera enmarcar el quehacer
filosófico en un proceder que no le corresponde. Como ya había adelantado, Heidegger no
niega la continuidad de la filosofía y la ciencia. Sin embargo, esta continuidad no es necesaria,
sino sólo posible. Considero que esta indiferencia con respecto a un posible diálogo entre
ambas perspectivas puede verse también como un anti-naturalismo.
Ahora bien, me parece que la tensión entre ciencia y filosofía se encuentra, en realidad, en la
analítica del Dasein. Ésta es la que podría confundirse con una antropología filosófica. Si bien
Heidegger parece indiferente frente a la idea de que disciplinas como la antropología y la
psicología tomaran la analítica existencial de base. Ésta, en definitiva, no puede considerarse
9
como una antropología filosófica porque, en primer lugar, el Dasein no es un ente al modo de
los demás. En consecuencia, no es posible determinarlo como una región de lo ente. Ahora
bien, el que la antropología o la psicología quisieran partir de esta analítica no es
particularmente problemático: se enfrentarán al carácter provisional que tiene este análisis. Hay
un punto que me parece central rescatar para poder discutir la posibilidad del diálogo entre la
analítica existencia y otras disciplinas ónticas. La analítica existencial no trata sobre un ente, sin
embargo, no puede sino partir de la descripción de la experiencia cotidiana de nuestra
existencia. La primera parte del Ser y tiempo escrito trata precisamente de este análisis. Y ésta la
que resulta de interés para las ciencias cognitivas fenomenológicas. Heidegger se muestra
indiferente frente al intento de ciencias ónticas por entablar un diálogo con su analítica porque
en ésta podrían rescatarse elementos esenciales de nuestra experiencia, pero lo que es
fundamental del Dasein –su vínculo irrebasable con el ser– se pierde. De manera que no hay
análisis del Dasein que sirva como suelo fundamental porque a este fundamento le pertenece
esencialmente negarse a aparecer. Así, no hay diálogo positivo con respecto a lo que resulta
central en la filosofía de Heidegger.
Sin embargo, me parece que eso no debería de cerrar el diálogo absolutamente. Lo que sale a
relucir en la analítica existencial no es irrelevante en lo que respecta a la comprensión de lo que
somos nosotros mismos. Esto es lo que rescatan las ciencias cognitivas fenomenológicas. Pero
no sólo eso. Me parece que hay que dar el siguiente paso. Intentaré argumentar que las ciencias
cognitivas sí pueden iluminar la comprensión que tenemos de nuestra experiencia. Esto dice
poco en lo que respecta a la tarea fundamental de la filosofía de Heidegger. Pero si aceptamos
que no tenemos de otra más que empezar el camino de la filosofía partiendo de nuestra propia
experiencia, todo aquello que pueda enriquecer lo que sabemos de ella, debería de ser tomado
en cuenta. Es en ese sentido que intentaré mostrar que la fenomenología y las ciencias
cognitivas podrían tener algo más que decirse la una a la otra.
Ahora bien, creo que antes de comenzar resulta fundamental aclarar algunos conceptos:
a) Las ciencias cognitivas: éstas son una empresa interdisciplinaria que pretende
comprender la cognición humana, es decir, las habilidades mentales y procesos que
posibilitan el comportamiento inteligente. Es posible identificar tres enfoques
principales de las ciencias cognitivas: el cognitivismo clásico, el conexionismo y el
10
enfoque situado de la cognición. 2 Las ciencias cognitivas involucran el trabajo de la
psicología cognitiva, la psicología de la percepción, la lingüística, la IA, las
neurociencias, la psicología del desarrollo y la filosofía.
b) El cognitivismo clásico: debido a los avances tecnológicos del S. XX en informática y
computación, los investigadores tomaron la teoría de la información y la teoría de la
computación como modelos para entender la cognición. Ésta, en consecuencia, se
tomó como procesamiento de información o, en otras palabras, como la manipulación
de símbolos cuya operación es especificada por una regla o algoritmo. La inteligencia
artificial se volvió relevante porque permite la simulación de comportamiento
inteligente, de manera que sirve como un campo de prueba para una teoría de la mente.
Para la inteligencia artificial construir equivale a explicar. Así, si un sistema artificial
logra llevar a cabo un comportamiento parecido al del ser humano, entonces la
operación (la función) que ha sido ejecutada se toma como explicativa.
c) El conexionismo: entre los problemas a los que se enfrentaron los investigadores del
primer enfoque se encuentra el aprendizaje interactivo desde la experiencia. Para
poderlo resolver, algunos investigadores tomaron como paradigma el conexionismo.
Éste se desarrolló en las neurociencias desde los años 40. Sin embargo, fue un enfoque
marginal hasta los 80. La cognición estaba modelada como una arquitectura neuronal
representacional. Estos modelos tenían la ventaja de ser bilógicamente más atinados
que los modelos anteriores. La idea central es que la computación de una función
lógica debía entenderse como la suma de los valores de cada conexión neuronal.
d) La cognición situada: este enfoque involucra cuatro tesis distintas. La de la cognición
corporizada (embodied cognition), según la cual hay procesos corporales que constituyen la
cognición; la tesis de la cognición extendida (extended cognition), que afirma que hay
elementos ajenos al sistema cognitivo que también son constitutivos de la cognición; la
tesis de la cognición situada* (embedded cognition), que dice que la cognición involucra
elementos ajenos al sistema cognitivo, aunque no sean considerados como
constitutivos; y, finalmente, la tesis de la cognición enactiva (enactive cognition) que
2 Una de las cuestiones más discutibles con respecto a las ciencias cognitivas es, precisamente, qué
entienden por cognición. Así, los distintos enfoques de las ciencias cognitivas difieren en esta noción
acerca del fenómeno que intentan explicar.
11
sostiene tesis similares a las tesis de la cognición extendida y corporizada, pero enfatiza
el carácter performativo de los procesos cognitivos, estableciendo que existe un vínculo
muy fuerte entre la acción, la cognición y la percepción.
12
Parte 1. Un naturalismo se esconde en las ciencias cognitivas
fenomenológicas
Capítulo 1. Las ciencias cognitivas fenomenológicas
En este capítulo pretendo dar cuenta de qué son las ciencias cognitivas fenomenológicas y de
qué modo la fenomenología se ha mostrado como una aportación relevante a ellas. A grandes
rasgos podemos decir que éstas surgen de la influencia que ha tenido la fenomenología en
algunas propuestas de las ciencias cognitivas, ya sea porque (a) busquen renovar las propuestas
de las ciencias cognitivas tomando como hilo conductor de sus planteamientos ciertos
conceptos fenomenológicos; o (b) porque intenten resolver algún problema muy concreto,
como es el caso de la consciencia, a través de una propuesta metodológica de carácter
fenomenológico. En ambos casos, los investigadores se inspiran en planteamientos propios de
la fenomenología que les permiten acceder a una nueva perspectiva del fenómeno que
enfrentan. Una de las primeras características que es posible notar de la relación entre estas
disciplinas es que tiende a ser unidireccional pues va regularmente de la fenomenología hacia
las ciencias cognitivas.3 A lo largo de este capítulo pretendo mostrar cómo se ha dado dicha
relación: cómo ciertas propuestas de las ciencias cognitivas han retomado conceptos de la
fenomenología para dar cauce a sus investigaciones.
Ahora, si bien hay muchas propuestas que tienen influjo por parte de la fenomenología, dicho
influjo no es sistemático. Esto se hará evidente a lo largo de la exposición: no sólo retoman
propuestas filosóficas que no son fenomenológicas, sino que incluso llegan a caracterizar el
influjo de la fenomenología como algo meramente anecdótico. Ejemplo de ello es el
planteamiento de Phil Agre (1997) quien considera que la lectura de fenomenólogos fue un
hecho anecdótico en el desarrollo de su modelo, a pesar de que éste tiene características
claramente fenomenológicas. Frente a la gran cantidad de propuestas que se encuentran dentro
3 Es posible encontrar casos en los que las ciencias cognitivas tienen cierta influencia sobre la
fenomenología. Ejemplo de ello sería el texto de Helena De Preester The sensory component of imagination:
the motor theory of imagination as a present-day solution to Sartre’s critique (2012) en el que De Preester
argumenta que, tal como Sartre lo sugiere, la visión de la imaginación de este último y de Edmund
Husserl sólo podrían desarrollarse con una teoría motora de la imaginación.
Ahora bien, el problema es que para argumentar a favor del diálogo entre ambas disciplinas –es decir,
para aceptar lo que De Preester le atribuye a Sartre– es necesario que la fenomenología acepte, en
primer lugar, que una teoría científica tiene algo que decirle. Abordaré este problema en el tercer
capítulo e intentaré mostrar que hay al menos un motivo para creer que el diálogo sería necesario.
13
del marco de las ciencias cognitivas fenomenológicas, para realizar este análisis me será más
sencillo hacer una especie de tipología del influjo que tiene la fenomenología sobre las ciencias
cognitivas. He elegido estos casos porque me parecen representativos y permiten ver con
claridad los distintos modos como se ha dado esta influencia. Si bien, en lo que resta de la tesis
me concentraré en Martin Heidegger y el problema del naturalismo que se desprende de estas
propuestas, a lo largo de este capítulo no trataré únicamente las ciencias cognitivas que han
tomado a Heidegger como interlocutor. El motivo es que, como mencioné, las ciencias
cognitivas fenomenológicas no han sido influidas únicamente por propuestas
fenomenológicas, sino propuestas filosóficas diversas. Tal es el caso de Terry Winograd y
Fernando Flores en Understanding Computers and Cognition (1987), texto en el que los autores
retoman no sólo la filosofía de Martin Heidegger, sino también algunas ideas de Searle y
Gadamer.
Comenzaré por distinguir entre contribuciones negativas o críticas y contribuciones positivas.
Tomaré como contribuciones negativas o críticas aquellas que objetan o critican los supuestos
filosóficos que subyacen a la investigación de las ciencias cognitivas. En cambio, consideraré
que las contribuciones positivas son propuestas: (a) activas, para programas y métodos de
investigación inspirados por una descripción fenomenológica; o (b) pasivas, que articulan
algunos resultados y propuestas de las ciencias cognitivas en términos fenomenológicos.
Mostraré que una propuesta crítica hacia los enfoques tradicionales de las ciencias cognitivas
muestra la necesidad de desarrollar una propuesta que parta de la fenomenología misma. En
otras palabras, muestra la necesidad de una propuesta positiva. Mostraré también que todos
estos ejemplos parecen sostener un naturalismo débil que intentaré sistematizar a lo largo del
segundo capítulo de esta primera parte.
Contribuciones críticas a las ciencias cognitivas: el paradigmático caso de Hubert
Dreyfus
La fenomenología se ha mostrado relevante para las ciencias cognitivas como un enfoque
crítico a algunas perspectivas tradicionales de la cognición. Hubert Dreyfus es el pensador
contemporáneo que desde un suelo fenomenológico puso en entredicho ciertos
planteamientos de la inteligencia artificial.4 Las objeciones de la fenomenología hacia las
4 El planteamiento de Hubert Dreyfus tiene el mérito de mostrar las carencias de los enfoques
tradicionales de las ciencias cognitivas que se expresaban en los primeros desarrollos de la inteligencia
14
ciencias cognitivas se dirigen a las bases filosóficas de los distintos programas de investigación.
En consecuencia, se desprende de estas objeciones la necesidad de un planteamiento positivo.
En la recuperación de ciertos conceptos fenomenológicos que se anteponen a las bases de los
enfoques tradicionales de las ciencias cognitivas, se ve la necesidad de levantar un nuevo
programa de investigación que parta de un fundamento distinto. Me interesa tratar con la
propuesta de Dreyfus por varios motivos. El primero es el impacto que tuvo la propuesta en el
desarrollo de la IA, pues no sólo marcó nuevos caminos para su posible desarrollo sino que
también orilló a los investigadores a enfrentar sus objeciones.5 Otro aspecto relevante de su
crítica es que ésta ha ido cambiando a lo largo de los años y en sintonía con nuevos desarrollos.
artificial. Sin embargo, esto de ninguna manera quiere decir que el influjo de la fenomenología en las
ciencias cognitivas sea la primera instancia de un diálogo entre la psicología y la fenomenología. Cabe
recordar que la fenomenología de Husserl nace inspirada en la filosofía de la psicología de Brentano y
como respuesta a los planteamientos psicologistas de la lógica que permearon las últimas décadas del s.
XIX y principios del s. XX. Heidegger en los Seminarios de Zollikon menciona la dificultad de vincular los
avances de la ciencia con respecto al funcionamiento del cerebro y nuestra propia experiencia; en
concreto, dirige su crítica a las ciencias computacionales que empezaban a hacerse notar. Por último, no
podemos ignorar el diálogo de Merleau-Ponty con ciertas propuestas de la psicología del desarrollo,
entre otras. 5 En 1963, Dreyfus fue invitado a “evaluar el trabajo vanguardista de Alan Newell y Herbert Simon”
(Dreyfus, 2012) a la RAND Corporation (Research and Development). En 1965, tras su estadía, comenzó a
circular un texto suyo llamado Alchemy and Artificial Intelligence en el cual Dreyfus comenzó a articular sus
objeciones a los programas de investigación de IA. En 1968, Seymour Papert publicó el memo The
Artificial Intelligence of Hubert Dreyfus: a Budget of Fallacies en respuesta a la crítica de Dreyfus al progreso de
la inteligencia artificial. La crítica de Dreyfus se dirigía a los cimientos mismos de las investigaciones que
personas como Terry Winograd, Seymour Papert, Herbert Simon y Allen Newell (entre otros) estaban
llevando a cabo. Entre otras cosas, Dreyfus negó la posibilidad que anticipaba Simon de que diez años
después una máquina podría ganarle a un ser humano en un juego de ajedrez. La disputa llegó a tal
grado que Richard Greenblatt retó a Dreyfus a un juego de ajedrez con su recién creado programa
MacHack. Dreyfus perdió. Fue tras su estadía en RAND que escribió su texto What computers can’t do.
(Rheingold, 1985)
Así como hubo una recepción negativa de las críticas de Dreyfus, hubo también una recepción positiva.
El mismo Dreyfus narra que fue invitado en 1986 por Patrick Winston (director del laboratorio de IA
del MIT) a dar una plática. Otro ejemplo es el de Terry Winograd quien cambió de perspectiva tras
revisar los argumentos de Dreyfus. Winograd cuenta en el prólogo de la recopilación Heidegger, Coping,
and Cognitive Science (Wrathall & Malpas, 2000) que su primer encuentro con Dreyfus fue precisamente a
través del memo de Papert. Sin embargo, Winograd se mantuvo en contacto con Dreyfus durante
muchos años. En parte fueron estas conversaciones las que llevaron a Winograd a cambiar su
investigación de IA a un enfoque fenomenológico sobre la interacción entre seres humanos y
computadoras. Esto es notorio en el texto que redactó con Fernando Flores en 1986, Understanding
Computers and Cognition.
15
De tal manera que para poder dar cuenta de sus críticas a la IA y a las ciencias cognitivas será
necesario buscar los argumentos en textos distintos. En esta sección me concentraré en What
computers still can’t do (1994) y Why Heideggerian AI failed and how fixing it would require making it more
Heideggerian (2012); tomaré estos dos textos como un continuo. En What computers can’t do, la
crítica de Dreyfus está dirigida al cognitivismo clásico que guiaba las investigaciones de IA; sin
embargo, en la versión del texto de 1994, What computers still can’t do, sus objeciones se
extienden hacia el paradigma conexionista de las ciencias cognitivas. El texto Why Heideggerian
AI failed continúa con este mismo proyecto al mostrar que los proyectos que tomaron en
cuenta sus objeciones –y otros que parecían dirigirse hacia lo que él mismo había señalado– no
fueron lo suficientemente radicales en sus propuestas de investigación. Las objeciones de
Dreyfus tienen la ventaja de avanzar al ritmo que se van dando nuevos desarrollos de las
ciencias cognitivas.6 Pero además, han permitido ver de qué modo una nueva propuesta de
cognición puede servir como hilo conductor de una investigación empírica. A través de sus
objeciones, Dreyfus concluye que las ciencias cognitivas deben continuar sus investigaciones a
la luz de descripciones fenomenológicas del ser humano, pues a través de una descripción de
este tipo es posible dar cuenta de las condiciones tanto necesarias como suficientes del
comportamiento humano. Una afirmación como la anterior, muestra que, tras una propuesta
de carácter crítico, es necesario abrir las puertas a una contribución positiva por parte de la
fenomenología a las ciencias cognitivas. Esto último fue lo que algunos investigadores se
propusieron hacer tras las críticas de Dreyfus.
El que la conclusión de Dreyfus señale la necesidad de que la fenomenología contribuya de
manera positiva a las ciencias cognitivas implica en parte que el éxito o fracaso de los
programas de investigación de IA no es algo que podamos prever de antemano, sino que
6 Cabe recordar que las ciencias cognitivas son una empresa interdisciplinaria que involucra el trabajo de
la psicología cognitiva, de ciencias computacionales, de filosofía de la mente y de neurociencias. Debido
a que como empresa nace del enfoque computacional de la mente, en un inicio la IA tenía un papel
preponderante pues el desarrollo de programas que pudieran realizar tareas cognitivas propiamente
humanas servirían para explicar la maquinaria psicológica de la mente humana. Sin embargo, con el
enfoque conexionista de la mente la IA dejó de tener la misma relevancia pues despertó interés el
estudio de las conexiones neuronales para entender la inteligencia. De este modo, la IA comenzó a
perfilarse más hacia el desarrollo de tecnologías que hacia su papel explicativo con respecto a la mente
humana. Las primeras objeciones de Dreyfus se dirigen, pues, a la inteligencia artificial. Más adelante,
las dirigirá hacia el conexionismo argumentando que ambos enfoques descansan sobre los mismos
supuestos.
16
depende del desarrollo de estos mismos programas de investigación. Es decir, que la pregunta
por el éxito o fracaso de la IA es una pregunta empírica. Esta caracterización del problema
resulta relevante para poder entender los términos de un diálogo con la fenomenología. Esto
querría decir que el debate entre la postura cartesiana de la cognición y la postura
heideggeriana, desde la cual se abren las objeciones de Dreyfus, puede decidirse únicamente a
través del desarrollo de programas de investigación científica. La cuestión puede enfocarse
desde dos perspectivas. La primera sería decir que aquello que va a decidirse de manera
empírica es la legitimidad del programa de investigación. Si esto es así, lo que se cuestiona es la
manera como se procede en un programa de investigación y se afirma que la funcionalidad de
los conceptos depende del subsecuente progreso de la investigación. Sin embargo, la
afirmación de que el progreso de un programa de investigación es una cuestión empírica no
sólo se vincula con la funcionalidad de los conceptos guía, sino que necesariamente se vincula
también a su validez. Pues, ¿qué es lo que nos permitiría validar los conceptos heideggerianos
si un programa de investigación guiado por ellos falla? Fue precisamente por la falta de
progreso de los programas de investigación en IA que Dreyfus identificó que estos se
sustentaban en conceptos filosóficos cuestionables. Así, si empíricamente vemos el fracaso de
un programa de investigación guiado por los conceptos fenomenológicos, de acuerdo con la
propuesta de Dreyfus, deberíamos dirigirnos en parte hacia los conceptos que lo guían y
revisarlos. De acuerdo con el filósofo norteamericano, viendo el fracaso de la IA podemos
concluir que no puede avanzar mucho más a menos que cambie de perspectiva:
“Este fracaso no implica que este tipo de IA sea imposible; nadie ha podido llegar a
semejante objeción. Más bien, parecería que, hasta el momento, el programa de
investigación que se basa en el supuesto de que los seres humanos nos comportamos
de manera inteligente haciendo uso de hechos y reglas ha llegado a un callejón sin
salida, y no tenemos ningún motivo para pensar que en algún momento podría tener
éxito.”7 (Dreyfus, 1992, pág. ix)
A pesar de ello, la dependencia de los desarrollos empíricos de ciertos conceptos que sirven
como hilos conductores es lo que permite que desde la filosofía sea posible plantear una
7 “This failure does not mean that this sort of AI is impossible; no one has been able to come up with
such a negative proof. Rather, it has turned out that, for the time being at least, the research program
based on the assumption that human beings produce intelligence using facts and rules has reached a
dead end, and there is no reason to think it could ever succeed.” (Dreyfus, 1992, pág. ix)
17
objeción como la de Dreyfus. Me explico: Dreyfus ve que los programas de investigación en
IA no son programas progresivos, sino todo lo contrario: son programas degenerativos. Esto
no es algo que sea evidente desde un análisis meramente conceptual; sin embargo, sí parecería
que es posible anticiparse. Así, si bien la respuesta a la pregunta por el progreso o degeneración
de un programa de investigación es empírica, desde sus bases teóricas podemos dar cuenta de
su posible degeneración.
Los programas de investigación en IA dependen en última instancia de una descripción
adecuada del cuerpo que, como tal, tiene que incluir nuestras “necesidades, deseos, placeres,
dolores, movimientos, contexto cultural.”8 (Dreyfus, 2012, pág. 97). Es decir, cualquier
programa de investigación que parta de una noción de la mente que no incorpore lo anterior
no puede ser un programa de investigación progresivo. De acuerdo con Dreyfus, el cambio
tiene que darse en la definición de cognición ya no como el mero procesamiento de
información de un mundo exterior, sino que esta definición debería señalar que el
comportamiento inteligente implica la identificación de información que es relevante en
contextos específicos y no conocidos con anterioridad sin necesidad de recurrir a un conjunto
de reglas preestablecidas. Éste es el carácter de significatividad que enfatiza la fenomenología.9
El significado, entonces, no consiste en un conjunto de objetos cuya relación es especificada
por una serie de reglas de acuerdo con una situación predeterminada. Sino que, en última
instancia, el significado consiste en las posibles interacciones que quedan abiertas para un
agente al encontrarse en una situación. Las posibilidades quedan abiertas no por una
descripción de la situación encontrada, sino en virtud de las interacciones previas. Parece
imposible, según esta noción del comportamiento inteligente, determinar las respuestas de un
agente con respecto a un entorno. Para Dreyfus, de acuerdo con la manera en que actuamos
8 “(…) we would have to include in our program a model of a body very much like ours with our needs,
desires, pleasures, pains, ways of moving, cultural background, etc”. (Dreyfus, 2012, pág. 97) 9 Heidegger, por ejemplo, considera que la existencia tiene un carácter interpretativo en el que
comprendemos lo que nos rodea desde el plexo significativo en que consiste el mundo. En otras
palabras, no es que primero veamos al objeto de acuerdo con sus características físicas y después éste
adquiera significado; ni quiere decir que el significado de algo debe entenderse como una definición,
aislada de un contexto; más bien comprendemos “significados que remiten los unos a los otros
formando una compleja red de significados entrelazados” (Escudero, 2009, págs. 48-49).
18
corporizado y situado.10
Para llegar a este planteamiento, Dreyfus se basa en la filosofía de Heidegger, de Merleau-
Ponty y del primer Wittgenstein. De este modo llega a que: “(…) el problema del
conocimiento de sentido común no es realmente un problema acerca del modo como
representamos conocimiento; más bien, la comprensión cotidiana y de sentido común del
contexto que nos permite experimentar qué es relevante al momento en que lidiamos tanto
con cosas como con personas es un tipo de know-how.”11 (Dreyfus, 1992, pág. xi). Dreyfus
quiere llegar a señalar que el error de los programas de investigación en IA se encuentra,
entonces, en el supuesto de que la comprensión del contexto, es decir, nuestra capacidad para
determinar qué es relevante y qué no lo es, nuestra capacidad para lidiar con contextos
determinados, no depende de una capacidad de representación simbólica adecuada, sino que es
una habilidad adquirida y cuya formación depende de la interacción misma.
Siguiendo a Lakatos, Dreyfus califica los programas de investigación en IA como programas
degenerativos.12 De acuerdo con el primero, la progresión o degeneración de un programa de
investigación tiene que evaluarse de acuerdo con la progresión o degeneración en sus teorías
con respecto a sus predecesores: es decir, es la serie de teorías que guía un programa de
investigación la que puede caracterizarse como progresiva o degenerativa y no una teoría
aislada. Una serie de teorías debe considerarse, en primer lugar, como parte de la misma serie si
tn+1 es capaz de resolver alguna anomalía de tn al añadirle cláusulas auxiliares a esta última o al
reinterpretar alguna cláusula ya existente (es decir, si son capaces de llevar a cabo una
10 Para Dreyfus, al centro de esta discusión debe encontrarse la noción de representación como
contraria a la noción de contexto (background) ya que, de acuerdo con él, el ser humano no se relaciona
con su entorno a través de representaciones del mismo. En consecuencia, lograr programar una
representación exhaustiva de un entorno a través de la cual un sistema pueda actuar sobre este mismo
entorno no logra explicar la inteligencia humana pues no parece que nosotros actuemos sobre la base
de una representación de este tipo. 11 “(…) the commonsense-knowledge problem was not really a problem about how to represent
knowledge; rather, the everyday commonsense background understanding that allows us to experience
what is currently relevant as we deal with things and people is a kind of know-how” (Dreyfus, 1992,
pág. xi). 12 La filosofía de la ciencia de Lakatos se inscribe dentro del debate del s. XX sobre la metodología de
las teorías científicas junto con Karl Popper, Thomas Kuhn, Michael Polanyi y Paul Feyerabend.
(Nickles, 2000). Hoy en día, en la filosofía de la ciencia, no se discute el carácter de la investigación
científica en general, sino en particular, es decir, con respecto a cada disciplina científica.
19
transformación en estos problemas auxiliares), además de contar al menos con tanto contenido
sin refutar como tn. Ahora bien, la serie puede considerarse como teóricamente progresiva si
tn+1 excede en su contenido empírico a tn, es decir, si predice algún hecho nuevo y hasta el
momento inesperado. Por otro lado, una serie teóricamente progresiva puede considerarse
empíricamente progresiva si algo del nuevo contenido empírico de tn+1 es corroborado. Así,
una tn+1 considerada como una transformación en las hipótesis auxiliares de tn es progresiva
cuando es teórica y empíricamente progresiva. Es decir, cuando es capaz de corroborar una
hipótesis que no había sido anticipada por su predecesora.
De acuerdo con Dreyfus, éstas son las condiciones que no puede cubrir la IA y para mostrarlo
realiza un recorrido histórico señalando en qué sentido la IA no ha tenido éxito. Los
programas de investigación en IA ofrecieron una nueva perspectiva con respecto a las
preguntas sobre la inteligencia humana. A pesar del éxito que lograron las investigaciones, se
han encontrado fenómenos que se resisten tanto a la perspectiva planteada como a sus técnicas
y métodos. De este modo se hace notorio que la caracterización de los programas de IA como
degenerativos depende de sus predicciones empíricas y de su capacidad para corroborarlas.
Dreyfus encontrará que los programas de investigación en IA han caído en lo que el filósofo
israelí, Yehoshua Bar-Hillel, llamó la falacia del primer paso: es decir, la asunción de que un
programa de investigación progresará con base en el éxito obtenido tras haber dado
únicamente el primer paso. Es decir, la crítica de Dreyfus se dirige al canto de victoria
anticipado de las investigaciones en IA: si bien encontraron el modo de simular
comportamiento inteligente que parecía humano, pronto se encontraron con ciertos obstáculos
que, según Dreyfus, sólo pueden ser superados tras una revisión de los conceptos que guían su
quehacer.13 Así, si lo que pretenden estos programas de investigación es simular el
comportamiento humano inteligente en sus distintas expresiones, no podían evitar toparse con
nuestra capacidad de tener un trato hábil con las situaciones concretas y con la resolución de
13 En la discusión que se suscitó con los investigadores involucrados en programas de IA, una de las
actividades que para Dreyfus ejemplificaba el modo de pensar y actuar del ser humano era el juego de
ajedrez precisamente porque en éste es necesario adaptarse a las tantas jugadas que el oponente podría
avanzar. Sin embargo, lo que realmente interesaba a Dreyfus era mostrar que para el ser humano
aquello que resulta significativo y nos permite interactuar con un entorno complejo se da en términos
de posibilidades incalculables. Así, un ejemplo de ello podría ser algo que Taylor menciona en su Ética
de la autenticidad. De acuerdo con Taylor, el comportamiento que se sigue de la muerte de un pariente no
puede anticiparse a las diversas situaciones en las que se encontrará el deudo (Taylor, 1994).
20
problemas del día a día. El problema, según el filósofo norteamericano, fue la falsa
generalización del éxito que tendrían al explicar el comportamiento humano, generalización
basada en el éxito que tuvieron al lograr explicar ciertos comportamientos humanos desde la
definición de inteligencia como manipulación de representaciones simbólicas. En otras
palabras, el problema ha sido, en parte, generalizar esta definición de inteligencia.
Ahora bien, como mencioné antes Dreyfus llega a esta conclusión tras un análisis del avance de
las investigaciones de IA. Ahora bien, mientras que en What computers still can’t do Dreyfus llega
hasta el análisis de modelos conexionistas de la mente, en su texto Why Heideggerian AI failed
podemos ver cuáles son las objeciones de Dreyfus a una propuesta que en apariencia tomó en
cuenta las observaciones hechas a la IA hasta cerca de los años 70. De este modo, podemos
distinguir entre seis etapas cuyo análisis abordaré a continuación.
I. Simulación cognitiva (1957 - 1962).
En esta primera etapa se logró el desarrollo de programas computacionales de traducción
lingüística, de resolución de problemas y de reconocimiento de patrones.14 En todos los casos,
el éxito fue parcial: con respecto a las traducciones lingüísticas, aunque era posible obtener
traducciones éstas no podían calificarse como traducciones útiles. Con respecto a la resolución
de problemas, mediante la recolección de protocolos de sujetos experimentales humanos y
análisis heurísticos15 fue posible crear programas capaces de probar, por ejemplo, algunos de
14 El reconocimiento de patrones se refiere al proceso de analizar “una imagen, una parte de un
discurso, una señal electrónica, o cualquier muestra de información y clasificarla en diversas categorías.”
(Nilsson, 2010, pág. 62). Mientras que los programas de traducción lingüística hacen referencia a la
traducción de lenguajes naturales a lenguajes computacionales. Para la traducción lingüística es
necesario primero distinguir entre distintos niveles lingüísticos, por ejemplo: los niveles morfológico,
sintáctico y semántico. La teoría sintáctica de Noam Chomsky fue sumamente relevante para estos
desarrollos. Máquinas capaces de traducir de un lenguaje natural a otro se presentaron, por ejemplo, en
el New York Times del 31 de mayo de 1949; de igual manera, en 1952 Bar-Hillel organizó una
conferencia sobre traducción lingüística en el MIT. (Nilsson, 2010, págs. 103, ss.) 15 Lo que permite un análisis heurístico es dar con soluciones probables para un problema. Debido a su
carácter falible es, más bien, un tipo de razonamiento útil para el descubrimiento de procesos. Por
ejemplo, con respecto al uso de procesos heurísticos, Newell, Simon y Shaw en el texto Empirical
Explorations with the Logic Theory Machine: a Case Study in Heuristics dicen lo siguiente: “La investigación
aquí reportada [sobre la Logic Theory Machine] tiene como objetivo entender los procesos complejos
(heurísticos) que son efectivos al resolver un problema. De ahí que no estemos interesados en métodos
que garanticen soluciones, pero que requieren una gran cantidad de computación. Más bien, queremos
21
los teoremas de los Principia mathematica. Un caso del éxito en la resolución de problemas es el
General Problem Solver de Herbert Simon, Allen Newell y John C. Shaw.16 A pesar de estos casos,
la resolución de problemas se entorpecía al enfrentarse a cuestiones más complejas.
Finalmente, la dificultad con la que se toparon en el reconocimiento de patrones fue el de
encontrar un principio suficientemente general que permitiera realizar esta tarea en cualquier
caso dado.
Ésta fue, en realidad, la dificultad en todos los casos: es necesario dar cuenta del modo como el
conocimiento de un contexto y la experiencia pasada con la que cuenta un ser humano puede
ser determinante para llevar a cabo este tipo de tareas o llevarlas a cabo con mayor eficiencia.
Es decir, resulta determinante para el desarrollo de estos programas comprender de qué modo
el ser humano es capaz de distinguir lo esencial de lo que no lo es en ciertos contextos y
situaciones.
entender cómo un matemático, por ejemplo, es capaz de probar un teorema a pesar de que no sabe en
qué momento alcanza el éxito o si siquiera lo alcanzará.” (Feigenbaum & Feldman, 1963, pág. 109)
Con respecto a su programa SAINT (Symbolic Automatic Integrator), James R. Slagle dice que una
transformación simbólica es heurística cuando “aunque es aplicable y plausible, hay un riesgo
significativo de que el siguiente paso no sea el apropiado” (Feigenbaum & Feldman, 1963, pág. 197).
Fred M. Tonge describe su programa heurístico de una línea de ensamblaje de la siguiente forma:
“Dado que este enfoque [heurístico] no garantiza una solución óptima, la medida última de un
programa heurístico es si provee mejores soluciones con más rapidez o soluciones menos costosas que
otros métodos.” Especifica también que ha tomado esta perspectiva porque en lo que respecta a
problemas combinatorios como el de una línea de ensamblaje, no se tienen aún soluciones por parte de
técnicas matemáticas avanzadas. (Feigenbaum & Feldman, 1963, pág. 168). 16 Una idea central de los desarrollos de Newell y Simon para la “mecanización de la inteligencia” es la
“transformación de estructuras de símbolos [símbolos y listas de símbolos]” y la “búsqueda de las
secuencias adecuadas de transformaciones”. En 1959, Newell, Simon y Shaw presentaron el General
Problem Solver (GPS) como una teoría sobre el modo de comportamiento humano al resolver
problemas. Este programa estaba basado en un programa anterior llamado el Logic Theorist. La idea
detrás de este programa es representar el problema a resolver como una estructura simbólica e irla
transformando hasta obtener la estructura simbólica del problema resuelto. De este modo es posible
tener el registro de las transformaciones necesarias hasta obtener el resultado esperado, la así llamada
explosión combinatoria. Newell y Simon consideraban necesario el uso de reglas heurísticas para poder
dar con la explosión combinatoria, pues a través de estas reglas se puede dar con ciertos patrones de
transformaciones funcionales. Para Newell y Simon, la heurística es “‘un proceso que podría resolver
un problema, pero de lo cual no se tiene garantía’” (Nilsson, 2010, pág. 83). La diferencia del GPS con
respecto al LT es que el primero “transformaba problemas en subproblemas”. En cambio, el GPS
computaba la diferencia entre una estructura simbólica que representaba el problema a resolver y otra
estructura que representaba el problema resuelto. (Nilsson, 2010, pág. 87)
22
II. Procesamiento de información semántica (1962 - 1967).
En esta segunda etapa, los programas de investigación en IA habían logrado ya la
programación de máquinas inteligentes que, aunque no necesariamente llevan a cabo una tarea
al modo humano, son capaces de llegar a resultados similares. El objetivo que tenían en mente,
a lo largo de esta etapa, era la ampliación del horizonte de la resolución de problemas, todavía
haciendo uso de reglas heurísticas. La cuestión, de acuerdo con Dreyfus, es que se asume que
todo comportamiento humano, descrito en estas reglas heurísticas, puede ser “formalizado y
procesado por una computadora digital” (Dreyfus, 1992, pág. 137). Un ejemplo de esta etapa
es el programa STUDENT de Daniel Bobrow que, de acuerdo con su propia descripción, es
capaz de comprender un conjunto de expresiones limitadas del inglés.17 Esta capacidad es, en
última instancia, la capacidad de procesar símbolos. Del mismo modo que en la etapa anterior,
a pesar del éxito en un conjunto limitado de resoluciones, los programas se muestran incapaces
de recolectar y distinguir la información relevante para desempeñar sus tareas. Así, para
proseguir con sus avances las investigaciones en IA tendrían que lograr la programación de un
conjunto de instrucciones más complejas que permiten responder de manera adecuada a
distintos escenarios. La diferencia entre el modo como funciona un programa como
STUDENT y el ser humano es que no parece que los seres humanos lidiemos con un conjunto
de hechos aislados. De acuerdo con Dreyfus, más que enfrentar este tipo de dificultades de
procesamiento, los seres humanos parecemos más bien darles la vuelta. Ahora bien,
recordemos que, en parte, los objetivos de las investigaciones de IA pretenden explicar la
inteligencia humana por medio de la programación. Es decir, si se logra programar un
dispositivo para que dé con los mismos resultados con los que daría un ser humano,
podríamos concluir que los procesos por medio de los cuales el dispositivo llegó a ellos son los
mismos o similares a los que utilizaríamos nosotros. Y esto es precisamente lo que cuestiona
Dreyfus en este punto: “¿Por qué, a la luz de estas dificultades, quienes se dedican a la
simulación cognitiva asumen que el procesamiento de información de una computadora revela
el procesamiento de información de un ser humano?, ¿y por qué quienes trabajan en IA
17 El programa de Daniel Bobrow (alumno de doctorado de Marvin Minsky), STUDENT, era capaz de
resolver problemas algebraicos que eran presentados a modo de historia. El programa llegaba a una
solución a partir de ciertas relaciones ya conocidas o ya dadas. (Nilsson, 2010, pág. 111)
23
asumen que debe de haber alguna manera de que quehaceres humanos sean ejecutados
digitalmente?”18 (Dreyfus, 1992, pág. 151)
III. Manipulación de micro-mundos (1967 - 1972).
Durante la tercera etapa a la que se refiere Dreyfus se programaron sistemas que consistían en
la manipulación de micro-mundos. Ejemplo de ello es el sistema de Terry Winograd,
SHRDLU, en el que se simula el uso de un brazo robótico que mueve un conjunto de bloques
de distintos tipos y que, además, permite dialogar con el programa para preguntarle sobre el
micro-mundo de bloques, así como para darle órdenes.19 El mundo en el que funciona este
programa es un dominio que puede ser analizado de manera aislada. Sin embargo, supone que
esto mismo podría hacerse con los contextos a los que se enfrenta el ser humano: “Este
concepto implica que aunque cada área del discurso humano parece abrirse hacia el resto de las
actividades humanas, sus infinitas ramificaciones no son sino aparentes y eventualmente
convergen en un conjunto auto-contenido de hechos y relaciones.”20 (Dreyfus, 1992, pág. 10)
De acuerdo con Dreyfus, esto se debe a que los programas de investigación en IA adoptan un
método que ha resultado exitoso para algunos de los problemas que enfrentaban, pero que
implica la simplificación de las actividades humanas y la incomprensión de que éstas adquieren
sentido en un conjunto organizado de objetos, propósitos, habilidades y prácticas, y no en
descripciones de elementos aislados y la descripción de sus relaciones. Así, la manipulación de
micro-mundos no es sino la construcción de un mundo de acuerdo con descripciones
18 “Why, in the light of these difficulties, do those pursuing Cognitive Simulation assume that the
information processes of a computer reveal the hidden information processes of a human being, and
why do those working in AI assume that there must be a digital way of performing human tasks?”
(Dreyfus, 1992, pág. 151) 19 El programa de Terry Winograd causó gran impresión precisamente porque era capaz de sostener un
diálogo sobre la manipulación de un micro-mundo, este mundo que consistía en bloques y un brazo
que podía manipular los bloques. De este modo, este programa podía recibir órdenes en inglés y
realizarlas, pero también contestar preguntas sobre el micro-mundo. El programa requería
conocimiento sintáctico para poder recibir órdenes y responder, pero también requería poder relacionar
lo que se le ordenaba con el micro-mundo, es decir, conocer el significado de los términos utilizados
para darle órdenes. Y, finalmente, era capaz de realizar inferencias con respecto a las órdenes dadas.
(Nilsson, 2010, págs. 182 - 184) 20 “This concept implies that although each area of discourse seems to open out into the rest of human
activities its endless ramifications are only apparent and will son converge on a self-contained set of
facts and relations.” (Dreyfus, 1992, pág. 10)
24
simbólicas y esto no parece cuadrar con ciertos resultados de investigaciones sobre percepción
y sobre la formación cotidiana de conceptos. 21 (Dreyfus, 1992, pág. 24)
IV. Enfrentando el problema de la representación del conocimiento.
En esta cuarta etapa, que va de 1972 a 1977, se logró también programar un dispositivo para
identificar características relevantes de un dominio específico. En estos programas, el know-how
cotidiano era representado como un conjunto de instrucciones. Un ejemplo de ello es el
proyecto Dendral de Edward Feigenbaum, Bruce Buchanan, Joshua Lederberg y Carl
Djerassi.22 El objetivo de este programa era identificar moléculas orgánicas desconocidas a
partir de un conjunto de datos. Una de las características de este programa es la ingeniería de
conocimiento que permite desarrollar nuevas reglas que permitan mejorar la búsqueda de, en
este caso, moléculas. Ahora bien, un programa como éste es exitoso precisamente porque los
parámetros de relevancia de una característica han sido ya especificados. El problema entonces
es identificar precisamente lo que es relevante. En este momento surgen varios desarrollos que
pretenden solucionar este problema. Por ejemplo, Minsky propuso el concepto del marco
estructural23 para la representación de un micro-mundo que tiene que lidiar con conocimiento
de sentido común. Por el otro lado, Winograd y Bobrow intentaron utilizar estos mismos
marcos estructurales en el estudio del know-how cotidiano. Finalmente, Roger Schank desarrolló
estos marcos estructurales como guiones que codifican actividades sociales estereotípicas.
21 Dreyfus no especifica a qué trabajos está haciendo referencia. Sin embargo, más adelante menciona el
trabajo de Erich Goldmeier quien realizó investigaciones en el marco de la psicología de la Gestalt. 22 El objetivo de este proyecto (que incluyó varios programas) era dar con la estructura de un
compuesto químico. Este programa utilizaba como base el conocimiento que tenían los investigadores.
Precisamente a lo que hace referencia el término “ingeniería de conocimiento” es a la idea de que los
programas puestos en marcha funcionan con base en los conocimientos del especialista. Así, cuando un
agente (en este caso, el programa) es pobre en lo que respecta a sus métodos, debe de ser rico en lo que
respecta al conocimiento especializado con el que cuenta. (Nilsson, 2010, págs. 197 - 200). 23 En el memo A Framework for Representing Knowledge, Minsky define el marco estructural (frame) de la
siguiente manera: “cuando uno se encuentra en una nueva situación (o hay un cambio substancial en el
modo como se enfrenta un problema) uno selecciona en la memoria una estructura llamada marco.
Ésta es recordada como un marco que puede adaptarse a la realidad al cambiar tantos detalles como
sean necesarios. Un marco es una estructura de información que representa una situación estereotípica,
como encontrarse en cierto tipo de sala, o ir a una fiesta infantil de cumpleaños. En parte la
información trata sobre el modo como debe utilizarse este marco. Por otro lado también trata sobre las
expectativas de lo que debería de suceder. Y sobre qué hacer si no se cumplen las expectativas.”
(Minsky, 1975, págs. 211 - 212). Dreyfus vincula la idea de Minsky a la noción husserliana de noema en
la que el contenido del acto consciente otorga un horizonte de expectativas. (Dreyfus, 1992)
25
Ahora bien, de acuerdo con Dreyfus, estudios de psicología infantil han mostrado que un niño
no aprende cómo comportarse en un contexto determinado a partir de algo como lo que
Schank desarrolló, sino que lo aprenden en tanto que su aprendizaje tiene lugar en un contexto
de prácticas compartidas con otros agentes. Así, éste se da en las interacciones cotidianas y no
como un mero aprendizaje de hechos y creencias.
Ésta es la última etapa que Dreyfus analiza en su texto What computers still can’t do. De acuerdo
con él, todos estos desarrollos han asumido que al afinar las descripciones del mundo
representado, los pasos que tiene que ejecutar el agente, o al aumentar la cantidad de
descripciones con las que cuenta el sistema, será posible reproducir el comportamiento
humano. Es decir, es una cuestión de tiempo para que se logre imitar estos comportamientos.
Sin embargo, Dreyfus considera que más que seguir insistiendo en la misma línea de
investigación que se ha seguido hasta ahora, los programas de investigación de IA deberían
cuestionar si esos supuestos de hecho permiten el avance de la disciplina.
V. Ciencias cognitivas corporizadas, situadas y extendidas.
Ahora bien, en su texto Why Heideggerian AI failed Dreyfus critica las propuestas de ciencias
cognitivas que siguen un modelo de la mente corporizada, situada y extendida.24 La noción de
la mente extendida parece superar el dualismo cartesiano de una mente que se enfrenta a un
mundo que es ontológicamente distinto a ella al defender que los procesos cognitivos no se
reducen a procesos cerebrales y, no sólo eso, sino que el uso de artefactos es necesario para
llevarlos a cabo. Sin embargo, lo anterior no es sino una mera apariencia pues en realidad lo
que no superó es la idea de que la cognición tiene que entenderse como la manipulación de
representaciones simbólicas.25
24 Entre los enfoques que critica se encuentra el de Rodney Brooks quien sigue la idea de que “el mejor
modelo del mundo es el mundo mismo”. Así, en lugar de programar un sistema que utilizara
representaciones del mundo, el sistema usado por Brooks utilizaba sensores que le dieran información
conforme avanzaban. Ahora bien, para Dreyfus el problema es que los robots de Brooks responden a
ciertas “características del sistema que ya han sido determinadas, y no a un contexto o un significado
cambiante” (Dreyfus, 2012, pág. 67). 25 El mayor problema de una teoría representacional de la mente es la imposibilidad de representar el
contexto en el que actúa el agente, precisamente porque para que una representación sea funcional
necesita una descripción exhaustiva del contexto. Sin embargo, el contexto no queda abierto en
términos de características que puedan ser absolutamente descritas pues involucra las expectativas del
agente con respecto al contexto y todas las posibilidades de acción que quedan abiertas.
26
VI. La propuesta neurodinámica de Walter Freeman.
Finalmente, Dreyfus analiza la propuesta de Walter Freeman basada en Heidegger y en
Merleau-Ponty.26 Lo que Dreyfus quiere enfatizar de esta propuesta es que precisamente no
requiere de representaciones. De acuerdo con Freeman, el cerebro tiene que entenderse como
un sistema dinámico no linear cuyo aprendizaje depende de su acoplamiento a un entorno. Es
decir, el cerebro es un sistema que se determina de acuerdo con las experiencias de sus
acciones pasadas. Así, el cerebro no representa un mundo exterior sino que el estado cerebral
es el resultado de la suma de experiencias pasadas. La distinción que tendría este modelo con
un conductismo es que los cambios en los estados cerebrales dependen de una experiencia
holística o global y no discreta.27 Si bien sólo en el tiempo podemos decidir si el modelo de
Walter Freeman es funcional, tiene la ventaja de que es un modelo adecuado al modo como
nuestro entorno de hecho se nos presenta.28 Dice Dreyfus: “Si no podemos lograr que nuestro
modelo cerebral responda a la significatividad del contexto tal como se nos muestra
específicamente a los seres humanos, el proyecto de desarrollar IA heideggeriana situada y
corporizada no puede llevarse a cabo.” (2012, pág. 91)
De acuerdo con Dreyfus, el camino más adecuado para proseguir las investigaciones científicas
sobre la mente humana no es la programación de sistemas que tengan acceso a mayor
información ni la programación de un conjunto de instrucciones más complejo y fino; sino
seguir un camino como el de Freeman: partir de una noción de cognición que no esté
caracterizada por la manipulación de representaciones. Es decir, el problema de los desarrollos
previos ha sido que suponen que es necesario refinar el conjunto de instrucciones sin
cuestionar siquiera si tal conjunto de instrucciones es necesario para el agente humano.
26 Walter Freeman señala en su texto Societies of Brains (Freeman, 1995) que el motivo por el cual las
neurociencias están en crisis es que la búsqueda por el significado no se ha dirigido de manera
adecuada. Los modelos, de acuerdo con Freeman, se han concentrado en explicar el funcionamiento de
un cerebro aislado de su interacción con un entorno y con otros agentes. Dice Freeman en su prólogo
que “el significado surge en las relaciones sociales”. 27 De acuerdo con el modelo de Freeman la interacción con el entorno, considerado en su totalidad y
no como elementos aislados. En cambio, para el conductismo, la respuesta del sistema se determina en
virtud de un estímulo determinado, es decir, un elemento discreto. 28 Este señalamiento es sumamente relevante para poder entender la relación entre la fenomenología y
las ciencias cognitivas. De acuerdo con lo que Dreyfus señala una explicación sobre la cognición
humana no puede separarse de manera tajante de nuestra experiencia.
27
Dreyfus acude a la fenomenología porque en ella encuentra una noción de la cognición
humana que parte de nuestra experiencia del mundo y que parece ser más adecuada que la
noción de cognición que utilizan los investigadores de IA y ciencias cognitivas. Desde la
fenomenología este enfoque tradicional ha sido y puede ser cuestionado precisamente porque
provee una descripción que es neutra con respecto a los supuestos teóricos tradicionales y
parte de la experiencia humana de la primera persona, es decir, toma en cuenta cómo lidiamos
con nuestro entorno en el día a día. Dreyfus recuerda que el desarrollo de IA fue posible
únicamente tras el desarrollo de las computadoras digitales, ya que una computadora digital
puede simular cualquier proceso que pueda ser formalizado como un conjunto de
instrucciones y elementos discretos.
El filósofo norteamericano considera que la IA es consecuencia del supuesto platónico de que
una acción puede considerarse inteligente sólo si puede explicarse como un know-what y que
esta idea marca la pauta al racionalismo moderno (Leibniz, Descartes, Kant y Frege)29 La IA
descansa en el supuesto según el cual un comportamiento puede considerarse como inteligente
si puede ser expresado como un conjunto de definiciones y reglas que expliquen las relaciones
entre estos elementos. En esto, precisamente, se ha basado el falaz optimismo con respecto a
los desarrollos en IA: si el comportamiento inteligente se debe al procesamiento de
información entonces una computadora digital puede simularlo sin problema alguno: “Por
debajo de su optimismo se encuentra la convicción de que el comportamiento humano
inteligente es el resultado del procesamiento de información por una computadora digital, y ya
que la naturaleza ha producido este tipo de comportamiento que tiene la forma de
procesamiento de información, una programación adecuada debería de ser capaz de obtener tal
29 Dreyfus sustenta esta afirmación en el Eutifrón de Platón. De acuerdo con Dreyfus, cuando Sócrates
le pregunta a Eutifrón si tiene un conocimiento científico tal sobre la piedad y lo divino que puede
justificar en él la acción de haber entregado a su padre por asesinato.
A ojos del filósofo norteamericano, en esta petición, Platón más bien solicita una explicación
epistemológica. Es decir, Sócrates le pide cuentas de su conocimiento científico sobre lo divino para
poder entender por qué ha entregado a su padre. Así, lo que subyace a esta petición de Platón es el
supuesto de que todo actuar humano depende de un conocimiento proposicional. Éste es precisamente
el fenómeno al que Dreyfus se refiere en sus observaciones a los desarrollos de IA que pretenden
programar reglas heurísticas para lograr la simulación de un cierto comportamiento.
28
comportamiento de una máquina digital, ya sea imitando la naturaleza o programando sobre la
naturaleza”30 (Dreyfus, 1992, pág. 155)
De acuerdo con Dreyfus, podemos formular este supuesto de maneras distintas.
A. El supuesto biológico.
De acuerdo con Dreyfus, este supuesto se puede formular como la idea de que el cerebro es
como una computadora digital. Esto se sostiene en las investigaciones neurofisiológicas que
descubrieron que las neuronas disparan un brote o estallido de energía, el cual fue interpretado
como la unidad de información neuronal, y comparado, a su vez, con el bit como unidad de
información computacional. (Dreyfus, 1992, pág. 159)
Ahora bien, de acuerdo con el filósofo norteamericano, este supuesto da por sentado que la
computadora comparte con el cerebro su carácter interactivo. Sin embargo, ésta no se
constituye a través de la interacción, sino que ya programada se busca que interactúe con un
entorno a través de una serie de símbolos. Dice Dreyfus: “(...) la diferencia entre la naturaleza
fuertemente interactiva de la organización cerebral y el carácter no interactivo de la
organización de una máquina sugiere que mientras los argumentos biológicos sean relevantes,
la evidencia se opondrá a la posibilidad de utilizar una computadora digital para producir
inteligencia.”31 (Dreyfus, 1992, pág. 162)
B. El supuesto psicológico.
Este segundo supuesto asume, de acuerdo con Dreyfus, que además del plano biológico, el
cerebro cuenta con una dimensión funcional o psicológica equivalente a la que tiene una
computadora digital en el plano de la programación. Ahora bien, en este punto es importante
distinguir entre el supuesto biológico recién expuesto y el supuesto psicológico. La analogía, a
diferencia del supuesto biológico, se coloca en un plano distinto, ya no en el disparo neuronal,
sino en las funciones que determinan el comportamiento resultante. Es decir, en lo que son
30 “Underlying their optimism is the conviction that human intelligent behavior is the result of
information processing by a digital computer, and, since nature has produced intelligent behavior with
this form of processing, proper programming should be able to elicit such behavior from digital
machines, either by imitating nature or by out-programming her.” (Dreyfus, 1992, pág. 155) 31 “(...) the difference between the “strongly interactive” nature of brain organization and the non-
interactive character of machine organization suggests that insofar as biological arguments are relevant,
the evidence is against the possibility of using digital computers to produce intelligence.” (Dreyfus,
1992, pág. 162).
29
análogas la computadora y el cerebro es en la programación: en las operaciones de símbolos
discretos que determinan cuáles serán los datos de entrada aceptados y cuáles serán los datos
de salida producidos. Este supuesto se deriva del primero en tanto que, según Dreyfus, si se
asume que lo propio del cerebro biológico es ser un procesador de información, entonces este
nivel de procesamiento existe. En otras palabras, el primer supuesto asume que el cerebro
biológico es un tipo de procesador, mientras que el segundo supuesto asume que procesa el
tipo de información propio de la computadora y lo hace al modo de una computadora.
Dreyfus encuentra este supuesto en la siguiente afirmación de Fodor: “toda operación del
sistema nervioso es idéntica a alguna secuencia de operaciones elementales”32 (Dreyfus, 1992,
pág. 167, cita de The appeal to Tacit Knowledge in Psychological Explanation, pág. 629). Los supuestos
de Fodor son que la información que el cerebro orgánico recibe, su input, es información
proveniente de estímulos sensibles. El cerebro procesa esta información con operaciones
discretas y lo hace de acuerdo con un programa heurístico.
De acuerdo con Dreyfus, este segundo supuesto está sustentado en la idea de que el
procesamiento de información