Fundamento Filosófico IA

download Fundamento Filosófico IA

of 24

Transcript of Fundamento Filosófico IA

  • 7/25/2019 Fundamento Filosfico IA

    1/24

    Fundamentosfilosficos

    En este captulo examinamos lo que signica pensary s i los artefactos podrany deberan alguna vez llegar a hacerlo.

    HIPTESIS

    DE LA IA DBIL

    HIPTESIS

    DE LA IA FUERTE

    Como se mencion en el Captulo 1, los filsofos existan mucho antes que los computadores y llevaban tiempo intentando solucionar algunas cuestiones relacionadas con laIA: cmo trabaja la mente? Es posible que las mquinas acten de forma inteligente,igual que las personas? Y si as fuera, tendran mentes? Cules son las implicacionesticas de las mquinas inteligentes? A lo largo de los primeros 25 captulos de este libro, hemos estudiado cuestiones de IA en s misma, pero en este capitulo estudiaremosla agenda del filsofo.

    En primer lugar, observemos la terminologa: los filsofos definen la U ples dela IA dbil como la afirmacin de que es posible que las mquinas acten con inteligencia (o quiz mejor, como sifueran inteligentes); de la misma manera, la Uplesde la IA fuerte consiste en la afirmacin de que las mquinas s piensan realmente(opuesto al pensamientosimulado).

    La mayora de los investigadores de IA dan por sentado la hiptesis de la IA dbil,y no se preocupan por la hiptesis de la IA fuerte, con tal de que funcione su programano les interesa si se llama simulacin de inteligencia o inteligencia real. Sin embargo,todos deberan preocuparse por las implicaciones ticas de su trabajo.

    26.1 IA dbil: pueden las mquinas actuarcon inteligencia?

    Algunos filsofos han intentado demostrar que la IA es imposible; que las mquinas notendrn la posibilidad de actuar inteligentemente. Algunos han utilizado argumentos quetratan de dar el alto a la investigacin en IA:

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    2/24

    1 0 7 6 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    PUEDEN PENSAR

    LAS MQUINAS?

    La Inteligencia Artificial abordada desde dentro de l culto a l compu tacionalismo no ten

    dr ni siquiera un atisbo de fantasm a de posibilidad de producir resultados duraderos...

    Es hora de desviar los esfuerzos de los investigadores en IA, y la gran cantidad de dine

    ro disponible para su soporte, y dirigirse a caminos distintos del enfoque com putacio-

    nal (Sayre, 1993).

    Obviamente, si la IA es imposible o no lo es, depender de cmo se defina. En esencia,la IA consiste en la bsqueda del mejor programa agente en una arquitectura dada. Conesta formulacin, la IA es posible por definicin: para cualquier arquitectura digital dekbits de almacenamiento existirn exactamente 2kprogramas agente y todo lo que ha

    br que hacer para encontrar el mejor es enumerarlos y probar todos ellos. Esto podrano ser viable para una kgrande, pero los filsofos abordan ms la teora que la prctica.

    Nuestra definicin de IA funciona bien para el problema de encontrar un buen agente, dependiendo de la arquitectura. Por tanto, nos sentimos tentados a acabar esta seccin aqu mismo, respondiendo afirmativamente a la pregunta formulada en el ttulo. Sinembargo, los filsofos estn interesados en el problema de comparar dos arquitecturas,la humana y la de la mquina. Adems, ellos por tradicin han formulado la preguntade la siguiente manera: Pueda pensar las mquinas? Desgraciadamente, estacuestin no est bien definida Para ver por qu, consideremos las dos cuestiones siguientes:

    Pueden volar las mquinas? Pueden nadar las mquinas?

    La mayora de las personas estn de acuerdo en que la respuesta a la primera cuestines s, que los aviones pueden volar, pero la respuesta a la segunda es no; los barcos y lossubmarinos se mueven por el agua, pero eso no es nadar. Sin embargo, ni las preguntas

    ni sus respuestas afectan en absoluto a las vidas laborales de los ingenieros aeronuticos ni navales, ni a las de los usuarios de sus productos. Las respuestas no tienen mucho que ver con el diseo o con las caractersticas de los aviones o de los submarinos,y sin embargo s tienen que ver mucho ms con la forma en que se han elegido utilizarlas palabras. La palabra nadar (swim en ingls) ha llegado a tener el significado demoverse por el agua mediante el movimiento de las partes del cuerpo, mientras quela palabra fly (volar) no tiene dicha limitacin en un medio de locomocin1. La posibilidad prctica de las mquinas pensantes lleva viviendo con nosotros durante slo50 aos o as, tiempo insuficiente para que los angloparlantes se decidan a dar un significado a la palabra pensar.

    Alan Turing, en su famoso artculo Computing Machinery and Intelligence (Turing, 1950), sugiri que en vez de preguntar si las mquinas pueden pensar, deberamospreguntar si las mquinas pueden aprobar un test de inteligencia conductiva (de comportamiento), conocido como el Test de Turing. La prueba se realiza para que el programamantenga una conversacin durante cinco minutos (mediante mensajes escritos en lnea,online)con un interrogador (interlocutor). ste tiene que averiguar si la conversacin seest llevando a cabo con un programa o con una persona; si el programa engaa alinterlocutor un 30 por ciento del tiempo, este pasar la prueba. Turing conjetur que, hacia

    1 En ruso, el equivalente de nadars se aplica a los barcos.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    3/24

    FUNDAMENTOS FILOSFICOS 1 0 7 7

    el ao 2000, un computador con un almacenamiento de 109unidades podra llegar a programarse lo suficientemente bien como para pasar esta prueba, pero no estaba en lo cierto. Algunas personas As/?sido engaadas durante cinco minutos; por ejemplo, el programaE i j z a y el chatbot en Internet llamado M g o n z han engaado a personas ignorantes que

    no se daban cuenta de que estaban hablando con un programa; el programa A l ic e enga a un juez en la competicin del Loebner Prize en el ao 2001. Sin embargo, ningn programa se ha acercado al criterio del 30 por ciento fente a jueces con conocimiento,y el campo en su conjunto de la IA no ha prestado mucha atencin a los tests de Turing.

    Turing tambin examin una gran gama de posibles objeciones ante la posibilidadde las mquinas inteligentes, incluyendo virtualmente aquellas que han aparecido medio siglo despus de que apareciera este artculo. Examinaremos algunas de ellas.

    El argumento de incapacidad

    El argumento de incapacidad afirma que una mquina nunca puede hacerX.Comoejemplos deX,Turing enumera las siguientes acciones:

    Ser amable, tener recursos, ser guapo, simptico, tener iniciativas, tener sentido delhumor, distinguir lo correcto de lo errneo, cometer errores, enamorarse, disfrutar conlas fresas con nata, hacer que otra persona tambin se enamore, aprender de la experiencia,utilizar palabras de forma adecuada, ser el tema de su propio pensamiento, tener tantadiversidad de comportamientos como el hombre, hacer algo realmente nuevo.

    Turing tuvo que utilizar su intuicin para adivinar aquello que en un futuro sera posible, pero nosotros tenemos el privilegio de poder mirar hacia atrs y ver qu es lo que

    ya pueden hacer los computadores. Es innegable que los computadores actualmente hacen muchas cosas que anteriormente eran slo del dominio humano. Los programas ju egan a la ajedrez, a las damas y a otros juegos, inspeccionan piezas de las lneas deproduccin, comprueban la ortografa en los documentos de los procesadores de texto,conducen coches y helicpteros, diagnostican enfermedades, y hacen otros cientos detareas tan bien o mejor que los hombres. Los computadores han hecho pequeos perosignificativos descubrimientos, en Astronoma, Matemticas, Qumica, Mineraloga,Biologa, Informtica y otros campos que necesitan rendimiento a nivel de experto.

    Debido a lo que conocemos actualmente acerca de los computadores, no es sorprendente que sean tambin buenas en problemas combinatorios tales como los del ju e

    go del ajedrez. Sin embargo, los algoritmos tambin funcionan a nivel humano en tareasque aparentemente se relacionan con el juicio humano, o como apunta Turing, aprender a partir de la experiencia y la capacidad de distinguir lo que es correcto de lo incorrecto. Ya en el ao 1955, Paul Meehl (vasetambin Grove y Meehl, 1996) estudilos procesos de la toma de decisiones de expertos formados en tareas subjetivas comopredecir el xito de un alumno en un programa de formacin, o la reincidencia de un delincuente. De 20 estudios que Meehl examin, en 19 de ellos encontr que sencillos algoritmos de aprendizaje estadstico (tal como la regresin lineal y Bayes simple) predicenmejor que los expertos. Desde el ao 1999, el Educational Testing Service (Servicio deExmenes Educativo) ha utilizado un programa automatizado para calificar millones de

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    4/24

    1 0 7 8 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    preguntas de redacciones en el examen GMAT. Este programa concuerda con los examinadores en un 97 por ciento, aproximadamente al mismo nivel de concordancia entre dos personas (Burstein etal.,2001).

    Es evidente que los computadores pueden hacer muchas cosas tan bien o mejor queel ser humano, incluso cosas que las personas creen que requieren mucha intuicin y entendimiento humano. Por supuesto, esto no significa que los computadores utilicen laintuicin y el entendimiento para realizar estas tareas, las cuales no forman parte delcomportamiento,y afrontamos dichas cuestiones en otro sitio, sino que la cuestin esque la primera conjetura sobre los procesos mentales que se requieren para producir uncomportamiento dado suele ser equivocada. Tambin es cierto, desde luego, que existen todava muchas tareas en donde los computadores no sobresalen (por no decirlo msbruscamente), incluida la tarea de Turing de mantener una conversacin abierta.

    La objecin matemtica

    Es bien conocido, a travs de los trabajos de Turing (1936) y Godel (1931), que ciertascuestiones matemticas, en principio, no pueden ser respondidas por sistemas formalesconcretos. El teorema de la incompletitud de Godel (vaseel Apartado 9.5) es el ejem

    plo ms conocido en este respecto. En resumen, para cualquier sistema axiomtico formal Alo suficientemente potente como para hacer aritmtica, es posible construir unasentencia Godel G(F)con las propiedades siguientes:

    (F) es una sentencia deF,pero no se puede probar dentro de F. SiFesconsistente, entonces G(F)es verdadero.

    Filsofos como J. R. Lucas (1961) han afirmado que este teorema demuestra que las mquinas son mentalmente inferiores a los hombres, porque las mquinas son sistemas formales limitados por el teorema de la incompletitud, es decir no pueden establecer laverdad de su propia sentencia Godel, mientras que los hombres no tienen dicha limitacin. Esta afirmacin ha provocado mucha controversia durante dcadas, generando muchos libros entre los que se incluyen dos libros del matemtico Sir Roger Penrose (1989,1994) quien repite esta afirmacin con nuevos giros (como por ejemplo, la hiptesis deque los hombres son diferentes porque sus cerebros operan por la gravedad cuntica).Examinemos solamente tres de los problemas de esta afirmacin.

    En primer lugar, el teorema de la incompletitud de Godel se aplica slo a sistemas

    formales que son lo suficientemente potentes como para realizar aritmtica. Aqu se incluyen las mquinas Turing, y la afirmacin de Lucas en parte se basa en la afirmacinde que los computadores son mquinas de Turing. Esta es una buena aproximacin, perono es del todo verdadera. Aunque los computadores son finitos, las mquinas de Turingson infinitas, y cualquier computador por tanto se puede describir como un sistema (muygrande) en la lgica proposicional, la cual no est sujeta al teorema de incompletitud deGodel.

    En segundo lugar, un agente no debera avergonzarse de no poder establecer la verdad de una sentencia aunque otros agentes s puedan. Consideremos la sentencia siguiente

    J. R. Lucas no puede consecuentemente afirmar que esta sentencia es verdadera.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    5/24

    FUNDAMENTOS FILOSFICOS 1 0 7 9

    Si Lucas afirmara esta sentencia, entonces se estara contradiciendo a s mismo, por tanto Lucas no puede afirmarla consistentemente, y de aqu que esta sentencia sea verdadera. (La sentencia no puede ser falsa, porque si lo fuera Lucas entonces no podraafirmarla consecuentemente, por tanto sera verdadera.) As pues, hemos demostrado queexiste una sentencia que Lucas no puede afirmar consecuentemente mientras que otraspersonas (y mquinas) s pueden. Sin embargo, esto no hace que cambiemos de idea respecto a Lucas. Por dar otro ejemplo, ninguna persona podra calcular la suma de 10 billones de nmeros de 10 dgitos en su vida, en cambio un computador podra hacerlo ensegundos. Sin embargo, no vemos esto como una limitacin fundamental en la habilidad de pensar del hombre. Durante miles de aos los hombres se han comportado de forma inteligente antes de que se inventaran las mquinas, de manera que no es improbableque el razonamiento matemtico no tenga ms que una funcin secundaria en lo que implica ser inteligente.

    En tercer lugar, y de manera mucho ms importante, aunque reconozcamos que loscomputadores tienen limitaciones sobre lo que pueden demostrar, no existen evidenciasde que los hombres sean inmunes ante esas limitaciones. Es realmente sencillo demostrar con rigor que un sistema formal no puede hacerX,y afirmar entonces que los hombrespuedenhacerXutilizando sus propios mtodos informales, sin dar ninguna evidenciade esta afirmacin. En efecto, es imposible demostrar que los hombres no estn sujetosal teorema de incompletitud de Godel, porque cualquier prueba rigurosa contendra unaformalizacin del talento humano declarado como no formalizable. De manera que nosquedamos con el llamamiento a la intuicin de que los hombres, de alguna forma, pueden realizar hazaas superhumanas de comprensin matemtica. Esta atraccin se expresa con argumentos como debemos asumir nuestra propia consistencia, si elpensamiento puede ser posible (Lucas, 1976). Sin embargo ciertamente se sabe que los

    hombres son inconsistentes. Esto es absolutamente verdadero para el razonamiento diario, pero tambin es verdadero para un pensamiento matemtico cuidadoso. Un ejemplo muy conocido es el problema del mapa de cuatro colores. En 1879, Alfred Kempepublic una prueba que tuvo una gran acogida y contribuy a que le eligieran Fellow deRoyal Society. Sin embargo, en 1890, Percy Heawood apunt que exista un error y elteorema qued sin demostrar hasta el ao 1977.

    El argumento de la informalidad

    Una de las crticas ms persistentes e influyentes de la LA como empresa la realiz Turing mediante su argumento de la informalidad del comportamiento. En esencia, estaafirmacin consiste en que el comportamiento humano es demasiado complejo para poder captarse mediante un simple juego de reglas y que debido a que los computadoresno pueden nada ms que seguir un conjunto (juego) de reglas, no pueden generar un com

    portamiento tan inteligente como el de los hombres. En IA la incapacidad de capturarlo todo en un conjunto de reglas lgicas se denomina roblona de coalificackin (vaseCaptulolO).

    El filsofo que ha propuesto principalmente este punto de vista ha sido HubertDreyfus, quien elabor una serie de crticas influyentes a la Inteligencia Artificial: Qu

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    6/24

    1 0 8 0 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    es lo que no pueden hacerlos computadores?(1972), Qu es lo no pueden hacer todava los computadores?(1992). Junto con su hermano elabor tambinMind Over Machine(1986).

    La postura que critican se vino a llamar Good Old-Fashioned AI (IA muy anticuada), g o f a i , trmino que empez a utilizar Haugeland (1985). Se supone que este trmino afirma que todo comportamiento inteligente puede ser capturado por un sistemaque razona lgicamente a partir de un conjunto de hechos y reglas, los cuales describenel dominio. Por tanto, se corresponde con el agente lgico ms simple que se describien el Captulo7. Dreyfus est en lo cierto cuando dice que los agentes son vulnerablesal problema de la cualificacin. Como se vio en el Captulo 13, los sistemas de razonamiento probabilstico son ms adecuados para dominios abiertos. La crtica de Dreyfuspor lo tanto no va en contra de los computadoresper se,sino en contra de una forma enparticular de programarlos. Sin embargo, sera razonable suponer que un libro llamadoLo que no pueden hacerlos sistemas lgicos de primer orden basados en reglas sin apren

    derpodra haber tenido menos impacto.Bajo el punto de vista de Dreyfus, la pericia del hombre incluye el conocimiento

    de algunas reglas, pero solamente como un contexto holstico o conocimiento base(background)dentro del que operan los hombres. Proporciona como ejemplo el com

    portamiento social adecuado al dar o recibir regalos: Normalmente se responde simplemente en las circunstancias adecuadas y dando el regalo adecuado. Al parecer hayque tener un sentido directo de cmo hay que hacer las cosas y qu esperar. Esta misma afirmacin se realiza en el contexto del juego del ajedrez: Un maestro de ajedreztendra que averiguar simplemente qu hacer, pero un buen maestro simplementeobserva el tablero como exigiendo un cierto movimiento... y obtiene la respuestaapropiada rpidamente en su cabeza. Es cierto que gran parte de los procesos del pensamiento de una persona que da un regalo o de un gran maestro en ajedrez se llevan acabo a un nivel que no est abierto a la introspeccin por la mente consciente. Sinembargo, esto no significa que no existan los procesos de pensamiento. Una cuestinimportante que Dreyfus no responde es cmo aparece el movimiento de ajedrezadecuado en la cabeza del gran maestro. Esto nos lleva a pensar en un comentario deDennett (1984):

    Es como si los filsofos se fueran a proclamar expertos en explicar los mtodos de losmagos en el escenario, y entonces cuando preguntamos cmo hace el truco del serrucho

    para partir en dos a una mujer, ellos dan la explicacin de que es totalmente evidente: el

    mago no parte en dos a la mujer con la sierra, simplemente parece que lo hace. Pero,Cmo lo hace?, y los filsofos responden No es de nuestra incumbencia.

    Dreyfus y Dreyfus (1986) proponen un proceso de adquisicin de pericia en cinco etapas, comenzando con un procesamiento basado en reglas (del tipo propuesto en g o f a i )y terminando con la habilidad de seleccionar las respuestas correctas instantneamente. Al realizar esta propuesta, Dreyfus y Dreyfus pasan en efecto de ser crticos a la IAa ser tericos de IA, ya que proponen una arquitectura de redes neurales (neuronales)organizadas en una biblioteca de casos extensa, pero sealan algunos problemas. Afortunadamente, se han abordado todos sus problemas, algunos con xito parcial y otroscon xito total. Entre estos problemas se incluyen los siguientes:

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    7/24

    FUNDAMENTOS FILOSFICOS 1 0 6 1

    1. No se puede lograr una generalizacin buena de ejemplos sin un conocimientobsico. Afirman que no se sabe cmo incorporar el conocimiento bsico en elproceso de aprendizaje de las redes neuronales. De hecho, en el Captulo 19vimos que existen tcnicas para utilizar el conocimiento anterior en los algoritmos de aprendizaje. Sin embargo, esas tcnicas dependen de la disponibilidad

    previa de conocimiento de forma explcita en los algoritmos de aprendizaje, algoque Dreyfus y Dreyfus niegan vigorosamente. Bajo nuestro punto de vista, estaes una buena razn para realizar un rediseo serio de los modelos actuales delprocesamiento neuronal de forma quepuedansacar provecho del conocimiento aprendido anteriormente como lo hacen otros algoritmos de aprendizaje.

    2. El aprendizaje de redes neuronales es una forma de aprendizaje supervisado(vaseCaptulo 18), que requiere la identificacin anterior de las entradas relevantes y las salidas correctas. Por tanto, afirman que no puede funcionar autnomamente sin la ayuda de un entrenador humano. De hecho, el aprendizaje sinun profesor se puede conseguir mediante un ^roidizajenosiqia'visado (Ca

    ptulo 20) y un ^roidizajederefiiazo (Captulo 21).3. Los algoritmos de aprendizaje no funcionan bien con muchas funciones, si

    seleccionamos un subgrupo de stas, no existe una forma conocida de aadirfunciones nuevas, si el conjunto actual demuestra ser inadecuado para tener encuenta los hechos aprendidos. De hecho, mtodos nuevos tales como las mquinas vectoriales de soporte utilizan muy bien conjuntos grandes de funciones.Como vimos en el Captulo 19, tambin existen formas importantes de generarfunciones nuevas, aunque requiera ms trabajo.

    4. El cerebro es capaz de dirigir sus sensores para buscar la informacin relevantey procesarla para extraer aspectos relevantes para la situacin actual. Sin embargo,

    afirman que Actualmente, los detalles de este mecanismo ni se entienden y nisiquiera se hipotetizan para guiar la investigacin en la IA. De hecho, el campo de la visin activa, respaldado por la teora del valor de la informacin(Captulo 16) tiene que ver exactamente con el problema de dirigir los sensores, y algunos robots ya han incorporado los resultados tericos obtenidos.

    En resumen, muchos de los temas que ha tratado Dreyfus, el conocimiento del sentidocomn bsico, el problema de la cuahficacin, la incertidumbre, aprendizaje, formas compiladas de la toma de decisiones, la importancia de considerar agentes situados y no motores de interferencia incorpreos, por ahora se han incorporado en el diseo estndarde agentes inteligentes. Bajo nuestro punto de vista, esta es una evidencia del progresode la IA, y no de su imposibilidad.

    26.2 IA fuerte: pueden las mquinas pensarde verdad?

    Muchos filsofos han afirmado que una mquina que pasa el Test de Turing no quieredecir que est realmente pensando, sera solamente una simulacin de la accin de

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    8/24

    1 0 8 2 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    CONVENCIAN

    EDUCADA

    pensar. De nuevo esta objecin fue prevista por Turing, y cita unas palabras del Profesor Geoffrey Jefferson (1949):

    Hasta que una mquina pueda escribir un soneto o componer un concierto porque sien

    ta los pensamientos y las emociones, y no porque haya una lluvia de smbolos, podra

    reconocer que la mquina iguala al cerebro, e s decir, no slo escribirlo sino que sepa quelo ha hecho.

    Esto es lo que Turing llama el argumento de la ansrioiria, la mquina tiene que serconsciente de sus propias acciones y estados mentales. Aunque la consciencia sea un temaimportante, el punto de vista clave de Jefferson se relaciona realmente con la famne-nolag^a, o el estudio de la experiencia directa, es decir, la mquina tiene que sentir emociones realmente. Otros se centran en la toicknalidad, esto es, en la cuestin de silas creencias, deseos y otras representaciones supuestas de la mquina son de verdad algoque pertenece al mundo real.

    La respuesta de Turing a esta objecin es interesante. Podra haber presentado

    razones para demostrar que las mquinas pueden de hecho ser conscientes (o tener fenomenologa, o tener intenciones). En cambio, Turing mantiene que la cuestin no estbien definida al decir, Pueden pensar las mquinas? Adems, por qu deberamosinsistir en un estndar ms alto para las mquinas que el usado para los humanos. Despus de todo, en la vida ordinaria no tenemos nunca una evidencia directa sobre losestados mentales internos de otras personas. No obstante, Turing dice que En vez deargumentar constantemente sobre este punto de vista, es usual mantener la convoidneducada de que todos pensamos.

    Turing argumenta que Jefferson estara dispuesto a ampliar la convencin educadaa las maquinas si al menos tuviera experiencia con las que actan de forma inteligente,

    y cita el dilogo siguiente el cual ha llegado a formar una parte muy significativa de latradicin oral de la IA y que debemos incluir:

    hombre:En la primera lnea de tu son eto que d ice te comparar con un da de verano,

    no sera mejor decir un da de primavera?

    mquina:No rimara.

    hombre:Y qu tal un da de invierno. Este s qu rimara bien.

    Mquina: S ,pero nadie quiere una comparacin con un da de invierno.

    hombre:Podras decir que Mr. Pickwick te recuerda a las navidades?

    mquina:En cierto modo, s.

    hombre:Sin embargo, las navidades representan un da de invierno, y no creo que a Mr.

    Pickwick le importara la comparacin.mquina: No,creo que ests hablando en serio. Por un da de invierno se entiende un t

    pico da de invierno, y no un da especial de Navidad.

    Turing reconoce que la cuestin de la conciencia (consciencia) es difcil, pero niega quesea relevante para la prctica de la IA: No quiero dar la impresin de que pienso queno hay misterio en torno a la conciencia... Sin embargo no creo que estos misterios tengan necesariamente que resolverse antes de la respuesta a la cuestin que estamos tratando en este trabajo. Coincidimos con Turing en que nos interesa crear programas quese comporten de forma inteligente y no en si alguien los declara reales o simulados. Porotro lado, muchos filsofos estn especialmente interesados en esta cuestin. Como

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    9/24

    FUNDAMENTOS FILOSFICOS 1063

    FUNCIONALISMO

    NATURALISMO

    BIOLGICO

    ayuda para entenderlo tendremos en cuenta la cuestin de si otros artefactos se consideran reales.

    En 1848, Frederick Whler sintetiz urea artificial por primera vez. Este fue un hechoimportante porque prob que la qumica orgnica y la inorgnica se podan unir, cuestin discutida muy fuertemente. Una vez que se consigui la sntesis, los qumicos reconocieron que la urea artificial era urea, porque tena todas las propiedades fsicasadecuadas. Igualmente, los edulcorantes artificiales son innegablemente edulcorantes,y la inseminacin artificial (la otra IA) es innegablemente inseminacin. Por otro lado,las flores artificiales no son flores, y Daniel Dennett seala que el vino artificial Chate-au Latour no sera vino Chateau Latour, aunque no se pudiera distinguir qumicamente,simplemente porque no se fabric en el lugar adecuado ni de la forma adecuada. Nitampoco un Picasso artificial sera un Picasso, independientemente del aspecto que tenga el cuadro.

    Podemos concluir diciendo que en algunos casos el comportamiento de un artefacto es importante, aunque en otros sea el pedigr del artefacto lo que importa. Lo importante en cada caso parece ser una cuestin de convencin. Sin embargo para las mentesartificiales, no existe una convencin, y tenemos que depender de las intuiciones. Elfilsofo John Searle (1980) tiene una convencin muy fuerte:

    Nadie piensa que la simulacin por computador de una tormenta nos va a mojar... Y, cuales la razn de que cualquier persona en su sano juicio suponga que la simulacin por computador de los procesos mentales tendran realmente procesos mentales? (pp. 37-38.)

    Aunque sea fcil reconocer que las simulaciones por computador de las tormentas nonos van a mojar, no est daro cmo aplicar esta analoga a las simulaciones por computador de los procesos mentales. Despus de todo, la simulacin de una tormenta en

    Hollywood utilizando aspersores y mquinas de viento s/que moja a los actores. La mayora de las personas se sienten cmodas diciendo que la simuladn por computador dela suma es la suma, y la de un juego de ajedrez un juego de ajedrez. Son los procesosmentales parecidos a las tormentas, o son ms parecidos a la suma o al ajedrez, o se parecen al Chateau Latour y al Picasso..., o a la urea? Todo depende de la teora de los estados y los procesos mentales.

    La teora del funrionaSanodice que un estado mental es cualquier condicin causalinmediata entre la entrada y la salida. Bajo la teora funcionalista, dos sistemas conprocesos causales isomrficos tendran los mismos estados mentales. Por tanto, unprograma informtico podra tener los mismos estados mentales que una persona. Desde

    luego, todava no hemos dicho lo que significa realmente isomrficos, pero la suposicin es que existe algn nivel de abstraccin por debajo del cual no importa unaimplementacin especfica; siempre que los procesos sean isomrficos hasta este nivel,tendrn lugar los mismos estados mentales.

    En contraste, la teora del naturafiano biolgicodice que los estados mentales soncaractersticas emergentes de alto nivel originadas por procesos neurolgicos de bajonivel en las neuronas,y lo que importa son las propiedades (no especificadas) de lasneuronas. As pues, los estados mentales no se pueden duplicar justo en la base de algn

    programa que tiene la misma estructura funcional con el mismo comportamiento de entrada y salida; necesitaramos que el programa se ejecutara en una arquitectura con la

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    10/24

    1 0 8 4 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    misma potencia causal que las neuronas. La teora no dice por qu las neuronas tienenesta potencia causal, ni tampoco qu otras instanciaciones fsicas podran tenerla o no.

    Para investigar estos dos puntos de vista examinaremos uno de los problemas msantiguos de la filosofa de la mente, y retomaremos tres experimentos pensados.

    PROBLEMA MENTE-

    CUERPO

    DUALISTA

    MONISTA

    MATERIALISMO

    LIBERTAD

    DE ELECCIN

    CONCIENCIA

    El problema de mente-cuerpo

    El probtaiia m e n te -c ip o cuestiona cmo se relacionan los estados y los procesos mentales con los estados y los procesos (especficamente del cerebro) del cuerpo. Como sino fuera bastante difcil, vamos a generalizar el problema como un problema de arquitectura-mente, para que nos permita hablar sobre la posibilidad de que las mquinas tengan mentes.

    Por qu es un problema el problema mente-cuerpo? Para la primera dificultad nosremontaremos a Ren Descartes, quien abord el tema de cmo un alma inmortal inter-acta con un cuerpo mortal, y concluy diciendo que el alma y el cuerpo son dos tiposde cosas diferentes, una teora fkiaEsta La teora mnrista, frecuentemente llamada ma-teriafismo, mantiene que no existen cosas tales como almas inmateriales, sino slo ob

    jetos materiales. Como consecuencia, los estados mentales, tales como sentir dolor,saber que alguien est montando a caballo, o creer que la capital de Austria es Viena,son estados del cerebro. John Searle, de forma concisa, resume esta idea con el slogan,Los cerebros producen las mentes.

    El materialista se debe enfrentar por lo menos con dos obstculos serios. El primerproblema es el de la Ebo-tad de eleccin: Cmo puede ser que una mente puramentefsica, cuyas transformaciones estn regidas por las leyes de la fsica, conserve todava

    el libre albedro? La mayora de los filsofos consideran que este problema necesita unareconstitucin cuidadosa de nuestra nocin ingenua de libertad de eleccin, en vez depresentar una amenaza para el materialismo. El segundo problema tiene que ver con eltema general de la c o n d o n a (y cuestiones de o ie id m c n to y de autoconomorforelacionadas, aunque no idnticas). Para simplificar, por qu se siente algo cuando se tienen ciertos estados cerebrales, mientras que probablemente no se siente nada al tener otrosestados fsicos (por ejemplo, al ser una roca).

    Para empezar a responder estas cuestiones, necesitamos formas de hablar sobre losestados del cerebro a niveles ms abstractos que las configuraciones especficas de todos los tomos del cerebro de una persona en particular en un momento concreto. Por

    ejemplo, cuando pienso en la capital de Austria, mi cerebro sufre miradas de cambiosdiminutos de un picosegundo al otro, pero estos no constituyen un cambio cualitativoen el estado del cerebro. Para tenerlo en cuenta, necesitamos una nocin de tiposde estados del cerebro bajo la cual podamos juzgar si dos estados del cerebro pertenecen almismo tipo o a un tipo diferente. Existen diferentes opiniones sobre lo que quiere decirtipoen este caso. Casi todo el mundo cree que si tomamos un cerebro y sustituimos lostomos de carbono por un nuevo conjunto de tomos de carbono2, el estado mental no

    2 Quizs incluso los tomos de un istopo de carbn diferente, como se hace algunas veces en los experimentos de exploracin cerebral.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    11/24

    FUNDAMENTOS FILOSFICOS 1 0 8 5

    ESTADOS

    INTENCIONALES

    se ver afectado. Esto es bueno porque los cerebros reales estn sustituyendo continuamente sus tomos mediante procesos metablicos, y sin embargo esto en s no parececausar perturbaciones mentales importantes.

    Ahora vamos a examinar una clase en particular de estado mental: las actitudes[ropasicionales (tratadas por primera vez en el Captulo 10), conocidas tambin comoestados tonaialns, Estos son estados tales como creer, conocer, desear, temer, y otrosms que se relacionan con algunos aspectos del mundo exterior. Por ejemplo, la creencia de que Viena es la capital de Austria es una creenciasobreuna ciudad en particulary su estado. Nos vamos a cuestionar si es posible que los computadores tengan estadosintencionales que nos ayuden a entender cmo caracterizar dichos estados. Por ejemplo,se podra decir que el estado mental de desear una hamburguesa difiere del estado dedesear una pizza porque en el mundo real una hamburguesa y una pizza son cosas diferentes. Es decir, los estados intencionales tienen una conexin necesaria con otrosobjetos del mundo externo. Por otro lado, anteriormente, hemos argumentado que losestados mentales son estados del cerebro, y de aqu que los estados mentales de identidad o no-identidad se deberan determinar permaneciendo completamente dentro de lacabeza, sin hacer referencia al mundo real. Para examinar este dilema retomaremos elexperimento del pensamiento que intenta separar a los estados intencionales de sus ob

    jetos externos.

    CONTENIDO EXTENSO

    CONTENIDO

    ESTRECHO

    QUALIA

    El experimento del cerebro en una cubeta

    Imagnese que al nacer le extraen el cerebro de su cuerpo y lo colocan en una cubeta conuna ingeniera maravillosa. Esta cubeta mantiene su cerebro y le permite crecer y

    desarrollarse. Al mismo tiempo, su cerebro recibe unas seales electrnicas de unsimulador informtico que pertenece a un mundo totalmente ficticio, y las seales motoras de su cerebro son interceptadas y utilizadas para modificar la simulacin cuandosea adecuado3. A continuacin, el estado del cerebro podra tener el estado mentalMue-roPor (Yo, Hamburguesa)aunque no tenga un cuerpo con el que sentir hambre ni sentido del gusto para experimentarlo, y puede que tampoco haya hamburguesas en el mundoreal. En ese caso, sera el mismo estado mental que el del cerebro en un cuerpo?

    Una forma de resolver el dilema es decir que el contenido de los estados mentalespuede ser interpretado desde dos puntos de vista diferentes. La visin del contandotenso interpreta el dilema desde el punto de vista de un observador omnisciente desde

    fuera con acceso a la situacin completa, y que puede distinguir las diferencias del mundo. De esta manera, bajo el contenido extenso, las ideas del cerebro en una cubeta sondiferentes de las de una persona normal. El contando estrecho slo tiene en cuentael punto de vista subjetivo interno, y bajo este punto de vista todas las creencias seranlas mismas.

    El pensamiento de que una hamburguesa es maravillosa tiene una cierta naturalezaintrnseca, esto es que existe algo que es como tener esa creencia. Ahora vamos a entraren la esfera de pedia, o de las experiencias intrnsecas (de la palabra latina que signi

    3 Esta situacin puede resultar familiar para los que hayan visto la pelcula de 1999, TheMatrix.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    12/24

    1 0 8 6 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    fica aproximadamente tales cosas). Suponga que mediante algn accidente del cableadoretinal o neuronal la persona experimenta en rojo el color que la persona Kpercibe comoverde, y viceversa. Entonces cuando ambas vean las luces del semforo actuarn de lamisma manera, pero la experienciaque tienen ser de alguna manera diferente. Ambas

    pueden reconocer que el nombre de su experiencia es la luz es roja, pero las experiencias se sienten de diferente manera. No est claro si eso significa que son los mismos estados mentales o que son estados mentales diferentes.

    A continuacin retomaremos otro experimento del pensamiento que aborda la cuestinde si los objetos fsicos diferentes a las neuronas humanas pueden tener estados mentales.

    El experimento de la prtesis cerebral

    El experimento de la prtesis cerebral fue introducido por Clark Glymour a mediadosde los aos 70, y retocado posteriormente por John Searle (1980), aunque se asocia ms

    comnmente al trabajo de Hans Moravec (1988). Trata de lo siguiente: suponga que laneurofisiologa ha evolucionado hasta tal punto que el comportamiento y las conexiones de entrada y salida de todas las neuronas del cerebro humano se entienden perfectamente. Adems, suponga que podemos construir mecanismos electrnicosmicroscpicos que imitan este comportamiento y que pueden interconectarse con el te

    jido neuronal. Y finalmente, suponga que una tcnica quirrgica milagrosa puede sustituir las neuronas individuales con los mecanismos electrnicos sin interrumpir elfuncionamiento del cerebro por completo. El experimento consiste en sustituir gradualmente todas las neuronas de la cabeza de alguien con mecanismos electrnicos y a continuacin invertir el proceso para retomar al sujeto a su estado biolgico normal.

    Nos preocupa tanto el comportamiento externo como la experiencia interna del sujeto, durante y despus de la operacin. Por definicin del experimento, el comportamiento externo del sujeto no debe sufrir ningn cambio en comparacin con lo que seobservara si la operacin no se llevase a cabo4. Ahora bien, aunque la presencia o ausencia de consciencia no la pueda asegurar fcilmente un tercero, el sujeto del experimento debera por lo menos poder registrar cualquier cambio en su propia experienciaconsciente. Aparentemente existe una confrontacin directa de intuiciones de lo que podra llegar a ocurrir. Moravec, un investigador y funcionalista en robtica, est convencido de que su consciencia no se vera afectada. Searle, un filsofo y naturalista bilogo,tambin est convencido de que la consciencia desaparecera:

    Ante nuestro asombro encontramos que en efecto estamos perdiendo el control del comportamiento externo. Encontramos, por ejemplo, que cuando los doctores compruebannuestra visin, dicen: Hemos puesto un objeto rojo delante de usted; por favor, dganoslo que ve. Desearemos responder gritando No puedo ver nada. Me he quedado absolutamente ciego. Sin embargo, hablaremos y diremos sin ningn control por nuestra parte: Observo que hay un objeto rojo delante de m... Nuestra experiencia consciente seva reduciendo poco a poco a la nada, mientras que se puede observar externamente quenuestro comportamiento es el mismo. (Searle, 1992)

    * Imaginemos que utilizamos un sujeto idntico de control que sufre una operacin placebo para podercomparar los dos comportamientos.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    13/24

    FUNDAMENTOS FILOSFICOS 1 0 8 7

    Sin embargo, podemos hacer algo ms que argumentar, a partir de la intuicin. Enprimer lugar, hay que destacar que para que el comportamiento externo siga siendo elmismo, mientras que el individuo se va sumiendo gradualmente en la inconsciencia, debedarse el caso de que la propia voluntad del sujeto se elimine instantneamente y totalmente; de otra manera, la reduccin del conocimiento se vera reflejada en el comportamiento extemo, con palabras tales como Ayuda, mi conocimiento se est reduciendo,u otras palabras con ese mismo efecto. Esta eliminacin instantnea de la propia voluntadcomo resultado de la sustitucin gradual de neuronas una a una parece ser una afirmacin improbable.

    En segundo lugar, examinemos qu ocurre si formulamos al sujeto cuestiones relacionadas con su experiencia consciente durante el perodo en donde no existen neuronas reales. Por las condiciones del experimento, obtendremos respuestas del tipo, Meencuentro bien. Debo decir que estoy algo sorprendido porque crea en el argumento deSearle. O de lo contrario, podramos atizar al sujeto con un bastn acabado en punta yobservaramos la respuesta, Ay, cmo duele!. Ahora bien, durante el curso normalde sucesos, el escptico puede desechar tales salidas de programas de IA tales como simples artimaas. Ciertamente, es bastante fcil utilizar una regla tal como Si el sensor12 identifica "Alto entonces la salida ser "Ay. Sin embargo lo importante es que, de

    bido a que hemos duplicado las propiedades funcionales de un cerebro humano normal,supondremos que el cerebro electrnico no contiene dichas artimaas. Debemos entonces tener una explicacin de las manifestaciones de la consciencia producidas por el cerebro electrnico que atae slo a las propiedades funcionales de las neuronas. Y adems,esta explicacin debe aplicarse tambin al cerebro real, el cual tiene las mismas pro

    piedades funcionales.Parece entonces que existen slo dos conclusiones posibles:

    1. Los mecanismos causales de la consciencia que generan estas clases de salidasen los cerebros normales todava estn funcionando en la versin electrnica,que, por tanto, es consciente.

    2. Los sucesos mentales conscientes en el cerebro normal no tienen conexincausal con el comportamiento, y quedan fuera del cerebro electrnico, que noes, por tanto, consciente.

    Aunque no podamos descartar la segunda posibilidad, esto reduce la consciencia a lo queEPtFENOMEHAL los filsofos llaman rol eftfenom aiai algo que ocurre, pero que no deja pistas como si

    lo fuera en el mundo observable. Adems, si la consciencia es en efecto epifenomenal, entonces el cerebro debe tener un segundo mecanismo inconsciente responsable del Ay.

    En tercer lugar, examinemos la situacin en que la operacin se ha invertido y el sujeto tiene un cerebro normal. Una vez ms, el comportamiento externo del sujeto debeser, por definicin, como si la operacin no hubiera ocurrido. En particular, deberamospoder preguntar, Cmo estaba durante la operacin?, recuerda el bastn acabado enpunta?. El sujeto debe tener recuerdos precisos de la naturaleza real de sus experiencias conscientes, incluyendo las qualia, a pesar del hecho de que segn Searle no ha habidotales experiencias.

    Searle podra responder que no hemos definido el experimento adecuadamente. Porejemplo, si las neuronas reales quedan suspendidas entre el momento que se extraen yel tiempo en que se reemplazan en el cerebro, por supuesto entonces no recordarn

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    14/24

    1 0 8 8 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    las experiencias durante la operacin. Para tratar esta eventualidad, necesitamos asegurarnos de que el estado de las neuronas se actualiza para reflejar el estado interno de lasneuronas artificiales que estn reemplazando. Si los supuestos aspectos no funcionales de las neuronas reales dan como resultado entonces un comportamiento funcionalmente diferente del que se observa con las neuronas artificiales todava en su lugar,tenemos un reductio ad absurdumsimple, debido a que eso significara que las neuronas artificiales no son equivalentes funcionalmente a las neuronas reales. (Vase elEjercicio 26.3 para una posible refutacin de este argumento.)

    Patricia Churchland (1986) seala que los argumentos funcionalistas que operan anivel de neurona tambin pueden funcionar al nivel de cualquier unidad funcional msgrande, un grupo de neuronas, un mdulo mental, un lbulo, una hemisfera, o todo elcerebro. Eso significa que si se acepta la nocin de que el experimento de prtesis delcerebro muestra que el cerebro de sustitucin es consciente, deberamos tambin creerque la consciencia se mantiene cuando el cerebro entero se sustituye por un circuito quehace corresponder la entrada con la salida mediante una tabla de bsqueda. Esto es desconcertante para muchas personas (incluyendo al mismo Turing), que tienen la intuicinde que las tablas de bsqueda no son conscientes, o por lo menos, que las experienciascondentes generadas durante la bsqueda en tabla no son las mismas que las generadasdurante la operacin de un sistema que se podra describir (incluso en un sentido computacional ingenuo) como accediendo y generando ideas, introspecciones, metas, etc.Esto podra sugerir que el experimento de la prtesis del cerebro no puede utilizar unreemplazo de todo el cerebro en conjunto, si ha de ser efectivo al guiar las intuiciones,pero esto no significa que se debe utilizar el reemplazo de un tomo cada vez, tal comoSearle nos hace creer.

    La habitacin china

    Nuestro experimento final del pensamiento es quizs el ms famoso de todos. Este sedebe a John Searle (1980), quien describe un sistema hipottico que claramente est ejecutando un programa y que pasa la prueba de Turing, pero que igualmente y de manera clara no entiende (segn Searle) ninguna entrada ni salida. Su conclusin es queejecutar el programa adecuado (es decir, tener las salidas adecuadas) no es una condicinsucientepara ser una mente.

    El sistema se compone de un hombre, que solamente entiende ingls, y que est equi

    pado con un libro de reglas escrito en ingls y varias pilas de papel, algunas en blancoy algunas con inscripciones indescifrables. (El hombre entonces hace el papel de la CPU,el libro de normas es el programa y los papeles son el dispositivo de almacenamiento.)El sistema se encuentra dentro de una habitacin con una apertura al exterior. A travsde la apertura se van deslizando los papeles con smbolos indescifrables. El hombre encuentra los smbolos correspondientes en el libro de reglas y sigue las instrucciones. Lasinstrucciones pueden incluir escritura de smbolos en los papeles nuevos que van saliendo,encontrar smbolos en las pilas de papeles, reorganizar las pilas, etc. Finalmente las instrucciones harn que un smbolo o ms sean transcritos a un trozo de papel que se pasaotra vez al mundo exterior.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    15/24

    FUNDAMENTOS FILOSFICOS 1 0 8 9

    Hasta ahora todo est bien. Pero desde fuera, se observa un sistema que est sacando la entrada en forma de sentencias chinas y generando respuestas chinas que obviamente son tan inteligentes como las de la conversacin imaginada por Turing5.Entonces Searle argumenta lo siguiente: la persona que est en la habitacin no entiendeel chino (supuestamente). El libro de reglas y las pilas de papel, que son slo trozos depapel no entienden el chino. Por consiguiente no est habiendo comprensin del chino.De aqu que, segn dice Searle, ejecutar el programa adecuado no genera necesaria

    mente entendimiento.

    Al igual que Turing, Searle examin e intent rechazar una serie de respuestas a esteargumento. Algunos comentaristas, incluyendo a John McCarthy y a Robert Wilensky,propusieron lo que Searle llama la respuesta de los sistemas. La objecin es que aunquese pueda preguntar si el hombre de la habitacin entiende el chino, esto es como preguntar si la CPU puede admitir races cbicas. En ambos casos, la respuesta es no, y enambos casos segn la respuesta del sistema, el sistema completo stiene la capacidad

    en cuestin. Ciertamente, si se pregunta a la habitacin china si entiende el chino, la respuesta sera afirmativa (en un chino fluido). Segn la convencin educada de Turing, estodebera ser suficiente. La respuesta de Searle es reiterar la cuestin de que el entendimiento no est en el hombre y no puede estar en el papel, de forma que no puede haberentendimiento. Tambin sugiere algo ms: que nos podramos imaginar al hombre me-morizando el libro de reglas y el contenido de todas las pilas de papel, de manera queno hubiera nada que tener que entender exceptoal hombre; y una vez ms, si se preguntaal hombre (en ingls), la respuesta ser negativa.

    En este punto hemos topado con los temas reales. El cambio a la memorizacin desde el papel es una pista falsa, porque ambas formas son simplemente instanciaciones

    fsicas de un programa en ejecucin. La afirmacin real que hace Searle se basa en loscuatro axiomas siguientes (Searle, 1990):

    1. Los programas informticos son entidades sintcticas y formales.2. Las mentes tienen contenidos o semnticas mentales.3. La sintaxis por s misma no es suficiente para la semntica.4. Los cerebros originan las mentes.

    A partir de los tres primeros axiomas, Searle concluye diciendo que los programas noson suficientes para las mentes. En otras palabras, un agente que ejecuta un programapodra ser una mente, pero no es necesariamente una mente slo por virtud de ejecutar programas. A partir de los cuatro axiomas concluye que Cualquier otro sistemacapaz de originar mentes tendra que tener poderes causales (por lo menos) equivalentesa los de los cerebros. De aqu infiere que cualquier cerebro artificial tendra que duplicar los poderes causales, no slo ejecutar un programa en particular, y que loscerebros humanos no producen fenmenos mentales slo por virtud de ejecutar unprograma.

    5 El hecho de que las pilas de papel podran ser mucho ms grandes que todo el planeta y de que la generacin de respuestas llevarla millones de aos no redunda en la estructura lgicadel argumento. Un propsito de la formacin filosfica es desarrollar un sentido bien afinado de las objeciones que guardan relacin ylas que no.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    16/24

    1 0 9 0 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    Las conclusiones de que los programas no son suficientes para las mentes s/que proceden de estos axiomas, si somos generosos en su interpretacin. Pero la conclusin noes satisfactoria: todo lo que Searle ha demostrado es que si explcitamente negamos elfuncionalismo (eso es lo que hace su axioma (3)) entonces no podemos concluir necesariamente diciendo que los no-cerebros son mentes. Esto es bastante razonable, de manera que el argumento completo se reduce si el axioma (3) puede ser aceptado. SegnSearle, el punto de vista del argumento de la habitacin china es proporcionar intuiciones al axioma (3). Pero la reaccin de este argumento muestra que proporciona intuiciones slo a los que ya se han inclinado a aceptar la idea de que meros programas no

    pueden generar un entendimiento de verdad.Reiterando, el objetivo del argumento de la habitacin china es refutar la IA fuerte,

    es decir la afirmacin de que ejecutar la clase adecuada de programa da como resultado necesariamente una mente. Esto se hace exhibiendo un sistema aparentemente inteligente que ejecuta la clase adecuada de programa que no es, segn Searle,demostrablementeuna mente. En este sentido, Searle apela a la intuicin, no a la prue

    ba: slo hay que observar la habitacin: qu hay en ella que sea una mente? Sin embargo, se podra hacer el mismo argumento sobre el cerebro: observe el conjunto declulas (o de tomos), que funcionan ciegamente segn las leyes de la Bioqumica (o laFsica): Qu hay ah que sea una mente? Por qu un trozo de cerebro puede ser unamente mientras que un trozo de hgado no puede serlo?

    Adems, cuando Searle admite que materiales diferentes a las neuronas podran enprincipio ser una mente, debilita su argumento an ms por dos razones: en primer lugar slo tenemos las intuiciones de Searle (o las nuestras propias) para decir que la habitacin china no es una mente, y en segundo lugar, aunque determinemos que lahabitacin no es una mente, no nos dice nada sobre si un programa que se ejecuta en algn otro medio fsico (incluyendo un computador) podra ser una mente.

    Searle permite la posibilidad lgica de que el cerebro est implementando de verdad un programa de IA de la clase tradicional. Sin embargo, si el mismo programa seejecuta en la clase inadecuada de mquina no sera una mente. Searle no cree que lasmquinas no puedan tener mentes, en cambio afirma que algunas mquinassque tienen mentes, los hombres son mquinas biolgicas con mentes. No nos queda ningunagua para ver qu tipos de mquinas califican o no califican.

    26.3 La tica y los riesgos de desarrollarla Inteligencia Artificial

    Hasta ahora nos hemos concentrado en sipodemosdesarrollar la IA, pero debemos tambin tener en cuenta si deberamoshacerlo. Si es ms probable que los efectos de la tecnologa de la IA sean ms negativos que positivos, sera responsabilidad moral de lostrabajadores en su campo redirigir su investigacin. Muchas de las nuevas tecnologashan tenido efectos negativos no intencionados: el motor de combustin trajo la polucinambiental y la pavimentacin del paraso; la fisin nuclear produjo el desastre de

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    17/24

    FUNDAMENTOS FILOSFICOS 1091

    Chernobyl, la Isla de las Tres Millas y la amenaza de la destruccin mundial. Todos loscientficos e ingenieros se enfrentan a consideraciones ticas de cmo deberan actuaren el trabajo, qu proyectos deberan o no deberan hacer, cmo los deberan abordar.Existe incluso un manual sobre la tica de los Computadores (Ethics o f Computing,Berleur y Brunnstein, 2001). Sin embargo, la IA parece que expone problemas nuevosyendo ms all de, por ejemplo, construir puentes que no se desmoronen:

    Las personas podran perder sus trabajos por la automatizacin. Las personas podran tener demasiado (o muy poco) tiempo de ocio. Las personas podran perder el sentido de ser nicos. Las personas podran perder algunos de sus derechos privados. La utilizacin de los sistemas de IA podra llevar a la prdida de responsabilidad. El xito de la IA podra significar el fin de la raza humana.

    Vamos a examinar en orden cada uno de estos temas.Las personas podran perder sus trabajos por la automatizacin. La economa

    industrial moderna ha llegado a depender en general de los computadores, y seleccionaprogramas de IA en particular. Por ejemplo, gran parte de la economa, especialmenteen Estados Unidos, depende de la disponibilidad de crditos del consumidor. Las aplicaciones de las tarjetas de crdito, aceptaciones de cargos y deteccin de fraudes serealizan mediante programas de IA. Se podra decir que miles de trabajadores han sidodesplazados por estos programas de IA, pero en efecto si eliminamos estos programasde IA estos trabajos no existiran, porque la mano de obra humana aadira un coste adicional a las transacciones. Hasta ahora, la automatizacin por medio de la tecnologa dela IA ha creado ms trabajos de los que ha eliminado, y ha creado puestos de trabajo msinteresantes y mejor pagados. Ahora que el programa IA cannico es un agente inteli

    gente diseado para ayudar a un hombre, la prdida de trabajo preocupa menos que cuando la IA se centraba en los sistemas expertos diseados para sustituir a los hombres.

    Las personas podran tener demasiado (o muy poco) tiempo de ocio.Alvin Toffleren su libroFuture Shock(1970) escribi, La semana laboral se ha recortado el 50 porciento a finales del siglo. No es absurdo decir que se volver a reducir a la mitad hacia elao 2000. Arthur C. Clarke (1968b) escribi que las personas del ao 2001 podran enfrentarse a un futuro de gran aburrimiento, en donde el problema principal de la vida esdecidir cual de los cientos de canales de la televisin seleccionar. La nica prediccinque ha llegado a resultar cierta es el nmero de canales de televisin (Springsteen, 1992).En cambio, las personas que trabajan en las industrias muy relacionadas con el conoci

    miento han descubierto que forman parte de un sistema computerizado integrado que funciona 24 horas al da; para mantenerlo se han visto forzados a trabajar durante ms horas.En una economa industrial, las recompensas son aproximadamente proporcionales al tiempo invertido; trabajar el 10 por ciento ms llevara a producir un incremento del 10 porciento en los ingresos. En una economa de la informacin marcada por la comunicacinde un ancho de banda alto y por una reproduccin fcil de la propiedad intelectual (lo queFrank y Cook (1996) llaman Winner-Take-All Society (la Sociedad del ganador se hacecon todo)), existe una gran recompensa por ser ligeramente mejor que la competencia;trabajar un 10 por ciento ms podra significar un 100 por 100 de incremento en los ingresos. De forma que todos se sienten ms presionados por trabajar ms fuerte. La IA

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    18/24

    1 0 9 2 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    incrementa el ritmo de la innovacin tecnolgica y contribuye as a esta tendencia general, pero la IA tambin mantiene la promesa de permitirnos ahorrar tiempo y permitir quenuestros agentes automatizados hagan las cosas por un tiempo.

    Las personas podran perder su sentido de ser nicasEn el libro de Weizenbaum(1976), Computer Power and Human Reason(El poder de los computadores y la raznhumana), el autor del programa ELIZA, seala algunas de las posibles amenazas que supone la IA para la sociedad. Uno de los argumentos principales de Weizenbaum es quela investigacin en IA hace posible la idea de que los hombres sean autmatas, una ideaque produce prdida de autonoma o incluso de humanidad. Podemos sealar que la ideaya exista mucho antes que la IA, nos podemos remontar a L Homme Machine (LaMettrie, 1748). Tambin destacaremos que la humanidad ha sobrevivido a otros contratiempos hacia nuestro sentido de la unicidad: De Revolutionibus Orbium Coelestium(Copemicus, 1543) desplaz a la tierra lejos del centro del sistema solar, y Descent of

    Man (Darwin, 1871) puso al homo sapiensal mismo nivel que otras especies. La IA,aunque sea una materia de gran xito, quiz sea por lo menos amenazante para lassuposiciones morales de la sociedad del siglo xxi al igual que la teora de la evolucinlo fue para los del siglo xix.

    Las personas podran perder algo de sus derechos privados.Weizenbaum tambinseal que la tecnologa del reconocimiento de voz podra llevar a una intercepcinextensa de cableados, y de aqu a la prdida de las libertades civiles. No previo un mundo con amenazas terroristas que cambiaran el equilibrio de la vigilancia que estarandispuestas a aceptar las personas, sino que reconocera correctamente que la IA tiene elpotencial de producir una vigilancia en grandes cantidades. Esta prediccin puede convertirse en realidad: el sistema clasificado Echelon del gobierno americano consiste enuna red de envos de escucha, campos de antenas y estaciones de radar; el sistema est

    respaldado por computadores que utilizan traduccin de lenguajes, reconocimiento devoz y palabras dave que buscan pasar por la criba automticamente todo el trfico dellamadas telefnicas, correos electrnicos, faxes y telex6. Algunas personas reconocenque la computerizacin conduce a la prdida de privacidad, por ejemplo, el consejerodelegado de Sun Microsystems, Scott McNealy ha dicho que De cualquier forma tenemos privacidad cero. Hay que superarlo. Otros no estn de acuerdo. Por ejemplo, el

    juez Louis Brandis en 1890 escribi que La privacidad es el derecho ms completo yextenso de todos... el derecho de la personalidad de uno mismo.

    La utilizacin de sistemas de IA podra llevar a la prdida de responsabilidad. Enla atmsfera de litigios que prevalece en Estados Unidos, la obligacin legal se convierte

    en un tema importante. Cuando un mdico depende del juicio de un sistema mdico experto para hacer diagnstico, quin es el culpable si el diagnstico es errneo? Afortunadamente, debido en parte a la mayor influencia en medicina de mtodos tericos paralas decisiones, se acepta que la negligencia no puede demostrarse si un mdico lleva caboprocedimientos mdicos que tienen una utilidad altamente esperada, incluso si elresultado realescatastrfico para el paciente. Por tanto la pregunta debera ser Quintiene la culpa si el diagnstico no es razonable?. Hasta ahora, los juzgados han man-

    6 VaseEavesdropping in Europe (Escucha a escondidas en Europa), Wirednews, 30/09/1998, e informes citados por la UE.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    19/24

    FUNDAMENTOS FILOSFICOS 1 0 9 3

    tenido que los sistemas mdicos expertos desempean el mismo papel que los libros detexto mdicos y los libros de referencias; los mdicos son responsables de entender elrazonamiento que soporta esta decisin y de utilizar su propio juicio a la ahora de decidir si se aceptan las recomendaciones del sistema. Por tanto, en el diseo de sistemasmdicos expertos como agentes, no se debera considerar que las acciones afectan directamente a los pacientes, sino que influyen directamente en el comportamiento del mdico. Si los sistemas expertos se hacen ms fiables y precisos que los hombres que hacentos diagnsticos, los mdicos podran tener obligaciones legales si noutilizan las recomendaciones de un sistema experto. Gawande (2002) explora esta premisa.

    Estn empezando a aparecer temas similares en relacin con la utilizacin de agentes inteligentes en Internet. Se han hecho progresos en la incorporacin de limitacionesen los agentes inteligentes de forma que no pueden, por ejemplo, daar los archivos deotros usuarios (Weld y Etzioni, 1994). El problema se magnifica cuando el dinero cambia de manos. Si las transacciones monetarias las realiza un agente inteligente en nombre de alguien, est obligado por las deudas incurridas? Sera posible que un agenteinteligente tuviera activos o que realizara compras electrnicas en su propio nombre? Hasta ahora, parece que estas cuestiones no se entienden de forma clara. En nuestro conocimiento, ningn programa ha recibido ningn estado legal como individuo con finesfinancieros; por el momento, parece que no es razonable hacerlo. Los programas tampoco son considerados conductores para reforzar las regulaciones del trfico enautovas reales. En las leyes californianas, por lo menos, no parece haber ninguna sancin legal que impida a un vehculo automatizado exceder los lmites de velocidad, aunqueel diseador del mecanismo de control de vehculos s tuviera obligacin en caso de acdente. Al igual que con la tecnologa para la reproduccin humana, la ley tiene todava que ponerse a la altura de los nuevos desarrollos.

    7xito de la IA podra significar el fin de la raza humana.Casi cualquier tecnologa tiene el potencial de hacer dao si se encuentra en las manos equivocadas, pero conla IA y la robtica, tenemos el problema nuevo de que las manos equivocadas podranpertenecer a dicha tecnologa. Incontables historias de ciencia ficcin nos han alertadode los robots o de los cyborgs (robots-hombre) que se comportan de forma enajenada. Entre los primeros ejemplos se incluyenFrankensteinde Mary Shelly, o el ModernPrometheus {ElPrometeo Moderno)(1818)7, y la obra de Karel Capek R.U.R. (1921),en la que los robots conquistan el mundo. En cine, tambin tenemos Terminador {TheTerminator)(1984), en donde se combinan clichs de robots que conquistan el mundocon el viajar en el tiempo, y Matrix {The Matrix)(1999), en donde se combinan robots

    que conquistan el mundo y el cerebro en una cubeta.Para una gran mayora, parece que los robots son protagonistas de muchas historias

    de conquistas del mundo porque representan lo desconocido, de la misma manera quelas brujas y los fantasmas de cuentos de otras dcadas ms antiguas. Suponen una amenaza ms creble que las brujas y los fantasmas? Si los robots estuvieran diseados adecuadamente como agentes que adoptan las metas de sus propietarios, probablemente nosupondran una amenaza: los robots que derivan de mayores avances sobre sus diseosactuales, s que van a servir y no a conquistar. Los hombres utilizan su inteligencia de

    7 Charles Babbage, cuando erajoven, se vio influenciado por la lectura deFrankenstein.

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    20/24

    1 0 9 4 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    SINGULARIDADTECNOLGICA

    TRASHUMAN1SM0

    formas agresivas porque son innatas, por naturaleza. Sin embargo, las mquinas que construimos no tienen que ser innatamente agresivas, a menos que decidamos que as sean.Por un lado, es posible que los computadores logren una clase de conquista sirviendo yhacindose indispensables, de la misma manera que los automviles han conquistado encierto sentido el mundo industrializado. Este escenario merece ms atencin. En 1965,I. J. Good escribi:

    Vamos a definir una mquina ultrainteligente como una mquina que puede sobrepasarcon mucho todas las actividades intelectuales de cualquier hombre, por muy inteligenteque sea. Puesto que el diseo de las mquinas es una de estas actividades intelectuales,una mquina ultrainteligente podra disear mquinas incluso mejores: entonces existira incuestionablemente una explosin de inteligencia, y la inteligencia del hombre quedara bastante atrs. As pues la primera mquina ultrainteligente es la ltima invencinque haya hecho nunca el hombre, siempre que la mquina sea lo suficientemente dcilcomo para decimos cmo controlarla.

    La explosin de inteligencia tambin ha sido llamada sn&daridad tecnolgicapor elprofesor de Matemticas y autor de ciencia ficcin VemorVinge, (1993) quien escribi que,Dentro de treinta aos, tendremos el medio tecnolgico de crear una inteligencia super-humana. Algn tiempo despus, la era humana habr acabado. Good y Vinge (y muchosotros) sealan correctamente que la curva del progreso tecnolgico actualmente est creciendo de manera exponencial (tomemos en consideracin, por ejemplo, la ley de Moore).Sin embargo, es un buen paso adelante extrapolar que la curva continuar hacia la singularidad de un crecimiento casi infinito. Hasta ahora, el resto de tecnologas han seguido unacurva en forma de S, en donde el crecimiento exponencial finalmente disminuye.

    La preocupacin y el miedo de Vinge radica en llegar a la singularidad, sin embargo

    otros cientficos y futuristas gozan con esa idea En elRobot Mere Machine to TrascendentMind^Aeramquina hacia la mente trascendente), Hans Moravec predice que los robotsse igualarn a la inteligencia humana en 50 aos y a continuacin la excedern:

    De manera bastante rpida podramos quedar desplazados y fuera de la existencia. Noestoy tan alarmado como muchos otros por esta ltima posibilidad, ya que considero quelas mquinas del futuro son nuestra progenie, hijos de mente construidos a nuestra imagen y semejanza, es decir, nosotros mismos pero en una forma ms potente. Al igual quelos hijos biolgicos de generaciones anteriores, representarn la mejor esperanza de lahumanidad para un futuro a largo plazo. Nos corresponde a nosotros ofrecerles todas lasventajas, y cmo retirarnos cuando ya no podamos contribuir. (Moravec, 2000.)

    Ray Kurzweil, en The Age o fSpiritual Machines(2000) predice que hacia el ao 2099existir una fuerte tendencia hacia una fusin del pensamiento humano en el mundo dela inteligencia de la mquina que las especies humanas crearon inicialmente. Ya no existe una distincin clara entre los hombres y los computadores. Existe incluso una palabra nueva, tr a d n iia r m o que se refiere al movimiento social real que ansia este futuro.Basta con decir que estos temas presentan un reto para la mayora de los tericos que consideran la preservacin de la vida humana y de las especies como algo bueno.

    Finalmente, tomemos en consideracin el punto de vista del robot. Si los robotsadquieren consciencia, tratarlos entonces como meras mquinas (por ejemplo, tratarloscomo algo aparte) podra ser inmoral. Los robots tambin deben actuar moralmente,

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    21/24

    FUNDAMENTOS FILOSFICOS 1 0 9 5

    necesitaramos programarlos con una teora de lo que est bien y lo que est mal. Losescritores de ciencia ficcin han abordado el tema de los derechos y responsabilidadesde los robots, empezando por Isaac Asimov (1942). La famosa pelcula titulada A I.(Spielberg, 2001) se bas en una historia de Brian Aldiss sobre el robot inteligente que

    fue programado para creer que l era un humano y que no entiende el abandono finalpor parte de su madre-propietaria. La historia (y la pelcula) convencen de la necesidadde los robots para moverse por sus derechos civiles.

    26.4 Resumen

    Este captulo ha abordado los siguientes temas:

    Los filsofos utilizan el trmino IA dbil para la hiptesis de que las mquinas

    podran comportarse posiblemente de forma inteligente, y el trmino IA fiio-te parala hiptesis de que dichas mquinas contaran como si tuvieran mentes reales (encontraposicin a las mentes simuladas).

    Alan Turing rechaz la cuestin Pueden pensar las mquinas?, y lo sustituypor un test de comportamiento. Previeron muchas objeciones a la posibilidad demquinas pensantes. Pocos investigadores en IA prestan atencin al Test deTuring, y prefieren concentrarse en el rendimiento de sus sistemas en base a tareas prcticas, en vez de la habilidad de imitar a los humanos.

    Actualmente existe el acuerdo general de que los estados mentales son los estados del cerebro.

    Los argumentos a favor yen contra de la IA fuerte no son concluyentes. Unos pocosinvestigadores dominantes en la disciplina de la IA creen que cualquier cosasignificativa gira en torno al resultado del debate.

    La consciencia sigue siendo un misterio. Se han identificado ocho amenazas potenciales para la sociedad que se exponen

    tanto ante la IA como ante una tecnologa relacionada. Podemos concluir diciendo que algunas amenazas son improbables, pero merece la pena revisar dos deellas en particular. La primera es que las mquinas ultrainteligentes podranllevarnos a un futuro muy diferente del actual y puede que no sea de nuestro agrado. La segunda es que la tecnologa de la robtica puede permitir a individuos con

    una psicopata emplear armas de destruccin masiva. Concluimos diciendo que estoes ms una amenaza de la biotecnologa y nanotecnologa que de la robtica.

    N otas b i b l iogr f i ca s e h i s tr i ca s

    La naturaleza de la mente ha sido un tema estndar de la teorizacin filosfica desde tiempos inmemoriales hasta hoy en da. En el Phaedo,Platn consider y rechaz de formaespecfica la idea de que la mente podra ser una adaptacin o un modelo de organizacin de las partes del cuerpo, un punto de vista que se aproxima al punto de vista fun-

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    22/24

    1 0 9 6 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    tonalista de la filosofa moderna de la mente. En cambio, determin que la mente tena que ser un alma inmortal, inmaterial, separable del cuerpo y diferente en sustancia,del punto de vista del dualismo. Aristteles distingui una variedad de almas (en griego tj/vxt])de los seres vivos, describiendo algunas, por lo menos, de forma funcionalis-ta. (VaseNussbaum (1978) para ms informacin sobre el funcionalismo de Aristteles.)

    Descartes destaca por su punto de vista dualista de la mente humana, aunque irnicamente su influencia histrica se dirigi hacia el mecanismo y el materialismo. Explcitamente, concibi a los animales como autmatas, y se anticip al Test de Turing,escribiendo que no se puede concebir [que una mquina] elabore diferentes colocacionesde palabras para dar una respuesta con un significado adecuado para todo lo que se digaen su presencia, incluso de la misma forma que los hombres ms aburridos cuando hablan (Descartes, 1637). La ardiente defensa que hace Descartes del punto de vista delos animales como autmatas realmente tuvo el efecto de facilitar tambin la concepcin de los hombres como autmatas, incluso aunque l mismo no diera ese paso. El li

    broL Homme MachineoMan a Machine(La Mettrie, 1748) argument explcitamenteque los hombres son autmatas.

    La filosofa analtica moderna normalmente ha aceptado el materialismo (a menudo mediante la teora de la idod d ad del estado del cerebro (Place, 1956; Armstrong,1968), la cual afirma que los estados mentales son idnticos a los estados del cerebro)),sin embargo ha estado mucho ms dividida en el funcionalismo, en la analoga de lamquina con le mente humana, y la cuestin de si las mquinas literalmente pueden pensar. Scriven (1953), por ejemplo, entre las primeras respuestas filosficas a Turing(1950) Computing Machinery and Intelligence, intent negar que tuviera significadodecir que las mquinas pudieran pensar, basndose en que dicha afirmacin violaba elsignificado del mundo. En el apndice de la reimpresin de este artculo se puede ver

    que, por lo menos, Scriven hacia el ao 1963 se retract de este punto de vista (Anderson, 1964). El cientfico informtico Edsger Dijkstra dije que La cuestin de si un computador puede pensar no es ms interesante que la cuestin de si un submarino puedenadar. Ford y Hayes (1995) argumentan que el Test de Turing no es til para la IA.

    El funcionalismo es la filosofa de la mente que ms naturalmente sugiere la IA, ylas crticas del funcionalismo a menudo toman forma a partir de las crticas sobre la IA(como en el caso de Searle). Siguiendo la clasificacin utilizada por Block (1980), se

    pueden distinguir variedades del funcionalismo. La teora d lap erificar n funcional (Lewis, 1966, 1980) es una variante de la teora de la identidad del estado del cere

    bro la cual selecciona los estados del cerebro que se identifican con los estados mentales

    en su papel (rol) funcional. La teora de la idorfidad dd estado fimdonal (Putnam,1960, 1967) se basa ms estrechamente en la analoga de la mquina. No identifica losestados mentales con los estados fsicos del cerebro sino con los estados abstractoscomputacionales del cerebro concebidos expresamente como un dispositivo informtico. Se supone que estos estados abstractos son independientes de la composicin fsicaespecfica del cerebro, lo que lleva a considerar que la teora de la identidad del estadofuncional es una forma de dualismo.

    Tanto la teora de la identidad del estado del cerebro como las diferentes formas defuncionalismo han sido atacadas por autores afirmando que no tienen en consideracinla qualiao el aspecto a qu se asemejan de los estados mentales (Nagel, 1974). En

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    23/24

    FUNDAMENTOS FILOSFICOS 1 0 9 7

    MATERIALISMO

    ELIMINATIVO

    cambio, Searle se ha centrado en la supuesta incapacidad del funcionalismo (Searle, 1980,1984, 1992). Churchland y Churchland (1982) rebaten ambas formas de crtica.

    El matmaterno efininativo (Rorty, 1965; Churchland, 1979) difiere de las otrasteoras prominentes de la filosofa de la mente, en que no intenta dar cuenta de por quson verdaderas las ideas de la psicologa popular y del sentido comn sobre la mente, sino que por el contrario las rechaza como si fueran falsas e intenta sustituirlas poruna teora puramente cientfica de la mente. En principio, esta teora cientfica podraser proporcionada por una IA clsica, pero en cambio, en la prctica, los materialistaseliminativos tienden a apoyarse en la investigacin de la neuro ciencia y de las redesneuronales (Churchland, 1986), sin embargo, basndose en la IA clsica, especialmente en la investigacin de la representacin del conocimiento del tipo descrito en elCaptulo 10, tienden a confiar en la verdad de la psicologa popular. Aunque el punto devista del estado intencional (Dennett, 1971) pudiera interpretarse como fncionalis-ta, probablemente debera considerarse como una forma de materialismo eliminativo, enel sentido de que la postura intencional no tiene que reflejar ninguna propiedad objetiva del agente hacia el que se toma esa postura. Tambin se debera destacar que esposible ser un materialista eliminativo en algunos aspectos de la mentalidad a la vez quese analizan otras de forma diferente. Por ejemplo, Dennett (1978) es mucho ms eliminativo en cuanto a la qualiaque en cuanto a la intencionalidad.

    Ya se han proporcionado en este mismo captulo otras fuentes de crticas importantes hacia la IA dbil. Aunque estuvo muy en auge ridiculizar los enfoques simblicosen la era de las redes post-neuronales, no todos los filsofos son crticos de GOFAI. Dehecho, algunos son ardientes partidarios e incluso buenos profesionales. Zenon Pylyshyn(1984) ha argumentado que la cognicin se puede entender mejor a travs de un modelo computacional, no slo en principio sino tambin en la forma de realizar una inves

    tigacin contempornea, y ha refutado especficamente las crticas de Dreyfus en cuantoal modelo computacional de la cognicin humana (Pylyshyn, 1974). Gilbert Harman(1983), quien en el anlisis de la revisin de las creencias ha realizado conexiones conla investigacin de la IA en los sistemas del mantenimiento de verdad. Michael Bratmanha aplicado su modelo de creencia-deseo-intencin de la psicologa humana (Bratman,1987) a la investigacin de la IA en planificacin (Bratman, 1992). En el lado extremode la IA fuerte, Aaron Sloman (1978, p. xiii) ha descrito incluso como racista el punto de vista de Joseph Weizenbaum (Weizenbaum, 1976) diciendo que las mquinas inteligentes hipotticas no deberan considerarse personas.

    La literatura filosfica sobre las mentes, los cerebros, y otros temas relacionados es

    extensa y algunas veces difcil de leer sin una prctica adecuada en la terminologa y entos mtodos de argumentar empleados. La Enciclopedia de la Filosofa (Encyclopedia o fPhlosoy(Edwards, 1967) es una ayuda sorprendentemente fidedigna y til de este proceso. El Diccionario de Filosofa de Cambridge ( The Cambridge Dictionary ofPhilosofy)(Audi, 1999) es un trabajo ms reducido y ms accesible, pero las entradas principales(tales como filosofa de la mente) todava abarcan 10 pginas o ms. La Enciclopediade la Ciencia Cognitiva del MIT (MITEncyplopedia o fCognitiveSciencie)(Wilson y Keil,1999) aborda la filosofa de la mente as como la biologa y la psicologa de la mente.Otras colecciones de artculos sobre filosofa de la mente, incluyendo el funcionalismoy otros puntos de vista relacionados con la IA son El Materialismo y el Problema de Men-

    www.FreeLibros.me

  • 7/25/2019 Fundamento Filosfico IA

    24/24

    te-Cuerpo {Materialism and the Mind-Body Proble,Rosenthal, 1971) y Lecturas de la Filosofa de la Psicologa {Readings in the Philosophy ofPsycology, volumen 1, Block,1980). Biro y Shahan (1982) presentan una coleccin dedicada a los pros y los contrasdel funcionalismo. Entre las antologas que tratan ms especficamente con la relacinentre la Filosofa y la IA se incluyenMinds and Machines (Anderson, 1964), Philoso-

    phical Perspectives in Artificial Intelligence (Ringle, 1979), Mind Design (Haugeland,1981) y The Philosophy o f Artificial Intelligence (Boden, 1990). Existen varias introducciones a la cuestin IA filosfica (Boden, 1977, 1990; Haugeland, 1985; Copeland,1993). The BehavioralandBrain Sciences,abreviadoBBS,es una publicacin importantededicada a debates filosficos y cientficos sobre la IAy la neurociencia. En publicaciones comoAI and Society, Law, Computers and Artificial Intelligence,yArtificial Intelli-

    gence and Lawse tratan los temas de la tica y la responsabilidad en la IA.

    1 0 9 8 INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

    EJERCICIOS^ Repase la lista de presuntas incapacidades de las mquinas de Turing, identificando cules se han logrado, cules se pueden lograr en principio por cualquier programa, y cules son an problemticas porque requieren estados mentales conscientes.

    2 6 2 La refutacin de la habitacin china demuestra necesariamente que los computadores con una programacin adecuada tienen estados mentales? La aceptacin del argumento significa necesariamente que los computadores no pueden tener estadosmentales?

    26 3 En el argumento de la prtesis del cerebro, es importante poder restaurar el ce

    rebro de un sujeto a un estado normal, de tal manera que su comportamiento externo seacomo si la operacin no hubiera tenido lugar. Puede un escptico objetar razonablementeque esto requerira actualizar las propiedades neuropsicolgicas de las neuronas que serelacionan con la experiencia consciente, distintas de las que tienen que ver con el comportamiento funcional de las neuronas?

    2 6 4 Encuentre y analice un caso relacionado con los medios de comunicacin populares sobre un argumento o ms, en relacin con la idea de que la IA es imposible.

    2 6 5 Intente definir los trminos inteligencia, pensamiento y consciencia. Sugiera algunas posibles objeciones a sus definiciones.

    2ft6 Analice las posibles amenazas a la sociedad de la tecnologa de IA. Cules sonlas amenazas ms serias, y cmo se podran combatir? Cmo se podran comparar conlas posibles ventajas?

    2&7 Cmo se pueden comparar las posibles amenazas de la tecnologa de la IA conotras de otras tecnologas informticas, y con las de las tecnologas nucleares, bionuclearesy nanonucleares?

    2fi8 Algunos crticos piensan que la IA es imposible, mientras que otros dicen que esdemasiadoposible, y que las mquinas ultrainteligentes suponen una amenaza. Culde estas objeciones piensa que es ms probable? Sera una contradiccin mantener ambas opiniones?